若爱乏味.

Results 25 comments of 若爱乏味.

> 我的理解是推理时的有些参数(如source_prefix 和prefix_projection)需要和训练时保持一致 config = AutoConfig.from_pretrained(path, trust_remote_code=True, pre_seq_len=128, source_prefix='如果你有prefix 就把它加上吧', prefix_projection=True) 加上了还是不行啊 我指定了 prefix_projection 和ptuning checkpoint

in my case: langchain/llms/base.py: text = self._call(prompt, stop=stop) has only the output (no prompt). It returns a generator type,But this parameter requires a str:generations.append([Generation(text=text)]) Error occured bellow: pydantic.error_wrappers.ValidationError: 1 validation...

in my case: langchain/llms/base.py: text = self._call(prompt, stop=stop) has only the output (no prompt). It returns a generator type,But this parameter requires a str:generations.append([Generation(text=text)]) Error occured bellow: pydantic.error_wrappers.ValidationError: 1 validation...

please dont run it in command line, run in file driectly

> 已经在着手解决这一bug,如果着急的话,可以先测试看看 #250 谢谢大佬 今天更新了代码 这一块暂时没发现啥问题

> 后续版本中有对改函数参数的修改,需把输入变量stop去掉 ╭─────────────────────────────── Traceback (most recent call last) ────────────────────────────────╮ │ E:\langchain-ChatGLM\llama_index\query_index.py:273 in │ │ │ │ 270 │ response = query_engine.query(prompt_str) │ │ 271 │ return response │ │ 272...

> 后续版本中有对改函数参数的修改,需把输入变量stop去掉 我在langchain\llms\base.py 和langchain\chain\llm.py把stop全部去掉或者注释了 接着就产生以上报错 会不会跟llama_index的版本也有关系 langchain requirements.txt 要求langchain0.0.146 但是不懂对应的llama_index版本多少,这对langchain有版本要求

> 后续版本中有对改函数参数的修改,需把输入变量stop去掉 我在langchain\llms\base.py 和langchain\chain\llm.py把stop全部去掉或者注释了 接着就产生以上报错 会不会跟llama_index的版本也有关系 langchain requirements.txt 要求langchain0.0.146 但是不懂对应的llama_index版本多少,这对langchain有版本要求

> > 后续版本中有对改函数参数的修改,需把输入变量stop去掉 > > 我在langchain\llms\base.py 和langchain\chain\llm.py把stop全部去掉或者注释了 接着就产生以上报错 会不会跟llama_index的版本也有关系 langchain requirements.txt 要求langchain0.0.146 但是不懂对应的llama_index版本多少,这对langchain有版本要求 我llama_index 版本: 0.6.0