imClumsyPanda
imClumsyPanda
标题中信息是warning不影响使用 tomsux ***@***.***>于2023年4月20日 周四16:45写道: > 另外:The dtype of attention mask (torch.int64) is not bool > > 解决了吗 > > — > Reply to this email directly, view it on GitHub...
请确认 transformer 版本,glm 模型是否已更新 ZhuRonghua ***@***.***>于2023年4月20日 周四16:32写道: > (mychatGLM) PS D:\Users\admin3\zrh\langchain-ChatGLM> python cli_demo.py > Explicitly passing a revision is encouraged when loading a model with > custom code to ensure...
中午对master分支代码进行了更新,应该已经修复了该问题,请拉取最新代码后再测试看看 heiyexingguang ***@***.***>于2023年4月20日 周四15:50写道: > Traceback (most recent call last): > File "cli_demo1.py", line 16, in > local_doc_qa.init_cfg(llm_model=LLM_MODEL, > File "/app/_old/langchain-ChatGLM-master/chains/local_doc_qa.py", line 47, > in init_cfg > self.llm.load_model(model_name_or_path=llm_model_dict[llm_model], > TypeError:...
请问只输入一个.md或.txt文件时是否发生相同报错

看起来是chatglm模型没有成功加载,可以参考chatglm-6b项目首先跑通模型。 csmsp ***@***.***>于2023年4月24日 周一13:01写道: > 运行服务后的提示如下: > $ python webui.py > Explicitly passing a revision is encouraged when loading a model with > custom code to ensure no malicious code...
建议在微信群或者issue里面搜索看看,因为我自己没怎么用量化模型,看起来可能是量化模型运行过程中需要gcc支持 csmsp ***@***.***>于2023年4月24日 周一13:09写道: > llm对话是没有问题 > > — > Reply to this email directly, view it on GitHub > , > or unsubscribe > > . > You are...
好的 我看一下 MeteorMan ***@***.***>于2023年4月24日 周一19:39写道: > 在示例cli_demo.py中返回的匹配文本没有对应的score,可以加上这个feature吗 > > — > Reply to this email directly, view it on GitHub > , or > unsubscribe > > . > You...
在最新版的v0.1.6中已经可以返回了,但是因为没有归一化,所以没有默认显示,输出方式可以参考cli_demo.py第40行注释的代码