imClumsyPanda

Results 293 comments of imClumsyPanda

之前的方式在匹配过程中也不经过模型,只是现在改成了自己写 cristianohello ***@***.***>于2023年4月27日 周四13:58写道: > > 现在能通过问题匹配的相似度值,来直接返回文档中的文段,而不经过模型吗?因为有些答案在文档中,模型自己回答,不能回答文档中的答案。也就是说,提供向量检索回答+模型回答相结合的策略。如果相似度值高于一定数值,直接返回文档中的文本,没有高于就返回模型的回答或者不知道 > > — > Reply to this email directly, view it on GitHub > , or > unsubscribe > > . > You...

Configuration was moved to configs/model_config.py and other codes moved to cli_demo.py jason95054 ***@***.***>于2023年5月1日 周一03:28写道: > Not found. Was it renamed? How to get it? > > — > Reply to...

Yeah you’re right. I’ll update soon. jason95054 ***@***.***>于2023年5月1日 周一09:14写道: > Thanks for the reply. I guess README_en.md and langchain-ChatGLM_README.md > are/were stale. > > — > Reply to this email...

抱歉 暂时还没有做模型的ptuning工作,可能要看看其他朋友是否知道如何解决了

可以考虑参考chatglm-6b项目的issue中关于使用accelerate进行多卡推理的内容 qianchen94 ***@***.***>于2023年4月14日 周五11:30写道: > +1 > > — > Reply to this email directly, view it on GitHub > , > or unsubscribe > > . > You are...

项目里面默认检测卡数,所以一个会分配到不同卡上

您好,感谢您发来的邀约🙏 我们几位开发人员也很乐意支持各类模型,近期我们测试看看,如果有不顺利之处再跟您沟通。

已通过支持fastchat api调用的方式增加对RWKV模型的支持。

请问这样操作的话,是还要检测一下增量更新的文件有哪些吗?因为目前知识库相当于每次知识上传后文件加载、分句、向量化后形成的向量库

可以利用llama-index和langchain实现对输入内容建立索引➡️输入问句匹配索引中内容➡️依据模版将匹配内容+问句形成新问句提出query➡️获得最终回答