imClumsyPanda
imClumsyPanda
把prompt发给glm,由glm返回信息 yy ***@***.***>于2023年4月28日 周五15:30写道: > > 你好,想问一下langchain+chatglm-6B,找到相似匹配的prompt,是直接返回prompt对应的答案信息,还是chatglm-6B在此基础上自己优化答案? > > — > Reply to this email directly, view it on GitHub > , or > unsubscribe > > . > You...
是的 如果需要精确的标准答案,完全不需要llm的参与 yy ***@***.***>于2023年4月28日 周五15:59写道: > 那返回的信息应该是在glm处理过的吧,并不会返回标准的答案,可以这么理解吗? > > — > Reply to this email directly, view it on GitHub > , > or unsubscribe > > . > You...
大概是依据检索出的知识不能回答这个问题 并不是覆盖 BinChen ***@***.***>于2023年4月28日 周五15:05写道: > 加载较大量级的私有知识库后,原本的知识会被覆盖 > 问题:“你是谁” > 回答:“根据已知信息,我无法回答该问题。没有提供足够的相关信息,无法确定身份或地区。请提供更多信息,以便我能够更好地帮助您。” > > — > Reply to this email directly, view it on GitHub > , or > unsubscribe >...
好的 会测试一下可行性 TuesdayHu ***@***.***>于2023年4月28日 周五10:57写道: > 如题,谢谢大佬 > > — > Reply to this email directly, view it on GitHub > , or > unsubscribe > > . > You...
请问llm模型使用的是哪一个 ghhuang483 ***@***.***>于2023年4月29日 周六16:46写道: > 在win、ubuntu。下载完模型后,没办法修改代码以执行本地模型,每次都要重新输入路径; LLM 模型、Embedding > 模型支持也都在官网下的,在其他项目(wenda)下可以使用 > > — > Reply to this email directly, view it on GitHub > , or > unsubscribe > >...
chatyuan目前适配有点问题 将会在近期修复 glm目前可以跑通 ghhuang483 ***@***.***>于2023年4月29日 周六17:03写道: > ernie-tiny、ernie-base、text2vec-base、text2vec+ChatYuan-large-v2都不行 > > — > Reply to this email directly, view it on GitHub > , > or unsubscribe > > . >...
@ColorfulDick 可以看一下chatyuan的流式调用方式,在chatglm_llm中增加个模型判断,如果是chatyuan模型则调用chatyuan可实现流式的函数,或直接参考chatglm_llm新建类chatyuan_llm
感谢您提出的PR,目前已经将requirements.txt中对gradio的要求修改为3.28.3
建议修改configs/model_config.py中prompt_template测试看看 Yuyi ***@***.***>于2023年5月1日 周一10:09写道: > 提供了50条问答的docx文件 > > 数据格式为: > inputs?target。 > inputs?target。 > > 100%回复都是无法根据已有信息回答 > > 执行脚本是cli_demo.py > 部署模型为ChatGLM-int4 > > — > Reply to this email directly,...
6b模型确实存在局限性,所以目前主要还是要在prompt template上修改看看能出现什么样的最佳效果。 已在v0.1.8中更新prompt template,建议测试看看