Langchain-Chatchat
Langchain-Chatchat copied to clipboard
怎么让模型严格根据检索的数据进行回答,减少胡说八道的回答呢
举个例子:
问题
理想汽车销售的车型是什么?
检索到了一篇文章
5月10日,理想汽车正式公布了2022年第一季度财报。第一季度,公司共交付31,716辆理想ONE车型,同比增长152.1%,实现营业收入95.6亿元,同比增长167.5%。同时,一季度理想汽车净亏损1090万元,去年同期净亏损为3.60亿元。
2022年第一季度,理想汽车收入总额为95.6亿元,较2021年第一季度的35.8亿元增加167.5%,较2021年第四季度的106.2亿元减少10.0%。其中,2022年第一季度的车辆销售收入为93.1亿元,理想汽车表示车辆销售收入较2021年第一季度增加主要归因于2022年第一季度交付车辆增加。车辆销售收入较2021年第四季度减少主要归因于受中国春节假期的季节性影响,致2022年第一季度交付的车辆减少。
chatglm 的答案
理想汽车是一家新能源汽车制造商,销售的车型主要是新能源汽车,包括理想ONE、理想P7等。
怎么让 chatglm 严格根据检索的内容进行回答问题,不要胡说八道
呢?
从实现方式优化的角度可以参考 https://github.com/imClumsyPanda/langchain-ChatGLM/issues/14#issuecomment-1495338651
从模型本身参数设置角度,可以考虑调低temperature的参数
temperature的参数在哪里调
测试起来,调低temperature感觉不是很管用
确实如此,打算微调它了,给它上思想钢印试试
ptuning-v2文件夹里不是只放config.json和pytorch_model.bin吗?那怎么调temperature参数
在models文件夹下找