Chinese-LLaMA-Alpaca
Chinese-LLaMA-Alpaca copied to clipboard
回答的问题一直重复
提示:将[ ]中填入x,表示打对钩。提问时删除这行。只保留符合的选项。
详细描述问题
1.使用了如下命令进行模型合并,python ./scripts/merge_llama_with_chinese_lora.py
--base_model llama-7b-hf
--lora_model chinese_llama_plus_lora_7b,chinese_alpaca_plus_lora_7b
--output_type huggingface
--output_dir ./merge_model_7b
2.使用如下命令:python ./scripts/gradio_demo.py
--base_model ./merge_model_7b 启动图形界面。
3.问题如下所示:有很多重复的内容,不知如何解决,麻烦各位志同道合的朋友们多多指教。
运行截图或日志
必查项目(前三项只保留你要问的)
- [ ] 基础模型:LLaMA-Plus / Alpaca-Plus
- [ ] 运行系统:Linux
- [ ] 问题分类: 模型转换和合并
- [ ] (必选)我已阅读FAQ章节并且已在Issue中对问题进行了搜索,没有找到相似问题和解决方案
- [ ] (必选)第三方插件问题:例如llama.cpp、text-generation-webui、LlamaChat等,同时建议到对应的项目中查找解决方案
在使用gradio_demo.py图形化界面时候,当调整了maximum_length后,就开始有很多重复的回答,这个值只能是128吗?gradio_demo中,predict函数中,超过128,也是同样的问题。
用llama.cpp是否也存在此类问题?还是只有用gradio_demo时才有此问题?
llama.cpp无法输入中文,所以没有尝试
#390 是不是和这个是一个问题
This issue has been automatically marked as stale because it has not had recent activity. It will be closed if no further activity occurs. Thank you for your consideration.
我的也是,不过比你惨的是,它连回答都不回答,直接重复问题,请问您解决没?
效果这么差,是量化后的还是没有量化的哈
This issue has been automatically marked as stale because it has not had recent activity. It will be closed if no further activity occurs. Thank you for your consideration.
Closing the issue, since no updates observed. Feel free to re-open if you need any further assistance.