Cornucopia-LLaMA-Fin-Chinese icon indicating copy to clipboard operation
Cornucopia-LLaMA-Fin-Chinese copied to clipboard

聚宝盆(Cornucopia): 中文金融系列开源可商用大模型,并提供一套高效轻量化的垂直领域LLM训练框架(Pretraining、SFT、RLHF、Quantize等)

Results 16 Cornucopia-LLaMA-Fin-Chinese issues
Sort by recently updated
recently updated
newest added

![企业微信截图_20240124104215](https://github.com/jerry1993-tech/Cornucopia-LLaMA-Fin-Chinese/assets/54758396/67e89546-a7c0-4e4a-b287-4705bd4a0721) 请问您是否也遇到类似的回答?

训练用的数据集可以考虑开源吗?

作者您好!我对您的工作非常感兴趣,同时我拿了您发布的权重,想要测试一下您的模型,结果发现效果并不是很理想,我问的是几个您在文档中有提及的问题,下面是我的测试记录 llama-7b模型本身就非常容易陷入胡说八道的情况,目前我也在做和您类似的工作,我用的是alpaca-7b的lora 微调算法,发现效果要远好于llama。同时扩充中文词汇量的工作也有人做过了,lora训练后的效果有大幅提升。不知道您接下来是否会尝试一下?目前我的工作发现用chinese-alpaca lora精调,比用llama、vicuna精调的效果都好很多。

非常感谢您很有意义的工作,想请教一下所使用到的instruction-tuning的数据量。 另外,想再请教一下是否有探究多大的instruction-tuning数据量就够用了呢? 非常感谢

![image](https://github.com/jerry1993-tech/Cornucopia-LLaMA-Fin-Chinese/assets/40080081/d11099a4-b3a3-4a03-b9ec-93569fd9e12f) 我看构造的prompt是这样的,这样好像每次都只能进行单轮问答,有测试过的朋友告诉下结论吗?能否进行多轮的问答吗?

请问是如何利用GPT3.5/4.0 接口优化数据的,可以阐述一下大概的方法吗

运行报错代码如下: ###infering### ((), (), (), ()) tensor([0, 0, 0, 0], device='cuda:0') Traceback (most recent call last): File "/home/pxc/Cornucopia-LLaMA-Fin-Chinese/infer.py", line 168, in main() File "/home/pxc/Cornucopia-LLaMA-Fin-Chinese/infer.py", line 154, in main infer_from_json(args.instruct_dir) File...

尊敬的[Cornucopia-LLaMA-Fin-Chinese](https://github.com/jerry1993-tech/Cornucopia-LLaMA-Fin-Chinese) 应用开发者,我是 InternLM 社区开发者&志愿者尖米, 大佬开源的工作对我的启发很大,希望可以探讨使用 InternLM 实现[Cornucopia-LLaMA-Fin-Chinese](https://github.com/jerry1993-tech/Cornucopia-LLaMA-Fin-Chinese) 的可能性和实现路径,我的微信是mzm312,希望可以取得联系进行更深度的交流

按照README.md的方式运行Infer.sh,报错如下: ###infering### ((), (), (), ()) tensor([0, 0, 0, 0], device='cuda:0') Traceback (most recent call last): File "/home/pxc/Cornucopia-LLaMA-Fin-Chinese/infer.py", line 168, in main() File "/home/pxc/Cornucopia-LLaMA-Fin-Chinese/infer.py", line 154, in main infer_from_json(args.instruct_dir) File...