jchl
jchl
 是否可以提供类似的预训练脚本?
大家解决了吗?
我的是100条;达到万级别,量已经非常多了。
> 有数据集吗?我本地复现一下 内部私密数据,不方便发出来。
> 可以比较一下两者的训练loss? @duzx16 ChatGLM2的loss为0,但是ChatGLM的loss为0.1左右。感觉ChatGLM2的P-Tuning训练有问题。 类似:https://github.com/THUDM/ChatGLM2-6B/issues/200
https://github.com/run-llama/rags ```rags``` support GPTs builder, but only for rags and one cannot modify the configures using GPTs builder, which maybe means ```rags``` is experimental.
I had tried many times.
> 我不是都写文章介绍了么?https://github.com/bojone/kg-2019 @bojone 请问,博客里的模型图是通过什么工具画的?感谢感谢!