Daya Guo
Daya Guo
我们并没有专门构建amis的训练数据,有可能amis相关的代码和教程出现在了github中,所以被模型学习到了
目前正在集成中,但是可以使用开源的插件如refact,替换成我们的模型即可
非常你的建议,之后会考虑将中文的 readme.md和使用手册加上
这个跟模型无关,主要还是代码问题。不太确定你用的是什么代码
没有做任何mask
学习这部分内容可能没有任何意义。但过拟合倒不至于,毕竟整个markdown有将近200B的数据量,而且只过1个epoch,要能记住,估计得千亿的模型才行
WebAssembly data isn't included in the pre-training data and I'm not sure whether DeepSeek-Coder can learn WebAssembly text from Markdown.
you can refer to https://github.com/deepseek-ai/DeepSeek-Coder#7-qa
If you fine-tune on the Instruct model, I think such a phenomenon is normal. There are two reasons for this: one is that your data is inferior compared to the...
deepseek-coder-7b-base-v1.5 不支持FIM,所以这些特殊符号不在词表里