TransnormerLLM
TransnormerLLM copied to clipboard
会放出13b左右的预训练么
你好,看到这个项目很是激动!
可惜150b实在太大了,是否会计划有13b左右的版本放出呢 (比如用于代码等任务)
非常感谢对我们的项目感兴趣,我们已经开源了385M和1B。7B的模型会在很快就会开源。 https://github.com/OpenNLPLab/TransnormerLLM/tree/main/fine-tune我们也在repo里提供了SFT的代码。