xtuner
xtuner copied to clipboard
Does Xtuner supports Qwen3 series?
Qwen3 is now available for the community, I wonder if Xtuner is supporting it or on the way?
用源码安装的模式,原先的环境可以跑的话,自己升级一下,先把transformers升级了,然后升级torch,最后重新装一下flash-attn,然后模型路径换了就可以跑了。 剩下的差距不大。
如果有报错解不了的话,在 xtuner/entry_point.py 里把 try except的部分加一个 traceback,错误堆栈都打出来就知道哪里对不上了,方便定位,原先的 print(e) 太简略了,找不到真正的错误信息。
请问解决了吗?