wwfcnu
wwfcnu
我通过lora的 方式指令微调qwen3-1.7b,指令微调的数据里没有think内容,微调得到的模型,thinking content没有内容,这是正常的吗
可以贴一下你们微调时funasr和modelscope的版本吗,我这边一直报错 Traceback (most recent call last): File "/mnt/lustre/wangweifei/repository/asr/SenseVoice/demo1.py", line 12, in model = AutoModel( File "/mnt/lustre/wangweifei/repository/asr/FunASR/funasr/auto/auto_model.py", line 125, in __init__ model, kwargs = self.build_model(**kwargs) File "/mnt/lustre/wangweifei/repository/asr/FunASR/funasr/auto/auto_model.py", line 228, in build_model...
想问一下微调时,训练集和验证集的比例设置多少合适呀
> Hello guys. Thanks for such a great work! After reading the discussion, I’m still unclear about the progress on multivariate forecasting. Could you provide some insights or updates on...
libonnxruntime.so.1.12.0是pip install onnxruntime就会有的文件吗
我也有这样的问题,请问你们怎么解决的呢?
> 我问一下这些训练图是怎么画出来的,我也需要看一下效果 tensorboard --logdir
> 我也有这样的问题,请问你们怎么解决的呢? 训练完之后的模型大小也比原来的大好多,而且也没生成avg相关的模型,看日志说是没找相应的文件做平均
> > > 有两种方案 > > > 1 可以用lora调 > > > 2 减小层数可以 直接load原模型, 把yml里的配置文件层数改低即可 > > > 但是要改att head 这些就不太行了 模型结构变了 > > > > > > 请问lora微调的方式有相关demo嘛...
有相关的更新吗,好像还是不能采集 `(base) yt-dlp "https://www.ximalaya.com/album/47769867" [ximalaya:album] Extracting URL: https://www.ximalaya.com/album/47769867 [ximalaya:album] 47769867: Downloading tracks list page 1 ERROR: division by zero`