gengpeip

Results 6 comments of gengpeip

> 并且文档里的例子是这样的 `model = AutoModel(model="paraformer-zh", vad_model="fsmn-vad", punc_model="ct-punc", # spk_model="cam++", ) res = model.generate(input=f"{model.model_path}/example/asr_example.wav", batch_size_s=300, hotword='魔搭')` > > 但实际上"paraformer-zh"模型无法使用热词功能 您好,请问这个问题解决了吗?我测试也发现热词没起作用

> torch.cuda.is_available()看下true还是false true

> 显存占用情况给一下 ![image](https://github.com/user-attachments/assets/2ccd97a3-f740-42c4-b206-4a458bcaefd6)

> 确实速度不太对,贴一下运行命令 NPROC_PER_NODE=1 CUDA_VISIBLE_DEVICES=0,1,2,3 swift sft --model_id_or_path /data/Qwen1.5-14B-Chat --sft_type lora --custom_train_dataset_path /data/dataset/data_v2/tm_law/filtered_CrimeKgAssitant_52k.json /data/dataset/data_v2/tm_law/filtered_DISC.json /data/dataset/data_v2/tm_law/filtered_qa_train.json /data/dataset/data_v2/tm_law/merged_hanfei.json /data/dataset/data_v2/tm_law/tminstruct-lawgpt.json /data/dataset/data_v2/tm_law/tm_hand.json /data/dataset/data_v2/selected_data.json --logging_steps 5 --max_length 4096 --check_dataset_strategy warning --learning_rate 1e-4 --warmup_ratio 0.03 --output_dir /data/qwen1.5_14b_sftoutput2...

> 14b 卡不够啊,你试试7b 我们之前训过一版14B的,卡是够的,10万条数据大概用了两天多,没改变环境,重新训练,时间变成13天了

> > > 14b 卡不够啊,你试试7b > > > > > > 我们之前训过一版14B的,卡是够的,10万条数据大概用了两天多,没改变环境,重新训练,时间变成13天了 > > @gengpeip 请问你解决了吗? 还没有