qxde01
qxde01
python3.4 也有这个问题
1、例子中的baker没有做标点断句等处理,需要自己修改baker.py 2、baker数据句子都不长,对于长句的位置向量效果不佳,需做额外的后处理
@lawo123 要把#1#2#3韵律以及标点加进去训练,简单的后处理先切分句子合成再语音拼接
几年过去了,`tm`的函数变化很大,建议使用性能更好的`package::text2vec` @runninghack @eyangs @meteorwen
@hiyouga 加了,8X4090上测试的
有没有考虑过对话是奇数的?就是一问一答的形式,聊着聊着,后面不理你了,变成了奇数
方法1: `CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 torchrun --nnodes 1 --nproc_per_node=8 main.py .....` 方法2: `accelerate launch main.py \ ...`
@ summer-silence 1、耗时取决于`batch-size=nproc_per_node*per_device_train_batch_size*gradient_accumulation_steps`,如果多卡和单卡一样的参数设置,耗时应该差不多,多卡还增加了通信成本, 2、资源问题,我没遇到过,我也不知道
`model.transformer.prefix_encoder.load_state_dict(new_prefix_state_dict)` 出现新的错误: `AttributeError: 'ChatGLMModel' object has no attribute 'prefix_encoder'`
随便,这只是学习的例子而已