qxde01

Results 13 comments of qxde01

python3.4 也有这个问题

1、例子中的baker没有做标点断句等处理,需要自己修改baker.py 2、baker数据句子都不长,对于长句的位置向量效果不佳,需做额外的后处理

@lawo123 要把#1#2#3韵律以及标点加进去训练,简单的后处理先切分句子合成再语音拼接

几年过去了,`tm`的函数变化很大,建议使用性能更好的`package::text2vec` @runninghack @eyangs @meteorwen

@hiyouga 加了,8X4090上测试的

方法1: `CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 torchrun --nnodes 1 --nproc_per_node=8 main.py .....` 方法2: `accelerate launch main.py \ ...`

@ summer-silence 1、耗时取决于`batch-size=nproc_per_node*per_device_train_batch_size*gradient_accumulation_steps`,如果多卡和单卡一样的参数设置,耗时应该差不多,多卡还增加了通信成本, 2、资源问题,我没遇到过,我也不知道

`model.transformer.prefix_encoder.load_state_dict(new_prefix_state_dict)` 出现新的错误: `AttributeError: 'ChatGLMModel' object has no attribute 'prefix_encoder'`

随便,这只是学习的例子而已