t5_finetuning
                                
                                 t5_finetuning copied to clipboard
                                
                                    t5_finetuning copied to clipboard
                            
                            
                            
                        ImportError: cannot import name 'SVDLinear4bit' from 'deep_training.nlp.layers.petl.lora.adalora'
当执行 python3 data_utils.py的时候出现上述报错。非常奇怪,网上完全搜索不到任何跟SVDLinear4bit相关的信息。请问怎么解决这个问题?谢谢
应该是版本没对上, 更新下代码,安装requirements.txt即可。
原先的报错在做了一些更新后消失了,但是现在执行python3 data_utils.py 出现了另外一个报错,
huggingface_hub.utils._validators.HFValidationError: Repo id must be in the form 'repo_name' or 'namespace/repo_name': '/data/nlp/pre_models/torch/t5/ChatYuan-large-v2'. Use repo_type argument if needed.
下载权重,并且放到指定本地磁盘位置
请问下载权重的链接是什么?链接里有没有稍微具体一点的下载步骤?
readme https://github.com/ssbuild/t5_finetuning/blob/main/README.md
readme 看过,下载权重是不是在weight下的链接 chatyuan-large-v2? 点击进入chatyuan-large-v2这个链接还是不清楚怎么下载权重,能不能更具体一点?多谢
readme 看过,下载权重是不是在weight下的链接 chatyuan-large-v2? 点击进入chatyuan-large-v2这个链接还是不清楚怎么下载权重,能不能更具体一点?多谢
google 找找使用方法。
现在执行data_utils.py 出现报错, File "t5_finetuning-main/data_utils.py", line 89, in get_feature_none_stride for idx, (question, answer) in enumerate(examples): ValueError: not enough values to unpack (expected 2, got 0)
更新下代码试试 , 两天前update过了。
现在在生成的文件夹output里有两个文件,dataset_file_0_dupe_factor_0-train.record 和 .dataset_file_0_dupe_factor_0-train.record.INDEX, 请问它们分别是什么文件,怎么使用它们?多谢