karl-tao-zhang
karl-tao-zhang
哪位大佬能教一下是为啥吗,不太懂哦
只填了个OPENAI_API_KEY
vpn开关都不管用

换了url还是不行呀, vpn开的 日本 美国 全局代理 一样还是这样
本地安装了个Nginx进行反代就好了,感谢回答
CUDA_VISIBLE_DEVICES=0,1,2,3 python rl_training.py \ --base_model_name baichuan-inc/baichuan-7B \ --merged_sft_model_path /root/autodl-tmp/LLM/weights/sft_lora \ --sft_model_lora_path /root/autodl-tmp/LLM/weights/sft_lora \ --reward_model_lora_path /root/autodl-tmp/LLM/weights/rm_lora \ --adafactor False \ --save_freq 10 \ --output_max_length 256 \ --batch_size 2 \ --gradient_accumulation_steps 2...
4张3090 显存不够换到了 4张A40, 出现上述错误, 出现错误后, 我去 trl的issues找了找相关的代码, 说是要这么解决吗? tokenizer.eos_token_id = model.config.eos_token_id tokenizer.pad_token = tokenizer.eos_token