GreatWildFire
GreatWildFire
===================================BUG REPORT=================================== Welcome to bitsandbytes. For bug reports, please run python -m bitsandbytes and submit this information together with your error trace to: https://github.com/TimDettmers/bitsandbytes/issues ================================================================================ bin D:\anaconda3\envs\Vicuna\lib\site-packages\bitsandbytes\libbitsandbytes_cpu.so CUDA_SETUP: WARNING! libcudart.so...
设置的epoch为50的时候,能改名字,但是问的相关程度低的话会失败。同时对于其他问题的回答并不好,对于数据集中的问题回答效果差。 设置的epoch为90以上时,可以改名字,但是模型会不断重复回答名字,无法回答其他问题。 目前还没有解决这个问题。 同时采用了Chat-glm 6b的ptuning微调方案,这个epoch设置为30. 遇到了类似的问题,这个方案微调训练后只能回答本数据集中的问题,不管问什么问题都只会回答本数据集的相关答案。 搞不清楚是什么原因,按照lora和ptuning的原理来说应该不会这样的,不知道是不是微调的并没有收敛或者什么的,所以和原来的参数结合的不好。如果有明白的大佬,请不吝赐教,希望我的失败经历能给大家带来点帮助。 这个改名字效果可能也与同义句数据比较少有关,但是微调后对训练数据集的回答很差还是搞不懂。并且原模型的效果也会受到很大影响。
warmup_updates: 0, weight_decay: 0, with_att: True, work_dir: checkpoints/May/lm3d_radnerf_torso, 10/12 01:45:07 PM GPU available: True, GPU used: [0] trainval: Smooth head trajectory (rotation and translation) with a window size of 7...
我看到在qwen_fncall_prompt.py中有remove_incomplete_special_tokens函数来处理这个问题,但是还是会偶尔出现特殊的token。 此时并没有调用工具,只会在末尾出现"✿ARGS✿"特殊标记。 期待您的指导,谢谢。