zhangfan-algo

Results 26 issues of zhangfan-algo

博主,隔壁ChatGLM有官方的交流群,一些技术问题和模型使用中的问题大家可以讨论交流,咱们方便建一个不

想问下博主 pt代码是否支持pretrain中文数据集,以及如果预训练中文的时候是否支持扩充词表呢,因为原生llama对中文不是很友好,中文几乎找到在原有词表中

pending

![image](https://github.com/hiyouga/ChatGLM-Efficient-Tuning/assets/47747764/64e982c8-9bfa-4677-b949-90f2465e5b73)

pending

https://github.com/OpenGVLab/InternVL 最新的模型效果接近qianwen-vl-max 可以支持一下微调不

more models

![image](https://github.com/modelscope/swift/assets/47747764/5a391d29-3e63-4c4e-a7b5-a031800a1a25) 使用的是8卡A800 运行脚本 RAY_memory_monitor_refresh_ms=0 CUDA_VISIBLE_DEVICES=0 python examples/pytorch/llm/llm_infer.py \ --infer_backend vllm \ --ckpt_dir /mnt/pfs/zhangfan/study_info/LLaMA-Factory_0308/output/merge_sft_prompt_0319_qwen1half_4B_sft_0319/checkpoint-5890 \ --custom_val_dataset_path data/merge_sft_prompt_0319_test.jsonl \ --max_length -1 \ --use_flash_attn true \ --max_new_tokens 2300 \ --temperature 0.01 \ --top_p...

question

https://arxiv.org/pdf/2401.01335.pdf 在文本的领域中 这种方式微调比DPO好一些,文生图也很好。我们可以支持一下这种方式的微调不 代码也都开源了

enhancement

![image](https://github.com/hiyouga/FastEdit/assets/47747764/ddbcfe71-5bc7-4110-8470-741be1c42b8e)

pending