Visual-Chinese-LLaMA-Alpaca
Visual-Chinese-LLaMA-Alpaca copied to clipboard
多模态中文LLaMA&Alpaca大语言模型(VisualCLA)
合并后的模型?
有合并后的模型下载吗?
训练数据
请问训练数据来自哪里呢?中文captioning的数据质量相对较差啊
你好,我想在模型上进行一些sft训练,想请问下是否可以开源预训练和微调的代码呢?
1.FileNotFoundError: [Errno 2] No such file or directory: './models/visualcla_merged-7b/pytorch_model.bin' 对于合并权重的情况 需要cp visualcla/pytorch_model.bin models/visualcla_merged-7b/ 不知道这样对不对 2.OSError: Can't load the configuration of './models/visualcla_merged-7b/vision_encoder'. If you were trying to load it from 'https://huggingface.co/models',...
$ python scripts/inference/inference.py --visualcla_model visualcla --image_file pics/examples/food.jpg --load_in_8bit [INFO|tokenization_utils_base.py:1837] 2023-07-24 16:05:27,669 >> loading file tokenizer.model [INFO|tokenization_utils_base.py:1837] 2023-07-24 16:05:27,669 >> loading file added_tokens.json [INFO|tokenization_utils_base.py:1837] 2023-07-24 16:05:27,669 >> loading file special_tokens_map.json [INFO|tokenization_utils_base.py:1837]...
我看模型是由alpaca、vit、lora模型组成,但是只找到了alpaca、vit,请问lora的模型在哪里下载呀
想看下模型各项能力如何,例如视觉推理能力,OCR能力测评.以及预训练数据集和指令微调数据的训练代码以及数据可以开源一下吗 包括预训练和指令精调的