wangyao123456a
wangyao123456a
### 提交前必须检查以下项目 - [X] 请确保使用的是仓库最新代码(git pull),一些问题已被解决和修复。 - [X] 由于相关依赖频繁更新,请确保按照[Wiki](https://github.com/ymcui/Chinese-LLaMA-Alpaca/wiki)中的相关步骤执行 - [X] 我已阅读[FAQ章节](https://github.com/ymcui/Chinese-LLaMA-Alpaca/wiki/常见问题)并且已在Issue中对问题进行了搜索,没有找到相似问题和解决方案 - [X] 第三方插件问题:例如[llama.cpp](https://github.com/ggerganov/llama.cpp)、[text-generation-webui](https://github.com/oobabooga/text-generation-webui)、[LlamaChat](https://github.com/alexrozanski/LlamaChat)等,同时建议到对应的项目中查找解决方案 - [X] 模型正确性检查:务必检查模型的[SHA256.md](https://github.com/ymcui/Chinese-LLaMA-Alpaca/blob/main/SHA256.md),模型不对的情况下无法保证效果和正常运行 ### 问题类型 模型转换和合并 ### 基础模型 None ### 操作系统 None ### 详细描述问题 1、请问base...
### 起始日期 | Start Date 1 ### 实现PR | Implementation PR 1 ### 相关Issues | Reference Issues 1、请问base model 和lora model 合并完后,新模型的大小、参数量和base model 一样的吗? 2、推理时如果lora 和base 模型不合并,输出结果和模型合并后推理结果是否一致,有精度上的损失吗? ### 摘要 |...
### 是否已有关于该错误的issue或讨论? | Is there an existing issue / discussion for this? - [X] 我已经搜索过已有的issues和讨论 | I have searched the existing issues / discussions ### 该问题是否在FAQ中有解答? | Is there an...
### Description / 描述 import torch from PIL import Image from transformers import AutoModel, AutoTokenizer model = AutoModel.from_pretrained('./model/OpenBMB/MiniCPM-V-2', trust_remote_code=True) model = model.to(device='cuda') tokenizer = AutoTokenizer.from_pretrained('./model/OpenBMB/MiniCPM-V-2', trust_remote_code=True) model.eval() image = Image.open('./img/tmp.jpg').convert('RGB')...