MiniCPM icon indicating copy to clipboard operation
MiniCPM copied to clipboard

MiniCPM4: Ultra-Efficient LLMs on End Devices, achieving 5+ speedup on typical end-side chips

Results 152 MiniCPM issues
Sort by recently updated
recently updated
newest added

### Feature request / 功能建议 你好,我看了你的评测报告,上面写着仅使用两万数据就去微调模型,就可以让模型在评测集上的效果提升十几个点,请问这些数据是什么样的,能带来这么高的效果提升

feature

### Description / 描述 运行 https://modelbest.feishu.cn/wiki/LrdMwKKt3iZgoYkQlPRcvY1PnXc 页面的 Function call 简易实现(更细致、更高效请看[【再聊agent】Function call 详解] 代码 输出的 response 内容为 I'm sorry, but as an AI assistant, I don't have access to personal data...

badcase

主要是2.0和3.0的template不一样,做了兼容的处理

我是一个新手,如果我想微调MiniCPM做文本分类任务,我该怎么做

### Is there an existing issue ? / 是否已有相关的 issue ? - [X] I have searched, and there is no existing issue. / 我已经搜索过了,没有相关的 issue。 ### Describe the bug /...

bug
triage

### Description / 描述 py convert_hf_to_gguf.py .\models\MiniCPM3-4B\ --outfile .\models\MiniCPM3-4B\CPM-4B-F16.gguf INFO:hf-to-gguf:Loading model: MiniCPM3-4B ERROR:hf-to-gguf:Model MiniCPM3ForCausalLM is not supported How to resolve this problem? ### Case Explaination / 案例解释 _No response_

badcase

### Feature request / 功能建议 请问提到 原生支持 32k 上下文长度,32k 长度内大海捞针全绿。提出 LLM x MapReduce ,理论可处理的上下文长度达到 +∞ 能详细展开说一下提出的 “LLM x MapReduce” 么?

feature

请问,模型的结构设计上有什么参考吗?看了https://huggingface.co/openbmb/MiniCPM3-4B开源的模型结构,没太懂

### Description / 描述 安装 llama.cpp git clone https://github.com/OpenBMB/llama.cpp.git **git checkout minicpm3 cd llama.cpp** make ------我本地试了一下,按这个顺序执行,git checkout会报错,这块是否应该先cd llama.cpp然后再git checkout创建branch ### Case Explaination / 案例解释 一个步骤顺序上的小小建议

badcase

您好,能否问一下你们在持续预训练的退火阶段,使用的预训练数据是否和前面稳定训练的数据一致?是否有加入或减少部分预训练数据呢?另外,关于退火阶段预训练数据和sft数据的配比问题,是否有更多的实验?感谢!