no

Results 7 issues of no

### Is your feature request related to a problem? Please describe. The model may generate a json string in markdown format ### Describe the solution you'd like Solution: Replace markdown...

enhancement

**例行检查** [//]: # '方框内填 x 表示打钩' - [ x] 我已确认目前没有类似 issue - [ x] 我已完整查看过项目 README,以及[项目文档](https://doc.fastgpt.in/docs/intro/) - [ x] 我使用了自己的 key,并确认我的 key 是可正常使用的 - [ x] 我理解并愿意跟进此 issue,协助测试和提供反馈 - [x]...

bug

**例行检查** [//]: # '方框内填 x 表示打钩' - [ x] 我已确认目前没有类似 issue - [x ] 我已完整查看过项目 README,以及[项目文档](https://doc.fastgpt.in/docs/intro/) - [x ] 我使用了自己的 key,并确认我的 key 是可正常使用的 - [ x] 我理解并愿意跟进此 issue,协助测试和提供反馈 - [x]...

bug

error info:The text contains a special token that is not allowed: ![image](https://github.com/user-attachments/assets/fe6707a2-93a2-4fbf-bfff-82e081556c34)

bug

你好,我是在4090+qwen2.5-14b-awq测试的, 共有500个请求,每个请求是串行执行的,每个请求内部又有并发执行到llm的请求, 以下是一些运行时候截图 ![image](https://github.com/user-attachments/assets/9e7015d0-e28e-41fa-b63e-e8a975bbfafc) 我的问题是:为什么串行执行的时候,大模型差异也可以这么大呢?是否有优化的手段?能否告知我,谢谢! 以下是lmdeploy check_env 的结果 ``` sys.platform: linux Python: 3.12.3 | packaged by Anaconda, Inc. | (main, May 6 2024, 19:46:43) [GCC 11.2.0] CUDA available: True MUSA...

Now I use lm-format-forcer+vllm and it takes 10 seconds to generate a json. This speed is not feasible in my current business. Is there any accelerated solution, such as a...

你好! 我最近在预训练模型,用的是0.1B参数的模型, 用的就是minimind的代码,相同数据集的情况下,我想请问,为什么minimind的效果这么好呢?因为作者多次测试,对参数进行了优化吗? 我自己训练了有十几次,没有一次的效果比得上minimind的。

question