Any plan for Qwen2 14B and Qwen2-32B?
+1
+1
小的小,大的大,没个合适的。还是14B或者32B 好点。希望能出这两个尺寸的。
32B的Q4量化版本最适合4090单卡用户在 ollama 运行。还是希望能出个32B模型。
14B-32B是真的适合,不知道官方是否会开源对应版本。
不太理解为什么不出最实用的,适合目前主流中高端16G卡和24G卡用的14B和32B呢, 小的性能不如意,72B单24G卡用不了,等于不存在。
是啊,不太理解为何不出14B模型。
I will stick to Qwen1.5-14B-Chat-GPTQ-Int4, if Qwen2 14B is not available
期待
14B&32B please!
非常需要32b,57B的根本跑不了,7b的又太弱
希望14b&32b,7b真的不行
7b太弱了,比glm4 9b差不少。也不如qwen1.5 14b
14b / 32b 要让广大 16G/24G 普通用户能跑起来🚀
确实,很需要一个30b左右的模型
24G 卡同求 14b
14B&32B please!
不出qwen2 14B 和 32B,会导致qwen2直接没人用。qwen2重点是公布刷榜成绩,其他的不是他考虑重点。
铜球14B
7B确实不够,需要 14B,是不是 Qwen2-14B 太强了,不开源
时刻关注,希望能有
8G显存gguf量化能跑的极限就是14B
同求14B
这里做下解释。在Qwen2本次设计中,MoE是medium size的模型主力,仅仅激活14B,但是达到30B模型的效果。但当前生态对MoE的支持还不完善,57B的模型大小对于显存要求较高,我们正在计划补上14和32这两个size的模型,但这两个模型毕竟是比较大的模型,还需要一些时间。
We previously hope that the MoE model can be your choice for a medium-size model. It actually only activates only 14B params in each forward pass but it can achieve the expected performance of a around 30B dense model. We are at the same time pushing the support for this model in the community and we understand that this 57B model requires large RAM. We are planning about providing 14B and 32B models, but this should take some time. Stay tuned.
这里做下解释。在Qwen2本次设计中,MoE是medium size的模型主力,仅仅激活14B,但是达到30B模型的效果。但当前生态对MoE的支持还不完善,57B的模型大小对于显存要求较高,我们正在计划补上14和32这两个size的模型,但这两个模型毕竟是比较大的模型,还需要一些时间。
We previously hope that the MoE model can be your choice for a medium-size model. It actually only activates only 14B params in each forward pass but it can achieve the expected performance of a around 30B dense model. We are at the same time pushing the support for this model in the community and we understand that this 57B model requires large RAM. We are planning about providing 14B and 32B models, but this should take some time. Stay tuned.
预计大概什么时候发布啊?
72b最少单卡显存需要多大?
有进展吗? 还有希望吗
还有希望吗?感觉我要换模型了,等不住了
还有希望吗?感觉我要换模型了,等不住了
已经换了
还有希望吗?感觉我要换模型了,等不住了
已经换了
你换了哪个模型?