Chuan Zhubin
Chuan Zhubin
> ModelScopeGPT/Agent是ModelScope团队开发的ModelScope衍生产品。ModelScopeAgent是一个通用框架,可以集成各种开源模型,不仅限于Qwen,并且较少深入做应用层面的探索。ModelScopeGPT是基于Qwen通用模型微调而来的专用模型,主要用于调用ModelScope上的小模型,并且集成在ModelScopeAgent中。 > > Qwen-Agent是Qwen算法团队根据平时工作中写过的小脚本汇总而来的工具,专注于Qwen通用模型。它不会特别关注其他开源模型(虽然也支持GPT),主要目的是演示如何编写Qwen的prompts,并提供一些参考实现供使用。此外,Qwen-Agent还将持续探索一些应用层面的事物,如浏览器插件、代码解释器等实验性质较强的新应用,为行业伙伴们提供应用落地的思路。 学习了下example/下的几个程序, 确实挺有意思的. 有点像qwen cookbook, 又有点像一个框架. 不知道是否有兼容openai api的function call接口(这个不确定是否已支持)? 这样就可以和其他框架无缝结合了.
和openai api的function call有一个区别: stream模式下, openai 是每次返回新增的delta tokens, qwen function call演示代码里是每次返回当前已生成的all tokens
节省93%的训练费用(1/15)
Looking forward to the progress of the Python version
@microsoft-github-policy-service agree At 2023-04-26 17:16:35, "microsoft-github-policy-service[bot]" ***@***.***> wrote: @chuanzhubin please read the following Contributor License Agreement(CLA). If you agree with the CLA, please reply with the following information. @microsoft-github-policy-service agree...
It's great to see your response. I have made some modifications to the test programs under Python to adapt to the changes in version 0.2.4. This should be relatively complete,...
It's already nighttime in Shanghai. Goodnight, and I wish you all a good morning.
怎么说呢? 这是"核武器",比较矛盾. 又好, 又不希望广泛传播
要cd 进到特定目录才行, cd ~/chatglm.cpp/chatglm_cpp , 然后再启动API服务器: MODEL=~/ggml.bin/chatglm-ggml_q4_0.bin uvicorn chatglm_cpp.openai_api:app --host 127.0.0.1 --port 8000
爱你不容易啊, qwen_1.8B, 一个API难