UI-TARS-desktop
UI-TARS-desktop copied to clipboard
[Feature]: 建议支持qwen3系列模型和本地模型支持
Which destkop app does this feature request relate to?
- [x] Select a project 👇
- [x] Agent-TARS App
- [ ] UI-TARS Desktop
- [ ] Infra Packages
What problem does this feature solve?
解决对于思考和非思考的模型的支持问题 解决对本地模型的支持问题 解决流程完成后不能连续对话的问题 解决同一对话不能上下文继续的问题 解决系统提示词问题 解决mcp支持问题 解决修复BUG解决广泛的界面预览问题 尝试增加模型和MCP自定义参数以解决未来不可控问题
What does the proposed features look like?
1.建议支持对qwen3模型的支持,例如多增加一个思考或非思考按钮或者自动调用。 2.建议支持ollama或者更多LM studio本地支持 3.建议改进界面在流程结束后似乎不能连续对话上一流程内容(疑惑?) 5.建议增加提示词管理和引用 4.建议改进对MCP协议支持,很奇怪,MCP有时候似乎连接失效了,建议增加json,考虑增加对本地Mac的MCP内置工具,例如文件读取、存储。 5.修复上次该程序的BUG? 6.支持更为广泛的界面预览,例如各种渲染,待用户确定后,进行保存或者界面内实时预览修改? 7.考虑开放更多模型参数定义?
本地模型可以支持啊,只要支持OpenAI API调用就行了。Ollama本身是兼容OpenAI的,作为实验性功能,目前也是可以用的。此外你也可以尝试使用vllm(或者直接用vllm的官方docker),但是Ollama对于单发请求有更高的响应速度且对性能要求更低,所以你直接Ollama使用OpenAI API填上去即可啊
VLLM 全网看到的资料 能部署起来的不多