lchyn
lchyn
尽管当前的版本已经支持了对ChatGLM6B 的开源版本的API 模型的支持。 但是其母公司智谱AI自己的闭源大模型服务GLM4和GLM3.5 的Model API ,当前的Chatbox仍然不支持和配置; 虽然有些国产大模型公司,采用了与OPENAI 兼容的API请求,如Moonshot KIMI; 但 智谱的REST 接口采用了 和OPENAI REST 路径完全不同的路径,如 https://open.bigmodel.cn/api/paas/v4/chat/completions 由于ChatBox 的OPENAI 接口模式,无法自己定义后面的路径,所以单纯用自定义模型的方式,还是无法调用GLM4的API ; 请ChatBox 增加对智谱清言GLM4 API 接口, 或者允许用户自己定义API域名 或者 API 请求路径 两种方式二选一;...
**Bug Description** 关于新的1.3.12的提供的设置功能:自定义提供方, 分别测试了zhipu的GLM的open.bigmodel.cn, 通义前问的dashscope.aliyuncs.com; 用的是OpenAI API 兼容模式; 感觉都没有配置成功啊, 无论如何调整 API 域名和API路径的写法; 总是显示要么404要么,API 路径错误; 这个没有日志输出给看一下,怎么调用的么? 用OPENAI 的python接口,设置base_url 是可以的。
Please add support for GPT-4-O-Mini API Model , Thanks; 请增加对7月新增加的 OPENAI GPT 4o MINI 模型的支持。 (参见 https://openai.com/index/gpt-4o-mini-advancing-cost-efficient-intelligence/)
**问题描述** 能否提供python代码解释器功能,在chatbox的对话窗中,由llm生成的python 代码或者nodejs代码,用户可以自己配置运行环境,比如选择本机python 执行环境(未来可以是nodejs/java/go/powershell/sh),并进行执行。将执行的结果(或者出错信息)装载显示在chatbox的assistant 输出内容的最后区域。 **解决思路** 当用户要求ai大模型生成代码时,如python, 目前输出的是markdown 结构``` 包围的代码。 chatbox 前端,在代码block 上增加一个执行按键(或者配置支持后台自动执行选项),显示一个后台运行动画后,在对话最后展示之后的结果, 类似各种IDE 编辑的Run without debug 或者jupyter notepad 的代码块, 然后把console 控制台的内容输出到对话窗口。 如果运行出错, 也会现在在对话窗中,由用户和AI LLM 进行进一步诊断和修改。