sxjeru
sxjeru
用搜索框搜索模型可以适当缩短卡顿时间。
豆包就是火山引擎,被包含关系。 目前 lobechat 的豆包还是半成品,只能编辑现有豆包模型的“模型部署名称”, 或者用环境变量 `DOUBAO_MODEL_LIST=模型id->部署名=模型名称` 添加模型,不支持 UI 界面的添加模型(加号+)。 火山引擎 CORS 限制,不支持客户端请求,这不是 lobechat 的问题。 可以等待 #5612 修复上述问题。
这属于 markdown 固有缺陷。是否可以在提示词里添加诸如“链接后需插入空格分隔”等内容来避免。
可以考虑当下滑一段距离后,让代码块顶栏悬浮于窗口顶部。
参考文档: https://learn.microsoft.com/zh-cn/azure/ai-foundry/model-inference/reference/reference-model-inference-api?tabs=rest https://learn.microsoft.com/zh-cn/azure/ai-foundry/model-inference/reference/reference-model-inference-chat-completions 经测试,Azure AI Foundry api 是支持 openai sdk 的,暂时可以通过添加自定义服务商的方式使用。模型名可以任意写,代理地址记得后面的 `/v1` 。 (由于 #5651 ,不加会报错) 
@ripenedcat 如图所示。 如果没有图中的设置,请备份数据之后添加环境变量 `NEXT_PUBLIC_CLIENT_DB=pglite` 再行测试。 
@ripenedcat 这个只能在前面套个 new-api 之类的项目代理一下了。 原本用 lobechat 的 Azure OpenAI 应该也可以,但我这边看了下,代码写死了,想用得改代码。
应该说不是更新 Azure OpenAI,而是引入新的 Azure AI inference 推理 SDK 。 https://learn.microsoft.com/zh-cn/azure/ai-foundry/model-inference/supported-languages 其实咱会希望 lobechat 能推出一个自定义 REST Provider,可以自定义 POST 请求的 header/body 等,这样比适配一个sdk要容易很多。
应该被修复了。 - #7586
插件商店 UI 已更新。