kimi-free-api icon indicating copy to clipboard operation
kimi-free-api copied to clipboard

🚀 KIMI AI 长文本大模型逆向API白嫖测试【特长:长文本解读整理】,支持高速流式输出、智能体对话、联网搜索、长文档解读、图像OCR、多轮对话,零配置部署,多路token支持,自动清理会话痕迹。

Results 17 kimi-free-api issues
Sort by recently updated
recently updated
newest added

这是一个没用的未解决issue,只是为了吸引你点进来。

比如我想用 [kimi-free-api](https://github.com/LLM-Red-Team/kimi-free-api) 和 [qwen-free-api](https://github.com/LLM-Red-Team/qwen-free-api) ,目前需要分别启用两个 docker 服务,占用空间较大,如果后面还有类似服务,操作也略微繁琐。 希望能够整合成一个服务,复用代码,也方便在 [one-api](https://github.com/songquanpeng/one-api) 这样的服务中使用。

大佬,我是用了 `docker run -it -d --init --name kimi-free-api -p 8000:8000 -e TZ=Asia/Shanghai vinlic/kimi-free-api:latest`命令一键部署的,完了之后nginx反代了ip+端口,之后在new-api中设置如图 ![image](https://github.com/LLM-Red-Team/kimi-free-api/assets/28801215/c1a47fb6-c04d-4b58-aabf-f49485572d97) nextchat自定了了模型的名字kimi ![image](https://github.com/LLM-Red-Team/kimi-free-api/assets/28801215/8eca7965-d387-414e-9beb-49f8a59715fd) 但是不能用,辛苦大佬看下哪里有问题,close的中一个issues也没搞清楚

auth fail 401 Is this still working?

更新了中英文的目录,点击license会直接传送用户到LICENSE文件

目前附带文档的形式,需要自己提供 可访问的文件URL或者BASE64_URL,kimi有一个 https://kimi.moonshot.cn/api/file 接口处理上传文档,能否将这一接口也加入docker服务供调用

功能建议:通过网关整合所有的模型到一个docker镜像里面,通过 参数"model": "XXX"来调用不同的LLM,支持对用户token的管理

佬,这个搜索结果标注能否优化呢。目前的搜索结果标注是[^5^],而且这个也不能点进去。可以使用[➊](http://m.jl.offcn.com/html/2024/08/237442.html)这样标注吗

free-api系列什么时候支持function call?