kimi-free-api
kimi-free-api copied to clipboard
🚀 KIMI AI 长文本大模型逆向API白嫖测试【特长:长文本解读整理】,支持高速流式输出、智能体对话、联网搜索、长文档解读、图像OCR、多轮对话,零配置部署,多路token支持,自动清理会话痕迹。
这是一个没用的未解决issue,只是为了吸引你点进来。
比如我想用 [kimi-free-api](https://github.com/LLM-Red-Team/kimi-free-api) 和 [qwen-free-api](https://github.com/LLM-Red-Team/qwen-free-api) ,目前需要分别启用两个 docker 服务,占用空间较大,如果后面还有类似服务,操作也略微繁琐。 希望能够整合成一个服务,复用代码,也方便在 [one-api](https://github.com/songquanpeng/one-api) 这样的服务中使用。
大佬,我是用了 `docker run -it -d --init --name kimi-free-api -p 8000:8000 -e TZ=Asia/Shanghai vinlic/kimi-free-api:latest`命令一键部署的,完了之后nginx反代了ip+端口,之后在new-api中设置如图  nextchat自定了了模型的名字kimi  但是不能用,辛苦大佬看下哪里有问题,close的中一个issues也没搞清楚
auth fail 401 Is this still working?
更新了中英文的目录,点击license会直接传送用户到LICENSE文件
目前附带文档的形式,需要自己提供 可访问的文件URL或者BASE64_URL,kimi有一个 https://kimi.moonshot.cn/api/file 接口处理上传文档,能否将这一接口也加入docker服务供调用
功能建议:通过网关整合所有的模型到一个docker镜像里面,通过 参数"model": "XXX"来调用不同的LLM,支持对用户token的管理
佬,这个搜索结果标注能否优化呢。目前的搜索结果标注是[^5^],而且这个也不能点进去。可以使用[➊](http://m.jl.offcn.com/html/2024/08/237442.html)这样标注吗
free-api系列什么时候支持function call?