gpt_academic
gpt_academic copied to clipboard
[Feature]: 关于百度千帆接口的若干点请求
Class | 类型
大语言模型
Feature Request | 功能请求
- 更新模型列表,加入千帆平台上的其它模型
- 千帆平台token上限为8000,需要在generate_from_baidu_qianfan函数中做出限制
- 可以的话,能否考虑像隔壁的ChatGPT-Next-Web那样,对先前轮次的对话文本进行压缩?
第二点有误,千帆平台不是上限8000token,而是上限8000个字符。这会导致某些插件的request过长而出错 希望在generate_from_baidu_qianfan函数中添加校验,在request过长时压缩或截断
顺带,百度千帆模型有一个知识库,用的是embedding v1的模型,我在qianfan应用上接入了这个知识库,但是在学术GPT上调用不了embedding,希望下一步支持。