cherry-studio
cherry-studio copied to clipboard
[功能]: 为 o1 模型启用 max_completion_tokens 参数
您的功能建议是否与某个问题相关?
当前,OpenAI 官方对于 o1 模型仅支持 max_completion_tokens 参数来控制输出和推理令牌, max_tokens 不起作用。
参考:o1-model | controlling-costs
(甚至其实 max_tokens 已被官方遗弃,参考:api-reference | max_tokens)
请描述您希望实现的解决方案
对于 o1 模型使用 max_completion_tokens 参数。
或者 OpenAI 的消息长度限制都换成 max_completion_tokens,但是否会存在和第三方平台的兼容性问题还需要考量。
请描述您考虑过的其他方案
No response
其他补充信息
No response
好