chatgpt-web-midjourney-proxy
chatgpt-web-midjourney-proxy copied to clipboard
token使用量显示错误
1106的上下文有128k,而且这里可用的token为什么这么少?
sorry gpt-4-1106-preview 没单独去处理 下个版本 更新下
sorry gpt-4-1106-preview 没单独去处理 下个版本 更新下
嗯,没事
sorry gpt-4-1106-preview 没单独去处理 下个版本 更新下
你好,我也在你基础上改加多用户登录,结果发现你代码写完没格式化,升级你的代码冲突太严重,能否加入格式化配置并在保存的时候统一下标准,价格.prettierrc配置。
sorry gpt-4-1106-preview 没单独去处理 下个版本 更新下
你好,我也在你基础上改加多用户登录,结果发现你代码写完没格式化,升级你的代码冲突太严重,能否加入格式化配置并在保存的时候统一下标准,价格.prettierrc配置。
emmm,建议你单独开个issues
sorry gpt-4-1106-preview 没单独去处理 下个版本 更新下
你好,我也在你基础上改加多用户登录,结果发现你代码写完没格式化,升级你的代码冲突太严重,能否加入格式化配置并在保存的时候统一下标准,价格.prettierrc配置。
我试一试
v2.14.1 已修复
v2.14.1 已修复
emmmm好像还是不大对
怎么个不太对? 请把鼠标放上去 有说明
怎么个不太对? 请把鼠标放上去 有说明 就是左边的剩余token比右边多,而右边不是总共可用的token吗
怎么个不太对? 请把鼠标放上去 有说明
还有vision模型的token没改
openAI 真是跟人概念 号称128K 居然是 128x1000 不是 128x1024
v2.14.2 已修复
v2.14.2 已修复
似乎还是不大对
这是我在第三方api网站看到的调用记录,但与本网站显示的token使用量不同
本来 就对不上啊
你现在这个状态 原来都是历史 包含历史了
86+17 只是上下文历史了
但是除上下文历史还有很多 回复数就去掉 2048 直接就大于(86+17)
好好看剩 咋算出来的
修复的 128k变为 128000 其他都没问题了 你指的问题是计算公式跟后台对不上 回复数:是你预算设的max_tokens 指gpt回答 只会比这个数少 是小于等于的关系
修复的 128k变为 128000 其他都没问题了 你指的问题是计算公式跟后台对不上 回复数:是你预算设的max_tokens 指gpt回答 只会比这个数少 是小于等于的关系
原来如此,感谢解答