chatgpt-web-midjourney-proxy
chatgpt-web-midjourney-proxy copied to clipboard
max-tokens和temperature的MAX上限太少了,没办法全面测试API,有没有修改这两个配置上限的方法
事实上不仅temperature可调节的模型参数确实是太少,并且上限MAX值还为1,但很多API的模型测试普遍都是推荐temperature——1.3到1.5很明显,这个项目的默认设置没办法满足需求
所以想询问开发者,有没有考虑提高一下上限,或者是修改这个配置的文件是在什么地方
后面 考虑下