mrchengshunlong
mrchengshunlong
``` # 设置检测模型的max_side_len det_model.preprocessor.max_side_len = 960 # 其他... ``` 提到可以修改前后处理超参数,但没有说明具体的用法,直接使用cpu_threads=32或者enable_mkldnn=True 要报错,option = fd.RuntimeOption()貌似也只能切换后端。请求给出具体用法
求更新
大佬,恳请您能牺牲一些休息时间,把2021年数据更新一下吧,您为广大考生做出的贡献,我们感激不尽!
“使用本地Ollama模型 如果你使用本地Ollama模型,需要配置环境变量:OLLAMA_ORIGINS=chrome-extension://bciglihaegkdhoogebcdblfhppoilclp,否则访问会出现403错误。 然后在插件配置里,apiKey随便填一个,服务器地址填http://localhost:11434,模型选自定义,然后填入自定义模型名如llama2。 但是测试发现llama2 7b模型比较弱,无法返回需要的json格式,因此总结很可能会无法解析响应而报错(但提问功能不需要解析响应格式,因此没问题)。” 已经按照上述要求进行了设置,对gemma2:9b ,codegemma:latest ,deepseek-coder-v2:latest ,phi3:14b ,llama3:latest 都使用过,全部都是“Unexpected end of JSON input” ,包括翻译,提问,要点总结等功能,全部失败。使用openai的key调用都可以成功,排除软件安装错误。