Menghuan
Menghuan
### Installation Method | 安装方法与平台 Pip Install (I used latest requirements.txt) ### Version | 版本 Latest | 最新版 ### OS | 操作系统 Linux ### Describe the bug | 简述 最新的zhipuai包依赖需要pydantic>=2.5.2,与现有的版本1.10.11冲突...
通过高级参数可以尝试让程序对NOUGAT OCR后的结果匹配图片到文章中,对pdf图片周围的文本块与NOUGAT识别后的文本进行模糊匹配进行定位,将图片以md形式加回文章中。效果如下: - 单列文章:  - 双列文章:  - 非学术文章:  缺点: - 一些模型会把图片参数吃了(即英文原文有图像参数,但翻译版本没有),例如GPT-3.5-turbo (甚至glm-3表现都比它表现好一点) ,提示词需要改进 - 对于一些pdf的图片识别效果并不是很好 - NOUGAT识别的结果有问题导致图片位置不对
### Class | 类型 函数插件 ### Feature Request | 功能请求 目前大多数模型的上下文已经提升很多了,例如: - Glm系列 128K - GPT-4-Turbo 128k - GPT-3.5-Turbo 16K - Claude家族 200K 然而在大部分涉及文本拆分的部分(例如理解PDF内容,理解xx程序文件等等),分割文本的最大字节数量依然是硬编码(大部分在1900-2500)之间,是否能根据模型的上下文支持程度适当增高这个最大字节数量?
## Pull Request Checklist - [x] **Description:** Briefly describe the changes in this pull request. - [ ] **Changelog:** Ensure a changelog entry following the format of [Keep a Changelog](https://keepachangelog.com/)...
考虑到新的大语言模型API普遍兼容OpenAI 的API格式(例如: Groq,Yi01,Deepseek,Moonshot等) 这个PR提供了一种更为简单的方式快速添加此类API,仅需要给程序提供: - 请求地址 - 每次请求的最大token数(⚠️不是最大上下文数) - 最大上下文token [这是一个使用这种方法添加DeepseekAPI的示范](https://github.com/binary-husky/gpt_academic/commit/f4407013bc521bdc94e5ba74d840861ed1a5fc7d),其仅需修改`config.py`与`request_llms/bridge_all.py`两个文件,仅使用33行代码即可添加"deepseek-chat"以及"deepseek-coder"模型。  PR包含的其他内容:将零一万物的请求格式也替换为这种格式 同时参考[这个issue](https://github.com/binary-husky/gpt_academic/issues/1769),留下了对代理的开关参数,或许未来可以自定义?
### What is the issue? When running llama3 on the same GPU (3060M), it is many times slower on Windows than on Linux. It seems to be caused by the...
**Describe the bug** If the formula starts with a ‘+’, then it is considered markdown syntax and cannot be displayed. **Environment** - OS: Linux - VSCode: 1.82.0 - Markdown Preview...
> [!NOTE] > 以下所有示范都是使用`deepseek-chat`进行测试 - 搜索模式更新为默认使用"Mixed",即混合使用远端Searxng服务器中所有搜索引擎 根据[这个issue](https://github.com/searxng/searxng/issues/2641)以及[这个issue](https://github.com/searxng/searxng/issues/3264)中所提到的,bing搜索结果会受到远端Searxng服务器所在IP影响,且效果均不如直接使用网页版bing效果好,因此建议不默认使用bing而改用使用"Mixed" - 新增“搜索优化”功能 1. "关闭":默认选择,相比原有流程无任何更改。 2. “开启”:将会对问题进行重写,例如输入:`如何使用Caddy反代本地的静态网页?`将会被优化为三个问题:`["Caddy 反代本地静态网页","Caddy 配置静态网页反代","Caddy 静态网页反向代理"]`并进行搜索。 3. "开启(增强)":将会对问题进行重写,并且同时会结合历史记录。例如历史记录为上面例子2中询问完`如何使用Caddy反代本地的静态网页?`,再询问`如何指定使用我自己的https证书?`,此时问题会被优化为:`["Caddy 自定义 HTTPS 证书","Caddy 配置 HTTPS 证书","Caddy 使用自己的 SSL 证书","Caddy 设置 HTTPS 证书"]`...
- 使用oai_std的方式修改对Qwen api的支持 - 新增新的Qwen模型的支持 - 对oai_std函数调用改进,为后面支持图形对话准备 
### Class | 类型 函数插件 ### Feature Request | 功能请求 - 利用pypandoc_binary这个库可以将带图的md文件转换为word或者pdf文件,能否在“精准翻译PDF”插件中将最终结果也以word文档或者pdf输出? - “将PDF转换为Latex项目,翻译为中文后重新编译为PDF”插件能否添加对doc2x的支持?目前只支持MATHPIX的api。