Menghuan

Results 19 issues of Menghuan

### Installation Method | 安装方法与平台 Pip Install (I used latest requirements.txt) ### Version | 版本 Latest | 最新版 ### OS | 操作系统 Linux ### Describe the bug | 简述 最新的zhipuai包依赖需要pydantic>=2.5.2,与现有的版本1.10.11冲突...

通过高级参数可以尝试让程序对NOUGAT OCR后的结果匹配图片到文章中,对pdf图片周围的文本块与NOUGAT识别后的文本进行模糊匹配进行定位,将图片以md形式加回文章中。效果如下: - 单列文章: ![2](https://github.com/binary-husky/gpt_academic/assets/122662527/6b1462cd-2de2-42fa-ad24-e7a80c71ebfb) - 双列文章: ![屏幕截图_20240311_234314](https://github.com/binary-husky/gpt_academic/assets/122662527/b2872c7b-7203-4114-86ab-628ec9ef2a02) - 非学术文章: ![屏幕截图_20240311_231059](https://github.com/binary-husky/gpt_academic/assets/122662527/ff55c765-556d-4b7c-8bb1-19a33dbab09a) 缺点: - 一些模型会把图片参数吃了(即英文原文有图像参数,但翻译版本没有),例如GPT-3.5-turbo (甚至glm-3表现都比它表现好一点) ,提示词需要改进 - 对于一些pdf的图片识别效果并不是很好 - NOUGAT识别的结果有问题导致图片位置不对

high value issue

### Class | 类型 函数插件 ### Feature Request | 功能请求 目前大多数模型的上下文已经提升很多了,例如: - Glm系列 128K - GPT-4-Turbo 128k - GPT-3.5-Turbo 16K - Claude家族 200K 然而在大部分涉及文本拆分的部分(例如理解PDF内容,理解xx程序文件等等),分割文本的最大字节数量依然是硬编码(大部分在1900-2500)之间,是否能根据模型的上下文支持程度适当增高这个最大字节数量?

## Pull Request Checklist - [x] **Description:** Briefly describe the changes in this pull request. - [ ] **Changelog:** Ensure a changelog entry following the format of [Keep a Changelog](https://keepachangelog.com/)...

考虑到新的大语言模型API普遍兼容OpenAI 的API格式(例如: Groq,Yi01,Deepseek,Moonshot等) 这个PR提供了一种更为简单的方式快速添加此类API,仅需要给程序提供: - 请求地址 - 每次请求的最大token数(⚠️不是最大上下文数) - 最大上下文token [这是一个使用这种方法添加DeepseekAPI的示范](https://github.com/binary-husky/gpt_academic/commit/f4407013bc521bdc94e5ba74d840861ed1a5fc7d),其仅需修改`config.py`与`request_llms/bridge_all.py`两个文件,仅使用33行代码即可添加"deepseek-chat"以及"deepseek-coder"模型。 ![屏幕截图_20240512_142331](https://github.com/binary-husky/gpt_academic/assets/122662527/eaac870d-1e22-4a93-9da8-1006919bb8c4) PR包含的其他内容:将零一万物的请求格式也替换为这种格式 同时参考[这个issue](https://github.com/binary-husky/gpt_academic/issues/1769),留下了对代理的开关参数,或许未来可以自定义?

### What is the issue? When running llama3 on the same GPU (3060M), it is many times slower on Windows than on Linux. It seems to be caused by the...

bug
windows
nvidia

**Describe the bug** If the formula starts with a ‘+’, then it is considered markdown syntax and cannot be displayed. **Environment** - OS: Linux - VSCode: 1.82.0 - Markdown Preview...

bug

> [!NOTE] > 以下所有示范都是使用`deepseek-chat`进行测试 - 搜索模式更新为默认使用"Mixed",即混合使用远端Searxng服务器中所有搜索引擎 根据[这个issue](https://github.com/searxng/searxng/issues/2641)以及[这个issue](https://github.com/searxng/searxng/issues/3264)中所提到的,bing搜索结果会受到远端Searxng服务器所在IP影响,且效果均不如直接使用网页版bing效果好,因此建议不默认使用bing而改用使用"Mixed" - 新增“搜索优化”功能 1. "关闭":默认选择,相比原有流程无任何更改。 2. “开启”:将会对问题进行重写,例如输入:`如何使用Caddy反代本地的静态网页?`将会被优化为三个问题:`["Caddy 反代本地静态网页","Caddy 配置静态网页反代","Caddy 静态网页反向代理"]`并进行搜索。 3. "开启(增强)":将会对问题进行重写,并且同时会结合历史记录。例如历史记录为上面例子2中询问完`如何使用Caddy反代本地的静态网页?`,再询问`如何指定使用我自己的https证书?`,此时问题会被优化为:`["Caddy 自定义 HTTPS 证书","Caddy 配置 HTTPS 证书","Caddy 使用自己的 SSL 证书","Caddy 设置 HTTPS 证书"]`...

- 使用oai_std的方式修改对Qwen api的支持 - 新增新的Qwen模型的支持 - 对oai_std函数调用改进,为后面支持图形对话准备 ![图片](https://github.com/binary-husky/gpt_academic/assets/122662527/17b486b1-7353-42be-8586-54a5ede0e3f3)

### Class | 类型 函数插件 ### Feature Request | 功能请求 - 利用pypandoc_binary这个库可以将带图的md文件转换为word或者pdf文件,能否在“精准翻译PDF”插件中将最终结果也以word文档或者pdf输出? - “将PDF转换为Latex项目,翻译为中文后重新编译为PDF”插件能否添加对doc2x的支持?目前只支持MATHPIX的api。

high value issue