nixuanfan

Results 5 issues of nixuanfan

命令:cowtransfer-uploader https://cowtransfer.com/s/bbec8992ddde4e 报错:Error: link invalid 日志: 2022/07/15 10:53:29 config = &{token: parallel:3 interval:15 prefix:. debugMode:true singleMode:false version:false keepMode:false authCode: blockSize:1200000 hashCheck:false passCode: silentMode:false validDays:0} 2022/07/15 10:53:29 files = [https://cowtransfer.com/s/bbec8992ddde4e] 2022/07/15...

### Confirm that this is a metadata correction - [X] I want to file corrections to make the metadata match the PDF file hosted on the ACL Anthology. ### Anthology...

correction
metadata

### Anthology ID 2023.ccl-2.4 ### Type of Change Revision ### PDF of the Revision or Erratum [CCL2023_Evaluation_of_LLMs.pdf](https://github.com/acl-org/acl-anthology/files/14892975/CCL2023_Evaluation_of_LLMs.pdf) ### Brief Description of Changes This revision adds the author names and affiliations.

correction
pending

### 这个bug是否已存在现有issue了? - [X] 我确认没有已有issue,且已阅读**常见问题**。 ### 错误表现 本地部署的模型切换时,如果不等模型A分配到显卡上就切换另外一个模型B,会导致显示B而实际上调用A ![image](https://github.com/GaiZhenbiao/ChuanhuChatGPT/assets/59468866/91eda13a-cf66-4218-b7de-db940b2974be) 是否可以在部署模型时禁止用户切换模型?或者放弃当前的部署,转而部署新的模型 ### 复现操作 1.正常完成本地部署 2.切换qwen-7b-chat模型时,没有等待模型分配到显卡上就切换模型qwen-14b-chat 3.实际回复时仍然调用的是qwen-7b-chat ### 错误日志 _No response_ ### 运行环境 - OS: Centos 8 - Browser: chrome - Gradio...

bug

### 是否已存在现有反馈与解答? - [X] 我确认没有已有issue或discussion,且已阅读**常见问题**。 ### 是否是一个代理配置相关的疑问? - [X] 我确认这不是一个代理配置相关的疑问。 ### 错误描述 ![image](https://github.com/GaiZhenbiao/ChuanhuChatGPT/assets/59468866/644c863b-be65-4102-bdbc-88fe8dcc4e4f) 如图,我切换模型之后,希望可以单独去掉这几个加载框,而保留其他的,请问这该怎么设置呢? ### 复现操作 1.正常部署模型 2.切换模型时发现progress进度条重复且位置不对 ### 错误日志 _No response_ ### 运行环境 ```markdown - OS: Linux Centos 8...

question
localhost deployment