Benny

Results 9 comments of Benny

> @jiusi9 我啥都看不到啊... @chengshiwen 不好意思, 是给您的gmail邮箱发的邮件, 不知道您方不方便看一下, 对于proxy的问题

> 可能是 CodeQwen 不兼容新版 `tokenizers`. 你使用的 `transformers` 和 `tokenizers` 是什么版本? > > See here [Qwen/CodeQwen1.5-7B-Chat · Having trouble loading this with transformers](https://huggingface.co/Qwen/CodeQwen1.5-7B-Chat/discussions/8) 和这个issus中一样,我试下其他版本 tokenizers: 0.19.1 transformers: 4.40.1 你觉得这个可能是llm model和`transformers` 和...

This issue was resolved. I downgraded the `transformers` and `tokenizers` version. Now, the version is: tokenizers: 0.15.2 transformers: 4.38.2 accelerate: 0.25.0

> 出现同样的问题,第一人多的时候会出现,第二模型运行一段时间之后突然也会出现这种报错, 请问你们如何处理的这个问题呀,现在解决了吗

> > 文件位置:~\miniconda3\Lib\site-packages\langchain\callbacks\streaming_aiter.py > > ```python > from typing import Any, AsyncIterator, Dict, List, Literal, Union, cast > > from langchain.callbacks.base import AsyncCallbackHandler > from langchain.schema.output import LLMResult > >...

我也遇到了同样的问题,请问解决了吗

请问下最后是怎么处理的呢

@18600709862 请问实现了吗,可以share一下代码吗