bbbugg

Results 47 comments of bbbugg

我今天也遇到了,gemini刚输出完的一瞬间,回答会清空,显示等待回复,然后再一次性的显示回复。

> > 在环境变量里一起改呢 > > 自定义的ai服务商也可以一起改吗? 我是找一个提供的但我不用的服务商,环境变量里自定义URL、Key和model_lists,替换成我自定义的模型服务商

> 试试在`weclone/core/inference/vllm_infer.py` 的 `engine_args` 里加一条 `"gpu_memory_utilization": 0.95,` 老哥厉害了, 之前试的`"gpu_memory_utilization": 0.9`都不行, `"gpu_memory_utilization": 0.95`就可以了.

> 存在同样问题,添加了参数后还是会出现这个问题 ERROR 05-17 03:31:17 [core.py:343] raise ValueError("No available memory for the cache blocks. " ERROR 05-17 03:31:17 [core.py:343] ValueError: No available memory for the cache blocks. Try increasing `gpu_memory_utilization`...

> 请问这个步骤大概需要多少显存呢? 我跑的时候看了一下,显存跑满了,这个线程用了22G多的显存

话说Lobechat里清除上下文和删除对话有什么区别

同样遇到了,用的原生Google模型服务商,试了最新的几个gemini模型都报错,不带图片提问没问题 ![Image](https://github.com/user-attachments/assets/37d2f090-2f37-4c9a-a7f6-a23fa7ef40f0)

之前的话是这样,没有img标签 ![6037af40-d81b-4753-a467-96d0aa07ad88](https://github.com/user-attachments/assets/759ba4cc-55b4-492c-b512-9903b7abacc1)