Meaninles
Results
3
issues of
Meaninles
I wish to use llama-index with a locally deployed chatglm model, how should I do it? Or what changes should I make?
多gpu的情况下为什么只检测第二张显卡的显存,而不是总共的显存呢?我用的tesla t4,检测的显存是15360MiB,提示我不能跑7B模型,但是我有两张呀
用的灵积qwen1.5-72b-chat的api,单文件的准确率很高,但是多文件(4-5个)提问时,准确率明显下降,很多简单问题都无法找到答案,有什么优化思路吗