GromZhang
GromZhang
老师您好,在根据您的方法进行多gpu运算之后,在执行python inference.py进行推理的时候,出现了错误。  期待您的解惑。 我意识到自己,在train_multi_gpu.py中更改了本地的模型地址。请问我该如何做? 
 感谢您的解惑
如题,请教一下,假定我需要一个实体提取的能力,通过您zeroshot中的案例,给模型提供实体提取的prompt,即可完成。同时我想请教一下您,如果模型重新启动了,那么这个能力是不是就没有了。如果希望模型能持久的提供某类能力,是不是还是要提供某类的prompt的指令数据集进行微调呢? 另,langchain-chatglm是否也是这类的思想呢?