lorinma

Results 13 comments of lorinma

same here: --------------------------------------------------------------------------- UnicodeEncodeError Traceback (most recent call last) Cell In[27], line 7 5 net = Network(notebook=True, cdn_resources="in_line", directed=True) 6 net.from_nx(g) ----> 7 net.show("example.html") File c:\Python311\Lib\site-packages\pyvis\network.py:549, in Network.show(self, name, local)...

我看到你们有提到glm,但是还没有放相关的资料上去是吗?谢谢

暂时没有这个计划。不论是 function call 还是 agent 有很多的技术路线,想要达到稳定的效果需要结合你自己的业务场景进行微调能够达到很好的效果,所以我们希望看到更多社区开发者的微调。 see https://mp.weixin.qq.com/s/qeWEEmWlomjtFP5wQxUAcg

看一下trainer的文档,直接用num_of_epochs就行,去掉max steps

一模一样的问题,莫名其妙的kill,没有其他报错信息。 torch 2.0 transformers 4.29.2 唯一可能怀疑的点是,目前是在GPU服务器上运维给开的ubuntu docker nvidia-smi能看到四张3090,跑的时候VRAM占用在726M,也不是因为内存满了。 运行: [INFO|tokenization_utils_base.py:1808] 2023-05-20 11:34:29,663 >> loading file ice_text.model [INFO|tokenization_utils_base.py:1808] 2023-05-20 11:34:29,663 >> loading file added_tokens.json [INFO|tokenization_utils_base.py:1808] 2023-05-20 11:34:29,663 >> loading file special_tokens_map.json...

个人经验,lora容易出现,全参数好很多。我用了10万条moss-003的多轮,模板搞明白,3个epoch效果还是不错的

如果你说的是GLM的话,可以把train和trainmulti中的GLM6B改成本地路径,一共6处