GPT2-Chinese
GPT2-Chinese copied to clipboard
请问为什么会报tcmalloc: large alloc 8930017280 bytes = 0x7f5b3f7c600 @ 0x7f5e071601e7 0x..
用的是推荐的语料里那个 3.7G的new2016zh.zip,接压缩后,该名为train.json。 训练时如果用默认batch_size会出现cuda memory不足的错误。 于是,改成 train.py --raw --epochs 5 --batch_size 1 结果出现: using device: cuda building files reading lines tcmalloc : large alloc 8930017280 bytes = 0x7f5b3f7c6000 @ 0x7f5e071601e7 0x5929fc .......很长一行 tcmalloc : large alloc 8930017280 bytes = 0x7f5b3f7c6000 @ 0x7f5e071601e7 0x5450df 0x53e2c8 .......又很长一行 tcmalloc : large alloc 17860034560 bytes = 0x7ff501aca000 @ 0x7f5e071601e7 0x5450df 0x52e319 ...... 第三行 ^c 没错,第四行就是一个^c,好像被强行终止了。 请问这会是怎么回事?
楼主有没有解决呀?用的是colab跑的吗:o?
hi 我也遇到了同样的问题 是什么原因 解决了吗
哦 应该就是json太大 colab内存用光了
@EagleEyeKestrel 过年还在奋斗,辛苦辛苦,新年快乐
@EagleEyeKestrel 过年还在奋斗,辛苦辛苦,新年快乐
哈哈哈,新年快乐兄弟。话说你还记得吗,用这个repo训下来效果如何?