GPT2-Chinese
GPT2-Chinese copied to clipboard
你们用的显存都是多大,为啥我12G显存 batch_size 要设置成2才不会oom
你们用的显存都是多大,为啥我12G显存 batch_size 要设置成2才不会oom
我也是这问题 不知道怎么解决 wx wmj5225541 交流下
我也是这问题 不知道怎么解决 wx wmj5225541 交流下
修改n_ctx试试
out of memory 调整参数就行了,还有一个很神奇的错误,是源自于embed size。
我也是 不科学啊 11g显存的2080ti 只能设置batch size为 2, 大佬你问题解决了吗
3090也才设置成6 加钱就行
神他喵加钱,改参数好哇
context_length = 128
3060 12GB 设置成3 ,变成4就oom
batch_size 8 显存得24G