xiaowl
xiaowl
我在chinese-alpaca-llama2-7B遇到此问题,是否有不重新编译的方法
@jeejeelee 能在下一个版本中,适配一下算子? No suitable kernel.h_in=16 h_out=76032 dtype=Float out _dtype=Half No suitable kernel. h_in=16 h_out=55552 dtype=Float out_dtype=BFloat16 f(in_T, out_T, W_T, narrow, 55552) \ f(in_T, out_T, W_T, narrow, 76032 ) \
@jeejeelee 哥模型的尺寸是: (in_T, out_T, W_T, narrow, 55552) \ 是chinese-alpaca-llama2-7b f(in_T, out_T, W_T, narrow, 76032 ) \ 是自预训练的34B模型, 能否帮忙适配呢,如果自己提PR,需要在哪一个开发分支上修改