LLM-Tuning
                                
                                
                                
                                    LLM-Tuning copied to clipboard
                            
                            
                            
                        请教大佬一个问题,关于输入长度
我这里有个总结文章内容,得出结论的需求,但是在微调这总是会因为文章内容太长OOM,我现在的文章稳定在2w字左右,其实这个长度推理是没问题的,但是做微调就立马爆
训练比推理消耗的显存肯定更大很多,只能试试降低batch,或者开启量化之类的操作了。