loveSnowBest

Results 48 comments of loveSnowBest

1. 我们没有对sharegpt做采样,对两边数据直接混合,因为agent-flan的数据其实和sharegpt差不多多了 2. 我们的训练框架用的是internlm内部的框架, 不过setting应该跟正常的都保持一致,max_token在我们的baseline是8192

就是不做采样直接混合呀,因为大家都在一个数量级上所以我们就没有做针对性的采样了

1. 这里的1:1是指没有采样直接混合的1:1,这里我们会更新一下陈述方式,避免误解 sry 2. 当role是assistant的话,且没有指定的话默认就会计算loss

> 求对上一个计算loss的解答(因为agent-flan里有最后一个输出loss是false的,那理论上没必要把它放进来,所以你们是吧所有loss都计算了吗?),以及想再问一下你们会把sharegpt第一个是gpt的过滤掉吗? 我们只计算了assistant上的loss,同时如果assistant上的loss=False也不计算,sharegpt也只计算assistant上的 以及有些loss=False的句子放进来的目的是为了保证后面学习的连贯性

可以用lagent的推理框架然后走huggingface那个class,把readme里面的meta template传进那个类就好了 我们没有专门定义function的role,function的返回都当作user处理

训练的时候我们用了多套模版,所以在推理的时候用react那种Thought: Action: ActionInput:就可以,当然也可以用JSON format的system prompt, {thought:"", action: "", action_input:""}

Nice work~ It would be great if you can also star Agent-FLAN :)

Hi, thanks for your attention. Did you update the pretrained weight from r50 to r34 when you change the backbone from r50 to r34?

Hi, we only choose one view to crop, the first view that has the object, following the order (FRONT, LEFT_FRONT, RIGHT_FRONT, LEFT_BACK, RIGHT_BACK, BACK, maybe). The reason that I crop...