FlagEmbedding
FlagEmbedding copied to clipboard
BGE中的retroMAE阶段,为什么encode阶段不用position embedding呢?
BGE中的retroMAE阶段,为什么encode阶段不用position embedding呢?而decoder阶段都有用到,是为什么呢?非常期盼解答!
您好,encode阶段bertmodel会自动加上position embedding。
非常感谢大佬!想再请问大佬下:
- enhanced decoding阶段(论文中C阶段)是对decoding阶段(论文中B阶段)的替代吗?
- BGE reranker的模型大小和参数量大概为多少
- BGE embedding的pretrain阶段是否就是retroMAE的复用,是否有其他改进 再次感谢您的解答