BERT-Embedding-Frequently-Asked-Question
BERT-Embedding-Frequently-Asked-Question copied to clipboard
我觉得使用 SentenceTransformer 作为句子向量化不好
我觉得使用 SentenceTransformer 作为句子向量化不好,dimension 高达 512,句子向量化存储到 annoy 里导致空间特别大
我觉得使用 SentenceTransformer 作为句子向量化不好,dimension 高达 512,句子向量化存储到 annoy 里导致空间特别大
如果觉得大。可以不使用向量召回,只使用Es召回,BERT类的应用都有高消耗的情况,硬件和效果之间总得做个平衡。一般的数据集向量化之后都是工业上可接受的范围。还有一个思路就是将向量在Es中召回,Es7支持向量召回。