Chinese-CLIP
Chinese-CLIP copied to clipboard
跨模态检索中的以文搜图,能否对输入的query文本包含的关键字/词,进行不同权重的设置,从而能够检索出更加细致且符合用户意愿的图片?
比如:query文本为”耐克品牌的黑色的篮球鞋“ , 能否给"耐克品牌"、"黑色"以及”篮球鞋“设置不同的权重,使得检索出的结果是可变的符合不同用户搜索需求的。比如”耐克品牌的黑色的篮球鞋“ ,用户A希望是"耐克品牌的篮球鞋"即可,对品牌比较执念,检索出来的结果要是"耐克品牌的篮球鞋"排序在前,对颜色的需求弱化,;用户B希望是"黑色的篮球鞋"即可,对颜色比较执念,检索出来的结果要是"黑色的篮球鞋"靠前,对鞋子的品牌的需求弱化,想要实现这个需求的话,请问有什么好的建议吗?期待您的回复
您好,建议还是通过finetune的方式,引入您希望模型拥有的先验。目前直接使用我们提供的模型,应该暂时还无法实现这个特性哈。
@wjpstudy 这是一个个性或者说是CTR的问题,可能使用推荐算法对clip召回结果进行融合排序会是一条思路
@wjpstudy 这是一个个性或者说是CTR的问题,可能使用推荐算法对clip召回结果进行融合排序会是一条思路
请问针对召回结果依据什么进行排序?