首页 > 编程知识 正文

闲鱼关键词搜索指数查询工具(闲鱼搜索指数)

时间:2023-05-06 06:46:30 阅读:84832 作者:2245

背景

闲鱼搜索是闲鱼APP最大的成交场景入口,成交原因中搜索占一半以上,因此提高成交效率是工程和算法迭代优化的主要目标,但只以效率为最终衡量标准是搜索质量的阻碍成交由于整个平台的长期生态建设无法成长,搜索关联性和平台生态对搜索平台至关重要,其中平台生态管理(本文主要介绍搜索关联性。 它是整个产品的基础,也是搜索技术的核心。 下面依次介绍闲鱼检索相关遇到的问题的现状、优化升级方案以及之后的进一步优化方向。

截至

问题

,闲鱼搜索中存在着查询重写、i2i、商品图像文本提取、该商品文本信息扩展等多种召回扩大战略。 召回战略是必要的,但在下游部署相关性低的case是不可避免的。 与此同时,下游的关联性控制非常有限,精排阶段的关联性主要存在以下问题。

经过多次top和中长尾关联性case分析,梳理了top的问题类型,并给出了典型实例:

图1.badcase分析

总结一下,目前系统的问题主要是相关策略覆盖不足、语义表达不准确、基础数据更新迭代缓慢等问题。

技术方案

针对上述基础相关因子弱、覆盖不足的问题,闲鱼搜索相关计划第一阶段的优化目标是建立较为完善、高覆盖的基础相关匹配链接,第二阶段是基于基础战略探索精细化的语义匹配策略以提高相关性, 本文主要介绍第一阶段方案。

工程链路设计

闲鱼搜索目前的工程链接是一个比较经典的搜索框架: SPL进行数据中继和中间参数结构; QP负责有关query的了解、特征提取; 用搜索引擎(Ha3 )进行召回、粗列、精列计算点、分解; RankService通过在线模型服务实现深度模型的排序。

相关匹配链接有两种选择。 一个由搜索引擎(Ha3 )的精密计算插件进行,另一个由RankService实现。 虽然两者各有优点,但选择不同数量的可以通过搜索引擎(Ha3 )精排序计算插件实现灵活配置召回和精排序阶段的方便实验。 从效率的角度看,特征优先考虑离线提取方式。

•Query特征以离线提取、增量方式导入在线KV商店,在线QP请求获取与KV商店相对应的特征,最后通过SPL传递给搜索引擎[ha3]。

•Item特征的离线提取同样包括总量和增量两部分。 天级总量、15min级增量将回流至搜索引擎(Ha3 )。

搜索引擎(Ha3 )精排序计算插件获取query和item的特征,在线计算相关点。

图2 .搜索架构图

算法模型实现

搜索算法最终的doc排序多考虑多因子,而闲鱼搜索中重要的因子是成交效率因子、相关因子和其他业务规则。 简单来说,首先只能研究关联性和成交效率因子,但两者的融合方法大致有三种。

将相关性分为位移,下游根据相关性分层排序。

相关值score和效率score的加权将成为最终的排序点。

关联性和效率目标的联合优化。

为了绝对控制相关性,同时尽量减少对效率模型排序的影响,算法方面的链接选择第一种方式。 在了解Query、商品的基础上,构建各种相关性匹配特征,再进行特征融合得到相关性位移。 (这里分为三个阶段。 最后根据规则进行班次,输出到搜索引擎(Ha3 ),进行精排计算插件和RankService的排序和相关性的班次控制。

整体相关层次链接如下图所示,其中算法最重要的部分是基础理解、特征提取和特征融合。 由于特征提取多依赖或包含于基础理解,下面将重点介绍特征结构与特征的融合,并将基础理解纳入特征结构讨论中。

图3 .相关链接

特征构造

检索关联性的特征这里分为基础特征、文本匹配特征、语义匹配特征三个维度。 基本特征主要包括查询和项目的统计特征,以及结构化相关的匹配特征,如类别是否一致,关键属性(类别、品牌、模型等)是否一致等。 文本匹配的特征主要是字面匹配的特征,例如term匹配数、匹配率、具有同义词策略的匹配、具有term weight的匹配以及最基础的BM25点等。 语义匹配的特征主要包括基于点击动作的显示匹配、文本和多模态语义匹配。

tiaoimg.com/origin/pgc-image/SbtEHSjBhs9bB2?from=pc">

图4.搜索相关性的特征

其中基础特征和文本匹配特征相对常规,不再详细展开。下面重点对语义匹配特征做进一步的介绍:

文本语义匹配

处于性能考虑,文本的语义匹配采用双塔向量匹配模型结构:基础模型使用开源的BERT,Query和Item共享相同的参数权重。同时为了适应下游的相关性分档,模型采用Pointwise的训练方式。篇幅原因,这里对模型细节不作展开。而相比模型结构的设计,其实闲鱼搜索中更重要的工作在于训练样本的构造。由于现阶段缺少人工标注数据的积累,所以当前该部分工作主要解决以下两个问题:

•高置信样本挖掘,缓解搜索点击日志“点击但不相关”的问题。

•定制化的负样本构造,避免模型收敛过快,只能判断简单语义相关性,而对上文提到的闲鱼场景"勉强相关"的难case无法区分。

针对以上问题,参考集团相关经验并结合对闲鱼搜索数据的观察分析,做了如下采样方案:

•正样本:

•充足曝光下高点击ctr样本(ctr大于同query下商品点击率平均值)

•负样本:

•同父类目的邻居叶子类目负采样。

•高曝光低点击类目样本:同一个query搜索下,根据点击过商品的类目分布,取相对超低频类目样本作为负样本(如类目分布占比 < 0.05的商品视为负样本)。

•充足曝光情况下,低于相应query平均曝光点击率10%以下的样本做负样本。

•基于query核心term替换构造负样本:如对于“品牌A+品类”结构的Query,使用“品牌B+品类”结构的query做其负样本。

•随机构造负样本:为增加随机性,该部分实现在训练时使用同batch中其他样本做负样本,同时引入batch hard sample机制。

上述方式采样得到的训练数据,随机抽测准确率在90%+,进一步采样后量级在4kw+。在此基础上训练双塔模型,上线方式为离线抽取Embedding,线上查表并计算向量相似度。

图5.文本语义模型

该部分工作独立全量上线,抽测top300 query + 随机200query搜索满意度+6.6%;同样文本语义向量用于i2i向量召回,复用到闲鱼求购场景,核心指标点击互动人次相对提升20.45%。

定义搜索query top10商品完全相关/基本相关占比>80%为满意,一组query评测结果为满意的占比为query满意度。

多模态语义匹配

除了文本语义向量匹配,本次工作也尝试了多模态语义向量。模型侧使用预训练的多模态BERT,类似工作集团已经有大量的尝试,本文主要参考过([1],[2]),并对模型和策略作了一些调整:

•替换多图特征抽取为首图region特征抽取做图像特征序列(resnet pooling前的特征序列),提升链路效率;

•替换Bert-base为Electra-small,减小模型参数(经测试47M的模型,下游分类任务精度损失2个点以内),方便与Resnet联合E2E训练。

下游的匹配任务仍使用双塔模型策略,和文本语义模型不同的是,这里直接使用Triple Loss的方式,主要考虑加大模型之间的差异性,使后面的模型融合有更大的空间。

图6.多模态语义模型

PS: 该部分工作离线AUC为0.75相对较高,在下游特征融合AUC提升1个点以上。但在上线过程中,由于需要图像处理,增量商品特征更新回流相对其他链路延迟较大,容易造成新商品特征缺失,因此还需要进一步链路优化。

点击图表示匹配

除了上文提到的通过语义向量引入语义信息,还可以借助搜索日志中的点击行为表示query或item构造图结构引入新的语义表示。其中基于图结构的match算法SWING算法,在阿里内部应用广泛,相关的文章也有很多,这里不在阐述。针对闲鱼场景首先将<user, item>点击pair对改造为<item, query>点击pair对,这样直接沿用现有的swing工具,可以得到query2query的列表。聚合key query的所有相似query,并进行分词,对所有的term进行加权求和,归一化后得到key query的表示。

其中的权重为swing算法输出的score,key query的term权重默认为1。而对于行为稀疏的长尾query则使用上文语义向量召回最相近的头部query,补充其语义表示。最终得到的query表示实例:

得到query表示后,item同样做类似的归一化表示。上线时使用稀疏存储的方式,在线计算匹配term的加权和作为点击图表示匹配分。

特征融合

准备好必要的相关性特征后,下一步则是对众多特征的有效融合,本文则采用经典的GBDT模型完成该步骤。选择GBDT模型的好处一方面在于检索引擎(Ha3)精排算分插件中有现成的组件可以直接复用,另一方面也在于相比于更加简单的LR模型可以省去很多特征预处理步骤,使得线上策略更加简单。

模型的训练使用人工标注的训练数据,标注目标为四档(完全相关、基本相关、勉强相关以及完全不相关)。在训练阶段,四个档位被映射到1、0.75、0.25和0四个分位,GBDT模型则通过回归的方式对分位进行拟合。由于该部分策略是对子特征的ensemble,因此并不需要非常多的训练数据(这里的量级在万级别)。

图7.特征融合模型

最终,经过常规的调参,GBDT特征融合模型离线AUC可以达到0.86,基本符合预期(最优单特征AUC为0.76)。该策略全量上线,在文本语义向量的基础之上,不影响成交效率的前提下:随机query抽测(top 800w)DCG@10相对提升6.51%,query搜索满意度+24%;头部query同样也有相应的提升,相应地搜索体感也得到有效提升。

小结与思考

闲鱼搜索相关性优化第一阶段重点在于搭建相对完整的链路作为Baseline,为后续的进一步优化奠定基础。通过本季度的优化,基础相关性的问题得到一定的缓解,但仍存在比较大的优化空间。

而从进一步的case分析可以看出当前策略在细粒度属性/意图的匹配上表现不够优秀,同时也存在goodcase的误打压情况。因此后续的优化方向也比较明确:优化现有特征细节;增加更精细的相关性特征如query tagging、商品结构化特征、核心词匹配等;积累更多的人工标注数据,同时探索更加细粒度的匹配模型。

最后抛出策略优化过程中的两个思考:

1、相关性与成交效率的“冲突”:工作中被挑战最多的问题,为什么相关性提升没有带来交易效率的提升?对于这个问题的几点考虑:

•技术方案不完美是客观存在的,如上所提到的因为策略问题导致goodcase误打压的情况,会损失一部分交易效率。

•相关性或者商品治理优化会将一些勉强相关但可能成交的周边产品打压,如相关性优化后搜“手机”类型的query不再出成交频次更高的“手机壳”、“屏幕”、“总成”等配件、零件,搜“xx车”不再出“轮胎”、“轮毂”等配件;治理优化后“低价引流”或“欺诈”商品减少明显,但有意思的是欺诈的商品成交效率往往高于正常商品。

•完全不相关的query优化后确实会提升交易效率,但和上述交易效率的损失中和后,整体的交易效率提升会变弱。

•最后个人认为电商搜索优化的路径,应该是开始就在相对严格相关性条件下进行成交效率的优化,进而逐步放宽召回限制并同时优化相关性策略,达到相关性和成交效率同步提升。如果在一开始就在弱相关性的条件下只关注成交效率,让系统处于一个放飞的状态,突然关注体感的时候一脚刹车,难免会带来想吐的感觉。

2、体感会不会骗人:二手交易市场,本身就是“杂”的特质。而很多时候技术同学并不是闲鱼的目标用户,“我”认为的相关和体感并不一定是用户的真实需求,一刀切的治理和相关性优化是否会损失掉一部分闲鱼产品特色需求的满足(当然不是说欺诈和色情之类),真正说清楚这个问题还是需要更多的数据支持以及对产品更深层次的理解。

[1] Hao Tan and Mohit Bansal. Lxmert: Learning cross-modality encoder representations from transformers. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing, 2019.

[2] Jiasen Lu, Dhruv Batra, Devi Parikh, and Stefan Lee. Vilbert: Pretraining task-agnostic visiolinguistic representations for vision-and-language tasks. arXiv preprint arXiv:1908.02265, 201

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。