大模型如何革新搜索相关性?智能升级让搜索更“懂你”|得物技术
一、背 景
你是否曾在社区搜索时遇到这样的困扰:想找一双“平价学生党球鞋”,结果出现的多是限量联名款?或者输入“初冬轻薄通勤羽绒服”,却看到厚重登山款?这类“搜不准”的情况,正是搜索相关性技术要解决的核心问题——让搜索引擎更准确地理解用户意图,返回真正匹配的结果。今天,我们就来揭秘得物如何用大模型技术让搜索变得更“聪明”。
搜索相关性,即衡量搜索结果与用户查询的匹配程度,通俗来说就是“搜得准不准”。作为搜索体验的基石,良好的相关性能够帮助用户更顺畅地从种草走向决策,同时也对购买转化率和用户留存具有重要影响。
二、传统相关性迭代痛点
从算法层面看,搜索相关性模型需要计算用户查询与内容(包括下挂商卡)之间的相关程度。系统需要理解几十种用户意图,如品牌、系列、送礼、鉴别等,识别几十种商品属性,如人群、颜色、材质、款式,还要覆盖平台上数千个商品类目,从跑步鞋、冲锋衣到咖啡机、吹风机等等。
我们早期主要采用基于BERT的交互式模型,结合大量人工标注数据,来构建搜索相关性系统。然而,随着业务发展,传统方法在迭代过程中逐渐暴露出以下痛点:
- 资源消耗大,标注成本高昂:模型效果严重依赖海量人工标注数据,需千万级的查询-商品配对样本。粗略估算,完成千万级数据标注,约需几十人全年无休投入,耗时费力且成本居高不下。
- 扩展性不足,迭代响应缓慢:高度依赖人工标注的模式,导致模型难以灵活适应业务标准的频繁更新。每当新增商品类目或优化判断标准,往往需要重新标注,迭代周期长、响应速度慢。
- 泛化能力有限,长尾场景表现不佳:模型对训练集中的常见品类效果尚可,但面对新品类或小众场景时表现明显下降。例如,用户从习惯搜索“鞋服”转向“旅行攻略”“美食景点”等场景时,搜索结果的相关性会大打折扣。
三、基于大模型的迭代流程
近年来,以GPT、Qwen为代表的大语言模型迅速发展,正在逐渐渗透和重塑搜索领域的各个环节。在搜索相关性任务上,大模型相比传统方法体现出三方面优势:
- 理解能力更强,效果天花板显著提升:百亿甚至千亿级别的参数量,使大模型能够捕捉更复杂的语言表达和微妙语境,且具备不错的逻辑推理能力,这在多个权威评测中得到验证,为相关性效果突破提供了新的可能性。
- 知识储备丰富,泛化能力大幅增强:基于海量互联网数据的预训练,让大模型内置了丰富的世界知识。面对未见过的新查询或内容类型,区别于小模型的“死记硬背”,大模型可以灵活的“举一反三”,提升系统在长尾场景下的鲁棒性。
- 数据需求降低,迭代效率成倍提升:大模型本身就是一座“知识宝库”,通过提示词工程或少量样本微调,即可达到理想的业务效果。这降低了对大规模人工标注的依赖,为算法快速迭代奠定了基础。
基于这些特性,我们围绕大模型优化了相关性迭代的整个流程。首先是知识蒸馏新路径,传统BERT模型训练需要千万级人工标注,成本高周期长。现在,我们仅用万级数据训练大模型,再通过数据蒸馏的方式将其能力迁移至线上小模型。这一转变不仅提升了效果上限,也实现了算法的低成本快速迭代。
其次,我们将大模型深度融入“相关性问题发现 -> 解决”的闭环,覆盖新词诊断、badcase监控回流、GSB评估等环节。以每日badcase回流为例:对于低点查询,我们调用大模型进行相关性判断,经人工复核后进入线上bert模型训练池,形成持续优化闭环。这一流程重构,更大范围降低了对人工标注的依赖,提升了算法迭代效率。下图展示了新词生成 -> 相关性校验 -> 自动化归因 -> 人工标注 -> 样本增强的具体流程。
四、大模型建模搜索相关性
项目初期,大模型技术在搜索领域的应用尚处探索阶段,缺乏可借鉴的成熟方案。基于对算法原理与业务场景的理解,我们围绕“如何让大模型更接近人类的思考方式”这一目标,设计并实践了两项核心优化:
二阶段流程:我们观察到,人类判断相关性时通常遵循“先理解意图,再验证匹配”的认知过程。基于这一洞察,我们将端到端的相关性判断拆分为两个阶段。一阶段侧重理解用户查询,从中抽取出品牌、系列、适用人群等关键属性。二阶段则对内容进行属性解析,并逐一判断其与查询意图的一致性。最终综合多属性判断结果,输出相关性分档及对应依据。这一结构化的判断方式使模型大盘准确率从75%提升至80.95%,在理解能力上取得了可验证的进展。
R1慢思考:随着年初DeepSeek R1的发布,我们将其“慢思考”机制引入相关性建模,使模型能够生成思维链进行分步推理,例如:“用户搜索‘夏季运动鞋’→内容提及商品为跑步鞋→材质透气→符合夏季需求→判定相关”。在数据冷启阶段,我们调用开源推理模型,生成原始思考链,通过结果一致性校验&人工校验,过滤出少量高质cot推理数据。训练阶段,我们通过混合少量cot推理数据和大量常规数据的方式微调模型,使模型能将少量cot推理路径泛化到更多常规数据上。推理阶段,这种混合训练方式,也使模型能省略思维链的输出,同时保持分档准确性,从而在效果与效率之间取得平衡。该方法使大盘准确率从80.95%进一步提升至83.1%,中长尾场景准确率从76.98%大幅提升到81.45%,显示出良好的泛化能力。
以下是两个思维链示例:
基于大模型的技术演进并非一蹴而就,最初我们基于BERT训练数据,构建的初版相关性大模型效果有限,甚至略逊于线上BERT小模型基线(准确率 75% vs 75.2%)。通过后续一系列优化,如精细调整数据配比、引入课程学习等策略,模型效果逐步提升,最终大盘准确率提升约10个百分点,达到86.67%,验证了大模型在搜索相关性任务上的潜力。具体消融实验如下:
五、效果
经过两个季度的迭代优化,相关性大模型在效果上已稳定超过线上bert模型,在大盘测试集上,准确率提升11.47%,宏平均F1值提升16.21%。在样本量较少的档位上提升更为显著,2分档F1提升32.66%,1分档F1提升21.59%。目前,模型在NDCG和0分F1两个指标上仍有提升空间,这也将是下一阶段的优化重点。在中长尾场景下,大模型展现出更好的泛化能力,测试集准确率提升6.78%,宏平均F1提升25.72%,其中0分档F1提升达51.93%,表现全面优于线上基线模型。详情指标如下表:
六、落地
通过大模型标注千万级数据,并结合多版数据蒸馏策略进行A/B实验,线上相关性badcase率实现显著下降:大盘降低5.39个百分点,中长尾场景降低10.82个百分点,累计节约标注成本达百万级别。
离线评估方面,经过蒸馏后的线上BERT模型在大盘准确率上提升9.58%,宏平均F1提升10.91%;中长尾场景下准确率略有波动(-0.61%),但宏平均F1仍提升15.85%,体现出良好的泛化稳定性。
线上bert指标对比
后续方向
- 当前大模型在分档能力上优于BERT,但在NDCG排序指标上仍有差距。我们正在探索基于生成式Listwise强化学习方法,建模内容间的偏序关系,以提升同一查询下的排序质量。
- 基于大模型的数据蒸馏策略已逐步接近瓶颈。我们正尝试更高ROI的落地方案,包括logits蒸馏策略,并推进大模型直接承接部分线上流量的可行性验证。
- 大模型本身的能力边界仍随开源基座模型和生成式搜推技术的发展而不断拓展,我们将持续跟进,探索效果上限的进一步突破。
七、结语
搜索相关性的优化,是一场没有终点的长跑。通过引入大模型技术,我们在理解用户意图、提升匹配精度上取得了阶段性进展,也为后续的迭代开辟了新的路径。未来,我们将紧跟大模型技术发展趋势,同时紧密结合业务场景,推动搜索体验向更智能、更精准的方向稳步演进。
往期回顾
1. RAG—Chunking策略实战|得物技术
2. 告别数据无序:得物数据研发与管理平台的破局之路
3. 从一次启动失败深入剖析:Spring循环依赖的真相|得物技术
4. Apex AI辅助编码助手的设计和实践|得物技术
5. 从 JSON 字符串到 Java 对象:Fastjson 1.2.83 全程解析|得物技术
文 /若水、兰溪
关注得物技术,每周更新技术干货
要是觉得文章对你有帮助的话,欢迎评论转发点赞~
未经得物技术许可严禁转载,否则依法追究法律责任。
关注公众号
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
-
上一篇
探讨超长上下文推理的潜力
编者按: 现代大语言模型已经能够一次性处理相当于整本书的文本量,但我们是否曾想过,当模型的"记忆"容量再扩展成千上万倍,足以容纳长达数月乃至数年的交互信息时,人工智能的能力边界将会发生怎样颠覆性的变化? 我们今天为大家带来的文章,作者的核心观点是:超长上下文推理的真正潜力,并不仅仅是处理海量文档,更在于它为实现人工智能的"持续学习"和规模化"强化学习"这两大关键瓶颈提供了革命性的突破路径。 文章指出,超长上下文窗口能让 AI 系统在部署后,通过"记忆"和"反思"过往的交互案例来不断学习和纠错,这是解决当前 AI 系统无法从经验中成长这一核心障碍的关键。作者认为,强大的长上下文推理不仅能支持模型处理时间跨度更长的复杂任务(例如需要数月才能验证的科研方向),还能通过验证复杂的推理链条为模型提供高质量的训练信号,甚至可以用来生成更逼真的强化学习训练环境。 作者 | JS Denain and Anson Ho 编译 | 岳扬 从理论上讲,现代大语言模型能够一次性处理相当于多本书籍的文本量。以 Gemini 2.5 Pro 为例,其上下文窗口达到 100 万 token,足以容纳十本《哈利·波...
-
下一篇
🎉重大更新!开源无代码/低代码平台 NocoBase v1.9.0 正式版发布!
原文链接:https://www.nocobase.com/cn/blog/nocobase-1-9-0 新特性 字段验证规则 支持为字段配置多种验证规则(如必填、格式、长度、范围、正则表达式等),在表单提交时自动校验输入数据,确保数据准确性一致性。验证规可在字段设置中灵活配置。 参考文档:字段验证 表格区块支持添加「列设置」 允许用户在不进入编辑模式的情况下调整列顺序、可见性和固定位置,从而使数据显示更加灵活和用户友好 审批新增「数据保存前」触发模式 审批现在支持“数据保存前”触发模式——启用后,审批发起时不会存储数据,只有在审批通过后才会保存数据。 审批触发器中开放审批单据编号变量以供使用 公开了 Approval ID 变量,允许在工作流其他节点中引用,以实现更灵活的配置和数据跟踪。 [异步任务管理器] 支持通过环境变量和队列进行异步任务服务拆分 新增服务拆分机制,支持通过 WORKER_MODE 环境变量将工作流、异步任务等服务独立运行,实现多节点部署与性能优化。 参考文档:服务拆分 新增用于处理队列消息的事件队列 增加了一个专用的事件队列来处理系统队列消息,提高了异步任务处理...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- CentOS关闭SELinux安全模块
- Dcoker安装(在线仓库),最新的服务器搭配容器使用
- CentOS8编译安装MySQL8.0.19
- Windows10,CentOS7,CentOS8安装Nodejs环境
- SpringBoot2全家桶,快速入门学习开发网站教程
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- CentOS7,8上快速安装Gitea,搭建Git服务器

微信收款码
支付宝收款码