type
status
date
slug
summary
tags
category
icon
password
priority
Section 1: 📊 Trend Analysis
- 🔥 生成式推荐范式全面落地:今日论文呈现一个清晰趋势:生成式推荐(Generative Recommendation)正从学术探索全面走向工业大规模部署。阿里巴巴(高德、淘宝)、Apple、百度、Meta等头部公司均展示了其端到端生成式模型在召回、排序、重排等核心环节的成功应用。这些工作不仅验证了生成式范式在效果上的优势(如超越传统序列推荐、提升多样性),更通过一系列工程优化(如NEZHA的加速解码、GRAB的STS训练)解决了推理延迟、训练稳定等核心瓶颈,标志着该范式已进入成熟应用期。
- 💡 全链路与多目标联合优化:工业界正致力于打破传统多阶段推荐系统的割裂状态,追求全局最优。SCASRec将精排、重排、去重统一为端到端生成;Apple的QAC工作将检索、排序、多目标对齐整合进单一生成模型。这种“全链路”思维的核心在于,让模型在生成/排序的每一步都直接对齐最终的线上业务指标(如覆盖率、击键数、收入),而非孤立优化中间目标,从而更高效地提升用户体验和商业价值。
- 🔧 面向工业部署的系统级创新:论文焦点从单纯的模型结构创新,转向包含训练、推理、部署的完整系统解决方案。例如,NEZHA针对LLM推理延迟提出自草稿与哈希验证架构;GRAB针对序列打包带来的分布偏移提出STS训练策略;DAES针对流式数值特征提出在线分布估计算法。这些创新直指工业落地中的具体工程挑战(效率、稳定性、数据动态性),具有极高的实用参考价值。
Section 2: 📰 Daily Digest
1. SCASRec: A Self-Correcting and Auto-Stopping Model for Generative Route List Recommendation
🔗 原文: https://arxiv.org/abs/2602.03324v1
🏷️ 来源: 🤝 产学合作 | Alibaba, Beijing Institute of Technology, Southern University of Science and Technology
⭐ 评分: ⭐⭐⭐⭐⭐ (5/5)
🎯 推荐理由: 高德地图提出端到端生成式重排模型,统一排序与去重,线上显著提升推荐质量并降低冗余。
📊 评分理由: 工业界(阿里巴巴高德地图)。论文核心解决了推荐系统全链路优化的核心痛点:多阶段割裂、离线在线目标不一致、依赖人工规则。提出SCASRec,一个端到端的生成式重排框架,创新性地融合了Stepwise Corrective Reward (SCR)和End-of-Recommendation (EOR) token,实现了排序、去重和列表长度控制的统一优化。方法扎实,实验充分,在离线指标和线上A/B测试(HR@1、LCR提升,冗余度降低50.7%)上均取得显著收益,并已在高德地图大规模部署。这是工业界在生成式推荐和全链路优化方向上的一个优秀范例,对业界有很强的启发和参考价值。5分。
📝 摘要: 针对传统路线推荐中精排与重排割裂、离线在线目标不一致、去重依赖人工规则三大痛点,阿里巴巴高德地图提出了SCASRec。这是一个端到端的生成式重排模型,采用编码器-解码器架构自回归生成推荐列表。其核心创新在于引入了步进式纠正奖励(SCR),以列表覆盖率(LCR)这一线上对齐指标引导模型优化,并设计了可学习的终止符(EOR)来自适应控制列表长度、替代人工去重规则。该方法已在生产环境部署,线上A/B测试在减少平均展示路线数的同时,显著提升了点击率和覆盖率,并将冗余路线比率降低了50.7%。
〰️
2. NEZHA: A Zero-sacrifice and Hyperspeed Decoding Architecture for Generative Recommendations
🔗 原文: https://arxiv.org/abs/2511.18793v2
🏷️ 来源: 🤝 产学合作 | Alibaba, City University of Hong Kong
⭐ 评分: ⭐⭐⭐⭐⭐ (5/5)
🎯 推荐理由: 生成式推荐落地标杆:解决LLM推理延迟核心瓶颈,已在淘宝全量部署并带来亿级收入提升。
📊 评分理由: 工业界主导(阿里巴巴/淘宝)。论文核心解决生成式推荐(LLM-as-Rec)落地中的核心瓶颈——推理延迟。提出NEZHA架构,通过自草稿(self-drafting)和基于哈希集的模型无关验证,在不牺牲推荐质量的前提下,将延迟降低至满足线上服务(<30ms)的水平。已在淘宝搜索广告召回阶段全量部署,带来1.2%的线上收入提升(亿级规模)。这是生成式推荐从范式探索到大规模工业落地的关键一步,方法创新且收益显著。5分。
📝 摘要: 生成式推荐(GR)因LLM的高推理延迟难以在实时服务中落地。本文提出NEZHA架构,旨在实现“零牺牲”的超高速解码。其核心包含两个创新:1)在主干模型中集成轻量自回归草稿头,实现高效的自草稿生成,避免维护独立草稿模型;2)利用语义ID高度结构化的特性,设计基于哈希集的模型无关验证器,快速过滤无效生成。该架构将解码延迟从秒级降至30ms以下,满足了淘宝搜索广告召回的严苛要求。线上部署后带来了1.2%的收入提升,服务数亿日活用户,是生成式推荐大规模工业落地的典范。
〰️
3. Unifying Ranking and Generation in Query Auto-Completion via Retrieval-Augmented Generation and Multi-Objective Alignment
🔗 原文: https://arxiv.org/abs/2602.01023v2
🏷️ 来源: 🤝 产学合作 | Apple, UC Berkeley
⭐ 评分: ⭐⭐⭐⭐⭐ (5/5)
🎯 推荐理由: Apple提出QAC端到端生成新范式,结合RAG与多目标DPO,线上击键减少5.44%,采纳率提升3.46%。
📊 评分理由: 工业界(Apple)。这是一篇范式级的工业实践论文,将QAC从传统的retrieve-and-rank范式革新为端到端生成式范式。核心创新在于:1)将QAC重构为多目标优化的列表生成问题;2)设计了包含RAG、多目标DPO和迭代critique-revision的完整训练框架;3)提出了兼顾质量与延迟的混合部署架构。线上AB验证了显著收益:击键减少5.44%,采纳率提升3.46%。方法扎实、创新性强、线上收益solid,对搜索和推荐领域的生成式范式有重要参考价值。5分。
📝 摘要: Apple提出了一种查询自动补全(QAC)的新范式,将传统的“检索-排序”两阶段流程重构为端到端的列表生成任务。该方法基于检索增强生成(RAG),利用检索到的候选查询、目录元数据等构建提示,驱动LLM直接生成有序的建议列表。为了同时优化相关性、安全性、真实性、多样性等六个目标,作者设计了一套验证器并采用多目标直接偏好优化(DPO)进行模型对齐。线上部署采用混合架构(大型模型离线预计算+紧凑模型实时推理),在满足延迟约束的同时,线上实验取得了击键减少5.44%、建议采纳率提升3.46%的显著收益。
〰️
4. GRAB: An LLM-Inspired Sequence-First Click-Through Rate Prediction Modeling Paradigm
🔗 原文: https://arxiv.org/abs/2602.01865v2
🏷️ 来源: 🏭 工业界 | Baidu
⭐ 评分: ⭐⭐⭐⭐⭐ (5/5)
🎯 推荐理由: 百度工业级生成式排序框架,线上CTR+3.49%,深度融合LLM范式与CTR预测,落地价值极高。
📊 评分理由: 工业界(百度)。提出并成功部署了端到端的生成式排序框架GRAB,线上CTR+3.49%、CPM+3.05%。核心贡献在于:1)深度融合了LLM的生成式建模范式(自回归序列预测)与工业级CTR预测的稀疏特征工程,而非浅层使用LLM;2)针对工业部署的三大核心挑战(计算效率、数据异构性、训练稳定性)提出了原创性解决方案(CamA、STS训练)。方法扎实,线上收益显著,对业界生成式推荐/排序的落地有极强的示范和参考价值。5分。
📝 摘要: 百度提出GRAB,一个受LLM启发的端到端生成式CTR预测框架。它将用户行为序列和候选广告token化,通过因果Transformer进行自回归序列预测,从而建模长序列依赖。针对工业部署挑战,GRAB提出了因果动作感知多通道注意力(CamA)机制以捕捉异质行为信号,并创新性地设计了序列-稀疏解耦训练(STS)策略,解决了序列打包导致的分布偏移和梯度冲突问题,保证了训练稳定性。该框架已在百度信息流广告业务全量部署,线上A/B测试带来CTR提升3.49%,收入提升3.05%,验证了生成式范式在精排场景的巨大潜力。
〰️
5. Multimodal Generative Recommendation for Fusing Semantic and Collaborative Signals
🔗 原文: https://arxiv.org/abs/2602.03713v1
🏷️ 来源: 🤝 产学合作 | Meta, ETH Zurich
⭐ 评分: ⭐⭐⭐⭐ (4/5)
🎯 推荐理由: Meta提出首个在大规模数据集上超越传统序列推荐的生成式推荐方法,融合多模态与协同信号。
📊 评分理由: 工业界(Meta AI)。论文核心是生成式推荐范式在大规模数据集上的突破性进展,首次在百万级物品规模上超越传统序列推荐方法。方法创新扎实:1)提出多模态语义与协同信号融合框架;2)基于DINO的自监督图像量化学习;3)约束序列训练减少无效记忆。实验在三个大规模真实数据集(Amazon 2023、PixelRec)上验证,指标提升显著(Recall@1提升最高40.4%)。虽无线上AB验证,但来自Meta核心团队,方法设计有明确的工业落地考量(内存效率、缺失模态处理)。4分。
📝 摘要: Meta提出MSCGRec,一个融合多模态语义与协同信号的生成式推荐模型,旨在解决生成式推荐在大规模物品库上效果不及传统序列推荐的问题。该方法将物品表示为文本、图像和协同特征的离散语义代码序列,并利用T5架构进行自回归生成。创新点包括:基于DINO框架的自监督图像量化、将协同特征作为独立模态进行融合,以及约束序列训练以减少无效记忆。在包含百万级物品的大规模数据集上的实验表明,MSCGRec在Recall、NDCG等指标上首次超越了SASRec、BERT4Rec等强序列基线,证明了生成式推荐在大规模场景下的可行性。
〰️
6. Bringing Reasoning to Generative Recommendation Through the Lens of Cascaded Ranking
🔗 原文: https://arxiv.org/abs/2602.03692v1
🏷️ 来源: 🎓 学术界 | National University of Singapore, University of Science and Technology of China, Renmin University of China, Meta
⭐ 评分: ⭐⭐⭐⭐ (4/5)
🎯 推荐理由: 深入剖析生成式推荐偏差放大问题,提出级联推理框架CARE,有效提升推荐多样性与准确性。
📊 评分理由: 学术界主导(新加坡国立大学、中科大、人大等)。论文核心贡献是深入分析了生成式推荐(GR)中存在的偏差放大问题,并提出了一个新颖的Cascaded Reasoning框架(CARE)来缓解该问题。方法创新性强,实验扎实,在多个数据集和GR骨干模型上验证了其在提升准确性和多样性方面的有效性。虽然缺乏线上验证,但问题定义清晰,方法设计巧妙,对生成式推荐这一前沿方向有重要启发价值。4分。
📝 摘要: 本文指出当前生成式推荐(GR)模型存在“偏差放大”问题:在自回归生成语义ID时,对高频token的偏好会随生成步数累积,导致推荐多样性下降。受传统级联排序启发,作者提出CARE框架来引入“由粗到细”的推理过程。CARE包含渐进式历史编码(根据当前生成粒度动态选择历史信息)和查询锚定推理(进行多步并行推理以深入理解用户偏好)两个机制。在多个GR骨干模型(TIGER, LETTER等)上的实验表明,CARE能有效缓解偏差,在提升排序准确性的同时,显著改善了推荐多样性。
〰️
7. DiffuGR: Generative Document Retrieval with Diffusion Language Models
🔗 原文: https://arxiv.org/abs/2511.08150v6
🏷️ 来源: 🎓 学术界 | Shandong University, Baidu, Leiden University, Peking University, Chinese Academy of Sciences
⭐ 评分: ⭐⭐⭐⭐ (4/5)
🎯 推荐理由: 首次将扩散模型引入生成式检索,提出非自回归的DocID生成新范式,性能显著提升且支持质量-延迟灵活权衡。
📊 评分理由: 学术界主导(山东大学、百度等合作)。提出将扩散模型用于生成式检索(Generative Retrieval)的新范式,核心创新是将DocID生成建模为离散扩散过程,解决了自回归生成中错误累积和无法权衡效率-准确性的问题。实验在NQ320K和MS MARCO上显著超越自回归基线(R@1提升超20点),并验证了通过调整去噪步数可灵活控制质量-延迟权衡。方法扎实,创新性强,对生成式检索和端到端推荐有重要启发价值。4分。
📝 摘要: 本文首次将离散扩散语言模型引入生成式检索(GR),提出DiffuGR。不同于主流自回归方法,DiffuGR将文档标识符(DocID)的生成建模为扩散过程:训练时学习从被随机掩码的DocID中恢复原始序列;推理时并行生成所有token,并通过可控步数的去噪进行迭代精炼。这种方法避免了自回归解码中早期错误导致的全程谬误,并允许通过调整去噪步数在检索质量和延迟之间进行灵活权衡。在标准检索数据集上的实验表明,DiffuGR在Recall@1等指标上显著超越所有自回归GR基线,为端到端检索提供了新的高效范式。
〰️
8. Distribution-Aware End-to-End Embedding for Streaming Numerical Features in Click-Through Rate Prediction
🔗 原文: https://arxiv.org/abs/2602.03223v1
🏷️ 来源: 🤝 产学合作 | Tencent, Fudan University, Beijing Jiaotong University
⭐ 评分: ⭐⭐⭐⭐ (4/5)
🎯 推荐理由: 腾讯提出的流式数值特征嵌入框架,线上ARPU显著提升,已在大规模短视频平台部署。
📊 评分理由: 工业界(腾讯 & 复旦大学合作)。核心贡献是提出面向流式训练场景的数值特征嵌入框架DAES,解决了传统方法(静态分桶、DAE等)在分布估计和上下文依赖上的不足。方法创新性强,包括基于水库采样的分布估计、分位数空间插值和场感知分布调制。线上A/B测试在亿级DAU的短视频平台验证,ARPU提升2.307%,已全量部署。虽非范式级突破,但针对精排中数值特征嵌入这一具体痛点,提供了扎实、可落地的解决方案,工业价值明确。4分。
📝 摘要: 针对流式训练场景下CTR模型数值特征嵌入的挑战,腾讯提出DAES框架。传统静态分桶方法依赖离线统计,易产生语义漂移;而神经嵌入方法又忽略了明确的分布信息。DAES通过跳转水库采样在线无偏估计全局分位数,在分位数空间进行插值编码以避免值密度影响,并引入场感知分布调制机制,让数值特征的表示能根据相关分类特征进行自适应调整。该框架实现了真正的端到端学习,在多个精排骨干网络上带来稳定的AUC提升,并在腾讯短视频平台线上A/B测试中带来2.307%的ARPU提升。
〰️
9. Towards Full Candidate Interaction: A Comprehensive Comparison Network for Better Route Recommendation
🔗 原文: https://arxiv.org/abs/2508.08745v2
🏷️ 来源: 🏭 工业界 | Alibaba
⭐ 评分: ⭐⭐⭐⭐ (4/5)
🎯 推荐理由: 高德地图工业实践,针对路线推荐无ID、需对比学习的核心问题,提出CCN模型,线上效果显著。
📊 评分理由: 工业界(阿里巴巴高德地图)。论文针对路线推荐这一特定领域,提出了解决路线无唯一ID、需对比学习等核心挑战的CCN模型。核心创新在于构建路线对之间的比较级特征(comparison-level features)和专门设计的综合比较模块(CCB),实现了候选路线间的充分交互。方法在离线(公开及自建数据集)和线上(AMAP部署超一年)均验证有效,线上CR提升+1.2%,DR降低-0.8%。虽非通用推荐范式,但对特定领域(如路线、行程规划)有很强参考价值。4分。
📝 摘要: 针对路线推荐中路线无法分配唯一ID、传统推荐方法失效的问题,高德地图提出综合比较网络(CCN)。CCN的核心创新是构建了“比较级特征”,通过计算两条路线非重叠路段上的特征差异来量化其细微差别。这些特征被输入到专门设计的综合比较块(CCB)中,实现路线间的深度交互和比较,从而进行精细排序。该方法弥补了因缺乏ID而丢失的细粒度信息,体现了全链路优化思想。CCN已在AMAP上线超过一年,线上实验带来覆盖率提升1.2%,偏离率降低0.8%。
〰️
10. Autoregressive Ranking: Bridging the Gap Between Dual and Cross Encoders
🔗 原文: https://arxiv.org/abs/2601.05588v2
🏷️ 来源: 🤝 产学合作 | Google DeepMind, University of Massachusetts Amherst, The University of Texas at Austin
⭐ 评分: ⭐⭐⭐⭐ (4/5)
🎯 推荐理由: 为自回归排序提供理论证明与新型排序感知损失函数,是生成式检索领域的重要工作。
📊 评分理由: 工业界(Google DeepMind)。核心贡献是理论证明和损失函数创新。1)理论层面,首次严格证明了自回归排序(ARR)的表达能力严格优于双塔模型(DE),为生成式检索范式提供了理论基石。2)方法层面,提出了SToICaL损失函数,通过文档级重加权和前缀树边缘化,将排序信息注入到LLM的微调中,有效提升了排序指标。实验在WordNet和ESCI数据集上验证了效果。虽无线上AB验证,但理论扎实、方法新颖,对生成式推荐/检索方向有重要启发。4分。
📝 摘要: 本文从理论和方法两个层面推进了自回归排序(ARR)的研究。理论上,首次严格证明了ARR的表达能力严格优于双塔模型(DE),即ARR能以常数隐藏维度实现任意排序,而DE需要线性增长的维度。方法上,针对标准next-token预测损失与排序任务不匹配的问题,提出了SToICaL损失。该损失通过根据真实相关性对文档进行重加权,并利用前缀树进行token级边缘化,将排序信息注入模型训练。实验表明,SToICaL能有效抑制无效文档ID的生成,并显著提升nDCG等排序指标。
Section 3: 🔍 Deep Dive
SCASRec: A Self-Correcting and Auto-Stopping Model for Generative Route List Recommendation
🔗 原文: https://arxiv.org/abs/2602.03324v1
🏷️ 来源: 🤝 产学合作 | Alibaba, Beijing Institute of Technology, Southern University of Science and Technology
💡 问题与动机
传统路线推荐采用“精排+重排”两阶段流水线,面临三大痛点:1)离线训练目标(如点击率)与线上业务指标(如列表覆盖率)不一致,离线提升难转化为线上收益;2)去重依赖人工规则(如ETA相似度阈值),缺乏对用户意图和场景的自适应性;3)精排与重排阶段割裂优化,精排模型对重排追求的列表级目标(如多样性)是“盲目的”,导致全局次优。
🧠 核心贡献
- 统一框架:提出SCASRec,一个端到端的生成式重排框架,将精排、重排和冗余消除统一到一个模型中。
- 步进式纠正奖励(SCR):引入基于列表覆盖率(LCR)的奖励信号,在每一步解码时引导模型选择能最大化提升最终列表覆盖率的路线,直接对齐线上指标。
- 自适应终止符(EOR):设计可学习的EOR token,替代人工去重规则,让模型根据上下文自适应决定何时停止生成,实现列表长度和冗余控制的自动化。
🛠️ 核心方法
SCASRec采用编码器-解码器架构,以自回归方式生成推荐列表。编码器处理候选路线特征和上下文,解码器在每一步基于当前已生成的部分列表,预测下一个路线ID或EOR终止符。
- 关键技术点1:Stepwise Corrective Reward (SCR):在训练时,对于每一步解码,计算当前部分列表与真实用户轨迹的覆盖率差距作为奖励。该奖励与标准的点击损失结合,引导模型不仅关注相关性,更关注对最终列表质量的边际贡献。
- 关键技术点2:End-of-Recommendation (EOR) Token:在训练数据中,在真实路线被生成后立即添加EOR标签。模型学习预测EOR出现的时机。推理时,一旦生成EOR,推荐过程即终止。
- 关键技术点3:噪声感知训练:针对训练数据中噪声(如用户偏航)对EOR学习的影响,设计了一种启发式策略来调整EOR相关的奖励权重,提升模型鲁棒性。
🔍 关键细节(我关心能不能复现)
- 训练数据怎么构造/采样/增强:基于真实的导航查询日志构建。每个样本包含:用户查询、候选路线集、用户最终采纳的路线(作为正样本),以及从日志中衍生的列表覆盖率(LCR)信号。论文还开源了一个包含约50万查询、600万候选路线的大规模数据集。
- 损失函数与训练策略:总损失 = 点击预测损失(交叉熵) + λ * SCR奖励损失。SCR奖励通过强化学习策略梯度方法进行优化。EOR的学习被整合在点击预测损失中(作为一个特殊的token类别)。
- 推理流程与代价:推理时采用自回归贪婪解码或束搜索。模型输入为候选集特征,逐步输出路线ID直至生成EOR。由于是生成式模型,其计算成本高于传统打分模型,但通过统一的框架避免了后续独立的去重模块计算。
📈 实验效果
- 数据/场景与指标:在两个大规模开源路线数据集及高德地图生产数据上测试。离线指标包括HR、NDCG、MRR;线上指标包括HR@1、列表覆盖率(LCR)、用户偏航率(DR)、低多样性比率(LDR)、冗余路线比率(RRR)。
- 主要结果(给数字):线上A/B测试对比原有生产系统(含PRM、DSFNet),SCASRec在平均展示路线数从4.313降至4.171的情况下,HR@1和LCR@ALL均获得提升,同时DR、LDR降低39.6%,RRR大幅降低50.7%。
- 最关键的消融/对比:消融实验证明了SCR和EOR模块的不可或缺性。移除SCR会导致多样性相关指标显著下降;移除EOR(改用固定长度或规则去重)则会导致RRR和LDR回升,验证了自适应终止的有效性。
⚠️ 风险与边界
- 场景特异性:方法高度依赖能够定义明确的“列表级真值”或替代指标(如LCR)。在无法清晰定义此类指标的场景(如通用商品推荐),SCR的设计可能需要调整。
- 训练复杂度:结合了强化学习奖励,训练可能比标准分类任务更不稳定,需要仔细调参。
- 推理延迟:自回归生成相比传统打分排序,延迟更高,在超高并发或极低延迟要求的场景可能面临挑战。
💼 工业启发
- 保守:借鉴其“全链路优化”思想,在现有系统中尝试构建一个代理指标(如模拟用户满意度的综合分数),并让重排模型直接对其优化。
- 中等:在需要强去重和列表长度控制的场景(如行程规划、套餐推荐),尝试引入类似的EOR机制,替代硬规则。
- 激进:在业务指标清晰、且对延迟有容忍度的场景,直接尝试端到端的生成式重排框架,用单一模型替代精排+重排+规则去重的流水线。
〰️
NEZHA: A Zero-sacrifice and Hyperspeed Decoding Architecture for Generative Recommendations
🔗 原文: https://arxiv.org/abs/2511.18793v2
🏷️ 来源: 🤝 产学合作 | Alibaba, City University of Hong Kong
💡 问题与动机
生成式推荐(GR)利用LLM自回归生成物品语义ID,但其解码过程(尤其是束搜索)延迟极高(>1秒),无法满足工业级召回服务对延迟的严苛要求(如<30ms)。传统的推测解码(SD)方案需要额外的草稿模型和基于模型的验证器,引入了新的训练和推理开销,加速效果有限。
🧠 核心贡献
- 自草稿机制:在主干LLM上集成一个轻量的自回归草稿头,实现高效的自我草稿生成,无需独立草稿模型。
- 模型无关验证器:利用语义ID高度结构化、无效组合极稀疏的特性,设计基于哈希集的快速验证方法,替代需要调用大模型验证的昂贵步骤。
- 完整加速架构:结合上述两点,提出NEZHA架构,实现“零质量牺牲”的超高速解码,满足生产延迟要求。
🛠️ 核心方法
NEZHA在标准GR流程上,于推理阶段插入加速层。主干LLM(含草稿头)一次前向传播生成多个候选token(草稿),然后由哈希集验证器快速过滤掉无效的语义ID组合,保留的有效token被接受,继续下一轮生成。
- 关键技术点1:Nimble Drafting (自草稿):在主干Transformer的最后一层后添加一个轻量的自回归线性头(草稿头)。在预填充阶段,主干模型计算所有位置的隐藏状态后,草稿头利用这些状态并行地预测后续多个位置的token分布,实现快速草稿生成。
- 关键技术点2:Efficient Verification (哈希验证):离线构建所有有效物品语义ID的哈希集合。在推理时,将草稿头生成的token序列与哈希集进行匹配,仅接受那些能构成有效语义ID前缀的token序列。这步操作是常数时间复杂度,极快。
- 关键技术点3:Prompt设计:在输入提示中引入特殊token来标识序列的不同部分(如用户历史、候选集),确保自草稿生成时上下文完整性。
🔍 关键细节(我关心能不能复现)
- 训练数据怎么构造/采样/增强:使用标准的GR训练数据,即用户历史序列和对应的下一物品语义ID。草稿头与主干模型一同训练,训练目标是在给定完整上下文时,正确预测序列中的每个位置。
- 损失函数与训练策略:使用标准的自回归语言建模损失(交叉熵)同时训练主干模型和草稿头。没有为加速架构引入额外的损失函数。
- 推理流程与代价:1)预填充:处理输入提示。2)草稿生成:草稿头并行预测γ个后续token。3)验证:用哈希集验证这γ个token构成的序列前缀。4)接受:从第一个无效token处截断,接受所有有效token。5)重复:以接受后的序列为新起点,重复步骤2-4,直至生成足够数量token。实验显示可将系统总延迟从超1000ms降至30ms内。
📈 实验效果
- 数据/场景与指标:在三个公开数据集(Amazon-Book, MovieLens, Yelp)和淘宝搜索广告工业数据集上测试。指标包括召回率(Recall, NDCG)和解码延迟。
- 主要结果(给数字):在淘宝工业场景,NEZHA(0.6B模型)对比Vanilla Beam Search(3B模型),在质量相当的前提下,将解码延迟降低约10倍,系统总延迟从9.41(归一化)降至1.86。线上A/B测试(10%流量,7天)带来1.2%的收入提升。
- 最关键的消融/对比:消融实验证明了自草稿和哈希验证均至关重要。移除自草稿(用外部小模型)会增加开销;移除哈希验证(用模型验证)会大幅增加延迟。与原始束搜索及其他SD基线对比,NEZHA在延迟大幅降低的同时,质量下降最少(近乎零牺牲)。
⚠️ 风险与边界
- 依赖语义ID的稀疏性:哈希验证的有效性建立在“绝大多数随机token序列不构成有效ID”的假设上。如果语义ID设计得过于简单或密集,哈希过滤效率会下降。
- 草稿头精度:草稿头的预测精度直接影响加速比和最终质量。在数据分布差异大的场景,草稿头可能表现不佳。
- 束搜索兼容性:当前方法主要优化贪婪解码,如何高效地与束搜索结合以进一步提升质量,可能需要额外设计。
💼 工业启发
- 保守:在非实时场景(如离线批处理生成候选)中,可以先尝试使用标准的推测解码(SD)进行加速。
- 中等:对于已使用语义ID的生成式召回系统,立即评估引入哈希集验证器的可行性,这是低成本且高效的加速手段。
- 激进:在延迟敏感且决定全面拥抱生成式召回的场景,参考NEZHA架构,设计一体化的自草稿模型,并进行端到端的训练和部署。
〰️
Unifying Ranking and Generation in Query Auto-Completion via Retrieval-Augmented Generation and Multi-Objective Alignment
🔗 原文: https://arxiv.org/abs/2602.01023v2
🏷️ 来源: 🤝 产学合作 | Apple, UC Berkeley
💡 问题与动机
传统QAC系统采用“检索-排序”两阶段范式,受限于历史日志覆盖率,难以处理长尾和新颖前缀,且多目标优化依赖复杂的特征工程和启发式融合。纯生成式方法又存在幻觉、安全性差、缺乏真实性(不接地)等问题。需要一种能兼顾覆盖度、多目标优化和内容真实性的新方案。
🧠 核心贡献
- 范式重构:将QAC从两阶段排序彻底重构为端到端的条件列表生成任务。
- RAG与多目标对齐框架:设计了一套结合检索增强生成(RAG)、多目标直接偏好优化(DPO)以及迭代批判-修订合成数据生成的完整训练方法论。
- 混合部署系统:提出了一个分层服务架构,结合大型模型(高质量)离线预计算与紧凑模型(低延迟)实时推理,平衡质量与延迟。
🛠️ 核心方法
整体流程:给定用户前缀,系统从查询日志、产品目录等多源检索相关候选和上下文,构建结构化提示。生成器(微调的LLM)基于该提示,直接自回归输出一个有序的查询建议列表。训练分为两阶段:SFT(使用高质量合成数据)和多目标DPO对齐。
- 关键技术点1:检索增强提示构建:提示中不仅包含用户前缀,还动态注入检索到的Top-K历史查询候选、相关物品的元数据及其交互特征,为生成提供丰富的真实性依据。
- 关键技术点2:多目标验证器套件:设计了六个验证器分别量化相关性、安全性、互动性、目录真实性、上下文真实性和多样性。它们包括规则模型、判别模型和LLM-as-judge。
- 关键技术点3:多目标DPO:利用验证器输出的奖励构建偏好对(高综合奖励 vs 低综合奖励),使用DPO损失函数直接优化生成模型,使其偏好生成高奖励的列表,实现多目标对齐。
🔍 关键细节(我关心能不能复现)
- 训练数据怎么构造/采样/增强:1)使用教师LLM(如GPT-4)通过迭代批判-修订流程,生成高质量、多样化的(前缀, 建议列表)合成数据,用于SFT。2)使用生产模型采样,并用验证器打分构建偏好对,用于DPO。
- 损失函数与训练策略:第一阶段:标准语言建模损失(SFT)。第二阶段:多目标DPO损失,其偏好对由各验证器奖励加权和决定。
- 推理流程与代价:采用混合架构。高频前缀:使用大型生成器离线批量生成结果并缓存,在线查找(亚毫秒)。低频长尾前缀:使用参数更少的紧凑生成器实时推理(满足约100ms延迟约束)。缓存命中率是关键。
📈 实验效果
- 数据/场景与指标:在Apple大规模商业搜索平台评估。离线指标包括各验证器对应的分数;人工评估偏好得分;线上A/B测试指标:击键减少率、建议采纳率。
- 主要结果(给数字):离线实验在相关性(0.687 vs 0.646)等所有目标上超越传统LTR基线。人工评估显示+0.40至+0.69的偏好得分。线上实验带来5.44%的击键减少和3.46%的建议采纳率提升。
- 最关键的消融/对比:消融实验表明,多目标DPO是关键,能显著提升安全性(不安全率从1.01%降至0.65%)等目标。对比实验显示,端到端生成方法在覆盖度和多样性上显著优于检索-排序基线。
⚠️ 风险与边界
- 系统复杂性:整个框架包含多个组件(检索器、多个验证器、大小模型),维护和迭代成本较高。
- 合成数据质量:严重依赖教师LLM生成高质量合成数据,其成本和质量波动可能影响最终效果。
- 延迟与缓存:混合架构的效能高度依赖缓存命中率,对于长尾分布极其明显的场景,实时紧凑模型的质量可能成为瓶颈。
💼 工业启发
- 保守:在现有排序模型中,尝试引入RAG思想,将检索到的丰富上下文作为特征输入,提升模型对长尾查询的理解。
- 中等:针对需要强真实性约束的推荐场景(如应用商店、音乐推荐),借鉴其多目标验证器设计,构建一个综合奖励信号来指导模型优化或重排。
- 激进:在搜索或推荐入口场景(如搜索框、首猜),尝试用端到端生成式模型替代整个候选生成与排序链路,并通过DPO对齐多个业务目标。
〰️
GRAB: An LLM-Inspired Sequence-First Click-Through Rate Prediction Modeling Paradigm
🔗 原文: https://arxiv.org/abs/2602.01865v2
🏷️ 来源: 🏭 工业界 | Baidu
💡 问题与动机
传统DLRM在CTR预测上面临泛化瓶颈和长序列建模困难,且性能提升伴随计算成本指数增长。受LLM缩放定律启发,生成