推荐算法日报 - 2026-03-28

训练效率与成本优化:今日多篇论文聚焦于推荐系统开发中的效率瓶颈。从快手提出的持续数据集蒸馏(DIET)到针对LSR模型的GPU内核优化(Sparton),再到用线性复杂度算子(Hyena)替代注意力机制,核心目标都是降低大规模数据训练和迭代的算力与时间成本,这是工业界持续关注的核心痛点。; 稀疏与冷启动场景的表示学习:在数据稀疏的特定场景(如在线健康社区)和复杂的多行为推荐中,如何学习更鲁棒、更可解释的用户/物品表示是关键。今日论文通过引入伪标签辅助目标、因果干预与对比学习对齐等方法,旨在利用有

推荐算法日报 - 2026-03-27

工业界聚焦数据与架构协同设计:今日多篇工业界论文(快手、阿里、Meta)均强调,单纯扩大模型参数已进入收益递减阶段。核心创新转向数据与模型的协同优化,例如通过扩展训练信号(ES³)、挖掘潜在意图(OneSearch-V2)或设计更高效的架构(HHSFT)来突破性能瓶颈。; LLM推荐走向深度优化与对齐:LLM在推荐中的应用正从简单微调转向更精细的优化。研究重点包括:通过自蒸馏或强化学习对齐LLM与推荐目标(OneSearch-V2, SumRank),设计轻量级适配器以平衡性能与公平性(Ligh

推荐算法日报 - 2026-03-26

LLM Agent架构的工程化与规模化:今日多篇论文聚焦于将LLM作为智能代理(Agent)应用于推荐与搜索系统,并致力于解决其规模化部署的工程挑战。核心议题包括:如何为Agent从海量技能库中高效路由(SkillRouter)、如何设计低token复杂度的稳定架构以消除幻觉(RES)、以及如何自动化Agent驱动的模型研发流程(AI Co-Scientist)。这标志着LLM应用正从简单的提示工程迈向复杂、可扩展的系统工程。; 语义与协同信号的动态融合:在物品表示(如Semantic ID)和

推荐算法日报 - 2026-03-25

LLM驱动的推荐系统走向深度融合与工程化:今日论文显示,LLM在推荐中的应用已超越简单的文本理解,正与系统核心环节深度融合。从生成式推荐(GEM-Rec)到智能体框架(AgenticRec),再到检索优化(DSL-R1),LLM正被用于统一语义理解、商业逻辑与决策轨迹,标志着技术从“能用”向“好用、易部署”的工程化阶段迈进。; 稀疏与高效成为大规模检索的关键考量:无论是针对代码的SPLADE-Code模型实现亚毫秒级检索,还是ECI指标旨在降低硬负样本评估成本,亦或是TagLLM通过知识蒸馏提升

推荐算法日报 - 2026-03-24

📭 暂无数据:今日无精选论文更新,无法进行趋势分析。

推荐算法日报 - 2026-03-23

📭 今日无新论文:今日未收录新的推荐系统相关论文,技术趋势分析暂缺。

推荐算法日报 - 2026-03-22

📭 今日无更新:今日未收录新的精选论文,暂无法进行趋势分析。

推荐周报 2026-W12

本周推荐系统研究围绕三条技术主线展开。第一条是 Semantic ID 驱动的生成式检索持续升温——Spotify 同时放出两篇论文,一篇将 SID 系统部署上线并跑通 A/B test(新节目发现率 +14.3%),另一篇将 SID 作为独立模态统一搜索、推荐和推理,工业界 SID 系统正从"能不能用"进入"怎么用得更好"的阶段。第二条是多模态检索与表示压缩:Apple 交出统一文本/图像/视频的生产级检索架构,Aalto University 将 2B 参数的 VLM 蒸馏为 69M 的文本编码器(延迟降低 50 倍),POSTECH 发现并修复了 VLM embedder 做推荐时的模态崩溃问题。 第三条是工业级精排的信息流控制。阿里巴巴和 Meta 的三篇论文从不同角度切入同一命题——不再无差别地喂入所有特征和信号,而是控制特征参与交互的时机(延迟掩码)、筛选值得精细交互的行为(核心行为选择)、标准化行为信号的分布语义(条件去偏)。Meta 的 MBD 框架尤其值得关注,已部署在两个十亿级用户的短视频平台上,将观看时长与视频时长的相关性从 0.514 压到 0.003。

推荐算法日报 - 2026-03-21

📭 今日无更新:今日未收录新的精选论文,暂无法进行趋势分析。

推荐算法日报 - 2026-03-20

生成式检索成为工业界新范式:今日多篇论文聚焦于将推荐任务重构为基于语义ID的生成式任务。Spotify的GLIDE和NEO框架均展示了如何利用LLM的自回归生成能力,将海量项目库离散化为语义ID进行可控推荐,并在大规模线上实验中验证了其在提升探索性和跨任务统一建模上的显著价值。; 多模态与模态平衡成为研究热点:无论是学术界针对模态崩溃提出的VLM2Rec,还是工业界将语义ID作为独立模态对齐的NEO,都反映出在多模态推荐中,如何有效融合并平衡不同模态信息以提升表示质量和推荐效果,是当前的关键挑战

推荐算法日报 - 2026-03-19

LLM驱动的推荐画像构建:今日多篇论文聚焦于利用大语言模型(LLM)从文本信息(如评论)中提取结构化、多因子的用户/物品画像,以增强推荐的语义理解和个性化能力,标志着LLM正从通用内容生成向精细化特征工程演进。; 在线学习与自适应系统:针对非平稳环境和动态用户偏好,研究重点转向在线学习和自适应算法。从Bandit算法(如C3 Thompson Sampling)到LLM的在线提示路由(CCLUB),核心目标是在无需重训练的情况下,实现模型的实时调整与性能优化。; 🔬 图表示学习的鲁棒性增强:为

推荐算法日报 - 2026-03-18

LLM驱动的推荐走向务实与高效:今日多篇论文聚焦于如何将大语言模型(LLM)高效、低成本地应用于推荐系统。核心思路包括:通过知识蒸馏(如Qwen3-4B蒸馏DeepSeek-685B)和模型编辑(如GenRecEdit)大幅降低推理成本与更新开销;利用检索增强(RAG)框架(如R3-REC、FinTRACE)为LLM提供结构化知识,以解决冷启动和稀疏性问题。这表明LLM推荐正从“暴力使用”转向“精打细算”的工程化落地阶段。; 工业界聚焦系统级优化与去偏:来自Yahoo、Meta等公司的论文展现了