ZeroHour's Site

Back

TedRec-RUC-Model-Utilize#

融合文本特征与ID特征

问题:直接融合的方式只在物品级别上进行融合,无法在注意力交互之前,在同一序列的其他位置使用

解决:利用TedRec方法(Text-ID),全局整合上下文,实现序列级语义融合

具体实现:

  1. 对 text embeddings 和 ID embeddings 做傅里叶变换,将全局时域序列转换到频域,再简单的进行乘法融合特征即可(频域相乘等效于时域卷积)

  2. 使用 mixture-of-experts (MoE) 调制方法给文本位置信息,提升融合性能

Latent Relation Discovery (LRD)#

序列推荐建模: 传统:项目之间的隐式协同过滤 现代:显式地将项目关系加入用户历史序列的建模中,大多关系来自知识图谱 Relation-aware Recommendation

问题:依赖于人工预定义的关系。存在稀疏性问题。泛化能力差。

解决:关系感知序列推荐框架

不靠预定义,用 LLM 来挖掘关系,用自然语言,描述物品间的关系

具体:

  1. LLM 获取物品的语言知识表示
  2. 输入基于 DVAE 的潜在关系发现模块
  3. 自监督关系发现任务与推荐任务一起优化

详细分析:

关系存储在知识图谱中,知识图谱依赖于人工预定义的关系,稀疏 ——关系(边)稀疏,物品数据(点)稀疏

两个路径(任务):#

路径一: Item Embedding 物品ID → 嵌入层 → 物品嵌入向量 (v_i, v_j) → 知识图谱交互

路径二: LLM-based Relation Extraction 物品 → LLM → 语言知识表示 (e_i, e_j) → 关系提取模块 → 潜在关系 r

Item Reconstruction Module:

输入:物品嵌入 (v_i, v_j) + 提取的关系 r 基于目标物品和关系来重构历史物品

LSVCR#

Joint Video and Comment Recommendation

问题:现有推荐系统主要关注用户与视频的交互行为,忽略了评论内容和交互在用户偏好建模中的作用

解决:LSVCR (Large Language Models for Sequential Video and Comment Recommendation)

利用用户与视频和评论的交互历史,联合进行个性化视频和评论推荐

具体:

  1. 序列推荐 (SR) 模型:作为主要推荐骨干(部署时保留)
  2. 补充大语言模型 (LLM) 推荐器:更好地捕获异构交互行为中的潜在用户偏好(部署时丢弃)

两阶段:#

第一阶段:个性化偏好对齐

  • 目标:对齐两个组件的偏好表示
  • 作用:增强SR模型的语义理解能力

第二阶段:推荐导向微调

  • 目标:根据特定目标微调对齐增强的SR模型
  • 作用:优化最终推荐性能

NoteLLM#

问题:

BERT-based modelsgenerate note embeddings 忽略了重要的 tags/categories

解决:

  1. 用笔记压缩提示压缩笔记成单 token
  2. 通过对比学习学习潜在的相关笔记的嵌入
  3. 利用 NoteLLM 通过指令调优自动总结笔记并生成 tags/categories

详细:

现有的在线 I2I 笔记推荐方法通常将整个笔记内容输入基于 BERT 的模型,以生成笔记的嵌入,并基于嵌入相似度推荐相关笔记

但这些方法将 tags/categories 作为笔记的一部分,没充分利用

生成 tags/categories 与生成笔记嵌入相似

NoteLLM-2#

用 LLM 增强多模态

问题: 预训练的 MLLM 需要高质量网络规模多模态数据 经过微调的 LLMs 往往忽略图像内容

解决: 提出端到端的微调方法,定制化地整合任何现有的 LLMs 和视觉编码器 提出 NoteLLM-2 框架,增强视觉信息

具体:

  1. 基于提示,将视觉和文本内容分离,采用多模态上下文学习策略来平衡各模态的关注
  2. 后期融合:直接将视觉信息整合到最终表示中

Tolearn:#

PaperReading0
https://zerohour.github.io/blog/daily/2510/paperreading0
Author ZeroHour
Published at 2025年10月12日
Comment seems to stuck. Try to refresh?✨