PaperReading0
Utilize Model
TedRec-RUC-Model-Utilize#
融合文本特征与ID特征
问题:直接融合的方式只在物品级别上进行融合,无法在注意力交互之前,在同一序列的其他位置使用
解决:利用TedRec方法(Text-ID),全局整合上下文,实现序列级语义融合
具体实现:
-
对 text embeddings 和 ID embeddings 做傅里叶变换,将全局时域序列转换到频域,再简单的进行乘法融合特征即可(频域相乘等效于时域卷积)
-
使用 mixture-of-experts (MoE) 调制方法给文本位置信息,提升融合性能
Latent Relation Discovery (LRD)#
序列推荐建模: 传统:项目之间的隐式协同过滤 现代:显式地将项目关系加入用户历史序列的建模中,大多关系来自知识图谱 Relation-aware Recommendation
问题:依赖于人工预定义的关系。存在稀疏性问题。泛化能力差。
解决:关系感知序列推荐框架
不靠预定义,用 LLM 来挖掘关系,用自然语言,描述物品间的关系
具体:
- LLM 获取物品的语言知识表示
- 输入基于 DVAE 的潜在关系发现模块
- 自监督关系发现任务与推荐任务一起优化
详细分析:
关系存储在知识图谱中,知识图谱依赖于人工预定义的关系,稀疏 ——关系(边)稀疏,物品数据(点)稀疏
两个路径(任务):#
路径一: Item Embedding 物品ID → 嵌入层 → 物品嵌入向量 (v_i, v_j) → 知识图谱交互
路径二: LLM-based Relation Extraction 物品 → LLM → 语言知识表示 (e_i, e_j) → 关系提取模块 → 潜在关系 r
Item Reconstruction Module:
输入:物品嵌入 (v_i, v_j) + 提取的关系 r 基于目标物品和关系来重构历史物品
LSVCR#
Joint Video and Comment Recommendation
问题:现有推荐系统主要关注用户与视频的交互行为,忽略了评论内容和交互在用户偏好建模中的作用
解决:LSVCR (Large Language Models for Sequential Video and Comment Recommendation)
利用用户与视频和评论的交互历史,联合进行个性化视频和评论推荐
具体:
- 序列推荐 (SR) 模型:作为主要推荐骨干(部署时保留)
- 补充大语言模型 (LLM) 推荐器:更好地捕获异构交互行为中的潜在用户偏好(部署时丢弃)
两阶段:#
第一阶段:个性化偏好对齐
- 目标:对齐两个组件的偏好表示
- 作用:增强SR模型的语义理解能力
第二阶段:推荐导向微调
- 目标:根据特定目标微调对齐增强的SR模型
- 作用:优化最终推荐性能
NoteLLM#
问题:
BERT-based modelsgenerate note embeddings 忽略了重要的 tags/categories
解决:
- 用笔记压缩提示压缩笔记成单 token
- 通过对比学习学习潜在的相关笔记的嵌入
- 利用 NoteLLM 通过指令调优自动总结笔记并生成 tags/categories
详细:
现有的在线 I2I 笔记推荐方法通常将整个笔记内容输入基于 BERT 的模型,以生成笔记的嵌入,并基于嵌入相似度推荐相关笔记
但这些方法将 tags/categories 作为笔记的一部分,没充分利用
生成 tags/categories 与生成笔记嵌入相似
NoteLLM-2#
用 LLM 增强多模态
问题: 预训练的 MLLM 需要高质量网络规模多模态数据 经过微调的 LLMs 往往忽略图像内容
解决: 提出端到端的微调方法,定制化地整合任何现有的 LLMs 和视觉编码器 提出 NoteLLM-2 框架,增强视觉信息
具体:
- 基于提示,将视觉和文本内容分离,采用多模态上下文学习策略来平衡各模态的关注
- 后期融合:直接将视觉信息整合到最终表示中
Tolearn:#
- MoE: https://zhuanlan.zhihu.com/p/542465517 ↗
- SASRec
- DVAE: 离散状态变分自编码器
- LSTM, GRU, seq2seq……
- Relation-aware Recommendation, 显式