2024阿里推出LLMHG:利用大语言模型构建用户多视图图结构

Introduction

个性化推荐系统帮助用户发现符合其偏好的内容,但准确建模人类兴趣的多样性仍是一个挑战。大语言模型(LLMs)的出现为深入研究用户行为和偏好提供了机会,通过利用LLMs的语义推理能力,我们可以更好地理解和分析影响个人兴趣的众多因素,构建复杂的用户画像,克服仅依赖过去互动的局限性。然而,LLMs必须从稀疏数据中提取用户偏好。

我们提出了一种新的方法 ,将LLMs与图神经网络结合,创建个性化推荐系统。通过利用LLMs的理解能力,我们获得了一组兴趣视图(IAs),并利用这些视图将电影分类到多个类别中。通过图结构学习技术,我们优化了图表示,为推荐提供了准确的基础。

Methodology

Problem Statement

推荐系统旨在基于用户的交互历史来捕捉用户的兴趣,将用户的交互历史视为有序序列,并建模用户的动态演变兴趣。令 表示用户的集合, 表示具有相应物品属性 的物品集合,并令列表 表示用户 的交互序列,按时间顺序排列,其中 是在时间步 与之交互的物品, 是序列的长度。序列推荐任务是预测用户 在下一个时间步 时将要与之交互的物品的概率分布,即

在本文中,我们提出了一种新的基于大语言模型生成的多视图方法,即 LLMHG,该方法利用大语言模型的广泛世界知识和多视图图结构优化来捕捉历史行为序列中隐含的用户兴趣。主要包含四个步骤:兴趣视图提取、多视图图构建、图结构学习以及表示融合以进行推荐预测。

Interest Angle Generation

我们采用一种引导性的两步方法,而非直接让大语言模型挖掘所有复杂关系。第一步,大语言模型分析行为序列生成兴趣视图(IAs),每个代表用户偏好,如偏好类型、导演等,通过这种方法提高了画像准确性。此外,离散的IAs适合直接集成到结构化的图形构造中,作为多视图图的基本模块。

Construction of Multi-View Hypergraph

随着兴趣视图被提取,利用大型语言模型的世界知识将用户行为历史中的电影沿着每个视图分类到特定类别。例如,提取“genre”视图后,模型可将电影分类为恐怖、动作、剧情、喜剧等。这种分类帮助构建多视图图,每个视图对应一个视图(如:类型、导演、国家)。每个视图中的边捕捉共享属性的电影簇。具体而言,给定图 ,项集 是顶点集,所有兴趣视图下的类别集 是边集,其中每个顶点和边分别定义为 和 。边 包含顶点 的子集,顶点-边关联矩阵 定义如下:

边 的度数定义为 中顶点的数量,即 ,顶点 的度数定义为 ,其中 表示边 的权重。我们分别用 、 和 表示 、 和 的对角矩阵形式。

Hypergraph Structure Learning for LLM Content Refinement

初始提取和分类可能无法完全捕捉人类偏好。主要限制因素包括:(1) 知识限制,尽管LLMs知识广泛,但仍可能缺乏某些物品的概念、属性和关系的信息;(2) 推理错误,导致次优结果。为缓解这些限制,我们通过图结构学习进行后处理,包括边内和边间结构学习。

首先,我们计算 ,利用LLMs生成的文本信息补充和纠正边。计算公式如下:

其中 是初始值, 是补充后的值, 是相关文本信息的嵌入。

然后,考虑成对边的热核权重的平均值和原始之间的距离作为边权重:

第一部分评估聚合程度,第二部分评估稀疏性。

定义图集合 作为边的预测器。理想情况下,图分区中的切应尽量减少对边的干扰,以保持物品之间的连接。图结构学习损失函数定义为:

其中 是归一化的图拉普拉斯矩阵, 是单位矩阵。

通过图细化,我们可以抑制无关特征并放大显著的偏好关联,以保持个人兴趣的透明性。使用这种LLM提取后跟随结构化后推理调整的策略,我们可以同时从LLMs的广泛知识提取效率和图形学习方法的透明性中获益。

Representation Fusion

在最后步骤中,我们将从图结构学习和序列推荐模型中得到的嵌入表示进行整合。根据边权重,我们使用图神经网络通过边卷积操作来捕捉高阶关系。损失函数定义为:

其中表示用户的下一个物品预测,是平衡图结构学习损失和监督预测损失的超参数。通过融合这两种表示,我们增强推荐系统预测下一个物品的能力,创建一个更可解释且更准确的推荐系统,能够同时考虑用户偏好和行为模式。

Experiments

Experiment Settings

为了评估方法,我们在Amazon Beauty、Amazon Toys和MovieLens-1M数据集上进行了实验。

Experiment Results

根据表所示,我们在ML-1M、Amazon Beauty和Amazon Toys数据集上进行了全面测试实验,将LLMHG模型与几种强大的基线方法进行了比较,表中阴影区域突出了性能提升。

这些结果表明LLMHG能够有效增强现有推荐系统,传统推荐系统在处理稀疏和噪声用户行为历史时表现不佳。LLMHG利用图结构优化的大语言模型,提升了推荐效果,其表现与底层大语言模型能力成正比,基于GPT4的LLMHG始终优于基于GPT3.5的版本。

论文:https://arxiv.org/pdf/2401.08217

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/Python_cocola/article/details/143374024