常用ai工具之DeepSeek、腾讯元宝、字节豆包、Kimi及Ai名词解释

DeepSeek: 适用于各种写作场景,尤其在创意写作、内容创作方面能提供强大的创意和逻辑支持,也适合需要进行深度思考和分析的专业场景。DeepSeek:适合专业写作者、内容创作者、创意工作者等对写作创意和逻辑要求较高的人群。

腾讯元宝:在腾讯生态内的办公、社交、搜索等场景有很大优势,适合需要结合微信等腾讯系产品进行信息获取、创作和分享的用户。腾讯元宝:适合腾讯生态的重度用户,如经常使用微信、腾讯文档等产品的办公人群、社交人群。

字节豆包:在日常学习、生活和工作中的多场景都能发挥作用,如英语学习、文案创作、信息查询等,尤其适合对写作不太熟悉,需要逐步引导和丰富模板支持的新手,适合写作小白、学生群体、日常办公需要进行简单文案创作和信息查询的人群。

Kimi:更适合对写作有一定要求,希望提升文章质量、深入剖析爆款文章逻辑的创作者,在学术、法律等长文本处理领域表现出色。Kimi:适合有一定写作基础,希望进一步提升写作水平,对文章质量有较高要求的创作者,如专业编辑、文案策划等。

API:应用程序编程接口,是一组规则或协议,能让软件应用相互通信以交换数据、功能。还为应用所有者提供了安全共享数据和功能的方式。API的工作方式通常是客户端发送请求,服务器响应,比如第三方支付处理。

tokens:在人工智能领域,“tokens”通常指的是将文本分割成的最小有意义单元。例如,在自然语言处理中,一个 token 可以是一个单词、一个标点符号,或者是由特定规则确定的一段连续字符。将文本分解为 tokens 有助于模型对文本进行理解和处理。模型通过学习 tokens 之间的关系和模式,来完成诸如语言生成、问答、翻译等各种任务。打个比方,“我今天很开心!”这句话可能被分解为“我”“今天”“很”“开心”“!”这几个 tokens 。不同的模型和应用场景中,对 tokens 的定义和处理方式可能会有所差异,但总体上都是为了将复杂的文本数据转化为模型能够有效处理和学习的形式。

显卡:是计算机中的图形处理单元,负责将计算机中的数字信号转换为图像信号,并将其显示在显示器上。它通过处理大量的图形数据来实现这一目标。例如,当你在玩一款3D游戏时,显卡会接收到游戏中的图形数据,并将其转换为你能够在屏幕上看到的图像。

CPU:是计算机的大脑,负责执行各种计算任务和控制其他硬件组件。它可以执行复杂的数学运算、逻辑判断和数据处理操作。举个例子,当你打开一个应用程序时,CPU会读取程序代码并执行相应的指令,以便程序能够正常运行。

GPU:图形处理器,GPU是一种专门用于处理图形和视频数据的处理器。与CPU相比,GPU拥有更多的处理单元和更高的并行计算能力,使其能够更快地处理大规模的图形数据。例如,当你使用视频编辑软件进行视频渲染时,GPU可以加速渲染过程,使你能够更快地完成工作。

当前被普遍看好的两个大模型专业应用方向,分别是RAG(Retrieval-Augmented Agenerated,检索增强生成)与Agent(AI智能体)。

“幻觉”,指的是大模型在试图生成内容或回答问题时,输出的结果不完全正确甚至错误,即通常所说的“一本正经地胡说八道”。

img

RAG:检索增强生成(Retrieval Augmented Generation,RAG)是一种强大的工具,它通过将企业外部知识整合到生成过程中,增强了大语言模型(LLM)的性能。RAG本质上是通过工程化手段,解决LLM知识更新困难的问题。其核心手段是利用外挂于LLM的知识数据库(通常使用向量数据库)存储未在训练数据集中出现的新数据、领域数据等。通常而言,RAG将知识问答分成三个阶段:索引、知识检索和基于内容的问答。

img

算法:是用于解决问题的一系列明确指令的有限序列。简单来说,算法就是一种步骤的定义,使得在给定输入时,能够产生所需输出。几个基本特点:

  1. 明确性:算法必须具有明确的定义,每个步骤都要清晰明确。这样才能保证执行者能够根据算法的规范来执行操作,并获得正确的结果。
  2. 有穷性:算法必须在有限的步骤内结束,不能无限循环或无限计算。这是因为计算机是有限资源的,无限的计算将导致计算机永远无法停止。
  3. 输入:算法接受一定的输入,这些输入包括问题的数据和任何其他必要的信息。
  4. 输出:算法必须生成明确的输出,这些输出反映了给定输入的解决方案;在人工智能领域,算法被用来实现机器学习、深度学习等技术,以实现自主决策和智能行为。

提示词(Prompt):是指用户向大模型输入的文本内容,用于触发大模型的响应并指导其如何生成或回应,些提示词可以是一个问题、一段描述、一个指令,甚至是一个带有详细参数的文字描述。它们为大模型提供了生成对应文本、图片、音频、视频等内容的基础信息和指导方向。

AiGC:AIGC的全称为“Artificial Intelligence Generated Content”,即“人工智能生成内容”。这是一种新的创作方式,利用人工智能技术来生成各种形式的内容,包括文字、音乐、图像、视频等。大模型为AIGC提供了强大的技术基础和支撑,而AIGC则进一步推动了大模型的发展和应用。

LLM:大语言模型(Large Language Models,简称LLM),也称大语言模型或大型语言模型,是一种由包含数百亿以上参数的深度神经网络构建的语言模型,通常使用自监督学习方法通过大量无标注文本进行训练,它通过大规模数据集训练来预测和生成文本和其他内容。绝大部分大语言模型都是基于Transformer架构。相比于传统的循环神经网络(RNN)和长短时记忆网络(LSTM),Transformer具有独特的注意力机制,自注意力机制允许模型根据序列中的其他位置调整每个位置的表示,从而提高模型对上下文的理解能力。

大模型:人工智能(AI)有多种模型,不同模型特点不同、应用不同。大模型通常指的是大规模的人工智能模型,是一种基于深度学习技术,具有海量参数、强大的学习能力和泛化能力,能够处理和生成多种类型数据的人工智能模型。

通常说的大模型的“大”的特点体现在:参数数量庞大、训练数据量大、计算资源需求高。

AI 智能体(AI Agent):是一种能够自主感知周遭环境、进行分析决策以及执行行动的智能系统。是一种模仿人类智能行为的智能化系统,它就像是拥有丰富经验和知识的“智慧大脑”,能够感知所处的环境,并依据感知结果,自主地进行规划、决策,进而采取行动以达成特定目标。简单来说,智能体能够根据外部输入做出决策,并通过与环境的互动,不断优化自身行为。智能体本身既不是单纯的软件也不是硬件,而是一个更为宽泛的概念,它们可以是软件程序、机器人或其他形式的系统,具备一定的自主性和智能性。

协议:一台计算机只有在遵守网络协议的前提下,才能在网络上与其他计算机进行正常的通信。网络协议通常被分为几个层次,每层完成自己单独的功能。通信双方只有在共同的层次间才能相互联系。常见的协议有:TCP/IP协议、IPX/SPX协议、NetBEUI协议等。在局域网中用得的比较多的是IPX/SPX.。用户如果访问Internet,则必须在网络协议中添加TCP/IP协议。译名为传输控制协议/互联网络协议)协议, TCP/IP(传输控制协议/网间协议)是一种网络通信协议,它规范了网络上的所有通信设备,尤其是一个主机与另一个主机之间的数据往来格式以及传送方式。

框架语言:框架的编程语言取决于具体的框架类型和开发者的喜好。目前,主要的框架语言有Python、JavaScript、Ruby、PHP等。每种语言都有自己的优势和特点,开发者可以根据项目需求和个人技术偏好选择合适的语言进行开发。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

img

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

img