LLM应用实战1-基本概念

本篇文章是 LLM 应用实战的第一篇,先从LLM的一些基本概念讲起。先看图:
在这里插入图片描述

基本概念

我们先大致了解一下图上的各个概念,等到后面具体章节再做详细解释。

1. 提示词工程(Prompt Engineering)

  • 定义:通过优化输入文本(提示词)引导大模型生成更精准的输出,如角色设定(Role Prompt)、思维链(Chain-of-Thought)等。
  • 应用:提升问答、代码生成等任务的性能,例如通过特定格式(如“请逐步思考”)激发模型推理能力。

2. AI Agent(智能代理)

  • 定义:能自主规划、调用工具(如搜索/计算)完成复杂任务的AI系统,如AutoGen的多代理协作框架。
  • 特点:具备记忆(Memory)、规划(Planning)和工具调用(Tool Use)能力。

3. Model Context Protocol (MCP)

  • 定义:MCP 是一种模型上下文管理协议,用于规范大语言模型(LLM)与外部系统(如知识库、数据库)之间的上下文交互机制。
  • 作用:
    • 统一模型对多源上下文(如用户输入、检索结果、历史对话)的整合方式,确保生成内容的一致性与准确性。
    • 典型应用:结合实时数据与预训练知识生成回答(如客服系统)

4. Function Calling(函数调用)

  • 定义:允许LLM按需调用外部API或工具(如天气查询、数据库操作),由OpenAI等平台标准化接口。
  • 价值:扩展模型能力边界,实现动态信息获取。

5. Retrieval-Augmented Generation (RAG)

  • 定义:通过检索外部知识增强生成结果的技术,分为检索(Retrieval)与生成(Generation)两阶段。
  • 核心组件:
    1. Retrieval Source:知识库(如维基百科、企业文档)。
    2. Retrieval Metric:相似度算法(如余弦相似度、BM25)筛选相关片段。
    3. Integration Method:将检索结果与用户输入结合后生成回答(如注意力机制、直接拼接)。
  • 优势:
    • 解决模型幻觉问题,生成内容更可信。
    • 无需重新训练模型,动态更新知识(如插入最新新闻)。
  • 示例流程:
    用户提问 → 检索知识库 → 拼接检索结果与提问 → LLM生成回答

6. FineTuning(微调)

  • 定义:在预训练模型基础上,用领域数据(如法律文本)进行二次训练,适配特定任务。
  • 类型:全参数微调(Full Fine-tuning)与高效微调(如LoRA)。

7. 预训练(Pretraining)

  • 定义:通过海量数据(如互联网文本)训练模型学习通用语言表征,如GPT-3的千亿参数训练。
  • 核心:自回归(Auto-Regressive)或自编码(Auto-Encoder)等范式。

MCP、RAG、Agent、Function Call对比

这几个名词最近也比较火,为防止混淆,我们来对比看看。

在这里插入图片描述

参考资料: https://wangwei1237.github.io/LLM_in_Action/