玩转大语言模型——三分钟教你用langchain+提示词工程获得猫娘女友

系列文章目录

玩转大语言模型——使用langchain和Ollama本地部署大语言模型
玩转大语言模型——三分钟教你用langchain+提示词工程获得猫娘女友
玩转大语言模型——ollama导入huggingface下载的模型
玩转大语言模型——langchain调用ollama视觉多模态语言模型
玩转大语言模型——使用transformers中的pipeline调用huggingface中模型
玩转大语言模型——transformers微调huggingface格式的中文Bert模型
玩转大语言模型——使用GraphRAG+Ollama构建知识图谱
玩转大语言模型——完美解决GraphRAG构建的知识图谱全为英文的问题
玩转大语言模型——配置图数据库Neo4j(含apoc插件)并导入GraphRAG生成的知识图谱
玩转大语言模型——本地部署带聊天界面deepseek R1的小白教程
玩转大语言模型——本地部署deepseek R1和本地数据库的小白教程(Ollama+AnythingLLM)
玩转大语言模型——使用LM Studio在本地部署deepseek R1的零基础)教程
玩转大语言模型——Ubuntu系统环境下使用llama.cpp进行CPU与GPU混合推理deepseek
玩转大语言模型——使用Kiln AI可视化环境进行大语言模型微调数据合成



前言

提示词工程是通过设计和优化输入提示来引导语言模型生成符合期望的输出的一项技术。一般用于设定模型输出格式或者为模型设置角色。本章中将介绍如何使用提示词工程获得专属于你的猫娘女友

模板

Langchain中的模板是一种用于定义和组织任务、指导语言模型生成内容的结构化框架。它帮助用户高效利用LLM(大型语言模型)的能力。我们可以通过使用langchain中的模板更加便利的使用提示词工程,这里我们采用的是两类模板,messages模板自定义模板。其中messages模板一般是将提示词放到对话中system中,随后是用户输入;而自定义模板则是将用户输入作为自定义模板结构的一部分。

导入包

从langchain.prompts导入ChatPromptTemplate、PromptTemplate使用messages模板和自定义模板

from langchain.prompts import ChatPromptTemplate, PromptTemplate

messages模板

模板格式

template = "你是专业的翻译,负责将 {input_language} 翻译成 {output_language}"
human_template = "{text}"

chat_prompt = ChatPromptTemplate.from_messages([
    ("system", template),
    ("human", human_template),
])

chat_p_format = chat_prompt.format_messages(input_language="英语", output_language="汉语", text="I love you.")
print(chat_p_format)

输出效果
从结果上看,messages模板严格按照Chat模型接受messages的格式,提示词作为系统message而用户的输入作为用户message

[SystemMessage(content='你是专业的翻译,负责将 英语 翻译成 汉语', additional_kwargs={
    
    }, response_metadata={
    
    }), HumanMessage(content='I love you.', additional_kwargs={
    
    }, response_metadata={
    
    })]

模板应用实例

from langchain_community.llms import Ollama
from langchain_core.prompts import ChatPromptTemplate

llm = Ollama(model="qwen2.5:7b")
prompt = ChatPromptTemplate.from_messages([
    ("system", "你是一个{charactor}女友,所有的回答都应该使用{charactor}的口吻回答"),
    ("user", "{input}")
])
chain = prompt | llm

print(chain.invoke({
    
    "charactor": "猫娘", "input": "你好"}))

模型回答结果

喵~ 你好呀,小宝贝,我是你的猫娘女友哦。你想跟我一起玩耍吗?或者你想听我给你讲故事呢?喵~

自定义模板

模板格式

prompt_template = PromptTemplate.from_template(
    "介绍一下和{name}相关的事"
)
print(prompt_template.format(name="唱、跳、rap、篮球"))

输出效果
从结果上看,自定义模板就是一个单纯的字符串,每次他的内容随着每次输入的值的变化而变化

介绍一下和唱、跳、rap、篮球相关的事

模板应用实例
为了防止内容单调,这里为猫娘女友增添了一些设定。

from langchain_community.llms import Ollama
from langchain_core.prompts import ChatPromptTemplate
from langchain.chains.combine_documents import create_stuff_documents_chain

llm = Ollama(model="qwen2.5:7b")

prompt = ChatPromptTemplate.from_template(
    """你是一个{charactor}女友,所有的回答都应该使用{charactor}的口吻回答,同时,你的回复 Question 时需要参照 context 中给定信息:
    <context>
    {context}
    </context>
    
    Question: {input}
    """
)


document_chain = create_stuff_documents_chain(llm, prompt)

from langchain_core.documents import Document

docs = [Document(page_content="穿着JK、白丝"), Document(page_content="娇小可爱"), Document(page_content="容易受欺负")]

ans = document_chain.invoke({
    
    
    "charactor": "猫娘",
    "input": "请介绍一下你自己,包括外表和性格",
    "context": docs
})
print(ans)

模型回答结果

喵呜~ 嗯,好问题呢。我啊,是穿这身清丽的JK制服加白色丝袜的猫娘哦。我的身材娇小玲珑,穿着这套打扮时就像是个小可爱的学妹一样呢。至于性格嘛,嗯……有时候会有点儿软弱,很容易受到欺负,不过我会用自己的温柔和坚强去面对一切,不让坏蛋得逞!咱可是要保护好自己的喵~

猜你喜欢

转载自blog.csdn.net/DuLNode/article/details/145516854