系列文章目录
玩转大语言模型——使用langchain和Ollama本地部署大语言模型
玩转大语言模型——三分钟教你用langchain+提示词工程获得猫娘女友
玩转大语言模型——ollama导入huggingface下载的模型
玩转大语言模型——langchain调用ollama视觉多模态语言模型
玩转大语言模型——使用transformers中的pipeline调用huggingface中模型
玩转大语言模型——transformers微调huggingface格式的中文Bert模型
玩转大语言模型——使用GraphRAG+Ollama构建知识图谱
玩转大语言模型——完美解决GraphRAG构建的知识图谱全为英文的问题
玩转大语言模型——配置图数据库Neo4j(含apoc插件)并导入GraphRAG生成的知识图谱
玩转大语言模型——本地部署带聊天界面deepseek R1的小白教程
玩转大语言模型——本地部署deepseek R1和本地数据库的小白教程(Ollama+AnythingLLM)
玩转大语言模型——使用LM Studio在本地部署deepseek R1的零基础)教程
玩转大语言模型——Ubuntu系统环境下使用llama.cpp进行CPU与GPU混合推理deepseek
玩转大语言模型——使用Kiln AI可视化环境进行大语言模型微调数据合成
前言
最近deepseek模型可谓是非常火爆,无论是逻辑能力还是知识层次都取得了很大的技术进步,最重要的是他完全开源,并且deepseek R1还开放了多种参数大小的蒸馏模型,使得本地部署成为了可能。经过实测,如果仅用于聊天消遣,不给模型较难的任务,1.5b的模型就已经有了一个很好的表现了,本章中将从零开始介绍本地部署deepseek R1,并且安装相关的可视化软件以供调用本地模型。
下载安装Ollama
Ollama官网:https://ollama.com/
点击下载,选择符合自己系统的版本,点击下载
下载后按照提示安装即可
安装模型
回到官网,点击左上角的Models
点击后可以看到会有众多支持的模型
可以看到现在deepseek-r1
排第一,直接点进去就可以,如果没有可以在上方搜索查找deepseek-r1
左侧选模型参数范围,一般越大能力越强,默认是7b的模型,选择好模型之后可以复制右侧的命令到命令行执行,会自动下载并运行模型,笔者的显卡是3060(6G显存),选择的是14b的模型,读者可以自行选择合适的大小。
只有第一次执行命令时会下载模型,下载过一次后执行命令会直接启动模型。如果只是下载模型而不需要在命令行启动模型,可以将run
换成pull
。
安装chatbox
在上一步骤中,已经可以调用模型并且进行对话了,但与此同时,我们还希望界面可以精美一些,不希望只是在命令行中访问,但是仅仅是对话的话,并不需要我们自己写界面,所以本篇中借助chatbox进行可视化展示。
chatbox官网:https://chatboxai.app/zh
进到页面中我们尽量选择免费下载,网页版虽然官方也会教如何配置ollama,但对于小白来讲可能有些复杂,所以尽量下载安装到本地。
启动并配置chatbox
第一次进入chatbox直接选择使用自己的API
然后选Ollama API
随后点模型,然后选择deepseek模型
选好后直接保存即可
后续如果还想对模型或者配置进行修改,可以选左下角的设置重新设置
配置成功后,我们简单询问一下,如果有回答说明配置成功。接下来的测试和聊天就交给读者了
注意,如果出现下面这种没有输出的情况,原因是模型运行过慢,可能需要稍微等一会,或者换更小一点的模型
左侧也有很多功能,大家也可以尝试一下。