快速部署使用deepseek

前言

由中国深度求索开发的DeepSeek在全球掀起“中国智造”风暴!这款革命性应用不仅一举拿下中美App Store免费榜双料冠军,更以单日下载量超ChatGPT四倍的惊人表现横扫全球市场。仅用500万美元研发投入,便实现对OpenAI、谷歌等硅谷巨头数十亿美元级AI项目的全面超越,以硬核技术实力诠释“中国式创新”的高效!这场以小博大的科技逆袭,不仅重塑了全球AI产业格局,更让世界见证了东方智慧的崛起力量,在本文中,我将介绍如何在本地快速部署deepseek,打造自己的ai助手。

一、下载Ollama

Ollama 是一个开源工具,专注于在本地运行和优化大型语言模型(LLMs)。它支持多种模型(如 LLaMA、GPT 等),并提供简单的命令行界面,方便用户快速部署和测试模型。Ollama 的优势在于高效利用硬件资源,适合开发者和研究者在本地环境中进行 AI 实验和应用开发。
浏览器输入网址:
选择一个系统进行下载(需要科学上网)
在这里插入图片描述
下载完成之后,点击.exe进行安装,安装默认路径即可:
在这里插入图片描述
安装之后,Ollama已经运行了,它是CMD命令工具,我们可以在命令行输入ollama来验证,是否安装成功
如果出现下图的内容的话,就表示下载成功:
在这里插入图片描述

二、下载deepseek模型

在Ollama界面上下载deepseek模型,点击DeepSeek-R1模型在这里插入图片描述在这里插入图片描述
根据自己的配置进行下载,不同模型的参数量不同,1.5b,7b,8b,14b,32b,70b,671b每个版本对应所需的内存大小都不一样。如果你电脑运行内存为8G那可以下载1.5b,7b,8b的蒸馏后的模型如果你电脑运行内存为16G那可以下载14b的蒸馏后的模型我这里选择14b的模型,参数越大,使用DeepSeek的效果越好我选择的是7B模型,下载较快,效果也还可以。在命令行中输入命令:

ollama run deepseek-r1:7b

进行下载
在这里插入图片描述
下载好后即可直接运行:
在这里插入图片描述
《think》中的内容即为deekseek的思考过程。

猜你喜欢

转载自blog.csdn.net/HanWenKing/article/details/145980535
今日推荐