使用 Ollama 下载 DeepSeek 模型和DeepSeek的本地部署使用

这个文章主要介绍如何下载 Ollama 工具、本地部署 DeepSeek 模型
1. 什么是 Ollama?
Ollama 是一个开源工具,旨在简化大语言模型的本地部署和管理。它支持多种模型格式,并提供简单的命令行接口,方便开发者快速下载、运行和测试模型。

2. 下载和安装 Ollama
2.1 安装 Ollama
Ollama 支持多种操作系统,包括 Linux、macOS 和 Windows。以下是安装步骤:

访问 Ollama 的官方网站:ollama.com (支持Mac/Linux/windows系统)根据你的操作系统选择下载对应的安装包。
安装完成后,打开终端或命令行工具,输入以下命令验证安装是否成功:

ollama --version

如果显示版本号,说明安装成功。
2.2 下载 DeepSeek 模型
Ollama 提供了一个模型库,可以轻松下载预训练的模型。以下是下载 DeepSeek 模型的步骤:

打开终端,运行以下命令:

ollama pull deepseek-r1

这将从 Ollama 的模型库中下载 DeepSeek 模型。

下载完成后,可以使用以下命令查看已下载的模型:

ollama list

3. 本地部署 DeepSeek 模型
3.1 运行模型 deepseek-R1

ollama run deepseek-r1:1.5B 

运行后,你将进入交互式命令行界面,可以直接与模型对话。

模型下载成功后,可以通过以下命令查看在本地的模型

ollama list

3.2 使用 API 调用
如果你希望通过代码调用模型,Ollama 提供了简单的 HTTP API。以下是一个 Python 示例:

import requests url = "http://localhost:11434/api/generate" data = { "model": "deepseek-r1", "prompt": "你好,DeepSeek!" } response = requests.post(url, json=data) for line in response.iter_lines(): if line: print(line.decode('utf-8'))

总结
通过 Ollama,我们可以轻松下载、本地部署和量化 DeepSeek 模型。量化技术可以显著提升模型的推理性能,并降低对 GPU 资源的需求。如果你希望在本地运行大语言模型,Ollama 是一个非常值得尝试的工具