说明
为什么使用本方案
-
部署环境与资源
- 本地部署需要用户自建硬件(如 GPU 集群)和配置环境,适合对数据隐私要求较高或离线处理场景;
- 线上 API 则由服务商托管,用户通过网络调用,无需自行投资硬件资源。
-
数据安全与控制
- 本地部署数据完全由用户掌握,更安全;
- 线上 API 涉及数据传输和第三方服务器,存在一定隐患。
-
更新维护与扩展性
- 线上 API 由提供商持续更新和维护,用户总能使用最新版本;
- 本地部署需要用户自行管理更新和维护,工作量较大。
-
成本结构
- 线上 API 通常按调用计费,初期投入较低;
- 本地部署前期硬件投入较高,但对于大规模、长期应用可能更具成本优势。
-
最重要的
- DeepSeek服务经常500
一、 安装Ollama
Ollama 是一个开源的 AI 模型,主要用于生成和理解图像。它由 Anthropic 开发并发布,这是一个专注于 AI 研究的公司。Ollama 的核心功能包括图像生成、图像分割和图像分类等任务。
1、主要特点:
- 开源:Ollama 的代码和模型都是公开的,允许研究人员和开发者自由使用和修改。