若依框架二次开发——RuoYi-AI 集成本地大模型


本文将详细介绍如何在 RuoYi-AI 中集成本地 Ollama 大模型,使系统能够在 离线环境 下提供智能对话能力。

前提条件

在开始集成本地大模型之前,请确保满足以下要求:

1. RuoYi-AI 已成功部署并运行

如果尚未完成本地环境搭建,请参考:RuoYi-AI 本地部署流程

2. Ollama 本地大模型已安装

Ollama 是一款支持本地部署的 AI 大模型推理框架,需先安装并下载相应的模型文件。
若尚未安装,可参考:Ollama高效、功能齐全的LLM大模型服务工具。

通过ollama list查看本地模型