图谱RAG本地Ollama安装与配置指南
1. 项目基础介绍
本项目是基于微软的GraphRAG(Graph-based Retrieval-Augmented Generation)的开源项目。GraphRAG是一种结合了检索和生成的方法,用于处理对私有文本语料库的问题回答。本项目通过使用Ollama工具支持本地模型,旨在降低对昂贵的OpenAPI模型的依赖,使用户能够以更高效、成本更低的方式执行推理。
项目主要使用的编程语言是Python。
2. 关键技术和框架
- GraphRAG: 微软提出的结合检索和生成的文本处理方法。
- Ollama: 用于下载和管理本地模型(如llama3、mistral、gemma2、phi3等)的工具。
- 本地模型: 包括LLM(Language Model,语言模型)和Embedding模型,这些模型可以从Ollama的库中获取。
3. 安装和配置准备工作
在开始安装之前,请确保您的系统中已安装以下软件:
- Python(建议版本3.10)
- Conda(用于管理Python环境和包)
- Git(用于克隆项目仓库)
安装步骤
-
创建和激活Conda环境
conda create -n graphrag-ollama-local python=3.10 conda activate graphrag-ollama-local
-
安装Ollama
curl -fsSL https://ollama.com/install.sh | sh pip install ollama
-
下载所需模型 使用Ollama下载LLM和Embedding模型,例如:
ollama pull mistral # 下载LLM模型 ollama pull nomic-embed-text # 下载Embedding模型
-
克隆项目仓库
git clone https://github.com/TheAiSingularity/graphrag-local-ollama.git cd graphrag-local-ollama/
-
安装GraphRAG包
pip install -e .
-
创建输入目录
mkdir -p ./ragtest/input
-
复制样例数据
cp input/* ./ragtest/input
-
初始化索引目录
python -m graphrag.index --init --root ./ragtest
-
移动配置文件
cp settings.yaml ./ragtest
-
运行索引创建
python -m graphrag.index --root ./ragtest
-
运行查询
python -m graphrag.query --root ./ragtest --method global
示例查询:
"什么是机器学习?"
以上就是GraphRAG Local Ollama项目的详细安装和配置指南,按照上述步骤操作,即可完成本地模型的安装和使用。