图谱RAG本地Ollama安装与配置指南

图谱RAG本地Ollama安装与配置指南

graphrag-local-ollama Local models support for Microsoft's graphrag using ollama (llama3, mistral, gemma2 phi3)- LLM & Embedding extraction graphrag-local-ollama 项目地址: https://gitcode.com/gh_mirrors/gr/graphrag-local-ollama

1. 项目基础介绍

本项目是基于微软的GraphRAG(Graph-based Retrieval-Augmented Generation)的开源项目。GraphRAG是一种结合了检索和生成的方法,用于处理对私有文本语料库的问题回答。本项目通过使用Ollama工具支持本地模型,旨在降低对昂贵的OpenAPI模型的依赖,使用户能够以更高效、成本更低的方式执行推理。

项目主要使用的编程语言是Python。

2. 关键技术和框架

  • GraphRAG: 微软提出的结合检索和生成的文本处理方法。
  • Ollama: 用于下载和管理本地模型(如llama3、mistral、gemma2、phi3等)的工具。
  • 本地模型: 包括LLM(Language Model,语言模型)和Embedding模型,这些模型可以从Ollama的库中获取。

3. 安装和配置准备工作

在开始安装之前,请确保您的系统中已安装以下软件:

  • Python(建议版本3.10)
  • Conda(用于管理Python环境和包)
  • Git(用于克隆项目仓库)

安装步骤

  1. 创建和激活Conda环境

    conda create -n graphrag-ollama-local python=3.10
    conda activate graphrag-ollama-local
    
  2. 安装Ollama

    curl -fsSL https://ollama.com/install.sh | sh
    pip install ollama
    
  3. 下载所需模型 使用Ollama下载LLM和Embedding模型,例如:

    ollama pull mistral  # 下载LLM模型
    ollama pull nomic-embed-text  # 下载Embedding模型
    
  4. 克隆项目仓库

    git clone https://github.com/TheAiSingularity/graphrag-local-ollama.git
    cd graphrag-local-ollama/
    
  5. 安装GraphRAG包

    pip install -e .
    
  6. 创建输入目录

    mkdir -p ./ragtest/input
    
  7. 复制样例数据

    cp input/* ./ragtest/input
    
  8. 初始化索引目录

    python -m graphrag.index --init --root ./ragtest
    
  9. 移动配置文件

    cp settings.yaml ./ragtest
    
  10. 运行索引创建

    python -m graphrag.index --root ./ragtest
    
  11. 运行查询

    python -m graphrag.query --root ./ragtest --method global
    

    示例查询:

    "什么是机器学习?"
    

以上就是GraphRAG Local Ollama项目的详细安装和配置指南,按照上述步骤操作,即可完成本地模型的安装和使用。

graphrag-local-ollama Local models support for Microsoft's graphrag using ollama (llama3, mistral, gemma2 phi3)- LLM & Embedding extraction graphrag-local-ollama 项目地址: https://gitcode.com/gh_mirrors/gr/graphrag-local-ollama