5.3K+ Star!llmware:一个构建企业级RAG管道的统一框架

llmware 简介

llmware[1] 提供了一个统一的框架,用于构建基于大型语言模型(LLM)的应用,例如RAG(Retrieval-Augmented Generation)和多步骤代理工作流(Agent)。

它使用小型、专门的模型,这些模型可以私有部署,安全地与企业知识源集成,并针对任何业务流程进行成本效益的调整和适应。

项目特点

主要特点
  • RAG管道:集成组件,负责从知识源连接到生成性AI模型的整个生命周期。

  • 50+小型专业模型:针对企业流程自动化中的关键任务进行了微调,包括基于事实的问答、分类、摘要和提取。

  • 模型目录:通过简单的查找方式访问所有模型,无论底层实现如何。

  • :大规模摄取、组织和索引知识集合。

  • 查询:使用文本、语义、混合、元数据和自定义过滤器查询库。

  • 提示与源:将知识检索与LLM推理相结合的最简单方式。

  • RAG优化模型:为RAG工作流集成设计的1-7B参数模型,并可在本地运行。

  • 简单易扩展的数据库选项:从笔记本电脑到并行化集群的集成数据存储。

使用场景

llmware 适用于需要构建知识驱动的企业级LLM应用的场景,特别是在需要私有部署和与现有企业知识源集成的场合。

项目使用

安装
  1. 确认安装Python

  • 确保你的计算机上安装了Python 3.8或更高版本。

  1. 安装LLMWare

  • 你可以通过pip3命令来安装LLMWare。打开终端或命令提示符,然后输入以下命令:

pip3 install llmware
  • 或者,可以从LLMWare的GitHub仓库下载wheel文件并安装:

pip3 install [wheel_file_name].whl
  • 另外,也可以克隆整个仓库到本地,然后从仓库的根目录安装LLMWare:

git clone https://github.com/llmware-ai/llmware.git
cd llmware
pip3 install .
  1. 验证安装

  • 安装完成后,可以通过运行以下命令来验证LLMWare是否正确安装:

python -m llmware --help
  • 这应该会显示LLMWare的帮助信息,说明安装成功。

快速开始
  1. 查看示例:提供100多个“即插即用”的示例,帮助快速上手。

  2. 运行示例:将示例.py文件复制到项目根路径下运行。

  3. 设置向量数据库:无需安装即可使用Milvus Lite、ChromaDB、FAISS和LanceDB等。

  4. 使用模型llmware支持多种开源和专有模型,包括SLIM、BLING、DRAGON、Industry BERT和GGUF。

使用示例

LLMWare提供了一些快速入门示例,这些示例可以帮助你快速开始使用LLMWare框架。以下示例将展示如何使用LLMWare来生成文本。

  1. 导入必要的库

from llmware import LLM
  1. 初始化LLM模型: 在这个示例中,将使用一个预训练的LLM模型。LLMWare提供了多种预训练模型,你可以根据需要选择。

llm = LLM(model_name="llm-english-v1")
  1. 生成文本: 使用generate_text方法来生成文本。你可以指定要生成的文本长度。

text = llm.generate_text("Hello, world! This is a test.", max_length=100)
print(text)
  1. 运行代码: 将上述代码保存为一个Python脚本(例如generate_text.py),然后在终端或命令提示符中运行:

python generate_text.py

这个示例展示了如何使用LLMWare来生成文本。你可以根据需要修改输入文本和生成的文本长度。

项目资源

  • 官方网站[2]


注:本文内容仅供参考,具体项目特性请参照官方 GitHub 页面的最新说明。

欢迎关注&点赞&在看,感谢你的阅读~


资源列表

[1]

Github地址: https://github.com/llmware-ai/llmware

[2]

官方网站: https://llmware-ai.github.io/llmware/

猜你喜欢

转载自blog.csdn.net/ymm_ohh/article/details/143032862
今日推荐