llmware 简介
llmware[1] 提供了一个统一的框架,用于构建基于大型语言模型(LLM)的应用,例如RAG(Retrieval-Augmented Generation)和多步骤代理工作流(Agent)。
它使用小型、专门的模型,这些模型可以私有部署,安全地与企业知识源集成,并针对任何业务流程进行成本效益的调整和适应。
项目特点
主要特点
-
RAG管道:集成组件,负责从知识源连接到生成性AI模型的整个生命周期。
-
50+小型专业模型:针对企业流程自动化中的关键任务进行了微调,包括基于事实的问答、分类、摘要和提取。
-
模型目录:通过简单的查找方式访问所有模型,无论底层实现如何。
-
库:大规模摄取、组织和索引知识集合。
-
查询:使用文本、语义、混合、元数据和自定义过滤器查询库。
-
提示与源:将知识检索与LLM推理相结合的最简单方式。
-
RAG优化模型:为RAG工作流集成设计的1-7B参数模型,并可在本地运行。
-
简单易扩展的数据库选项:从笔记本电脑到并行化集群的集成数据存储。
使用场景
llmware 适用于需要构建知识驱动的企业级LLM应用的场景,特别是在需要私有部署和与现有企业知识源集成的场合。
项目使用
安装
-
确认安装Python:
-
确保你的计算机上安装了Python 3.8或更高版本。
-
安装LLMWare:
-
你可以通过pip3命令来安装LLMWare。打开终端或命令提示符,然后输入以下命令:
pip3 install llmware
-
或者,可以从LLMWare的GitHub仓库下载wheel文件并安装:
pip3 install [wheel_file_name].whl
-
另外,也可以克隆整个仓库到本地,然后从仓库的根目录安装LLMWare:
git clone https://github.com/llmware-ai/llmware.git
cd llmware
pip3 install .
-
验证安装:
-
安装完成后,可以通过运行以下命令来验证LLMWare是否正确安装:
python -m llmware --help
-
这应该会显示LLMWare的帮助信息,说明安装成功。
快速开始
-
查看示例:提供100多个“即插即用”的示例,帮助快速上手。
-
运行示例:将示例.py文件复制到项目根路径下运行。
-
设置向量数据库:无需安装即可使用Milvus Lite、ChromaDB、FAISS和LanceDB等。
-
使用模型:
llmware
支持多种开源和专有模型,包括SLIM、BLING、DRAGON、Industry BERT和GGUF。
使用示例
LLMWare提供了一些快速入门示例,这些示例可以帮助你快速开始使用LLMWare框架。以下示例将展示如何使用LLMWare来生成文本。
-
导入必要的库:
from llmware import LLM
-
初始化LLM模型: 在这个示例中,将使用一个预训练的LLM模型。LLMWare提供了多种预训练模型,你可以根据需要选择。
llm = LLM(model_name="llm-english-v1")
-
生成文本: 使用
generate_text
方法来生成文本。你可以指定要生成的文本长度。
text = llm.generate_text("Hello, world! This is a test.", max_length=100)
print(text)
-
运行代码: 将上述代码保存为一个Python脚本(例如
generate_text.py
),然后在终端或命令提示符中运行:
python generate_text.py
这个示例展示了如何使用LLMWare来生成文本。你可以根据需要修改输入文本和生成的文本长度。
项目资源
-
官方网站[2]
注:本文内容仅供参考,具体项目特性请参照官方 GitHub 页面的最新说明。
欢迎关注&点赞&在看,感谢你的阅读~
资源列表
[1]
Github地址: https://github.com/llmware-ai/llmware
[2]
官方网站: https://llmware-ai.github.io/llmware/