ChatGLM-6b本地安装手把手教学

什么是ChatGLM-6B

ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答。

ChatGLM-6B安装

环境准备:python

如果需要在 cpu 上运行量化后的模型,还需要安装 gcc 与 openmp。多数 Linux 发行版默认已安装。对于 Windows ,可在安装 TDM-GCC 时勾选 openmp。 Windows 测试环境 gcc 版本为 TDM-GCC 10.3.0, Linux 为 gcc 11.3.0

1.Torch安装

1)torch测试执行下面代码

# cuda支持检查
import torch
print(torch.cuda.is_available())

显示 False 说明驱动还没好

2)检查安装适合自己的cuda

在NVIDIA控制面板中点击 帮助-》系统信息 查看自己的CUDA适配版本
在这里插入图片描述

CUDA下载安装(注:CUDA版本可以向下兼容,选择大于11.7的版本) https://developer.nvidia.com/cuda-toolkit-archive
在这里插入图片描述

CUDA下载安装完成后 进入网站 https://pytorch.org/get-started/previous-versions/ 选择适配自己的torch安装,我这里是11.7所以我选择CUDA 11.7的命令执行
在这里插入图片描述

# CUDA 11.7
pip install torch==2.0.0+cu117 torchvision==0.15.1+cu117 torchaudio==2.0.1 --index-url https://download.pytorch.org/whl/cu117

注意:
pip 安装自行选择本地还是虚拟环境

#创建虚拟环境
python -m venv venv

#liunx下进入虚拟环境
source venv/bin/activate

#windows下进入虚拟环境
venv\Scripts\activate

2.ChatGLM-6B模型安装

1)将 ChatGLM-6B 项目克隆到本地 https://github.com/THUDM/ChatGLM-6B

git clone https://github.com/THUDM/ChatGLM-6B.git

2)安装依赖

进入到项目目录执行命令:

pip install -r requirements.txt

可以查看项目中的 requirements.txt 是所需要的依赖,其中 transformers 库版本推荐为 4.27.1,但理论上不低于 4.23.1 即可。
在这里插入图片描述
3) 从本地加载模型

从 Hugging Face Hub 下载模型需要先安装Git LFS https://docs.github.com/zh/repositories/working-with-files/managing-large-files/installing-git-large-file-storage,然后运行

git clone https://huggingface.co/THUDM/chatglm-6b

如果你从 Hugging Face Hub 上下载 checkpoint 的速度较慢,可以只下载模型实现

GIT_LFS_SKIP_SMUDGE=1 git clone https://huggingface.co/THUDM/chatglm-6b

然后从这里手动下载模型参数文件,并将下载的文件放到任意路劲下或者替换 THUDM/chatglm-6b 目录下。

2.Demo测试

在 requirements.txt 中已经安装好 gradio,我们只需要替换模型路径
在这里插入图片描述
运行web_demo.py
在这里插入图片描述

运行成功后会出现访问地址,访问即可!
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/csdn570566705/article/details/131409453