AutoGPT 从安装到使用


AutoGPT 介绍

官方对其的描述:

AutoGPT is a powerful tool that lets you create and run intelligent agents. These agents can perform various tasks automatically, making your life easier.

介绍:

AutoGPT 是一种基于 GPT-4 的自主代理(autonomous agent),它能在不需要大量人工干预的情况下,自动执行一系列复杂的任务。AutoGPT 的工作原理是利用大型语言模型(如 GPT-4)的自然语言处理能力,结合自我反馈循环机制,从而实现任务的自动化处理。


一、下载源码

在某一处打开cmd窗口,输入git clone https://github.com/Significant-Gravitas/AutoGPT.git来克隆整个项目(首先确保安装了Git!)。
git下载
这项目有点大,可能要比较久的时间才能下好,耐心等会吧。
如果没有Git,或者其他原因,也可以直接点这里,在github网页中下载AutoGPT的源码,放到某个文件夹里。
如果github也打不开,我在csdn上也上传有,在这里:https://download.csdn.net/download/mc_dudu233/89631338?spm=1001.2014.3001.5503

二、申请OpenAI的API Key

申请API Key的网址:https://platform.openai.com/account/api-keys
打开这个网页,登录(没有就注册)自己的账号,点击右上角创建一个新的APIKey。注意这个APIKey只会出现一次!记得复制保存!
创建APIKey
我们直接点复制来复制生成的APIKey。
APIKey
找到刚才下载的AutoGPT的源码,里面有个autogpt文件夹,点进去。
autogpt文件夹
将里面的.env.template文件重命名为.env,并打开这个文件。将里面的OPENAI_API_KEY取消注释,并设置为之前复制的APIKey。
OPENAI_API_KEY

三、安装 Poetry

相信大家在这之前电脑上的python都没有装过Poetry,那么我们现在需要先安装Poetry才能进行下一步的配置。
Poetry要求Python 3.8+,建议大家直接使用python 3.11。

1.先安装 pipx

直接打开一个cmd窗口,输入py -m pip install --user pipx即可安装pipx。当然你要确保你的python带pip(现在默认都是带的),否则就自己先装好pip。
pipx
如果出现了如上所示的警告,还要将pipx的文件夹加入PATH环境变量中,否则无法直接在cmd调用pipx。
在cmd窗口中进入警告中提示的文件夹,然后输入.\pipx.exe ensurepath即可添加到环境变量中。
pipx环境变量
然后我们重新打开一个cmd窗口,输入pipx测试,完成!
pipx完成

2.再安装 poetry

在刚才的cmd窗口输入pipx install poetry即可安装。下载有点慢,耐心等一下吧!
poetry
这样就装好了!

四、部署 AutoGPT

我们打开一个cmd窗口(用刚才的也行),进入AutoGPT项目文件下的autogpt文件夹(和刚才配置APIKey的一样)。然后输入.\autogpt.bat会自动帮你安装所有的依赖软件包。
.\autogpt.bat
这个下载还是有点慢,我这里没挂代理下了一个小时左右,取决于你的网速了。。。
安装完成
到这一步安装就完成了,现在进入的是CLI(命令行)模式。在命令行中输入你想要解决的问题,他就会自动帮你解决!以下是示例,正在不断帮我们请求API思考问题。
自动解决
输入.\autogpt.bat serve可以开启网页模式,默认访问页面为http://127.0.0.1:8000,打开网页如下所示。打开后登录即可使用!
网页

五、采用本地模型

OpenAI的限制较多,如不能使用国内的银行卡支付,导致无法使用。且及时有国外的银行卡,每次调用API的费用也较高。因此,我们可以采用本地模型,解决以上的问题。AutoGPT提供了Llamafile这个本地语言模型的调用,因此我们可以采用该模型。
关于改模型的介绍在这:https://github.com/Mozilla-Ocho/llamafile#readme

autogpt文件夹下再开一个cmd窗口,输入python ./scripts/llamafile/serve.py来运行Llamafile的程序。此时它会自动下载必要的语言模型和exe文件。
自动下载
为了加快下载的速度,我们可以开启代理,先下载Llamafile的语言模型文件(点这里下载)和这个exe文件(点这里下载)。下载好后将它们一同丢进autogpt\scripts\llamafile文件夹下,如下图所示。
文件夹
然后再运行刚才的命令python ./scripts/llamafile/serve.py(如果有GPU,可以使用python ./scripts/llamafile/serve.py --force-gpu),可见模型已经加载完毕,web服务器运行在127.0.0.1:8080
模型加载完毕
打开http://127.0.0.1:8080,发现网页已经可用,那么之前的配置就没问题。
127.0.0.1:8080
再次打开前面所说的.env配置文件,找到LLAMAFILE_API_BASE取消注释。将SMART_LLMFAST_LLM都设置为我们之前配置的模型mistral-7b-instruct-v0.2
LLAMAFILE_API_BASE
LLM
配置好后,像之前一样输入.\autogpt.bat来启动CLI模式的AutoGPT,并测试是否有回复,这里明显可以了!
测试
它会一步步的来解决这个问题,输入y运行执行它下一步的命令。
一步步执行
告诉你每一步的作用和下一步的计划。
每一步
最终给出令人满意的结果。