1. 简介
关于UCloud(优刻得)旗下的compshare算力共享平台
UCloud(优刻得)是中国知名的中立云计算服务商,科创板上市,中国云计算第一股。
Compshare GPU算力平台隶属于UCloud,专注于提供高性价4090算力资源,配备独立IP,支持按时、按天、按月灵活计费,支持github、huggingface访问加速。
使用下方链接注册可获得20元算力金,免费体验10小时4090云算力,此外还有3090和P40,价格每小时只需要8毛,赠送的算礼金够用一整天。
https://www.compshare.cn/?ytag=GPU_lovelyyoshino_Lcsdn_csdn_display
3月6日,科技圈被一款名为Manus的AI彻底点燃!创始人Peak称其为世界首个通用型AI智能体,并与以往的所谓“聊天机器人”不同的是,Manus不仅可以理解你提出的概念,而且可以去直接实现你的想法,并把结果直接递交到你面前!最重要的是,Manus直接工作在云端电脑上,你可以随时给它提交任务,然后随时取回结果,直接一步到位!目前OpenManus已经完全适配了,但是因为其需要API这些,整个项目运行还是比较费token的,所以这里我们结合才出的QWQ与OpenManus来完成整体的功能自启动。
目前相关镜像已经存入OpenManus_QWQ自动生成项目中了。
2. 性能评估
GAIA是一个专注于评价AI助手解决现实世界能力的基准测试,本次Manus官方使用了pass@1即首次完成率作为评分标准。
从Manus AI官网给出的对比图片中可以看出,在Level 1基础任务方面,Manus以86.5%的准确率碾压OpenAI,证明其在常规场景如信息提取、简单计算下的可靠性。在Level 2复杂推理场景中,虽然没有与OpenAI拉开差距,但也以2.7个百分点小幅领先,体现其在多步骤任务中的稳定性。最后,在Level 3开放指令执行方面,取得了47.6%的突破性成绩,意味着Manus在处理模糊指令时能够更加接近人类水平。
3. 用例分享
在Manus官网给出的众多用例中,我们选择了三个与各位分享,分别展示了Manus AI在日常生活、生产力还有交互性方面的强大能力。
3.1 给出一份四月日本旅行计划
首先prompt给出了游玩的需求:具体游玩的日期、时长和出发地点,出行预算以及期望的游玩内容;接着给出了期望得到的反馈形式:需要一个HTML制作的游玩手册,涵盖上面提到的所有内容以及旅行中需要的建议。
紧接着Manus就创建了一个Markdown文件用于记录所有的ToDo内容,并且开始一步步搜索相关内容,同时点进不同的网页查看相关内容:
在浏览过程中,它甚至会主动完成向下滚动页面、点击页面元素等操作:
阅读过程中,它也会尝试总结看到的内容,并且一步步完善ToDo表格,直到所有内容都如期完成:
最终,它按照要求给出了一个HTML版本的旅游手册,上面包含了所有需要的内容:
3.2 分析RL工程师应聘信息
Prompt直接提出了自己的需求:把这些候选人的信息整理成一份Excel,并且要根据个人能力对他们进行排名,并同时给出了一个.zip文件让Manus自己去分析。
在Manus的思考过程中我们可以看到,它直接对这个.zip文件进行解包,并且由于需要处理的是.pdf文件,Manus直接使用了python进行批量处理:
在分析完简历数量之后,Manus就开始尝试对简历的细节进行分析,在逐个编写候选人的analyze_resume_details.py后,经过多次重复操作,完成了对所有候选人的分析:
最终,Manus对每个人的能力进行了量化分析,给每个人赋予了RL Score作为他的能力的评价,并使用python工具创建了excel表格:
在Excel表格中,Manus把最适合的候选人用高亮进行标识,同时把每个人的个人项目经历、个人成就、RL能力分数以及评价都展示了出来,并在最后给出了自己对每个人的评价,极大简化了HR的工作流程。
3.3 泽连斯基模拟器
除开正常的生产力辅助,Manus还可以帮你完成一些有趣的整活儿操作。Prompt告诉Manus自己想要化身小泽与懂王在白宫进行政治博弈,希望Manus可以做一个游戏满足自己的愿望:
Manus在了解需求后依旧创建了ToDo清单,列举了完成这项任务的所有步骤,因此,Manus首先开始搜索并了解小泽和懂王之间发生了什么,它甚至给自己确定了消息搜索的方向可能为Twitter:
在了解了事件的前因后果之后,Manus将内容整理成.md文件,准备为后面的游戏制作提供文本信息:
接着就是紧锣密鼓的创建台本和选项:
完成文本内容后,Manus就开始着手创建整个.js文件,尝试实现交互式的文字游戏了:
在完成所有前后段工作后,为了能让所有人都玩到这个小游戏,它尝试将这个网页布置到公网,在获得许可后,该网页文字游戏成功发布:
如果你想尝试一下,这里有链接:
https://dgooezit.manus.space/
接下来就可以和川普激情对峙了,是卖国还是乌克兰脊梁,就在一念之间:
4. 在本地安装和配置 Ollama 和 OpenManus 的指南
在这篇博客中,我们将一步步介绍如何在本地安装和配置 Ollama,以及如何使用 OpenManus 来快速启动一个 LLM(大型语言模型)应用程序。通过以下步骤,您将能够轻松地设置环境并开始使用这些工具。
4.1 安装 Ollama
首先,打开终端并运行以下命令来安装 Ollama:
curl -fsSL https://ollama.com/install.sh | sh
安装完成后,您可以检查 Ollama 服务的状态,以确保它已成功运行:
systemctl status ollama
4.2 修改配置
为了使 Ollama 能够满足我们的需求,我们需要进行一些配置修改。首先,安装 net-tools
工具,以便我们可以查看 Ollama 的网络状态:
sudo apt-get install net-tools
netstat -tunlp | grep ollama
接下来,您需要编辑 Ollama 的服务文件,以进行以下配置更改:
4.3 修改端口以允许外部访问
打开 Ollama 的服务文件:
vim /etc/systemd/system/ollama.service
在 [Service]
部分中,添加或修改以下行:
Environment="OLLAMA_HOST=0.0.0.0"
4.4 更改模型存放位置
同样在 ollama.service
文件中,指定模型的存储路径:
Environment="OLLAMA_MODELS=/workspace/ollama/models"
4.5 指定运行 GPU
如果您的系统中有多张 GPU,您可以通过设置 CUDA_VISIBLE_DEVICES
环境变量来指定要使用的 GPU:
Environment="CUDA_VISIBLE_DEVICES=0,1"
别忘了设置您的 API 密钥:
export OLLAMA_API_KEY="sk-11223344qwer"
4.6 重启 Ollama
完成所有配置后,您需要重启 Ollama 服务以应用更改:
systemctl daemon-reload
systemctl restart ollama
您可以通过以下命令运行 Ollama,并查看信息以确认端口已更改:
ollama run qwq
4.7 克隆 OpenManus 仓库
接下来,我们将安装 OpenManus。首先,克隆其 GitHub 仓库:
git clone https://github.com/mannaandpoem/OpenManus.git
cd OpenManus
然后安装所需的依赖项:
pip install -r requirements.txt
4.8 配置 OpenManus
OpenManus 需要配置 LLM API 的相关信息。请按照以下步骤设置配置文件:
- 在
config
目录中创建config.toml
文件(可以从示例文件复制):
cp config/config.example.toml config/config.toml
- 编辑
config/config.toml
文件,添加您的 API 密钥并自定义设置:
# Global LLM configuration
[llm]
model = "qwq"
base_url = "http://localhost:11434/v1"
api_key = "sk-11223344qwer"
max_tokens = 4096
temperature = 0.0
# Optional configuration for specific LLM models
[llm.vision]
model = "claude-3-5-sonnet"
base_url = "https://api.openai.com/v1"
api_key = "sk-..."
4.9 快速启动 OpenManus
一切准备就绪后,您可以通过以下命令启动 OpenManus:
python main.py
然后,您可以通过终端输入您的想法,开始与 LLM 互动。
如果您想使用不稳定版本,您也可以运行:
python run_flow.py
5. 总结
我们不难发现,Manus确实可以一次性完成其他AI需要很多次提示才能完成的操作,并且直接实现想法是其他AI难以企及的。但是所有展示的用例中,Manus最多只能完成编写HTML或者执行python这样的操作,说明通用型AI智能体还有相当大的扩展空间,而且可预见的,这样的通用型AI智能体会对服务器性能提出相当大的挑战。我们这里也提供了 Ollama 版本的QWQ深度思考 和 OpenManus结合的样本。现在,您可以开始构建自己的 LLM 应用程序,探索更多的可能性!如果您在安装或配置过程中遇到问题,请随时在评论区留言,我们会尽快为您解答。Happy coding!