本文将介绍如何使用自己电脑上的Vscode,远程调用云主机上部署的大模型,零成本搭建AI代码编辑器。
前提:
已通过ollama在云主机端部署了DeepSeek大模型,参考链接:https://ecloud.10086.cn/op-help-center/doc/article/90556
在个人电脑上安装了VsCode,参考链接:
工具准备
- Ollama
- DeepSeek模型文件
- VsCode
- Twinny插件
第一步:开发Ollama远程连接
1、放通云主机11434端口
云主机安全组中的入向规则需要放通个人电脑IP地址段到云主机11434端口,参考链接https://ecloud.10086.cn/op-help-center/doc/article/23691
2、配置远程Ollama服务
修改云主机环境变量,允许所有IP访问。
重启ollama服务
1、通过任务管理器,关闭ollama服务。
2.在终端执行ollama serve,启动ollama服务。
执行curl 127.0.0.1:11434 ,可以验证ollama已经在运行中
通过云主机中浏览器,输入本机局域网ip还有默认端口,可以看到ollama已经正常运行。
在VSCode中安装twinny插件
打开在个人电脑上安装的VsCode,在插件库中搜索twinny,直接下载和安装。
配置twinny
安装好后,可以直接在twinny的配置中添加接口提供者,点击上方的插头图标,twinny提供了chat,flm,embedding三类大模型的配置接口。
这里选择chat provider,单击右上角的加号,配置我们已经部署好的大模型。
选择LLM Provider为Ollama,点击右侧加号。
点击provider右侧的画笔图标,可以对具体API接口信息进行编辑。
在这里我们将这个provider标记为Ollama-1,,同时填写我们云主机的公网IP和ollama的端口11434,model name填写我们在ollama中部署好的模型deepseek-r1:7b,API Path填写/v1,其余按图示进行选择即可。
点击save进行保存。
代码解释及对话
之后我们可以在vscode中选中一段代码,点击右键,选择twinny-explain,就可以看到对这段代码的解释了。
另外,还可以在对话界面与DeepSeek进行对话,只需要在对话界面左下角,选择我们之前配置好的provider即Ollama-1,即可与其进行对话。
在这里我们可以进行一些简单的对话。
小结:
twinny的配置方式比较简单,用法也比较简洁,通过配置远程云主机上的ollama+deepseek-r1:7b,就可以不再受调用次数限制了。