用DeepSeek+VsCode+Twinny,零成本搭建AI代码编辑器

本文将介绍如何使用自己电脑上的Vscode,远程调用云主机上部署的大模型,零成本搭建AI代码编辑器。

前提:

已通过ollama在云主机端部署了DeepSeek大模型,参考链接:https://ecloud.10086.cn/op-help-center/doc/article/90556

在个人电脑上安装了VsCode,参考链接:

VsCode安装教程

工具准备

  1. Ollama
  2. DeepSeek模型文件
  3. VsCode
  4. Twinny插件

第一步:开发Ollama远程连接

1、放通云主机11434端口

云主机安全组中的入向规则需要放通个人电脑IP地址段到云主机11434端口,参考链接https://ecloud.10086.cn/op-help-center/doc/article/23691

2、配置远程Ollama服务

修改云主机环境变量,允许所有IP访问。

重启ollama服务

1、通过任务管理器,关闭ollama服务。

2.在终端执行ollama serve,启动ollama服务。

执行curl 127.0.0.1:11434 ,可以验证ollama已经在运行中

通过云主机中浏览器,输入本机局域网ip还有默认端口,可以看到ollama已经正常运行。

在VSCode中安装twinny插件

打开在个人电脑上安装的VsCode,在插件库中搜索twinny,直接下载和安装。

配置twinny

安装好后,可以直接在twinny的配置中添加接口提供者,点击上方的插头图标,twinny提供了chat,flm,embedding三类大模型的配置接口。

这里选择chat provider,单击右上角的加号,配置我们已经部署好的大模型。

选择LLM Provider为Ollama,点击右侧加号。

点击provider右侧的画笔图标,可以对具体API接口信息进行编辑。

在这里我们将这个provider标记为Ollama-1,,同时填写我们云主机的公网IP和ollama的端口11434,model name填写我们在ollama中部署好的模型deepseek-r1:7b,API Path填写/v1,其余按图示进行选择即可。

点击save进行保存。

代码解释及对话

之后我们可以在vscode中选中一段代码,点击右键,选择twinny-explain,就可以看到对这段代码的解释了。

另外,还可以在对话界面与DeepSeek进行对话,只需要在对话界面左下角,选择我们之前配置好的provider即Ollama-1,即可与其进行对话。

在这里我们可以进行一些简单的对话。

小结:

twinny的配置方式比较简单,用法也比较简洁,通过配置远程云主机上的ollama+deepseek-r1:7b,就可以不再受调用次数限制了。