本地低成本部署deepseek-r1

本地低成本部署deepseek-r1
一丶首先还是以前文章使用的Xinference.具体看以前文章
二丶首先部署不量化的7b模型
在这里插入图片描述
如果你多张卡可以调整gpu
然后这里咱们部署的是不量化的所以要改一下

在这里插入图片描述
这个是token长度
然后我们在国内下载的就选择
在这里插入图片描述
三丶部署部署量化的32b模型
在这里插入图片描述
在这里插入图片描述
这里如果量化有这个就选这个
token这个你可以从6000慢慢往上加,具体看你显存了

然后你用14B的可以init8,token设置个11000,具体根据自己显卡设置

目前试过的3090也能跑起来,目前我用的是4090d.然后r1是推理模型
在这里插入图片描述
可以看下区别.
最后如果没有搞搞清楚v3,r1状况的,先看一下论文文档,扔碎片一个AI里让它们翻译,不要跟着短视频跑
https://arxiv.org/html/2412.19437v1
https://arxiv.org/abs/2501.12948
然后最后我们xfc需要这个版本才有r1,需要大家下载一下* Pip:pip install ‘xinference==1.2.1’
具体使用哪个模型看你显卡,显存了

猜你喜欢

转载自blog.csdn.net/weixin_45515807/article/details/145515171
今日推荐