最近很多朋友都在问:怎么本地部署 DeepSeek 搭建个人知识库。
老实说,如果你不是为了研究技术,或者确实需要保护涉密数据,我真不建议去折腾本地部署。
为什么呢?
目前 Ollama 从 1.5B 到 70B 都只是把 R1 的推理能力提炼到 Qwen 和 Llama 的蒸馏版本上。
虽说性能是提升了不少,但跟原汁原味的 R1 模型比起来,还是差太多了。
官方的满血版本可是 671B 的参数量,说实话,对普通人来说想本地部署,这成本确实太高了。
不过我最近发现了一个平台,不仅能用上 R1 本 1,还提供了不少免费额度。
此外,为了让拥有算力的朋友可以本地部署,我也提供了相关教程。
看完全文,你会收获:
1、满血 DeepSeek R1 模型 API 搭建方式
2、本地部署 DeepSeek R1 模型 搭建方式
一、个人知识库使用效果(满血版)
来看几个使用案例:如何借助 个人知识库文件 作为外脑,用方法论指导我们正确做事?
DeepSeek 确实很好用,但关键还是会不会提问。如果不会提问,AI 再强也帮不上忙。
除了花时间学习提示词,更快的方式是本地备一份提问指南,让 AI 指导你该怎么正确提问,这样才能真正发挥它的价值!
AI 借助知识库内的 DeepSeek 指导手册,预判了我可能想问的问题,以及建议的正确提示词格式。
从回答中可以发现,AI 不是依据自身语料库回复,而是基于知识库内容回复。
当然,我们也可以直接提问,精准搜索知识库的原始信息,从而达到快速查询的效果。
二、API 搭建知识库
如果本地数据不涉密,还想获得最佳使用效果,那肯定得选满血的 Dee