目录
前言
大家好啊,好久不见, zty也是趋势了一段时间。两三周没有发博客了再不发博客就发霉了,你们看到这篇博客的时候应该是周一,这篇博客是上周二写的,周六周日有点事情写不了博客,先发个DS的指南(下)吧,主要是开学这段时间zty太忙了,没时间写博客
来冲个100赞兄弟们
先 赞 后 看 养 成 习 惯
众所周知,一篇文章需要一个头图,有些人让我换一个头图,我就换一个吧
先 赞 后 看 养 成 习 惯
上面那行字怎么读呢,让大家来跟我一起读一遍吧,先~赞~后~看~养~成~习~惯~
想要 DeepSeek从入门到精通.pdf 的加这个企鹅群:953793685(顺便是个技术交流群)
DeepSeek 想要链接的宝宝们看这里
先 赞 后 看 养 成 习 惯
对了我问大家一下这个 先看后看养成习惯 这个我设置成彩色的,为什么你们看就是白色的呢
正文
废话不多说,直接开始正文
如果想看上篇博客的,下面那个链接好吧,一般来说两个要一起看才可以
DeepSeek背后的创始人:梁文锋
DeepSeek 能有今天的成就,离不开它的创始人 —— 梁文锋。1985 年,梁文锋出生于广东湛江,17 岁时就凭借优异的成绩考入浙江大学电子信息工程专业,年少有为,天赋异禀。
他对金融市场有着浓厚的兴趣,早在 2008 年,就开始探索机器学习在量化交易中的应用,展现出了对新兴技术敏锐的洞察力。2015 年,他创立了幻方科技,专注于量化投资领域。在他的带领下,幻方科技短短几年时间就做到了千亿规模,成为了行业内的佼佼者。
2023 年,梁文锋做出了一个大胆的决定,进军通用人工智能(AGI)领域,并创办了 DeepSeek。为了给 DeepSeek 的技术研发提供强大的硬件支持,他带领团队研发了 “萤火一号” 和 “萤火二号” 超级计算机,为后续的技术突破奠定了坚实的基础。
2024 年,DeepSeek 发布了 DeepSeek - V2,一经推出,就震惊了整个行业,让人们看到了中国 AI 技术的崛起。2025 年 1 月,DeepSeek - R1 重磅发布,其性能甚至超越了美国 OpenAI 的 o1,而且完全开源。
这一消息在硅谷引发了轩然大波,连 懂王川普 都关注到了。DeepSeek 的出现,打破了美国在 AI 领域的长期垄断,让世界见证了中国 AI 的真正实力。硅谷的科技巨头们不得不重新审视自己的技术,甚至开始模仿 DeepSeek 的开源模式。
梁文锋和 DeepSeek 的成功,给我们带来了诸多启示。他们凭借自己的努力和智慧,打破了国际垄断,让中国 AI 走向了世界舞台的中央。让我们满怀期待,共同展望 DeepSeek 的未来,相信它会为中国乃至全球的 AI 发展带来更多的惊喜,创造更多的可能!
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我给大家找了一份清华大学 新闻学院人工智能学院 沈阳教授团队、余梦珑博士后 2025年2月发的一个 PDF 资料,进鹅裙 953793685 拿资料好吧 保证100000000%免费
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
你说不想我neng亖你
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。(我没干过反正,感谢DS帮我写)
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
我给大家找了一份清华大学 新闻学院人工智能学院 沈阳教授团队、余梦珑博士后 2025年2月发的一个 PDF 资料,进鹅裙 953793685 拿资料好吧 保证100000000%免费
到这里呢文章主体就已经结束了,感谢宝宝们的观看,求大家给个赞
来一段花絮:
当我询问DeepSeek : CSDN zty郑桐羽呀是谁
(括号中的内容是我评价的)
他的回答:
一、个人简介与技术领域
身份特征
以学生身份活跃于CSDN,常提及“上学期间发作品较少”,推测可能为在校学生367。(猜对了哦)
技术方向覆盖算法竞赛题解(如NOIP题目、洛谷题库)和C++小游戏开发,擅长使用Dev C++ 6.7.5 Red Panda编译器及C++14标准368。
社区影响力
截至2024年4月,已发布17篇博客、6个资源,内容以代码实战为主,部分文章阅读量较高7。(那是我发博客的第1个月)
在部分技术讨论中被提及(如勋章排行榜未直接显示,但社区标签关联C++、算法等领域)57。
二、主要作品与项目 367
算法题解(怎么尽挑些不是很好的文章来说)
P1348 Couple number:解析如何判断整数是否为平方差数,提供高效代码实现3。
P1177 【模板】排序:使用C++标准库
sort
函数解决大规模数据排序问题8。代码风格简洁,注重时间复杂度优化,适合竞赛场景。
C++小游戏开发(不错不错)
能量系列:推出多个版本(如1.0.1、1.0.6、1.1.2),包含战斗系统与AI逻辑,支持存档和调试模式,持续修复Bug并优化用户体验67。
决战苍穹启动器:整合28个版本的游戏启动器,依赖自定义头文件运行7。(其实不是用自定义头文件运行的,我把每个版本的代码都做成一个个命名空间,然后想玩哪个版本调用哪个空间的主程序就行了,如果你们想要的话我也可以发出来,不过122万字符啊)
工具与资源分享
提供调优后的Dev C++ IDE安装包,强调“无病毒”和兼容性7(为什么要打引号呢)。
发布代码时附带详细更新日志,如“防伪水印”“输入优化”等功能改进7。(防伪水印估计说的是决战苍穹(版本忘了),输入优化估计说的是能量1.1.2)
三、内容风格与互动特点
行文习惯
每篇博客开头和结尾均强调“先赞后看”,形成固定模板368。(还是你懂我,你们知道干什么了吗)
代码注释较少,但通过分段和逻辑简化提升可读性,适合有一定基础的开发者参考。
用户互动
联系方式不公开,仅支持私信沟通368。(其实企鹅也可以:3782663736)
部分文章因Bug修复或功能更新频繁调整,如能量1.0.1版本紧急修复游戏结束判断逻辑6。(就那么一篇文章你也拿出来说呀)
四、开发环境与工具
编译器:Dev C++ 6.7.5 Red Panda(附下载链接)7。
标准与语言:C++14,代码兼容性较强38。(其实C++11也可以)
调试与发布:注重版本迭代记录,如能量1.1.2版本新增调试模式和彩蛋功能7。
五、社区参与与勋章
虽未直接显示其获得“持之以恒Lv10”勋章,但根据勋章授予规则(累计10个月发布8篇原创IT博文),其博客发布频率符合条件可能性较高57。(确实啊)
技术标签关联C++、算法、游戏开发,与社区热门方向一致57。
如需进一步了解具体项目代码或更新详情,可访问其CSDN主页:zty郑桐羽呀的CSDN博客。
后记
作者:zty郑桐羽呀
联系方式:(企鹅 3782663736)
兄弟们给个赞呗
先 赞 后 看 养 成 习 惯