21 天入门机器学习-第05期

训练营介绍

《21 天入门机器学习》是 GitChat 打造的一款社群学习产品,以李烨老师的图文课《机器学习极简入门课》为学习素材,通过 21 天的社群学习模式带领大家入门机器学习。

本训练营课程共 6 大主题、 42 讲,包含 17 个核心知识点;另配有 44 道课后习题+3 个实践项目(含数据)供同学们检验学习效果;同时训练营课程还将附带一份开营礼包,内含:训练营指导手册、往期答疑实录、打卡攻略、参考资料、课程代金券

作者介绍

李烨,高级软件工程师,现就职于微软(Microsoft),曾在易安信(EMC)和太阳微系统(Sun Microsystems)任软件工程师;先后参与聊天机器人、大数据分析平台等项目的开发;曾在 GitChat 平台上发布过多场热门 Chat 和畅销课程。

avatar* 全勤奖需要完成全部打卡任务;优秀学员由讲师选出,在结营仪式上公布。

适宜人群

  • 渴望转行 AI 的从业者;
  • 在校理科生;
  • 机器学习爱好者;

学习条件

  • 具备基本 Python 编码能力;
  • 具备基本数据处理能力;
  • 掌握大学本科数学知识;

往期优秀笔记

avatar往期优秀学员笔记 1

avatar往期优秀学员笔记 2

avatar往期优秀学员笔记 3

社群学习展示

avatar社群交流展示

avatar讲师答疑展示

avatar学员反馈展示

学习目标

avatar

扫描二维码关注公众号,回复: 4879225 查看本文章

课程表

avatar*打卡任务:学员可通过小程序提交学习笔记完成打卡,星级代表每个知识点的难易程度。

课程内容

开篇词 | 入门机器学习,已迫在眉睫

大家好,我是李烨。现就职于微软(Microsoft),曾在易安信(EMC)和太阳微系统(Sun Microsystems)任软件工程师。先后参与过聊天机器人、大数据分析平台等项目的开发。在未来的 21 天里,我将通过这个训练营课程与同学们分享机器学习的相关知识。

我们的第一个打卡知识点是“热身”,这部分需要大家学习这篇开篇词和下一篇热身课文章,阅读完文章后,大家记得通过社群里的打卡小程序链接来提交学习笔记完成打卡。对提交学习笔记有疑问的同学可以看一下我们的指导手册或咨询助教。

课程背景

首先,我们来看下当前机器学习领域招聘市场行情。

81b71f70-cdca-11e8-8458-03f9794b87bd

上面表格中所有带有“算法”、“人工智能”、“数据挖掘”、“视觉”字样的职位,都需要掌握机器学习相关知识。

在产品和服务中应用机器学习模型,已经逐步成为互联网行业的通行方法。甚至很多传统软件企业,也开始尝试应用机器学习。说得更直接些,人工智能正处在炙手可热的风口浪尖上,作为程序员不会机器学习都不好意思去找工作。

很多技术开发者迫切希望快速进入人工智能领域从事工程或者算法等相关工作,这也是我推出这门课程的初衷。

课程大纲

《21 天入门机器学习》以我的达人课《机器学习极简入门课》为学习素材,通过 21 天的社群互动带领大家入门机器学习。本训练营课程共 6 大主题、 42 讲,包含 17 个核心知识点,另配有 3 个可实际操作的训练项目(及数据)供同学们上手实践。

《21 天入门机器学习》面向机器学习初学者,从机器学习、深度学习最基本的原理及学习意义入手,以模型为驱动,详解几个经典机器学习模型的原理、数学推导、训练过程和优化方法。

训练营主题与学习计划:

开营仪式

  • 学时 1 天,1 次打卡任务。

第一部分:绪论

  • 授人以鱼不如授人以渔。本部分从意义和作用出发,给出相应的学习方法和与理论配套的编程练习。

  • 学时 2 天,1 次打卡任务。

第二部分:基本原理

  • 深谙其理,才能灵活应变。本部分带大家了解什么是机器学习、机器如何自己学习,以及机器学习三要素:数据、模型、算法之间的关系。

  • 模型是机器学习的核心,那么模型是怎么得到的呢?本部分也将讲解模型的获取(训练)和评价(验证/测试)过程,相应数据集合的划分以及具体的评价指标。

  • 这部分知识和后面讲述的具体模型结合起来,就可以实践了!

  • 学时 2 天,1 次打卡任务。

第三部分:有监督学习 I

  • 抓住关键,个个击破。本部分重在详细讲解有监督学习中经典的线性回归、朴素贝叶斯、逻辑回归、决策树模型。这几个模型不仅基础、经典、常用,而且数学工具特别简单。
  • 学时 4 天,4 次打卡任务。

第四部分:有监督学习 II

  • 百尺竿头,更上一层楼。本部分主要讲述支持向量机、支持向量回归、隐马尔科夫和条件随机场模型,从支持向量机开始,数学工具的需求较之前上了一个台阶,难度明显加大。
  • 学时 5 天,5 次打卡任务。

第五部分:无监督学习

  • 无须标注,方便运行。本部分重在讲解无监督学习中的聚类、高斯混合及主成分分析等模型。训练数据无须标注,方便在各种数据上随时进行尝试,是这些模型的特征。在现实中,经常用来作为有监督的辅助手段。
  • 学时 4 天,4 次打卡任务。

第六部分:深度学习

  • 超越自我,实现蜕变。本部分重在讲解深度学习基本原理、深度学习与机器学习的关联与衔接、以及深度学习目前的应用领域,为读者下一步学习“深度学习”奠定基础。
  • 学时 1 天,1 次打卡任务。

结营仪式

  • 学时 1 天。

整个课程以经典模型为驱动,讲述每一个模型所解决的问题域,模型原理和数学推导过程。作为课程的主体,第三部分和第四部分讲解的每个模型,都附有实例和相应的 Python 代码。每个例子的数据量都非常小——这样设计就是为了让读者可以用人脑模拟计算机,根据刚刚学到的模型算法对这些极小量数据进行“模拟训练/预测”,以此来加深对模型的理解。

你将收获什么

AI 技术岗位求职知识储备

如果大家真的有意投身到人工智能领域,从事相关技术性工作,通过技术笔试、面试则是必要条件。在面试中被要求从头解释某一个机器学习模型的运行原理、推导过程和优化方法,是目前非常常见的一种测试方法。机器学习模型虽然很多,但是经典、常用的很有限。如果能学会本课程所讲解的经典模型,你将足以挑战这些面试题。

触类旁通各大模型与算法

各种机器学习模型的具体形式和推导过程虽然有很大差别,但在更基础的层面上有许多共性。掌握共性之后,再去学新的模型、算法,就会高效得多。虽然本课的第二部分集中描述了部分一般性共同点,但真要理解个中含义,还需要以若干具体模型为载体,从问题发源,到解决方案,再到解决方案的数学抽象,以及后续数学模型求解的全过程,来了解体味。这也就是本课以模型为驱动的出发点。

极简版实例体验实际应用

运用到实践中去,是我们学习一切知识的目的。机器学习本身更是一种实操性很强的技术,学习它,原本就是为了应用。反之,应用也能够促进知识的深化理解和吸收。本课虽然以原理为核心,但也同样介绍了:划分数据集、从源数据中提取特征、模型训练过程、模型的测试和评估等方法和工具。

配套数据+代码快速实操上手

本课程中各个实例的 Python 代码及相应数据,大家可以下载、运行、改写、参考。

课程寄语

我希望本课的读者在知识和技巧的掌握之外,能够将学习到的基本规律运用到日常生活中,更加理性地看待世界。

再遇到“人工智能产品”,能够根据自己的知识,去推导:How it works——

  • 它背后有没有用到机器学习模型?
  • 如果有的话,是有监督模型还是无监督模型?
  • 是分类模型还是回归模型?
  • 选取的特征是哪些?
  • 如果由你来解决这个问题,有没有更好的方法?

我们自己用来判断万事万物的“观点”、“看法”、“洞察”,实际上都是我们头脑中一个个“模型”对所闻所见(输入数据)进行“预测”的结果。这些模型自身的质量,直接导致了预测结果的合理性。

从机器学习认识客观规律的过程中,我们可以知道,模型是由数据和算法决定的。对应到人脑,数据是我们经历和见过的万事万物,而算法则是我们的思辨能力。

作为人类,我们不必被动等待一个外来的主宰者,完全可以主动训练自己的思维模型,通过改进算法和增大数据量及数据多样性来提升模型质量——如果能在这方面给读者朋友们带来些许启发,我实在不胜荣幸。

最后,预祝每一位订阅课程的朋友,能够通过学习找到心仪的工作,如果大家有任何疑问和建议,也欢迎通过读者圈与我交流,我们共同学习,共同进步。

热身课 | 入行 AI,选个脚踏实地的岗位
第01课:为什么要学原理和公式推导
第02课:学习机器学习原理,改变看待世界的方式
第03课:如何学习“机器学习”
第04课:为什么要学 Python 以及如何学 Python
第05课:机器是如何学习的?
第06课:机器学习三要素之数据、模型、算法
第07课:模型的获取和改进
第08课:模型的质量和评判指标
第09课:最常用的优化算法——梯度下降法
第10课:线性回归——从模型函数到目标函数
第11课:线性回归——梯度下降法求解目标函数
第12课:朴素贝叶斯分类器——从贝叶斯定理到分类模型
第13课:朴素贝叶斯分类器——条件概率的参数估计
第14课:逻辑回归——非线性逻辑函数的由来
第15课:逻辑回归——用来做分类的回归模型
第16课:决策树——既能分类又能回归的模型
第17课:决策树——告诉你 Hello Kitty 是人是猫
第18课:SVM——线性可分 SVM 原理
第19课:SVM——直观理解拉格朗日乘子法
第20课:SVM——对偶学习算法
第21课:SVM——线性 SVM,间隔由硬到软
第22课:SVM——非线性 SVM 和核函数
第23课:SVR——一种“宽容”的回归模型
第24课:直观认识 SVM 和 SVR
第25课:HMM——定义和假设
第26课:HMM——三个基本问题
第27课:HMM——三个基本问题的计算
第28课:CRF——概率无向图模型到线性链条件随机场
第29课:CRF——三个基本问题
第30课:从有监督到无监督:由 KNN 引出 KMeans
第31课:KMeans——最简单的聚类算法
第32课:谱聚类——无需指定簇数量的聚类
第33课:EM算法——估计含有隐变量的概率模型的参数
第34课:GMM——将“混”在一起的样本各归其源
第35课:GMM——用 EM 算法求解 GMM
第36课:PCA——利用数学工具提取主要特征
第37课:PCA——用 SVD 实现 PCA
第38课:人工智能和神经网络
第39课:几种深度学习网络
第40课:深度学习的愿景、问题、应用和资料

阅读全文: http://gitbook.cn/gitchat/column/5c3832dc4fcd483b027247fe

猜你喜欢

转载自blog.csdn.net/valada/article/details/86324442
今日推荐