【知识索引】【李宏毅机器学习】

李宏毅机器学习知识索引

本文为【李宏毅机器学习】知识索引

1.【李宏毅机器学习】01:机器学习介绍 Introduction

【李宏毅机器学习】01:机器学习介绍 Introduction:https://bokai.blog.csdn.net/article/details/113172869

  • 一、机器学习步骤
  • 二、机器学习框架
  • 三、机器学习学习地图
  • 四、总结

在这里插入图片描述

2.【李宏毅机器学习】02:回归Regression

【李宏毅机器学习】02:回归Regression:https://bokai.blog.csdn.net/article/details/113266729

  • 一、回归(Regression)的定义
    • 1.Regression: Output a scalar
    • 2.Example of Regression
  • 二、回归的实现(机器学习的步骤)
    • Step 1: define a set of function - Linear Model
    • Step 2: goodness of function - Loss Function
    • Step 3: pick the best function - Gradient Descent
  • 三、回归的优化
    • 1.Select another model 选择另一个模型
    • 2.Consider the hidden factors 考虑其他隐藏因素
    • 3.Regularization 正则化

在这里插入图片描述

3.【李宏毅机器学习】03:误差Error

【李宏毅机器学习】03:误差Error:https://bokai.blog.csdn.net/article/details/113360317

  • 一、Bias & Variance 偏差和方差

    • 1.误差的来源
    • 2.偏差和方差的理解
    • 3.偏差和方差出现的原因
    • 4.模型的偏差和方差
  • 二、What to do with error 误差的处理

    • Bias v.s. Variance 偏差和方差对比
    • 1.Large bias - underfitting偏差大 - 欠拟合
    • 2.Large variance - Overfitting 方差大 - 过拟合
  • 三、Model Selection模型的选择

    扫描二维码关注公众号,回复: 12479437 查看本文章
    • 1.Cross Validation 交叉验证
    • 2.K-fold Cross Validation k折交叉验证

在这里插入图片描述

4.【李宏毅机器学习】04:梯度下降Gradient Descent

李宏毅机器学习04:梯度下降Gradient Descent:https://bokai.blog.csdn.net/article/details/113407285

  • 一、梯度下降方法
  • 二、梯度下降的改进方法
    • Tip 1: Tuning your learning rates 调整学习率
    • Tip 2: Stochastic Gradient Descent 随机梯度下降
    • Tip 3: Feature Scaling 特征缩放
  • 三、Gradient Descent Theory梯度下降的数学理论
  • 四、梯度下降的限制

在这里插入图片描述

5.【李宏毅机器学习】05:概率生成模型Probabilistic Generative Model

【李宏毅机器学习】05:概率生成模型Probabilistic Generative Model:https://bokai.blog.csdn.net/article/details/113526076

  • 一、分类Classification的概念
  • 二、分类Classification的实现
    • (1)不能用回归实现分类
    • (2)其他模型
    • (3)概率生成模型 Probabilistic Generative Model
      • 1.预备概率知识
      • 2.分类问题转化为概率问题
      • 3.总结概率生成模型的三步
      • 4.概率生成模型的数学推导

在这里插入图片描述

(未完待续…)

猜你喜欢

转载自blog.csdn.net/BlacKingZ/article/details/113802673