机器学习的步骤都有哪些(六)

版权声明:系CDA数据分析师原创作品,转载需授权 https://blog.csdn.net/yoggieCDA/article/details/87719850


我们在上一篇文章中给大家介绍了机器学习中的概率统计的知识,概率统计知识在机器学习中评价步骤中用的很多。其实最优化理论在机器学习中的优化步骤中也是十分重要的,下面我们就给大家介绍一下这些内容。

最优化理论,我们一看就知道这是用在机器学习的优化中,在最优化理论当中,主要的研究方向是凸优化。凸优化当然它有些限制,但它的好处是什么呢?能够简化这个问题的解。因为在优化当中我们都知道,我们要求的是一个最大值,或者是最小值,但实际当中我们可能会遇到一些局部的极大值,局部的极小值,还有鞍点这样的点。凸优化可以避免这个问题。在凸优化当中,极大值就是最大值,极小值也就是最小值。但是在实际当中,尤其是引入了神经网络还有深度学习之后,凸优化的应用范围越来越窄,很多情况下它不再适用,所以这里面我们主要用到的是无约束优化。同时,在神经网络当中应用最广的一个算法,一个优化方法,就是反向传播。所以最优化理论是很多人工智能以及机器学习需要使用的内容。

三种数学工具和三个步骤并非一一对应

机器学习当中,用到的基础数学都包括三种,分别是线性代数,概率统计,还有最优化理论。我们在机器学习当中用到的最基础的一些数学工具。如果大概做一个分类,分别对应到我们机器学习当中,表示、评价,还有优化这样三个步骤。在表示当中我们只用到线性代数,概率统计一点儿都不涉及,同样地,我们在评价的时候,线性代数也不涉及,不是这样,都会有一个交叉的过程,但是在每个步骤当中应用到的主要工具还是有所区别。其实高等数学是数学工具的基础当然,在数学工具当中,我们并没有涉及到高等数学,高等数学我们就把它当作一个基础,一个基础中的基础。不光是人工智能,或者说机器学习,只要有数学参与的地方,我们都需要有高等数学的这个基础。那么具体到机器学习当中,我们在高等数学这一块儿用到的比较多的,可能包括求导,微分,这样的一些内容。所以高等数学是我们需要好好研究的内容。

我们在这篇文章中给大家介绍了最优化理论的知识,这些知识都是需要我们注意的内容,希望这篇文章能够帮助我们更好地理解人工智能和机器学习,最后感谢大家的阅读。

猜你喜欢

转载自blog.csdn.net/yoggieCDA/article/details/87719850