笔记:机器学习——吴恩达 第九周

课程目录

十五、异常检测(Anomaly Detection)

15.1 问题的动机
15.2 高斯分布
15.3 算法
15.4 开发和评价一个异常检测系统
15.5 异常检测与监督学习对比
15.6 选择特征
15.7 多元高斯分布(选修)
15.8 使用多元高斯分布进行异常检测(选修)


十六、推荐系统(Recommender Systems)

16.1 问题形式化
16.2 基于内容的推荐系统
16.3 协同过滤
16.4 协同过滤算法
16.5 向量化:低秩矩阵分解
16.6 推行工作上的细节:均值归一化


笔记内容


十五、异常检测(Anomaly Detection) 

15.1 问题的动机 
       在接下来几节,会介绍 异常检测(Anomaly detection) 问题。这是机器学习算法的一个常见应用。这种算法的一个有趣之处在于:它虽然主要用于非监督学习问题,但从某些角度看,它又类似于一些监督学习问题。 
       什么是异常检测呢?举一个例子: 
      假想你是一个飞机引擎制造商,当你生产的飞机引擎从生产线上流出时,你需要进行 QA (质量控制测试),而作为这个测试的一部分,你测量了飞机引擎的一些特征变量,比如引擎运转时产生的热量,或者引擎的振动等等。 
               
       这样一来,你就有了一个数据集,从 ,如果你生产了 m 个引擎的话,你将这些数据绘制成图表,看起来就是这个样子: 
               

       这里的每个点、每个叉,都是你的无标签数据。这样,异常检测问题可以定义如下:我们假设后来有一天,你有一个新的飞机引擎从生产线上流出,而你的新飞机引擎有特征变量xtest。所谓的异常检测问题就是:我们希望知道这个新的飞机引擎是否有某种异常,或者说,我们希望判断这个引擎是否需要进一步测试。

       给定数据集,我们假使数据集是正常的,我们希望知道新的数据 xtest 是不是异常的,即这个测试数据不属于该组数据的几率如何。我们所构建的模型应该能根据该测试数据的位置告诉我们其属于一组数据的可能性 p(x)。 

                

       上图中,在蓝色圈内的数据属于该组数据的可能性较高,而越是偏远的数据,其属于该组数据的可能性就越低。 这种方法称为 密度估计,表达如下: 

        欺诈检测:

         = 用户的第i个活动特征

       模型 p(x) =我们其属于一组数据的可能性 

       通过 p(x)<ε 检测非正常用户。异常检测主要用来识别欺骗。例如在线采集而来的有关用户的数据,一个特征向量中可能会包含如:用户多久登录一次,访问过的页面,在论坛发布的帖子数量,甚至是打字速度等。根据这些特征构建一个模型,用这个模型来识别那些不符合该模式的用户。再一个例子是检测一个数据中心,特征可能包含:内存使用情况,被访问的磁盘数量,CPU 的负载,网络的通信量等。根据这些特征构建一个模型,用来判断某些计算机是不是有可能出错了。 


15.2 高斯分布 

       高斯分布,也称为 正态分布。回顾高斯分布的基本知识: 

       通常如果我们认为变量 x 符合高斯分布 x~N(μ,σ2)则其概率密度函数为: 

       

       我们可以利用已有的数据来预测总体中的 μ 和 σ^2 的计算方法如下: 

          

       高斯分布样例:

        

       注意:机器学习中对于方差我们通常只除以 m 而非统计学中的(m-1)。这里顺便提一下,在实际使用中,到底是选择使用 1/m 还是 1/(m-1)其实区别很小,只要你有一个还算大的训练集,在机器学习领域大部分人更习惯使用 1/m 这个版本的公式。这两个版本的公式在理论特性和数学特性上稍有不同,但是在实际使用中,他们的区别甚小,几乎可以忽略不计。


15.3 算法

       在本节中,将应用 高斯分布 开发 异常检测算法。 

       异常检测算法
       对于给定的数据集 ,我们要针对每一个特征计算 μ 和 σ^2 的估计值。 

        

       一旦我们获得了平均值和方差的估计值,给定新的一个训练实例,根据模型计算 p(x):  

        

       当 p(x)<ε 时,为异常 

       下图是一个由两个特征的训练集,以及特征的分布情况: 

          

      下面的三维图表表示的是 密度估计函数,z 轴为根据两个特征的值所估计 p(x)值: 

            

      我们选择一个 ε,将 p(x)=ε 作为我们的判定边界,当 p(x)>ε 时预测数据为正常数据,否则为异常。 

       在本节,我们介绍了如何拟合 p(x),也就是 x 的概率值,以开发出一种 异常检测算法。同时,在这节课中,我们也给出了通过给出的数据集拟合参数,进行参数估计,得到 参数μσ,然后检测新的样本,确定新样本是否是异常。 

       在接下来,我们将深入研究这一算法,同时更深入地介绍,怎样让算法工作地更加有效。 


15.4 开发和评价一个异常检测系统 

       异常检测算法 是一个 非监督学习算法,意味着我们 无法根据结果变量 y 的值来告诉我们数据是否真的是异常的。我们需要另一种方法来帮助检验算法是否有效。当我们开发一个异常检测系统时,我们从 带标记(异常或正常)的数据 着手,我们从其中选择一部分正常数据用于构建 训练集,然后用剩下的正常数据和异常数据混合的数据构成 交叉检验集和测试集。 

       例如:我们有 10000 台正常引擎的数据,有 20 台异常引擎的数据。 我们这样分配数据: 
       6000 台正常引擎的数据作为 训练集 
       2000 台正常引擎和 10 台异常引擎的数据作为 交叉检验集 

       2000 台正常引擎和 10 台异常引擎的数据作为 测试集  

       具体的评价方法如下: 
       1. 根据  测试集 数据,我们估计  特征的平均值和方差 并构建 p(x)函数 
       2. 对  交叉检验集,我们尝试使用不同的 ε 值作为阈值,并预测数据是否异常,根据 F1 值或者查准率与查全率的比例 来选择 ε
       3. 选出 ε 后,针对  测试集 进行预测,计算异常检验系统的 F1 值,或者  查准率与查全率之比 


15.5 异常检测与监督学习对比 

       之前我们构建的异常检测系统也使用了带标记的数据,与监督学习有些相似,下面的对比有助于选择采用监督学习还是异常检测。两者比较: 

             

       希望这节课能让你明白学习问题的什么样的特征,能让你把这个问题当做是一个异常检测,或者是一个监督学习的问题。另外,对于很多技术公司可能会遇到的一些问题,通常来说,正样本的数量很少,甚至有时候是 0,也就是说,出现了太多没见过的不同的异常类型,那么对于这些问题,通常应该使用的算法就是 异常检测算法。 


15.6 选择特征 

       对于异常检测算法,我们使用的特征是至关重要的,下面谈谈如何选择特征: 
       异常检测假设特征符合高斯分布,如果数据的分布不是高斯分布,异常检测算法也能够工作,但是最好还是 将数据转换成高斯分布,例如使用对数函数:x = log(x+c) ,其中 c 为非负常数; 或者 x=x^c,c 为 0-1 之间的一个分数,等方法。 

            

       误差分析: 

       一个常见的问题是一些异常的数据可能也会有较高的 p(x)值,因而被算法认为是正常的。

       这种情况下误差分析能够帮助我们,我们可以分析那些被算法错误预测为正常的数据,观察能否找出一些问题。我们可能能从问题中发现我们需要增加一些 新的特征,增加这些新特征后获得的新算法能够帮助我们更好地进行异常检测。 

        异常检测误差分析: 

           

       我们通常可以通过将一些 相关的特征进行组合,来获得一些新的更好的特征(异常数据的该特征值异常地大或小),例如,在检测数据中心的计算机状况的例子中,我们可以用 CPU 负载与网络通信量的比例作为一个新的特征,如果该值异常地大,便有可能意味着该服务器是陷入了一些问题中。 

       在本节中,我们介绍了如何选择特征,以及对特征进行一些小小的转换,让数据更像正态分布,然后再把数据输入异常检测算法。同时也介绍了建立特征时,进行的误差分析方法,来捕捉各种异常的可能。希望你通过这些方法,能够了解如何选择好的特征变量,从而帮助你的异常检测算法,捕捉到各种不同的异常情况。 


15.7 多元高斯分布(可选) 

       假使我们有两个相关的特征,而且这两个特征的值域范围比较宽,这种情况下,一般的高斯分布模型可能不能很好地识别异常数据。其原因在于,一般的高斯分布模型尝试的是去同时抓住两个特征的偏差,因此会创造出一个 比较大的判定边界。 
       下图中是两个相关特征,洋红色的线(根据 ε 的不同其范围可大可小)是 一般的高斯分布模型 获得的判定边界,很明显绿色的 X 所代表的数据点很可能是异常值,但是其 p(x)值却仍然在正常范围内。多元高斯分布 将创建像图中蓝色曲线所示的判定边界。 

               

       在一般的高斯分布模型 中,我们计算 p(x)的方法是: 通过分别计算每个特征对应的几率然后将其累乘起来;在多元高斯分布模型 中,我们将构建 特征的协方差矩阵,用所有的特征一起来计算 p(x)。 

       我们首先计算 所有特征的平均值,然后再计算 协方差矩阵: 

          

       注意:其中 μ 是一个向量,其每一个单元都是原特征矩阵中一行数据的均值。最后我们计算 多元高斯分布的 p(x)

              

        其中:

        |Σ|是定矩阵,在 Octave 中用 det(sigma)计算 Σ1 是逆矩阵,下面我们来看看 协方差矩阵是如何影响模型的: 

     

       上图是 5 个不同的模型,从左往右依次分析: 
       1. 是一个一般的高斯分布模型 
       2. 通过协方差矩阵,令 特征 1 拥有较小的偏差,同时保持特征 2 的偏差 
       3. 通过协方差矩阵,令 特征 2 拥有较大的偏差,同时保持特征 1 的偏差 
       4. 通过协方差矩阵,在不改变两个特征的原有偏差的基础上,增加两者之间的 正相关性
       5. 通过协方差矩阵,在不改变两个特征的原有偏差的基础上,增加两者之间的 负相关性  

       多元高斯分布模型与原高斯分布模型的 关系: 

       可以证明的是,原本的高斯分布模型是多元高斯分布模型的一个 子集,即像上图中的第 1、2、3例子所示,如果协方差矩阵只在对角线的单位上有非零的值时,即为原本的高斯分布模型了。 

       原高斯分布模型和多元高斯分布模型的比较: 

         

       原高斯分布模型被广泛使用,如果特征之间在某种程度上存在相互关联的情况,我们可以通过构造新特征的方法来捕捉这些相关性。 

       如果训练集不是太大,并且没有太多的特征,我们可以使用多元高斯分布模型。 


15.8 使用多元高斯分布进行异常检测(可选)      (本节有点乱,需其他参考???)

       关于多元高斯分布,看到的一些建立的各种分布模型,改变参数μ和Σ。在这段视频中,让我们用这些想法,制定一个不同的异常检测算法。 

       要回顾一下多元高斯分布多元正态分布: 

             

      分布有两个参数,μ和Σ 。其中μ这一个 n 维向量和 Σ的协方差矩阵,是一种 n 乘 n 的矩阵。而这里的公式 X 的概率,如按μ和参数化Σ,和你的变量μ和Σ,你可以得到一个范围的不同分布一样,你知道的,这些都是三个样本,那些我们在以前的视频看过了。 (?????)

       因此,让我们谈谈  参数拟合 或  参数估计 问题: 
       我有一组样本 是一个 n 维向量,我想我的样本来自一个多元高斯分布。我如何尝试估计我的参数μ和Σ以及标准公式? 估计 μ 是你的设置的 训练样本的平均值。 

         

       并设置Σ:

       

       这其实只是当我们使用 PCA 算法时候,有Σ时写出来。所以你只需插入上述两个公式,这会给你你估计的参数μ和你估计的参数Σ。所以,这里给出的数据集是你如何估计μ和Σ。(???????)

       让我们以这种方法,只需将其插入到异常检测算法。(???????)那么,我们如何把所有这一切共同开发一个异常检测方法?

          

        首先,我们把我们的训练集,和我们的拟合模型,我们计算 P(x),要知道,设定μ和描述的一样Σ。(???????) 

            

       如图,该分布在中央最多,越到外面的圈的范围越小。 
       并在该点是出路这里的概率非常低。 

       原始模型与多元高斯模型的关系如图: 

           

        其中:协方差矩阵Σ为: 

         

          原始模型和多元高斯分布比较如图:




十六、推荐系统(Recommender Systems) 


16.1 问题形式化 

       讲推荐系统有两个原因: 
       第一:推荐系统会带来很大一部分收入,比如为亚马逊和像网飞这样的公司。因此,对推荐系统性能的改善,将对这些企业的有实质性和直接的影响。 
       第二个:在最后几节,会讨论机器学习中的一些大思想,并和大家分享。对机器学习来说,特征 是很重要的,你所选择的特征,将对你学习算法的性能有很大的影响。因此,在机器学习中有一种大思想,针对一些问题,某些算法可以自动学习一套好的特征。因此,不要试图手动设计,而手写代码这是目前为止我们常干的。有一些设置,你可以有一个算法,仅仅学习其使用的特征,推荐系统就是类型设置的一个例子。还有很多其它的,但是通过推荐系统,我们将领略一小部分特征学习的思想,至少,你将能够了解到这方面的一个例子,我认为,机器学习中的大思想也是这样。因此,让我们开始讨论推荐系统问题形式化。 

       我们从一个例子开始定义推荐系统的问题。假使我们是一个电影供应商,我们有 5 部电影和 4 个用户,我们要求用户为电影打分。

                   

      前三部电影是爱情片,后两部则是动作片,我们可以看出 Alice 和 Bob 似乎更倾向与爱情片, 而 Carol 和 Dave 似乎更倾向与动作片。并且没有一个用户给所有的电影都打过分。

       我们希望构建一个算法来预测他们每个人可能会给他们没看过的电影打多少分,并以此作为推荐的依据。 下面引入一些标记: 
            代表用户的数量 
           代表电影的数量 
           如果用户 i 给电影 j 评过分则 =1 

           代表用户 i 给电影 j 的评分 

            代表用户 j 评过分的电影的总数


16.2 基于内容的推荐系统 

       在一个 基于内容 的推荐系统算法中,假设对于我们希望推荐的东西有一些有关的特征。在我们的例子中,我们可以假设每部电影都有两个特征,如 x1代表电影的浪漫程度,x2 代表电影的动作程度。 

           

       则每部电影都有一个特征向量,如  是第一部电影的特征向量为[0.9  0]。 

       下面我们要基于这些特征来构建一个推荐系统算法。 假设我们采用  线性回归模型,我们可以针对每一个用户都训练一个线性回归模型,如 是第一个用户的模型的参数。 于是,我们有: 
            用户 j 的  参数向量 

            电影 i 的 特征向量 

       对于用户 j 和电影 i,我们 预测评分 为:

       代价函数针对用户 j,该线性回归模型的  代价 预测误差的平方和,加上  归一化项: 

              

       其中 i:r(i,j)表示我们 只计算那些用户 j 评过分的电影 。在一般的线性回归模型中,误差项和归一项应该都是乘以 1/2m,在这里我们将 m 去掉。并且我们不对方差项 进行归一化处理。 

      上面的代价函数只是针对一个用户的,为了学习所有用户,我们将  所有用户的代价函数求和: 

             

       如果我们要用 梯度下降法 来求解最优解,我们计算代价函数的 偏导数 后得到梯度下降的更新公式为: 

             


16.3 协同过滤 

       在之前的基于内容的推荐系统中,对于每一部电影,我们都掌握了 可用的特征,使用这些特征训练出了每一个用户的参数。相反地,如果我们拥有 用户的参数,我们可以学习得出 电影的特征。 

         

       但是如果我们既没有用户的参数,也没有电影的特征,这两种方法就都不可行了。协同过滤算法可以同时学习这两者。 

       我们的优化目标便改为同时针对 x θ 进行 

            

       对代价函数求 偏导数 的结果如下:

       

       注意:在协同过滤从算法中,我们通常不使用方差项,如果需要的话,算法会自动学得。
 
        协同过滤算法使用步骤如下: 
        1. 初始 为一些 随机小值 
        2. 使用 梯度下降算法 最小化代价函数
        3. 在训练完算法后,我们预测     为用户 j 给电影 i 的评分 

        通过这个学习过程获得的  特征矩阵 包含了有关电影的重要数据,这些数据不总是人能读懂的,但是我们可以用这些数据作为给用户推荐电影的依据。 

        例如,如果一位用户正在观看电影 ,我们可以寻找另一部电影,依据两部电影的  特征向量之间的距离  的大小。 


16.4 协同过滤算法 

       协同过滤优化目标:

       给定,估计

                  


       给定,估计

?????????????

       

        同时最小化 

                   


 16.5 向量化:低秩矩阵分解 

      在上几节,我们谈到了协同过滤算法,本节中将会讲到有关该算法的 向量化实现,以及说说有关该算法你可以做的其他事情。 

      举例子:  
      1.当给出一件产品时,你能否找到与之相关的其它产品。 

      2.一位用户最近看上一件产品,有没有其它相关的产品,你可以推荐给他。 

      我们将要做的是:实现一种选择的方法,写出协同过滤算法的预测情况。 
      我们有关于五部电影的数据集,我将要做的是,将这些用户的电影评分,进行分组并存到一个矩阵中。 我们有五部电影,以及四位用户,那么 这个矩阵 Y 就是一个 5 行 4 列的矩阵,它将这些电影的用户评分数据都存在矩阵里: 

                  

        推出评分:

              

        找到相关影片:

                 

       现在既然你已经对 特征参数向量 进行了学习,那么我们就会有一个很方便的方法来度量两部电影之间的相似性。例如说:电影 i 有一个特征向量 ,你是否能找到一部不同的电影 j,保证两部电影的特征向量之间的距离 很小,那就能很有力地表明电影 i 和电影 j 在某种程度上有相似,至少在某种意义上,某些人喜欢电影 i,或许更有可能也对电影 j 感兴趣。在这些不同的电影中与我们要找的电影 i 的距离最小,就能给你的用户推荐几部不同的电影了。 

      通过这个方法,希望你能知道,如何进行一个 向量化 的计算来对所有的用户和所有的电影进行评分计算。同时希望你也能掌握,通过学习 特征参数,来找到相关电影和产品的方法。


16.6 推行工作上的细节:均值归一化 

       让我们来看下面的用户评分数据:

          

      如果我们新增一个用户 Eve,并且 Eve 没有为任何电影评分,那么我们以什么为依据为 Eve 推荐电影呢? 

      我们首先需要对结果 Y 矩阵进行  均值归一化处理,将每一个用户对某一部电影的评分减去所有用户对该电影评分的平均值: 

   

       然后我们利用这个新的 Y 矩阵来训练算法。如果我们要用新训练出的算法来预测评分,则需要将平均值重新加回去,预测  。对于 Eve,我们的新模型会认为她给每部电影的评分都是该电影的 平均分。 

猜你喜欢

转载自blog.csdn.net/zhuangv587/article/details/80572400