(笔记—深度学习):Chapter3-概率论和信息论

  概率论提供了一种量化不确定性的方法和和推导新的不确定陈述的公理,在人工智能领域,主要有两种应用,第一:概率法则告诉我们AI系统是如何推断的;第二:我们可以用概率论和统计来对AI的行为进行理论分析。

  • 概率论使我们得出不确定陈述和不确定性存在的原因;
  • 信息论使我们能够量化概率分布的不确定性。

1- Why Probability?

不确定性有三种可能的来源:

  • 被建模系统内在的随机性。
  • 不完全观测。
  • 不完全建模。模型舍弃了一些观测信息

频率派概率( f r e q u e n t i s t   p r o b a b i l i t y ):通过大量的可重复性实验,观测某一事件出现的频率,用于表示该事件的概率。
贝叶斯概率( B a y e s i a n   p r o b a b i l i t y ): 对于不可重复性的命题 ,推断者通过一定的置信度( d e g r e e   o f   b e l i e f ),来表示事件的可能性。
为满足所期望的性质,将频率派概率和贝叶斯概率视为等同的。

2-随机变量

随机变量是可以随机取不同的值得变量,表示方式如下:

  • 随机变量: x , 随机变量的取值: x i
  • 随机向量: x (加粗),随机向量的取值 x i

3- 概率分布

概率分布(probability distribution)用来描述随机变量或一簇随机变量在每一个可能取到的状态的可能性大小

3-1 离散型随机变量

离散型随机变量用概率质量函数( P r o b a b i l i t y   m a s s   f u n c t i o n , P M F )来描述。例如,
随机变量 x 的PMF: P ( x ) ,则 x P ( x )
变量值 x i 的概率: P ( x i )

联合概率分布用于表示多个变量的概率分布: P ( x = x , y = y )
PMF必须满足的几个条件:

  • P的定义域必须是 x 所有状态的集合
  • x i x , 0 P ( x ) 1
  • x i x P ( x i ) = 1

3-2连续性随机变量

连续型变量用概率密度函数( P r o b a b i l i t y   d e n s i t y   f u n c t i o n , P D F )描述。用 p 来表示。
函数 p 需要满足条件:

  • p 的定义域必须是 x 所有状态的集合
  • x i x , 0 p ( x i ) ,不要求 p ( x i ) 1
  • p ( x ) d x = 1

例:
实数区间的均匀分布用 u ( x ; a , b ) 表示, x U ( a , b ) ;区间的端点 a , b 满足 a < b , 符号 表示以什么为参数。

u ( x : a , b ) = { 1 b a if  x [ a , b ] 0 if  x [ a , b ]

4-边缘概率

边缘概率分布( m a r g i n   p r o b a b i l i t y   d i s t r i b u t i o n )是指在已知一组随机变量联合概率分布的情况下,求其中一个子集的概率分布。例如:
离散型随机变量 x , y ,且已知其联合概率分布 P ( x , y ) ,则利用求和法则来计算边缘分布: P ( x = x ) = y P ( x = x , y = y )
连续性随机变量:使用积分表示 p ( x = x ) = p ( x = x , y = y ) d y

5-条件概率

条件概率( c o n d i t i o n a l   p r o b a b i l i t y )用于表示:在给定其他事件已经发生的情况下,某个事件发生的概率。例如:
在给定 x = x 的条件下, y = y 发生的概率记为 P ( y = y | x = x )

P ( y = y | x = x ) = P ( y = y , x = x ) P ( x = x )

显然:条件概率只有在 P ( x ) > 0 的情况下才有意义,不可能发生的事件,不可以作为条件。

条件概率的链式法则:多维变量的联合概率分布可以表示为只有一个变量的条件概率相乘的形式

P ( x ( 1 ) , . . . x ( n ) ) = P ( x ( 1 ) ) i = 2 n P ( x ( i ) | x ( 1 ) , . . . , x ( n 1 ) )

6-独立性和条件独立性

若两个变量的联合概率等于其各自概率的乘积,则称这两个变量相互独立:

x x , y y , P ( x , y ) = P ( x ) P ( y )
简化表示为: x y

在给定随机变量 z 的条件下,变量 x , y 的条件概率相互独立,则称为条件独立:

x x , y y , z z ,   P ( x , y | z ) = P ( x | z ) P ( y | z )
简化表示为: x y | z

7-期望、方差、协方差

函数 f ( x ) 关于某分布 P ( x ) 期望( e x p e c t a t i o n 是指当 x P 产生, f 作用于 x 时, f ( x ) 的平均值。
对于离散型随机变量:

E x P [ f ( x ) ] = x P ( x ) f ( x )

对于连续性随机变量:
E x p [ f ( x ) ] = p ( x ) f ( x ) d x

期望是线性的: E ( α f ( x ) + β g ( x ) ) = α E ( f ( x ) ) + β E ( g ( x ) )

方差 v a r i a n c e )用于衡量随机变量函数值之间的差异:

V a r ( f ( x ) ) = E [ ( f ( x ) E [ f ( x ) ] ) 2 ] V a r ( α f ( x ) + β ) = α 2 V a r ( f ( x ) )

协方差( c o v a r i a n c e )衡量两个变量线性相关的强度以及变量的尺度:
C o v ( f ( x ) , g ( x ) ) = E [ ( f ( x ) E [ f ( x ) ] ) ( g ( x ) E [ g ( x ) ] ) ]

相关系数( c o r r e l a t i o n )只衡量变量之间的相关性并且不受变量尺度的影响:
r = C o v [ f ( x ) , g ( x ) ] V a r [ f ( x ) ] V a r [ g ( x ) ]

注意:协方差和相关系数只能衡量随机变量之间的线性相关程度。若 C o v ( x , y ) = 0 ,只能说明二者线性无关,但并非没有非线性相关的可能。

8-常用概率分布

8-1 伯努利分布

伯努利分布是单个二值随机变量分布,

P ( x = 1 ) = ϕ P ( x = 0 ) = 1 ϕ E x [ x ] = ϕ V a r x [ x ] = ϕ ( 1 ϕ )

8-2 Multinoulli 分布

描述一个具有K个状态的随机变量,利用向量 p [ 0 , 1 ] k 1 来参数化,其中 p i 表示第 i 个状态的概率,而第 k 个状态的概率为 1 i p i .

8-3 高斯分布

高斯分布 ( g a u s s i a n   d i s t r i b u t i o n ) 又称为正态分布( n o r m a l   d i s t r i b u t i o n ):

N ( x ; μ , σ 2 ) = 1 2 π σ 2 e x p ( ( x μ ) 2 2 σ 2 )

其中 : E [ x ] = μ , V a r [ x ] = σ 2
对于未知的分布,一般正态分布默认是较好的选择形式。
多维正态分布 x R n
N ( x ; μ , Σ ) = 1 ( 2 π ) n d e t ( Σ ) e x p ( 1 2 ( x μ ) T Σ 1 ( x μ ) )

其中 Σ 是变量的协方差矩阵,通常为了计算高效,用精度矩阵 β 来替代,以避免求逆。
为了简便,会将协方差矩阵固定为一个对角阵,甚至是单位矩阵乘以一个标量(各向同性高斯分布)。

8-4 指数分布和拉普拉斯分布

  • 指数分布:
    p ( x ; λ ) = { λ e λ x ; x 0 0
  • Laplace 分布:
    p ( x ; μ , γ ) = 1 2 γ e x p ( | x μ | γ )

8-5 Dirac 分布和经验分布

  • Dirac分布:概率分布的所有质量集中于一点,且只有在连续性随机变量中才是必要的。
    p ( x ) = δ ( x μ )
  • 经验分布:指明数据集或是采样来源的分布。
    p ^ ( x ) = 1 m i δ ( x x ( i ) )

    对于离散型变量,经验分布可表示为Multinoulli的形式, P ( x ) x 的经验频率(采样频率)。

8-6 混合分布

P ( x ) = i P ( c = i ) P ( x | x = i )
其中 P ( c ) 表示了组成混合分布的各个组件的分布(即其组合方式),是一个先验的Multinoulli分布。

9-有用的函数

  • Sigmoid:常用于产生伯努利分布中的参数 ϕ
    σ ( x ) = 1 1 + e x p ( x )

    sigmoid函数
  • softplus: 用于产生正态分布中的参数 β , σ
    ζ ( x ) = l o g ( 1 + e x p ( x ) )

    Softplus
    有用性质:
    σ ( x ) = e x p ( x ) 1 + e x p ( x ) d d x σ ( x ) = σ ( x ) ( 1 σ ( x ) ) 1 σ ( x ) = σ ( x ) l o g ( σ ( x ) ) = ζ ( x ) d d x ζ ( x ) = σ ( x ) ζ ( x ) ζ ( x ) = x

    函数 σ 1 ( x ) 被称作分对数(logit)

10-贝叶斯规则

P ( x | y ) = P ( y | x ) P ( x ) P ( y ) = P ( y | x ) P ( x ) x P ( y | x ) P ( x )

11-信息论

信息论的基本思想是一个事件发生的概率越低,如果这件事发生,那么它提供的信息量越大。满足性质:

  • 非常可能发生的事件信息量要比较少
  • 较不可能发生的事件具有更高的信息量
  • 独立事件应具有增量的信息。例如,投掷的硬币两次正面朝上传递的信息量,应该是投掷一次硬币正面朝上的信息量的两倍。

定义事件 x = x 自信息:

I ( x ) = l o g P ( x ) .

单位为奈特,一奈特是以 1/e的概率观测到一个事件时获得的信息量。
香农熵:用于量化整个概率分布中的不确定性
H ( x ) = E x P [ I ( x ) ] = E x P [ l o g ( P ( x ) ) ]

KL散度(相对熵):用于衡量随机变量 x 在两个概率分布 P ( x ) , Q ( x ) 下的差异
(1) D K L ( P | | Q ) = E x P [ l o g P ( x ) l o g Q ( x ) ] (2) = P ( x ) l o g P ( x ) P ( x ) l o g Q ( x )

性质:

  • D K L ( P | | Q ) D K L ( Q | | P )
  • D K L ( P | | Q ) 0

证明:吉布斯不等式

0 i = 1 n p i l o g q i i = 1 n p i l o g p i = i = 1 n p i l o g q i p i = D K L ( P | | Q )

已知 l o g ( x ) x 1
i = 1 n p i l o g q i p i i = 1 n p i ( q i / p i 1 ) = i = 1 n q i p i = 1 1 = 0

交叉熵(cross entropy)

H ( P , Q ) = E x P [ l o g Q ( x ) ]

针对 Q 最小化交叉熵等价于最小化 KL 散度,因为 Q 并不参与被省略的那一项

12- 图模型

图模型(graphical model)也称作结构化概率模型,可以高效地描述多个随机变量的联合概率分布,将概率分布分解成因子乘积的形式。(图模型只是一种概率分布的描述方式,与概率分布本身的特性无关)
有向图:使用带有有向边的图(用符号 G 来表示);使用条件概率分布来表示分解。图中每个节点代表一个随机变量,有向边指明了变量间的影响关系。 如下图:
有向图
分解结果为:

p ( a , b , c , d , e ) = p ( b | a ) p ( c | a ) p ( d | b ) p ( c | a , b ) p ( e | c )

.
无向图:使用带有无向的边,使用一组函数来进行分解(这组函数不是概率分布)。根据图中节点的连接情况,将图分成若干个团 C ( i ) ,团中的所有节点之间两两相互连接。每个团 C ( i ) 都有一个相应的函数 ϕ ( i ) ( C ( i ) ) 。如下图:
无向图
分解结果为:
C ( 1 ) = { a , b , c } , C ( 2 ) = { b , d } , C ( 3 ) = { c , e } p ( a , b , c , d , e ) = 1 Z ϕ ( i ) ( a , b , c ) p h i ( 2 ) ( b , d ) p h i ( 3 ) ( c , e )

其中 Z 是归一化系数

猜你喜欢

转载自blog.csdn.net/qq_35588560/article/details/78991276
今日推荐