梯度及最小二乘估计器

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/u012284960/article/details/72572318

符号(Notations)

(1) f 表示多个函数的组合 [ f 1 ( x ) f 2 ( x ) f m ( x ) ]
(2) f ( x ) 表示函数 f ( x ) 的梯度
(3)粗体符号表示矢量或者矩阵,比如 x 表示一个矢量, H 表示一个矩阵。

2. 梯度

定义对于任意点( x R n )的映射 f : R n R m

(156) f ( x ) = [ f 1 ( x ) f 2 ( x ) f m ( x ) ] = [ f 1 ( x ) , f 2 ( x ) , , f m ( x ) ] T

其中 f i ( x ) 是一个 R n R 的映射。 f ( x ) x j 定义为
(157) f ( x ) x j = [ f 1 ( x ) x j f 2 ( x ) x j f m ( x ) x j ] = [ f 1 ( x ) x j , f 2 ( x ) x j , , f m ( x ) x j ] T

上面的矢量是曲线 f ( x ) 的在点 x 处的切矢量,它可以通过固定其余的 x i i j 仅仅改变 x j 得到。

  1. 可导函数 f : R n R m 的导数定义为

    (158) D f ( x ) = [ f ( x ) x 1 , f ( x ) x 2 , , f ( x ) x n ] = [ f 1 ( x ) T f 2 ( x ) T f m ( x ) T ] = [ f 1 ( x ) x 1 , , f 1 ( x ) x n f m ( x ) x 1 , , f m ( x ) x n ] R m × n

  2. f : R n R 是可导的,则函数在点 x 处的梯度梯度 f ( x ) 可表示为

    (159) f ( x ) = D f ( x ) T = [ f ( x ) x 1 f ( x ) x 2 f ( x ) x n ] R n (160) 2 f ( x ) = [ f 2 ( x ) x 1 2 , , f 2 ( x ) x 1 x n f 2 ( x ) x n x 1 , , f 2 ( x ) x n 2 ] R n × n

3. Example:线性高斯模型的最小二乘解

(731) y = H x + n

其中 x R n , H R m × n 是观测矩阵, n N ( μ , σ 2 I ) y R m 是观测向量。
解:最小二乘估计器为
(732) x ^ = arg min x y H x

J = y H x 2
(733) J = ( y H x ) T ( y H x ) (734) = y T y y T H x x T H T y + x T H T H x

求梯度
(735) J = 2 H T y + 2 H T H x

令梯度等于0,有
(736) x ^ = ( H T H ) 1 H T y

因此线性高斯模型的最小二乘估计器为 x ^ = ( H T H ) 1 H T y

Remarks 最小二乘估计器的优点就是不用考虑噪声 n 的分布,当噪声能量很小时,最小二乘估计器的性能会逐渐趋于克拉美-罗下限(CRLB),但,随着噪声的能量增大,最小二乘估计器的性能会逐渐变差。

4. Examp: 求 f ( x ) 的梯度

f ( x ) 的梯度

(332) f ( x ) = a T x

其中 f : R n R , a R n 是常数, x R n 是自变量矢量。现在求 f ( x ) 的梯度
解:
(333) f ( x ) = a T x = a 1 x 1 + a 2 x 2 + + a n x n

(334) f ( x ) = [ f ( x ) x 1 f ( x ) x 2 f ( x ) x n ] = [ a 1 a 2 a n ] = a R n

猜你喜欢

转载自blog.csdn.net/u012284960/article/details/72572318
今日推荐