(本文随机过程部分代码源自《随机信号分析与处理》,罗鹏飞等著,清华大学出版社)
二维随机变量分布函数和概率密度 二维随机变量的联合概率密度通过如下方式定义:
f
X
Y
(
x
,
y
)
f_{XY}(x,y)
f X Y ( x , y ) 且
∫
−
∞
∞
∫
−
∞
∞
f
X
Y
(
x
,
y
)
d
x
d
y
=
1
\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}f_{XY}(x,y)dxdy=1
∫ − ∞ ∞ ∫ − ∞ ∞ f X Y ( x , y ) d x d y = 1 可以想象,二维随机变量的联合概率密度占据了三维空间,曲面与xy平面围成的体积为1.类似地,联合cdf表示事件{X <= x,Y <= y}发生的可能性。
F
X
Y
(
x
,
y
)
=
P
(
X
≤
x
,
Y
≤
y
)
=
∫
−
∞
y
∫
−
∞
x
f
X
Y
(
x
,
y
)
d
x
d
y
F_{XY}(x,y)=P(X\le x,Y\le y)=\int_{-\infty}^{y}\int_{-\infty}^{x}f_{XY}(x,y)dxdy
F X Y ( x , y ) = P ( X ≤ x , Y ≤ y ) = ∫ − ∞ y ∫ − ∞ x f X Y ( x , y ) d x d y cdf中较重要的性质是
F
X
Y
(
x
,
∞
)
=
F
X
(
x
)
F_{XY}(x,\infty)=F_X(x)
F X Y ( x , ∞ ) = F X ( x ) cdf对x、y求二阶混合偏导数得到
f
x
y
=
d
2
d
x
d
y
(
F
X
Y
(
x
,
y
)
)
f_{xy}=\frac{d^2}{dxdy}(F_{XY}(x,y))
f x y = d x d y d 2 ( F X Y ( x , y ) ) 例如,要画二维正态随机变量
f
X
1
X
2
(
x
1
,
x
2
)
=
1
2
π
σ
X
1
σ
X
2
1
−
r
2
e
x
p
{
−
1
2
(
1
−
r
2
)
[
(
x
1
−
m
X
1
)
2
σ
X
1
2
+
(
x
2
−
m
X
2
)
2
σ
X
2
2
]
−
2
r
(
x
1
−
m
X
1
)
(
x
2
−
m
x
2
)
σ
X
1
σ
X
2
}
f_{X1X2}(x_1 ,x_2)=\frac{1}{2\pi\sigma_{X_1}\sigma_{X_2}\sqrt{1-r^2}}exp\{-\frac{1}{2(1-r^2)}[\frac{(x_1-m_{X_1})^2}{\sigma^2_{X_1 }}+\frac{(x_2-m_{X_2})^2}{\sigma^2_{X_2 }}]-\frac{2r(x_1-m_{X_1})(x_2-m_{x_2})}{\sigma_{X_1}\sigma_{X_2}}\}
f X 1 X 2 ( x 1 , x 2 ) = 2 π σ X 1 σ X 2 1 − r 2
1 e x p { − 2 ( 1 − r 2 ) 1 [ σ X 1 2 ( x 1 − m X 1 ) 2 + σ X 2 2 ( x 2 − m X 2 ) 2 ] − σ X 1 σ X 2 2 r ( x 1 − m X 1 ) ( x 2 − m x 2 ) } 的联合概率密度,取mu = [0 0] sigma = [0.25 0.01; 0.01 1],(必须为正定对称阵) matlab添加颜色_caxis
x1 = - 3 : 0.2 : 3 ;
x2 = - 3 : 0.2 : 3 ;
[ X1, X2] = meshgrid ( x1, x2) ;
X = [ X1 ( : ) X2 ( : ) ] ;
mu = [ 0 0 ] ;
sigma = [ 0.25 0.01 ; 0.01 1 ] ;
y = mvnpdf ( X, mu, sigma) ;
y = reshape ( y, length ( x2) , length ( x1) ) ;
surf ( x1, x2, y)
caxis ( [ min ( y ( : ) ) - 0.5 * range ( y ( : ) ) , max ( y ( : ) ) ] )
axis ( [ - 3 3 - 3 3 0 0.4 ] )
xlabel ( 'x1' )
ylabel ( 'x2' )
zlabel ( 'Probability Density' )
mvn函数中的sigma指联合正态分布的协方差矩阵,上面那串长式可以用矩阵表示为
f
X
(
X
)
=
1
2
π
∣
K
∣
1
2
e
x
p
[
−
1
2
(
x
−
m
)
T
K
−
1
(
x
−
m
)
]
f_X(\textbf X)=\frac{1}{2\pi |\textbf K|^{\frac{1}{2}}}exp[-\frac{1}{2}(\textbf x - \textbf m)^T\textbf K^{-1}(\textbf x - \textbf m)]
f X ( X ) = 2 π ∣ K ∣ 2 1 1 e x p [ − 2 1 ( x − m ) T K − 1 ( x − m ) ] 这里的K就是sigma
K
=
(
σ
X
1
2
r
σ
X
1
σ
X
2
r
σ
X
1
σ
X
2
σ
X
2
2
)
\textbf K=\begin{pmatrix}\sigma^2_{X_1}&r \sigma_{X_1}\sigma_{X_2}\\ r\sigma_{X_1}\sigma_{X_2}&\sigma^2_{X_2}\end{pmatrix}
K = ( σ X 1 2 r σ X 1 σ X 2 r σ X 1 σ X 2 σ X 2 2 ) 运行出来:
同理画出cdf。
p = mvncdf ( X, mu, sigma) ;
Z = reshape ( p, length ( x2) , length ( x1) ) ;
surf ( X1, X2, Z)
边缘分布 对于离散变量,
p
X
(
x
i
)
=
∑
j
p
(
x
i
,
y
j
)
p_X(x_i)=\sum_{j}p(x_i,y_j)
p X ( x i ) = j ∑ p ( x i , y j ) pY 亦然。边缘概率,无论变量离散或连续,可统一写作期望值(expected value)形式
p
X
(
x
)
=
∫
y
p
X
∣
Y
(
x
∣
y
)
p
Y
(
y
)
d
y
=
E
Y
[
p
X
∣
Y
(
x
∣
y
)
]
p_X(x)=\int_{y}p_{X|Y}(x|y)p_Y(y)dy=E_Y[p_{X|Y}(x|y)]
p X ( x ) = ∫ y p X ∣ Y ( x ∣ y ) p Y ( y ) d y = E Y [ p X ∣ Y ( x ∣ y ) ] 上式理解成由LOTUS的公式
E
Y
[
f
(
Y
)
]
=
∫
y
f
(
y
)
p
Y
(
y
)
d
y
E_Y[f(Y)]=\int_y f(y)p_Y(y)dy
E Y [ f ( Y ) ] = ∫ y f ( y ) p Y ( y ) d y 演化来,这里是对Y的所有可能取值下x发生的概率的积分(对于离散随机变量是求和)。利用边缘分布可以判断两随机变量之间是否独立:两随机变量独立,当且仅当联合概率密度等于边缘概率密度乘积。
在matlab中计算边缘分布:例如,验证联合正态分布的边缘分布(不论两者是否相关)是正态的: matlab创建函数句柄,参见matlab_createFunctionHandle 边缘分布求解积分号内的函数写作
fx = @( t) arrayfun ( @( x) integral ( @( y) f ( x, y) , - inf, inf) , t)
matlab求积分参见integral 同时作用于数组中变量,避免无谓循环的arrayfun函数参见arrayfun 完整实现如下:
% 为便于传参,没有用矩阵表示,直接用了那串长式
BivariateNormalPDF = @( x, y, mux, sigmax, muy, sigmay, rho) . . .
exp ( - ( ( ( x- mux) / sigmax) . ^ 2 . . .
+ ( ( y- muy) / sigmay) . ^ 2 . . .
- 2 * rho* ( ( x- mux) . * ( y- muy) / ( sigmax* sigmay) ) . . .
) / ( 2 * ( 1 - rho* rho) ) . . .
) / ( 2 * pi* sigmax* sigmay* sqrt ( 1 - rho* rho) ) ; % 原始函数
f = @( x, y) BivariateNormalPDF ( x, y, 3 , 1 , 1 , 2 , 0.5 ) ;
fx = @( x) integral ( @( y) f ( x, y) , - inf, inf, 'ArrayValued' , true) ;
x = - 2 : 0.1 : 8 ;
plot ( x, fx ( x) ) ;
integral ( fx, - inf, inf) % 边缘分布全域积分是1
x = - 2 : 0.1 : 8 ;
plot ( x, fx ( x) , 'o' , 'linewidth' , 2 ) ;
integral ( fx, - inf, inf)
可见,即使rho不为0,边缘分布也是正态的。
期望 期望定义为
E
[
g
(
x
,
y
)
]
=
∫
−
∞
∞
∫
−
∞
∞
g
(
x
,
y
)
f
X
Y
(
x
,
y
)
d
x
d
y
E[g(x,y)]=\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}g(x,y)f_{XY}(x,y)dxdy
E [ g ( x , y ) ] = ∫ − ∞ ∞ ∫ − ∞ ∞ g ( x , y ) f X Y ( x , y ) d x d y 对于离散的数组等,mean()通常求出来有时候可以近似为期望。probablyDistribution_mean 将上述积分式写成函数句柄,是
fx = @( x, y) integral2 ( @( y) g ( x, y) . * f ( x, y) , - inf, inf, - inf, inf)
二重积分,参见integral2 混合原点矩和混合中心矩 混合原点矩写作
m
n
k
=
E
[
X
n
Y
k
]
=
∫
−
∞
∞
∫
−
∞
∞
X
n
Y
k
f
X
Y
(
x
,
y
)
d
x
d
y
m_{nk}=E[X^nY^k]=\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}X^nY^kf_{XY}(x,y)dxdy
m n k = E [ X n Y k ] = ∫ − ∞ ∞ ∫ − ∞ ∞ X n Y k f X Y ( x , y ) d x d y 理解成一组数据相对偏离原点的程度的量度。上式是n+k阶矩的一种情况。一阶矩,就是联合概率密度的重心,写作
m
01
=
E
[
Y
]
,
m
10
=
E
[
X
]
m_{01}=E[Y],m_{10}=E[X]
m 0 1 = E [ Y ] , m 1 0 = E [ X ] 二阶矩写作
m
02
=
E
[
Y
2
]
,
m
20
=
E
[
X
2
]
,
m
11
=
E
[
X
Y
]
m_{02}=E[Y^2],m_{20}=E[X^2],m_{11}=E[XY]
m 0 2 = E [ Y 2 ] , m 2 0 = E [ X 2 ] , m 1 1 = E [ X Y ] 其中m11 可以表示两变量的相关性。如果E[XY]=E[X]E[Y],称XY(线性)不相关(不一定独立)。如果E[X]E[Y]=0,称两随机变量正交。
扫描二维码关注公众号,回复:
10639224 查看本文章
混合中心矩写作
m
c
n
k
=
E
[
(
X
−
μ
X
)
n
(
Y
−
μ
Y
)
k
]
mc_{nk}=E[(X-\mu_X)^n(Y-\mu_Y)^k]
m c n k = E [ ( X − μ X ) n ( Y − μ Y ) k ]
=
∫
−
∞
∞
∫
−
∞
∞
(
X
−
μ
X
)
n
(
Y
−
μ
Y
)
k
f
X
Y
(
x
,
y
)
d
x
d
y
=\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}(X-\mu_X)^n(Y-\mu_Y)^kf_{XY}(x,y)dxdy
= ∫ − ∞ ∞ ∫ − ∞ ∞ ( X − μ X ) n ( Y − μ Y ) k f X Y ( x , y ) d x d y 理解成偏离样本中心的程度。同原点矩,可以有一阶中心矩、二阶中心矩。 其中,二阶中心矩
m
c
11
=
E
[
X
Y
]
−
μ
X
μ
Y
mc_{11}=E[XY]-\mu_X\mu_Y
m c 1 1 = E [ X Y ] − μ X μ Y 就是协方差 (CXY )顺便得到相关系数
ρ
=
C
o
v
(
X
,
Y
)
D
(
X
)
D
(
Y
)
\rho=\frac{Cov(X,Y)}{\sqrt{D(X)D(Y)}}
ρ = D ( X ) D ( Y )
C o v ( X , Y ) matlab中仍有现成的函数cov 来求协方差。链接说明中的协方差矩阵,指对n维随机变量
X
=
(
X
1
,
X
2
,
.
.
.
,
X
N
)
T
X = (X_1,X_2,...,X_N)^T
X = ( X 1 , X 2 , . . . , X N ) T 每两个随机变量之间的协方差构成的矩阵,即
c
=
(
c
i
j
)
m
×
n
=
=
(
c
11
c
12
c
13
.
.
.
c
1
n
c
21
c
22
c
23
.
.
.
c
2
n
.
.
.
.
.
.
c
n
1
c
n
2
c
n
3
.
.
.
c
n
n
)
c=(c_{ij})_{m\times n=}=\begin{pmatrix}c_{11}&c_{12}&c_{13}&...&c_{1n}\\c_{21}&c_{22}&c_{23}&...&c_{2n}\\...&&&...\\c_{n1}&c_{n2}&c_{n3}&...&c_{nn}\end{pmatrix}
c = ( c i j ) m × n = = ⎝ ⎜ ⎜ ⎛ c 1 1 c 2 1 . . . c n 1 c 1 2 c 2 2 c n 2 c 1 3 c 2 3 c n 3 . . . . . . . . . . . . c 1 n c 2 n c n n ⎠ ⎟ ⎟ ⎞ 它是一个对称非负定矩阵 。例如,第一个示例程序中,
A = [ 5 0 3 7 ; 1 - 5 7 3 ; 4 9 8 10 ] ;
C = cov ( A)
结果是 例如,C12 的8.33是[5 1 4]和[0 -5 9]的协方差。 求随机变量函数的分布 这个公式常用,写作
f
Y
1
Y
2
(
y
1
,
y
2
)
=
f
X
1
X
2
(
x
1
,
x
2
)
∣
J
∣
f_{Y_1Y_2}(y_1,y_2)=f_{X_1X_2}(x_1,x_2)|J|
f Y 1 Y 2 ( y 1 , y 2 ) = f X 1 X 2 ( x 1 , x 2 ) ∣ J ∣ J是雅可比行列式。 可以从此推出一个比较有用的性质:两个独立随机变量之和的概率密度是两个概率密度的卷积,若Y1 =X1 +X2 ,Y2 =X1 -X2 推作:
x
1
=
(
y
1
+
y
2
)
/
2
x_1=(y_1+y_2)/2
x 1 = ( y 1 + y 2 ) / 2
x
2
=
(
y
1
−
y
2
)
/
2
x_2=(y_1-y_2)/2
x 2 = ( y 1 − y 2 ) / 2 Jacobi行列式
J
=
∂
(
x
1
,
x
2
)
∂
(
y
1
,
y
2
)
=
∣
1
2
1
2
1
2
−
1
2
∣
=
−
1
2
J=\frac{\partial(x_1,x_2)}{\partial(y_1,y_2)}=\begin{vmatrix}\frac{1}{2}&\frac{1}{2}\\\frac{1}{2}&-\frac{1}{2}\end{vmatrix}=-\frac{1}{2}
J = ∂ ( y 1 , y 2 ) ∂ ( x 1 , x 2 ) = ∣ ∣ ∣ ∣ 2 1 2 1 2 1 − 2 1 ∣ ∣ ∣ ∣ = − 2 1 这里跳了一步,跳过的是用随机变量函数公式将Y1 Y2 的联合概率写成X1 X2 的联合概率密度。变量替换、令u=(y1 +y2 )/2
f
Y
1
(
y
1
)
=
∫
−
∞
+
∞
f
X
1
X
2
(
u
,
y
1
−
u
)
d
u
f_{Y_1}(y_1)=\int_{-\infty}^{+\infty}f_{X_1X_2}(u,y_1-u)du
f Y 1 ( y 1 ) = ∫ − ∞ + ∞ f X 1 X 2 ( u , y 1 − u ) d u 如果两者独立、将联合概率密度乘开,就得到
f
Y
1
(
y
1
)
=
f
X
1
(
y
1
)
∗
f
X
2
(
y
1
)
f_{Y_1}(y_1)=f_{X_1}(y_1)*f_{X_2}(y_1)
f Y 1 ( y 1 ) = f X 1 ( y 1 ) ∗ f X 2 ( y 1 ) 以下是matlab求最简单的卷积的过程。具体过程参照《信号与系统》。
clear all;
x= [ 0 0 0 0 0 0 0 0 0 0 2 2 2 2 2 2 2 2 2 2 2 0 ] ;
y= [ 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 ] ;
z= conv ( x, y) ;
n= 1 : 1 : 53 ;
plot ( n, z, 'g' , 'linewidth' , 3 ) ; title ( 'convolved output' ) ;
xlabel ( 'time' ) ; ylabel ( 'amplitude' ) ;
常见的信号建模方法 以后使用这些方法结合实例处理信号,这里只粗略地写。信号建模分为参数检验和非参数检验。非参数检验是指不对信号的生成过程做任何假设,局限性在于它对信号范围外的自相关估计是0;另外,事先假设每N样本具有周期性,这是它的两个固有缺点。而参数检验能够外推自相关性质,计算预测系数后可以推知样本后信号的情况。
AR模型:常用于语音处理,也用在经济学、天气预报等。将原信号通过转移函数含有极、零点的线性系统(就像一层神经网络),对输出数据进行建模。系统转移函数同时有极零点的模型叫ARMA,例如
H
(
Z
)
=
∑
k
=
0
M
b
k
Z
−
k
1
+
∑
k
=
0
N
a
k
Z
−
k
H(Z)=\frac{\sum_{k=0}^Mb_kZ^{-k}}{1+\sum_{k=0}^Na_kZ^{-k}}
H ( Z ) = 1 + ∑ k = 0 N a k Z − k ∑ k = 0 M b k Z − k 只含极点的叫AR
H
(
Z
)
=
1
1
+
∑
k
=
0
N
a
k
Z
−
k
H(Z)=\frac{1}{1+\sum_{k=0}^Na_kZ^{-k}}
H ( Z ) = 1 + ∑ k = 0 N a k Z − k 1 只含零点的叫MA
∑
k
=
0
M
b
k
Z
−
k
\sum_{k=0}^Mb_kZ^{-k}
k = 0 ∑ M b k Z − k (参考信号与系统Z变换部分)
随机过程的引入 随机过程指的是每次进行某个试验(比方说观察股市的变化、某放电过程电流的变化)都得到一个研究对象关于时间t的函数,但是每次得到的函数都不一样(一样的就叫确定过程),并且我们还不知道下一次实验这个函数又是什么样。把这种实验对应发生的过程叫做随机过程。
从上面看出,有两个不确定,一个是时间,一个是第几次的实验。把这两个确定,就会得到一个确定的值。细看来,随机过程分为四类:
连续性随机过程 :时间和状态都连续的随机过程。例如,电路系统中三极管会产生热噪声,正弦波振荡器通过LC谐振回路前的信号的取值是连续的(比如,可能落在5mV到15mV之间任何值),每次振荡都能画出小电压随连续时间的变化函数,它们互不相同,肉眼看不出关系。这是连续性随机过程。 随机序列 :时间离散而状态连续的随机过程。例如,随机相位信号
X
(
n
)
=
c
o
s
(
w
0
n
+
ϕ
)
X(n)=cos(w_0n+\phi)
X ( n ) = c o s ( w 0 n + ϕ ) Φ是(-pi,pi)上均匀分布的随机变量。n表明时间是离散的,只能取1,2,…。但是由于Φ任意取,X(n,t)可能落到[-1,1]上任意值,所以它的状态是连续的。 离散型随机过程 :时间连续而状态离散的随机过程。例如半二元传输信号
N = 200 ;
ind = find ( rand ( N, 1 ) > 0.5 ) ;
z ( 1 : N) = 1 ;
z ( ind) = - 1 ; stairs ( 1 : 25 , z ( 1 : 25 ) , 'r' , 'linewidth' , 2 ) ;
axis ( [ 0 25 - 1.5 1.5 ] ) ;
表示一秒投一次硬币,投到正面这秒的值就是1,投到反面这秒的值就是-1 可以看出,时间连续,但状态离散。 离散随机序列 :时间和状态都离散的随机过程。如,某人每个月熬夜的天数,状态取离散值0~31,时间每个月统计一次,是离散的。
无论在什么领域,时间的离散往往是抽样带来的。状态的离散往往是对某连续量进行量化(如机件的尺寸精度)或对某结果进行分类(如掷骰子的两种状态)得来的。
可预测过程和不可预测过程 例如,上面描述的随机相位信号,一旦某次实验中确定了Φ值,就可以推断以后所有时刻的样本函数。这叫可预测过程。再例如,上面描述的电路热噪声,即使某次实验进行了很长时间,还是无法预测将来时刻热噪声的函数是什么样的,这叫不可预测过程。