深度学习基本概念

Liner Model 太过简单,不能拟合复杂的关系

可能出现如下情况:

在这里插入图片描述
如何写更复杂的有未知参数的函数?
红色function 可以看作 一个常数 + 一群蓝色的function

在这里插入图片描述
曲线也可以通过取适当的点然后把这些点连接起来形成一个 Piecewise Liner(分段) 的 Curves,所以可以通过足够多的 蓝色的 function 加起来形成任何的曲线。

在这里插入图片描述

通过 sigmoid function 来逼近 蓝色的 function

sigmoid Function:S 形的 function

y = c 1 1 + e − ( b + w x 1 ) y = c \frac{1}{1 + e^{-(b+wx_1)}} y=c1+e(b+wx1)1
= c   s i g m o i d ( b + w x 1 ) = c ~sigmoid(b+wx_1) =c sigmoid(b+wx1)

w w w 为正时, x 1 x_1 x1 趋近于 ∞ 时,sigmoid 趋近于 c c c w w w 为负时,…,sigmoid 趋近于 0 0 0

在这里插入图片描述

通过调整 w w w b b b c c c 来得到各种形状的 sigmoid function 来拟合各种蓝色的 function。

在这里插入图片描述

所以 0、1、2、3 这 4 条蓝色的 function 都可以用 c s i g m o i d ( b + w x 1 ) c sigmoid(b + wx_1) csigmoid(b+wx1) 来表示,只是对应的 c c c w w w b b b 不同,所以红色的 function y y y 就可以用以下形式表示:

在这里插入图片描述
所以可以通过 调整 c i c_i ci b i b_i bi w i w_i wi 来拟合各种各样曲线的 function

有弹性的有未知参数 function

从 线性的 y = b + w x 1 y=b + wx_1 y=b+wx1
推广到 分段 曲线 function
y = b + ∑ i c i   s i g m o i d ( b i + w i x 1 ) y = b + \sum_{i}c_i~sigmoid(b_i+w_ix_1) y=b+ici sigmoid(bi+wix1)

这里只有 x 1 x_1 x1 代表只能通过当前一条数据结果来预测下一个结果。

而 在上一个 blog 最后 推广到可能具有周期性,所以可以通过 多个 feature 来改造函数,然后再对具有多个 feature 的函数进行推广,就有

y = b + ∑ j w j x j y = b + \sum_{j}w_jx_j y=b+jwjxj 推广为
y = b + ∑ i c i   s i g m o i d ( b i + ∑ j w i j x j ) y = b + \sum_{i}c_i~sigmoid(b_i+\sum_{j}w_{ij}x_j) y=b+ici sigmoid(bi+jwijxj)

相当于从多个 feature 与 y y y 有一个线性关系推广为多个 feature 与 y y y 有一个曲线关系

在这里插入图片描述
i i i 代表多个 s i g m o i d 函数 sigmoid函数 sigmoid函数,而 j j j 代表多个feature

w i j w_{ij} wij 表示 再 第 i i i 个 sigmoid 里面乘 给 第 j j j 个 feature 的 w e i g h t weight weight

在这里插入图片描述

可以用以下向量与矩阵关系表示这个乘法关系

在这里插入图片描述
所以 a 1 = s i g m o i d ( r 1 ) = 1 1 + e − r 1 a_1 = sigmoid(r_1) = \frac{1}{1+e^{-r_{1}}} a1=sigmoid(r1)=1+er11

在这里插入图片描述
在这里插入图片描述

所以用线性代数表示为:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
将未知参数 W W W b 向量 b向量 b向量 C T 向量 C^T向量 CT向量 b 常数 b常数 b常数展开成 θ θ θ 向量

这样就完成了 ML 的第一步
在这里插入图片描述
Loss 还是同样的方法,带入一组 θ θ θ 然后求得 y y y 并且求与 y ^ \hat{y} y^ 的差值,来判断这组 θ θ θ 的好坏。

在这里插入图片描述
第三步 Optimization 的方法也没有变化

对所有的 θ i θ_i θi 求 微分,然后得到一个向量 g g g
g g g 就是 gradient

在这里插入图片描述
在这里插入图片描述
在实际的程序中,需要把大 data 随机分成多个 batch,然后对每一个 batch 进行计算 g g g,更新 θ θ θ(一个 epoch),每一次更新参数(一个batch)叫做一次 update
在这里插入图片描述

batchsize 也是 hyperparameter

在这里插入图片描述

通过 Relu 来逼近 蓝色的 function
需要先用 Relu 拟合 Hard sigmoid
在这里插入图片描述
在这里插入图片描述
sigmoid 与 Relu 统称为 activation function

我们可以重复多次 进行如下扩展:

在这里插入图片描述

多个 layer

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/qq_46456049/article/details/126073965
今日推荐