深度学习笔记------卷积神经网络

相关概念

卷积运算

卷积函数 h ( x ) = ∫ f ( t ) g ( x − t ) d t h(x)=\int f(t)g(x-t)dt h(x)=f(t)g(xt)dt
该函数定义了一种运算,对于 f , g f,g f,g两个函数进行,先将 g ( t ) g(t) g(t)进行一个反转运算于是 g ′ ( t ) = g ( − t ) g'(t)=g(-t) g(t)=g(t),之后在进行一个平移运算就变为了 g ′ ′ ( t ) = g ( x − t ) g''(t)=g(x-t) g(t)=g(xt),之后就是两个函数的乘积积分,这就是对于一维的两个函数的卷积运算。

这个函数的来源是对于信号的处理上,用于描述系统的响应输出不仅与当前时刻x的输出有关,还与系统之前的响应有关,但是这个响应是会衰减的,于是当前时刻的实际输出响应是一个之前信号衰减函数与当前信号输出函数的积分运算,其中 g ( x − t ) g(x-t) g(xt)中的x-t就是一个时间差的描述。

这个函数也有二维形式,也就是将其中的 f , g f,g f,g变为二元函数,对应的积分变为二重积分有:
h ( x , y ) = ∬ f ( v , u ) g ( x − v , y − u ) d v d u h(x,y)=\iint f(v,u)g(x-v,y-u)dvdu h(x,y)=f(v,u)g(xv,yu)dvdu

互相关运算

互相关函数 h ( x ) = ∫ f ( t ) g ( x + t ) d t h(x)=\int f(t)g(x+t)dt h(x)=f(t)g(x+t)dt
与上面的卷积相比,互相关函数并没有对 g ( x ) g(x) g(x)进行反转操作,剩下的就与卷积一致了。

对应反转与否在数学证明中是有影响的,决定了卷积运算的可交换性,但是在机器学习的训练中反转与否以及可交换性的影响就十分有限了,所以许多的卷积神经网络是实现的互相关运算,即没有反转,但是名字还是叫卷积。

进一步将互相关变为二维形式有: h ( x , y ) = ∬ f ( v , u ) g ( x + v , y + u ) d v d u h(x,y)=\iint f(v,u)g(x+v,y+u)dvdu h(x,y)=f(v,u)g(x+v,

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值