卷积与系统的数学意义

算法相关 徐 自远 565℃

信号处理、通信、或自动控制相关专业的学生,无一例外都会碰到一个概念叫,卷积(convolution)。

当前最热门的人工智能中的卷积神经网络,也都含有卷积这个词。

那么,卷积到底是个什么东西呢?有什么用呢?

卷积的定义

卷积实际上是两个信号的操作

我们拿一维信号而言,两个一维时间信号的卷积f(t)*h(t)是这样定义的:

我们需要注意,两个一维时间信号的卷积f(t)*h(t),结果仍然是一个关于时间t的函数。

这和我们在信号处理里面接触的很多变换不同,这些变换的结果,和原来的信号往往不在一个域。例如,一个时间函数f(t)的傅里叶变换F(ω)是频域信号。

卷积的数学意义

在卷积的定义式1.1中,等式右边的积分变量是τ。这样,h(t-τ)就是把h(τ)先按照纵轴对折,变成h(-τ)。

再将h(-τ)加一个时间上的偏移t。

然后把h(t-τ)同f(τ)相乘得到的函数在τ=[-∞,∞]覆盖的面积,就是得到了f(t)*h(t)。

注意,此时的这个面积,是对应某一个具体的t的时候卷积f(t)*h(t)的大小。

因为我们要得到所有的t时f(t)*h(t)的值,那么此时我们就需要去改变t。

对应的措施就是将t从-∞开始,沿着τ轴自左向右滑动。

每移动到一个新的位置t时,我们就计算这两个函数h(t-τ)和f(τ)的乘积函数的面积。这个面积就是卷积f(t)*h(t)在t处的值。

这个过程可以用图1.1来说明。

图示来解释卷积,其数学意义很清楚,但物理意义却模糊了。

为什么要把h(t)翻过来,为什么要做积分求面积?或者说到底,为什么我们需要卷积这么个奇怪的东西呢?

这个问题我们将在专栏的下一讲“什么是系统”中接着探讨。

转载请注明:徐自远的乱七八糟小站 » 卷积与系统的数学意义

喜欢 (0)

苏ICP备18041234号-1 bei_an 苏公网安备 32021402001397号