d*****u 发帖数: 17243 | 1 我不是做图像的
看该领域内好多所谓卷积其实就是把一个mask矩阵跟图像各部分逐次做乘法然后加起来
也就是correlation而不是convolution
但是他们也都说是卷积 |
l********a 发帖数: 1154 | 2 图像处理的卷积就是用卷积核(权矩阵)在图像上滑动,用当前窗口下的图像数据与权矩
阵做算术加权求和的结果作为结果图像的数据,这个过程有时也叫加窗,类似加权的移动
平均(Moving Average).数学上,移动平均可视为一种卷积。 |
r*******n 发帖数: 3020 | 3 是一样的
你可以看一下离散卷积
【在 d*****u 的大作中提到】 : 我不是做图像的 : 看该领域内好多所谓卷积其实就是把一个mask矩阵跟图像各部分逐次做乘法然后加起来 : 也就是correlation而不是convolution : 但是他们也都说是卷积
|
d*****u 发帖数: 17243 | 4 一般的卷积,其中一个函数必须要反转一下
不管离散还是连续都是这样
但是图像处理里常说的卷积没有反转
楼上说这也可以看成是广义的卷积,也许是如此
不过跟一般的定义还是有差别
【在 r*******n 的大作中提到】 : 是一样的 : 你可以看一下离散卷积
|
h*****n 发帖数: 188 | 5 这些mask大部分都是对称的,高通/低通/平均/高斯等等,所以反转无所谓
对于少数的不对称的mask,比如梯度.. 它的物理意义应该并不是卷积,只是简单的左
右相加减而已。 所以也不需要反转。
【在 d*****u 的大作中提到】 : 一般的卷积,其中一个函数必须要反转一下 : 不管离散还是连续都是这样 : 但是图像处理里常说的卷积没有反转 : 楼上说这也可以看成是广义的卷积,也许是如此 : 不过跟一般的定义还是有差别
|
d*****u 发帖数: 17243 | 6 这个倒是
不过很多小波变换的kernel不是对称的,或者只在某一方向对称
所以一说是卷积就容易引起误会
【在 h*****n 的大作中提到】 : 这些mask大部分都是对称的,高通/低通/平均/高斯等等,所以反转无所谓 : 对于少数的不对称的mask,比如梯度.. 它的物理意义应该并不是卷积,只是简单的左 : 右相加减而已。 所以也不需要反转。
|
k**********g 发帖数: 989 | 7 图像处理还是培养了不少差不多先生/女士滴,反正计算结果看起来近似就可以了
【在 d*****u 的大作中提到】 : 一般的卷积,其中一个函数必须要反转一下 : 不管离散还是连续都是这样 : 但是图像处理里常说的卷积没有反转 : 楼上说这也可以看成是广义的卷积,也许是如此 : 不过跟一般的定义还是有差别
|
D***r 发帖数: 7511 | 8 感觉图像处理基本就是EE
现在跟machine learning结合得多,才稍微像CS了一些
不过又有人说ML不算CS
【在 k**********g 的大作中提到】 : 图像处理还是培养了不少差不多先生/女士滴,反正计算结果看起来近似就可以了
|