h**********y 发帖数: 1293 | |
d******e 发帖数: 7844 | 2 没有任何上下文的话,这两个norm没有优缺点可言。
【在 h**********y 的大作中提到】 : 相比L2norm,L1有什么优缺点阿?
|
h**********y 发帖数: 1293 | 3 这是个面试题。我能想到的只有L2化成线性方程组解起来方便
【在 d******e 的大作中提到】 : 没有任何上下文的话,这两个norm没有优缺点可言。
|
h***i 发帖数: 3844 | 4 L1没有L2那么普及,面试的人有点搞
【在 h**********y 的大作中提到】 : 这是个面试题。我能想到的只有L2化成线性方程组解起来方便
|
M*****d 发帖数: 100 | 5 什么公司?
signal processing related?
or finance? |
A*******r 发帖数: 768 | |
B****n 发帖数: 11290 | 7 In regression analysis, L1 estimator is a robust counterpart of L2 estimator
(least squares estimator), which means it is not sensitive to extreme
values.
【在 h**********y 的大作中提到】 : 相比L2norm,L1有什么优缺点阿?
|
h**********y 发帖数: 1293 | 8 恩。这个有道理,谢谢!
estimator
【在 B****n 的大作中提到】 : In regression analysis, L1 estimator is a robust counterpart of L2 estimator : (least squares estimator), which means it is not sensitive to extreme : values.
|
|
q********e 发帖数: 1255 | 9 L2 norm makes you a Hilbert space
people like Hilbert space for good reason, hahahahaha |
g***o 发帖数: 230 | 10 In signal processing, machine learning, etc, L1 norm is known to promote
sparseness, which is often preferred in practice. A lot theoretical work has
been done in that direction.
【在 h**********y 的大作中提到】 : 相比L2norm,L1有什么优缺点阿?
|
|
|
A*******r 发帖数: 768 | 11 人家问的是L1有什么缺点,哈哈
has
【在 g***o 的大作中提到】 : In signal processing, machine learning, etc, L1 norm is known to promote : sparseness, which is often preferred in practice. A lot theoretical work has : been done in that direction.
|
g***o 发帖数: 230 | 12 In signal processing, machine learning, etc, L1 norm is known to promote
sparseness, which is often preferred in practice. A lot theoretical work has
been done in that direction.
【在 h**********y 的大作中提到】 : 相比L2norm,L1有什么优缺点阿?
|
g****t 发帖数: 31659 | 13 L1 优化不能recursive求解,不能实时应用.
【在 A*******r 的大作中提到】 : 人家问的是L1有什么缺点,哈哈 : : has
|
c****n 发帖数: 2031 | 14 粗略的说
L2刻画的函数:bumpy and broad
L1刻画的函数:peaky and concentrated
L2函数的数值的分布是Gaussian(意思是非零数值dense)
L1函数的数值的分布是Laplacian(非零数值sparse)
所以无所谓优缺点。但目前流行的观点是L1比L2好,是因为从哲学角度讲,
information
总是在某种合适的变换下是sparse的,所以用L1 model比较合适
【在 h**********y 的大作中提到】 : 相比L2norm,L1有什么优缺点阿?
|
h***i 发帖数: 3844 | 15 是因为从哲学角度讲,
information
总是在某种合适的变换下是sparse的,所以用L1 model比较合适
这句怎么讲
【在 c****n 的大作中提到】 : 粗略的说 : L2刻画的函数:bumpy and broad : L1刻画的函数:peaky and concentrated : L2函数的数值的分布是Gaussian(意思是非零数值dense) : L1函数的数值的分布是Laplacian(非零数值sparse) : 所以无所谓优缺点。但目前流行的观点是L1比L2好,是因为从哲学角度讲, : information : 总是在某种合适的变换下是sparse的,所以用L1 model比较合适
|
c****n 发帖数: 2031 | 16 如果函数是piecewise constant,那他们在gradient下是
sparse的,Rudin-Osher-Fatemi模型是个例子,当然和Haar wavele
t很相似。
In general,你总是可以找到一些basis(可以是通过learning),使得
你手里的一类函数(比较小的一类函数,比如自然图像)在该basis的表示是sp
arse的。
不过这只是philosophy,可信可不信,呵呵。当然我是相信的
【在 h***i 的大作中提到】 : 是因为从哲学角度讲, : information : 总是在某种合适的变换下是sparse的,所以用L1 model比较合适 : 这句怎么讲
|
g****t 发帖数: 31659 | 17 也总能找出基是dense的.
所以L0在这点上并没优势.
如果函数是piecewise constant,那他们在gradient下是
sparse的,Rudin-Osher-Fatemi模型是个例子,当然和Haar wavele
t很相似。
In general,你总是可以找到一些basis(可以是通过learning),使得
你手里的一类函数(比较小的一类函数,比如自然图像)在该basis的表示是sp
arse的。
不过这只是philosophy,可信可不信,呵呵。当然我是相信的
【在 c****n 的大作中提到】 : 如果函数是piecewise constant,那他们在gradient下是 : sparse的,Rudin-Osher-Fatemi模型是个例子,当然和Haar wavele : t很相似。 : In general,你总是可以找到一些basis(可以是通过learning),使得 : 你手里的一类函数(比较小的一类函数,比如自然图像)在该basis的表示是sp : arse的。 : 不过这只是philosophy,可信可不信,呵呵。当然我是相信的
|
l******r 发帖数: 18699 | 18 L1的缺点就是不容易理论推导,人家说的很好
人家问的是L1有什么缺点,哈哈
has
【在 A*******r 的大作中提到】 : 人家问的是L1有什么缺点,哈哈 : : has
|