|
M*****8 发帖数: 17722 | 2
................................
效果很有限。
他那办法不行,
要用更高明的手段,
否则还是斗不过墙街的。
SVM, 20111024, 9.6300, -1.0129, -10.5 |
|
j*****h 发帖数: 3292 | 3 SVM感觉版上有蹲点的
上次说了它的CFA是个2B女青年,分析师问的财务问题听不懂
前一阵子有了提高,加进一个文艺青年CPA进board
报表工作一定要搞好
disclaimer:
no position whatsoever
no intention to build any whatsoever
following up for pure study purpose |
|
|
m*****u 发帖数: 5534 | 5 SVM这个银矿股怎么这么垃圾?
不过长期来看,可能是个机会,不过最近不太应该买入。
EXK到达支撑位,7.8左右可能是个不错的介入点。
完全拍脑袋的结果,看看就好。 |
|
|
m*****u 发帖数: 5534 | 7 SVM跌的不是一般的凶
新闻说11年12年被混水等盯上了,狂做空,但没什么财务问题 |
|
a********h 发帖数: 819 | 8 they fought Alfred little
in china one of Alfred little guy was arrested
sec is investigating svm for this |
|
m*****u 发帖数: 5534 | 9 都在跌
是不是要摘牌的节奏?
我还想捞SVM呢,已经突破08年低点了
幸亏没买GMO等6块钱,否则现在只剩下不到4000,可以退市了 |
|
m*****u 发帖数: 5534 | 10 前阵子说出事了,最近有进展吗?
08年底银价跌到7块钱的时候,这公司股价跌到不到2块钱,现在银价20多,SVM 才2块5
为啥? |
|
N********n 发帖数: 8363 | 11
打压金银矿公司也是PET的策略之一。所有跟金银沾边的都在打压之列,所
以建仓时要刻意留心。SVM有一个好处是加拿大公司,被美国政府没收充公
的可能性低,其次主要矿产在政治较稳定地区。 |
|
d*********6 发帖数: 6115 | 12 我svm那天就在边上解决了。。。
rnr sd的时候,我也发现过一位mm就地解决了。。。 |
|
D*****r 发帖数: 183 | 13 急用,或者别的SVM incremental regression
包也行。谢谢 |
|
w*******g 发帖数: 9932 | 14 i just don't know what SVM is. |
|
w********d 发帖数: 275 | 15 one of the most important feature of SVM is Kernel |
|
F**p 发帖数: 1046 | 16
agree. if you find a good application for SVM or do an important improvement,
you will be a big man. |
|
n****y 发帖数: 3 | 17 Are there any good discussion group(s) of SVM ? |
|
f*******y 发帖数: 988 | 18 这些完全都是problem/domain dependent的
nonlinear regression用最一般的MLP ANN就可以了,matlab里面什么都有的
svm通常用来搞搞分类 |
|
w***g 发帖数: 5958 | 19 上过machine learning theory的课,不过都忘了。要是看SVM本身的话,其实很intuit
ive的,跟复杂的VC dimension好像扯不上什么关系。 |
|
N**D 发帖数: 10322 | 20 separable SVM is obained by minimizing an upper bound on the expected risk
of a linear classifier, which depends on VC dimension, which is upper
bounded by a quantitty depends on margin, which is again inverse
proportional to ||w||^2 (if the margin is measured using Euclidean norm).
The slack variable is a technique to handle non-separable case.
intuit |
|
s***1 发帖数: 49 | 21 如果有一组数据,然后分别用 linear kernel (Xi dot Xj) , quadratic kernel ( (
Xi dot Xj+1)^2 , 和 radial basis function kernel (e^[-1/(2*sigma) * (Xi-Xj)
^2] 的 SVM 来成功 separate。
这时候吧数据里面每一个点都向上平移10. 就是 (xi,xj) = (xi,xj+10).
再用以上三个kernel 重新找boundary. 相对于每一个点来说, 新的boundary 会不会
和旧的 boundary 不一样? 也就是说每一个新的点到新的boundary, 和每一个旧点到
旧的boundary的距离是不是不一样。
我觉得linear 的是一样的,应为就是平移。 但是quadratic kernel 和 radial basis
不一样,但是无法具体解释为什么。。。。 |
|
S******t 发帖数: 151 | 22 When you use SVM for binary classification, the output is actually a score
instead of [-1, 1], rank the scores and then manually determine each
threshold for whether you would like to classify the instance as pos / neg.
Therefore, you could get different tp and tn values. |
|
a***a 发帖数: 149 | 23 Hi SVM light 同学,谢谢大驾光临阿。我就是用你分类的哦。哈哈。
这么说是不是说只要一次执行,就可以画出 ROC 了? 不需要调节参数了? 那样貌似
很方便啊。
对了, SVMlight 同学,你有啥画 ROC 的软件推荐么? 最好跟你家软件 无缝结合更
好了。
谢谢 SVMlight 同学。
. |
|
C*********g 发帖数: 3728 | 24 哎,研究了5年SVM,居然连啥是ROC都不知道,真是惭愧
,然 |
|
i*********8 发帖数: 3229 | 25 PAC作为关键字,前十页都是不相关的
SVM作为关键字,第一页就有一大堆包括第一个。 |
|
d*****u 发帖数: 17243 | 26 你用training data调整参数
比如大多数人用的是L1 SVM
那就需要调整soft margin parameter C
一般是预先设定一系列参数值,然后选出一个效果最好的
然后对新的data就用这个参数
在你train的时候实际也选好了support vector
那么对新的数据点xk,代入kernel function就是k(xk,xj)
xj是support vector,最后还有针对所有support vector求和
总之得出的直接结果是一个实数,然后再二元化
这些工作在工具包里都能直接完成
按照说明操作就行了 |
|
m*p 发帖数: 1331 | 27 thanks. 我也是这么想的,svm training只是为了解出那些alpha不为0的 support
vector (xj),然后最后的model基于这些sv来产生。
你说的"最后还有针对所有support vector求和"是不是就是这样
y = f(x) = + b = sum_j Kernel(x, x_j) + b
还是说 alpha_j 也要被用到?
谢谢! |
|
L*****k 发帖数: 327 | 28 你的问题是什么呢
1 train好了SVM之后,怎样用到test sample上
2 还是怎么计算test sample和training data的kernel |
|
d*****u 发帖数: 17243 | 29 kernel function都是二元函数,也正好就是特征函数的某种内积
K(x,y)=
如果y是固定的,那K(x,y)可以由phi(x)来表征
至于特征函数的形式,其实是比较复杂的
比如RBF kernel,如果把其中一个输入y看成固定点
那么这个K就是关于另一个输入x的高斯函数
我们知道高斯函数构成的函数空间是无穷多维的
也就是说,一个高斯函数必须有无穷多个其他高斯函数线性组合才能得到
(想想傅立叶变换,高斯函数g变换成另一个高斯函数G
也就是说,高斯函数g可以表征为高斯函数G的无穷积分)
也就是说一个一般的数据点投射到phi上以后,就成了无穷高维的数据
这也是SVM的巧妙之处,通过增加维度来提高可分类性 |
|
m*p 发帖数: 1331 | 30 sorry my question is, how to actually implement this? if you've trained a
RBF SVM model, how to implement a function that can be used to predict a
test data point? thanks. |
|
s***1 发帖数: 49 | 31 如果有一组数据,然后分别用 linear kernel (Xi dot Xj) , quadratic kernel ( (
Xi dot Xj+1)^2 , 和 radial basis function kernel (e^[-1/(2*sigma) * (Xi-Xj)
^2] 的 SVM 来成功 separate。
这时候吧数据里面每一个点都向上平移10. 就是 (xi,xj) = (xi,xj+10).
再用以上三个kernel 重新找boundary. 相对于每一个点来说, 新的boundary 会不会
和旧的 boundary 不一样? 也就是说每一个新的点到新的boundary, 和每一个旧点到
旧的boundary的距离是不是不一样。
我觉得linear 的是一样的,应为就是平移。 但是quadratic kernel 和 radial basis
不一样,但是无法具体解释为什么。。。。 |
|
L****8 发帖数: 3938 | 32 最近做一个东西
知道feature是啥
svr效果很好 比 MLP 好
有人做过吧svm为nn的最后一层 不知道有没有人用tensorflow实现一把 |
|
D*****r 发帖数: 183 | 33 【 以下文字转载自 CompSci 讨论区 】
【 原文由 Dreaner 所发表 】
急用,或者别的SVM incremental regression
包也行。谢谢 |
|
s***1 发帖数: 49 | 34 如果有一组数据,然后分别用 linear kernel (Xi dot Xj) , quadratic kernel ( (
Xi dot Xj+1)^2 , 和 radial basis function kernel (e^[-1/(2*sigma) * (Xi-Xj)
^2] 的 SVM 来成功 separate。
这时候吧数据里面每一个点都向上平移10. 就是 (xi,xj) = (xi,xj+10).
再用以上三个kernel 重新找boundary. 相对于每一个点来说, 新的boundary 会不会
和旧的 boundary 不一样? 也就是说每一个新的点到新的boundary, 和每一个旧点到
旧的boundary的距离是不是不一样。
我觉得linear 的是一样的,应为就是平移。 但是quadratic kernel 和 radial basis
不一样,但是无法具体解释为什么。。。。 |
|
c*******n 发帖数: 718 | 35 L1 penalty(lasso) L2 loss Support Vector machine
matlab的bioinformatics toolbox的svm好像做不到这个
又不想自己写 不知道大家都用什么 |
|
o****o 发帖数: 8077 | 36 R有SVM的包,SAS只在EM里面有,如果没有EM要自己写code。照着NUMERIC RECEIPIES里
面的写就好了 |
|
|
x****u 发帖数: 57 | 38 好像SAS/EM 里是有proc svm的,可是找不到documentation 和例子.哪位大侠给说说
?什么地方有instruction? 做data mining 是用enterprise miner吗? |
|
|
|
A*******s 发帖数: 3942 | 41 dont think so... even though SAS/IML and SAS/OR have quadratic programming
functions/procedures, implementing SVM is not trivial anyway in SAS. |
|
d******e 发帖数: 7844 | 42 SVM那玩艺也没什么好的,本质和logistic regression差不多. |
|
d*******o 发帖数: 493 | 43 SAS在非线性classifier的基础一直不好。没办法的事,他们花多少钱也请不来
Friedrich Leisch写SVM,Andy Liaw写random forest。 |
|
d******e 发帖数: 7844 | 44 ??
Friedrich Leisch
这个人写的SVM Package很出名? |
|
d******e 发帖数: 7844 | 45 拜托... ..
e1071不过是调用libsvm而已... ...
目前学术圈里用得最多的SVM Package来自台湾,libsvm和liblinear |
|
o****o 发帖数: 8077 | 46 难不成让公司再买个SAS/OR?就为了个SVM? |
|
A**P 发帖数: 260 | 47 其实SVM这个东西做出来的model还真不是特别出色。也不知道为啥这么多的粉丝。 |
|
w*****5 发帖数: 515 | 48 自己python编一个出来, 不用钱的.你说的这两个算法都不难实现..ANN到处有源代码.
SVM也有很多人弄过.. |
|
A*******s 发帖数: 3942 | 49 对了,我想问一个问题--一拨人说SVM是best classifier ever,另一拨人说boosting
tree是best off the shelf classifier... 这俩得对比有定论么? |
|
d*******o 发帖数: 493 | 50 同感啊。
俺没什么鸟事的时候也试过SVM code port到SAS/IML里面,写的个郁闷啊。后来想,
tmd R里面
都有现成的,难道我这傻B写的比那些大牛强,后来就不干这事了。 |
|