a***n 发帖数: 3633 | 1 有一堆在N维空间里的点。按照欧氏距离的远近,这些点基本上是扎堆的。
怎么样把这些堆找出来。就是说可以知道某个点是属于哪个堆的,总共
空间里有几个堆?
请问解决这个问题已经有哪些算法了?知道的大牛给个关键词或者文章
名字吧。谢谢。 |
v********e 发帖数: 1058 | 2 cluster analysis
【在 a***n 的大作中提到】 : 有一堆在N维空间里的点。按照欧氏距离的远近,这些点基本上是扎堆的。 : 怎么样把这些堆找出来。就是说可以知道某个点是属于哪个堆的,总共 : 空间里有几个堆? : 请问解决这个问题已经有哪些算法了?知道的大牛给个关键词或者文章 : 名字吧。谢谢。
|
a***n 发帖数: 3633 | 3 貌似是个大课题啊,看来孤陋寡闻了。谢谢
【在 v********e 的大作中提到】 : cluster analysis
|
r****o 发帖数: 1950 | 4 请问cluster analysis是不是要找出每个cluster 的 服务点 (每个cluster的点都会映
射到相应的服务点),
如果是的话,这些服务点是从这些给定的点中取,还是任意位置中取都可以?
【在 v********e 的大作中提到】 : cluster analysis
|
d******e 发帖数: 7844 | 5 K-means and Gap statisitcs
【在 a***n 的大作中提到】 : 有一堆在N维空间里的点。按照欧氏距离的远近,这些点基本上是扎堆的。 : 怎么样把这些堆找出来。就是说可以知道某个点是属于哪个堆的,总共 : 空间里有几个堆? : 请问解决这个问题已经有哪些算法了?知道的大牛给个关键词或者文章 : 名字吧。谢谢。
|
A*******r 发帖数: 768 | 6 直接上上svm.多拉风啊
【在 d******e 的大作中提到】 : K-means and Gap statisitcs
|
d******e 发帖数: 7844 | 7 SVM是用来做Classification的。
【在 A*******r 的大作中提到】 : 直接上上svm.多拉风啊
|
A*******r 发帖数: 768 | 8 那就SVC
一样拉风
【在 d******e 的大作中提到】 : SVM是用来做Classification的。
|
B****n 发帖数: 11290 | 9 套個fancy的方法 就叫做拉風阿? 呵呵
【在 A*******r 的大作中提到】 : 那就SVC : 一样拉风
|
b*d 发帖数: 75 | 10 really?!
i had similar problem when i worked on my thesis, and i wrote a smart piece
of code and solved the problem,
basically i used a table to store the point to point distance and used a
iterative function to get the closest points then get the cluster. it worked
pretty good for me. so I thought it's just a simple question...
hehe, maybe my code couldn't cover all situation.
【在 a***n 的大作中提到】 : 貌似是个大课题啊,看来孤陋寡闻了。谢谢
|
|
|
r****o 发帖数: 1950 | 11 请问K-Mean和K-Median是什么关系啊?
【在 d******e 的大作中提到】 : K-means and Gap statisitcs
|
r****o 发帖数: 1950 | 12 我有个问题没弄明白,请问每个cluster是不是要先找一个mean点?
就是说,是先划分cluster再找各自的mean点,
还是先找出几个mean点,然后再划分cluster?
piece
worked
【在 b*d 的大作中提到】 : really?! : i had similar problem when i worked on my thesis, and i wrote a smart piece : of code and solved the problem, : basically i used a table to store the point to point distance and used a : iterative function to get the closest points then get the cluster. it worked : pretty good for me. so I thought it's just a simple question... : hehe, maybe my code couldn't cover all situation.
|
A*******r 发帖数: 768 | 13 不是,现在fancy的咚咚是下面这个
Vladimir Vapnik, Akshay Vashist: A new learning paradigm: Learning using
privileged information. Neural Networks 22(5-6): 544-557 (2009)
其实这些东西还是挺有意思的啦
【在 B****n 的大作中提到】 : 套個fancy的方法 就叫做拉風阿? 呵呵
|
d******e 发帖数: 7844 | 14 metric不一样。
K-median用l1 norm做distance
【在 r****o 的大作中提到】 : 我有个问题没弄明白,请问每个cluster是不是要先找一个mean点? : 就是说,是先划分cluster再找各自的mean点, : 还是先找出几个mean点,然后再划分cluster? : : piece : worked
|
r****o 发帖数: 1950 | 15 多谢,请问什么是l1 norm啊,是Euclidean distance吗?
另外,我一直没搞明白K-Median和P-Median,是一回事吗?
【在 d******e 的大作中提到】 : metric不一样。 : K-median用l1 norm做distance
|
d******e 发帖数: 7844 | 16 euclidean是l2 norm
【在 r****o 的大作中提到】 : 多谢,请问什么是l1 norm啊,是Euclidean distance吗? : 另外,我一直没搞明白K-Median和P-Median,是一回事吗?
|
r****o 发帖数: 1950 | 17 是不是这样的
rectilinear distance 是 l1 norm
euclidean distance 是l2 norm
?
【在 d******e 的大作中提到】 : euclidean是l2 norm
|
i****6 发帖数: 14 | 18 LLE
manifold learning
dimenstion reduction |