在协方差矩阵上执行 SVD 时,是否有关于 SVD 与共聚类相关的直观解释?
(即对矩阵进行SVD在哪里和.)
预测如何和在分解与聚类有关?如果我举一些例子并通过, 我能得到什么?
(注意我说的是薄 svd,所以尺寸小于和, 和例如的被投影到那个较低的维度。)
在协方差矩阵上执行 SVD 时,是否有关于 SVD 与共聚类相关的直观解释?
(即对矩阵进行SVD在哪里和.)
预测如何和在分解与聚类有关?如果我举一些例子并通过, 我能得到什么?
(注意我说的是薄 svd,所以尺寸小于和, 和例如的被投影到那个较低的维度。)
也许这会有所帮助,取自关于PCA的 Wikipedia 文章(PCA 与 SVD 非常相似):
" PCA 与 K-means 聚类之间的关系
最近(2001,2004)表明,由聚类指标指定的 K-means 聚类的松弛解由 PCA 主成分给出,并且主方向跨越的 PCA 子空间与聚类质心子空间相同由类间散布矩阵指定。因此 PCA 会自动投影到 K-means 聚类的全局解所在的子空间,从而促进 K-means 聚类找到接近最优的解。”
在我看来,降维不同于聚类,但它可以通过减少到“有用的”低维表示来帮助聚类高维数据。
在尝试比较 SVD、PCA 和 LSA(潜在语义分析)和 NMF(非负矩阵分解)等方法时,我想到了类似的问题。
为了同意 Bitwise 的观点,NMF 维基百科页面http://en.wikipedia.org/wiki/Non-negative_matrix_factorization指出“已经证明 [27][28] NMF 等同于 K-means 聚类的宽松形式:矩阵因子 W 包含聚类质心,H 包含聚类成员指标,当使用最小二乘作为 NMF 目标时,这为使用 NMF 进行数据聚类提供了理论基础。
引文如下:
[27] C. Ding, X. He, HD Simon (2005)。“关于非负矩阵分解和谱聚类的等价性”。过程。暹罗国际会议 数据挖掘,第 606-610 页。2005 年 5 月
[28] Ron Zass 和 Amnon Shashua (2005)。“硬概率聚类的统一方法”。计算机视觉国际会议 (ICCV) 中国北京,2005 年 10 月。