python之为什么在进行文本聚类时在 K-Means 之前使用 LSA

langtianya 阅读:8 2024-08-05 10:48:10 评论:0

我正在学习 Scikit 的本教程,学习使用 K-Means 进行文本聚类:
http://scikit-learn.org/stable/auto_examples/text/document_clustering.html

在示例中,可选地使用 LSA(使用 SVD)来执行降维。

为什么这很有用?已经可以使用“max_features”参数在 TF-IDF 向量化器中控制维度(特征)的数量。

我知道 LSA(和 LDA)也是主题建模技术。与聚类的区别在于文档属于多个主题,但只属于一个聚类。我不明白为什么 LSA 会在 K-Means 聚类的上下文中使用。

示例代码:

from sklearn.feature_extraction.text import TfidfVectorizer 
from sklearn.cluster import KMeans 
 
documents = ["some text", "some other text", "more text"] 
 
tfidf_vectorizer = TfidfVectorizer(max_df=0.5, max_features=10000, min_df=2, stop_words='english', use_idf=True) 
X = tfidf_vectorizer.fit_transform(documents) 
 
svd = TruncatedSVD(1000) 
normalizer = Normalizer(copy=False) 
lsa = make_pipeline(svd, normalizer) 
Xnew = lsa.fit_transform(X) 
 
model = KMeans(n_clusters=10, init='k-means++', max_iter=100, n_init=1, verbose=False) 
model.fit(Xnew) 

请您参考如下方法:

a paper这表明 PCA 特征向量是 K-Means 的良好初始化器。

使用 max_features 控制尺寸参数相当于切断词汇量大小,产生负面影响。例如,如果您设置 max_features到 10 模型将使用语料库中最常见的 10 个单词并忽略其余单词。


标签:Python
声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

关注我们

一个IT知识分享的公众号