我正在为NMF文本数据集群实现一个Python脚本。在我的工作中,我使用Scikit NMF实现,但据我所知,在Scikit中,NMF更像是一种分类方法,而不是一种聚类方法。
我已经开发了一个简单的脚本,在一些示例弧线上工作。我正在对它们进行预处理,并将其作为NMF的输入。根据我的教授分享的论文,我收到了一些集群,但我不知道如何可视化/呈现它们。
你们中有谁知道如何让这本书读起来更人性化?:)
主脚本代码如下:
from sklearn.feature_extraction.text import TfidfVectorizer, CountVectorizer
from sklearn.cluster import KMeans
from sklearn.preprocessing import normalize
from sklearn.decomposition import LatentDirichletAllocation, NMF
from sklearn.preprocessing import normalize
import pandas as pd
from preprocess import *
# loading data
raw_text_data = loading_bbc_datasets(5)
text_data = text_preparing(raw_text_data)
tf_vectorizer = TfidfVectorizer()
Y = tf_vectorizer.fit_transform(text_data)
Y_norm = normalize(Y)
nmf = NMF(n_components=5, random_state=1, alpha=.1, l1_ratio=0.5)
A = nmf.fit_transform(Y_norm)
X = nmf.components_
features = tf_vectorizer.get_feature_names()
print(features)
AF = pd.DataFrame(Y_norm.toarray())
WF = pd.DataFrame(A)
HF = pd.DataFrame(X)
AF.to_csv('Y.csv', sep=',', header=features)
WF.to_csv('A.csv', sep=',', header=['C1', 'C2', 'C3', 'C4', 'C5'])
HF.to_csv('X.csv', sep=',', header=features)发布于 2019-01-31 07:14:44
NMF不是一种分类方法,它是一种降维方法。当你用CountVectorizer处理你的文本时,你有很高的维数,NMF可以减少它。
NMF将文档*术语矩阵X近似为:W* H。
新维度可以被视为主题,因此对于给定的文档,您可以在W中查看该文档最属于哪个主题,因为这些值是非负值(如果该值很高,则该文档与该主题高度相关)。
同样,对于给定的主题,您可以使用H获取与其高度相关的单词。
为了回答您的问题,您可以将文档聚类到主题中,并通过给出最相关的单词来以人类友好的方式表示每个主题。
https://stackoverflow.com/questions/54449518
复制相似问题