首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >获得每一份文件的最高条目-科技信托基金-以色列国防军

获得每一份文件的最高条目-科技信托基金-以色列国防军
EN

Stack Overflow用户
提问于 2019-01-15 11:38:44
回答 2查看 515关注 0票数 2

在用scikit的tf-国防军向量机矢量化多个文档时,是否有办法获得每个文档中最“有影响力”的术语?

不过,我只找到了在整个语料库中获得最有影响力的术语的方法,而不是每个文档。

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2019-01-15 13:36:13

假设您从一个数据集开始:

代码语言:javascript
复制
from sklearn.feature_extraction.text import CountVectorizer
from sklearn.feature_extraction.text import TfidfTransformer
import numpy as np
from sklearn.datasets import fetch_20newsgroups

d = fetch_20newsgroups()

使用计数向量器和tfidf:

代码语言:javascript
复制
count_vect = CountVectorizer()
X_train_counts = count_vect.fit_transform(d.data)
transformer = TfidfTransformer()
X_train_tfidf = transformer.fit_transform(X_train_counts)

现在您可以创建一个逆映射:

代码语言:javascript
复制
m = {v: k for (k, v) in count_vect.vocabulary_.items()}

这给了每个医生一个有影响力的词:

代码语言:javascript
复制
[m[t] for t in np.array(np.argmax(X_train_tfidf, axis=1)).flatten()]
票数 2
EN

Stack Overflow用户

发布于 2019-01-15 17:40:02

Ami的最后两个步骤中,只需再添加一种方法即可。

代码语言:javascript
复制
# Get a list of all the keywords by calling function
feature_names = np.array(count_vect.get_feature_names())
feature_names[X_train_tfidf.argmax(axis=1)]
票数 3
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/54198093

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档