使用NLTK库统计词频可以按照以下步骤:
1.导入NLTK库和必要的模块:
import nltk
from nltk import FreqDist
from nltk.tokenize import word_tokenize
2.加载文本数据并进行分词:
text = "This is a sample text for calculating word frequency using NLTK library."
words = word_tokenize(text)
3.使用FreqDist类来统计词频并输出结果:
freq_dist = FreqDist(words)
print(freq_dist.most_common())
这将输出按照词频从高到低排列的词及其频数。如果需要查看特定词的频数,可以使用freq_dist['word']
来获取该词的频数。
在实际应用中,可以使用NLTK库来处理大量文本数据并进行词频统计分析,从而帮助理解文本内容和特征。
辰迅云「云服务器」,即开即用、新一代英特尔至强铂金CPU、三副本存储NVMe SSD云盘,价格低至29元/月。点击查看>>
推荐阅读: 怎么使用NLTK库评估可读性