这篇文章主要介绍“Python基于词频排序如何实现快速挖掘关键词”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“Python基于词频排序如何实现快速挖掘关键词”文章能帮助大家解决问题。
一、所有的代码
这是所有的代码
from collections import defaultdict import jieba.posseg as jp with open('keyword.txt','r',encoding='utf-8') as file: keyword_list = file.read().split(' ') not_flag = set(['w','x','y','z','un','m']) not_word = set(['的','是','有','啊','呢','么','好']) keyword_split = dict() word_count = defaultdict(int) for keyword in keyword_list: word_set = set() for word,flag in jp.cut(keyword): if flag in not_flag: continue if word in not_word: continue if word == 'pdf' or word == 'PDF': continue word_count[word] += 1 word_set.add(word) keyword_split[keyword] = word_set id_keyword_list = defaultdict(list) id_count = defaultdict(int) for keyword,word_set in keyword_split.items(): word_sort = dict() for word in word_set: word_sort[word] = word_count[word] word_sort = sorted(word_sort.items(),key=lambda x:x[1],reverse=True) word_id = ','.join([word for word,count in word_sort[0:3]]) id_keyword_list[word_id] += [keyword] id_count[word_id] += 1 result = [] id_count = sorted(id_count.items(),key=lambda x:x[1],reverse=True) for word_id,count in id_count: if count < 3: continue for keyword in id_keyword_list[word_id]: result.append('%s %s' % (keyword,word_id)) result.append('') with open('result.txt','wb') as file: file.write(' '.join(result).encode('utf-8'))
二、实现的效果
keyword.txt如下图:
有50万的关于pdf的关键词数据
最后的输出
result.txt就是将里面的含有关键词相同的句子统一输出出来:
这里会将一个句子的3个关键词输出出来 关键词是根据词频排序的。
最后将所有关键词一样的句子组合在一起,就可以知道这些句子表达的意思大致一致
三、代码解读
keyword_list是从keyword.txt读取到的所有的句子
not_flag是要排除的标记,不统计这些标记
not_word是要排除的单词,不统计这些单词
keyword_split是句子对应到他的所有单词的字典,key是句子,value是他的所有单词的集合
word_count是所有的拆分后的单词的次数的字典,key是单词,value是单词出现的次数
id_keyword_list是一个字典,它的key是一个字符串 value是列表
id_count是一个字典,它的key是一个字符串,value是int
最后对id_count处理 将结果输出出来
id_count = sorted(id_count.items(), key=lambda x: x[1], reverse=True) for word_id, count in id_count: if count < 3: continue for keyword in id_keyword_list[word_id]: result.append('%s %s' % (keyword, word_id)) result.append('')