全文链接:tecdat.cn/?p=24376 在这篇文章中,我们讨论了基于gensim 包来可视化主题模型 (LDA) 的输出和结果的技术 ( 点击文末“阅读原文”获取完整代码数据******** )。 介绍 我们遵循结构化的工作流程,基于潜在狄利克雷分配 (LDA) 算法构建了一个主题模型。 在这篇文章中,我们将使用主题模型,探索多种策略以使用matplotlib 绘图有效地可视化结果 。 相关视频: 文本挖掘主题模型(LDA)及R语言实现 ** 拓端 ,赞9 我将使用 20 个新闻组数据集的一部分,因为重点更多地放在可视化结果的方法上。 让我们从导入包和 20 News Groups 数据集开始。 import matplotlib.pyplot as plt # NLTK停止词 fom nlt.copus imort stowods sop_wrds = stowords.wrds('chinse') 复制代码 导入新闻组数据集 让我们导入新闻组数据集并仅保留 4 个 类别。 # 导入数据集 d = f.oc[dftargt_name.in([so.relion.chritan], 'ec.sot.okey', 'ak.piticmdast' 'rec.oorcyces']) , :] prin(f.hpe) #> (2361, 3) df.( 复制代码 添加图片注释,不超过 140 字(可选) 标记句子并清理 删除电子邮件、换行符、单引号,最后使用 gensim 将句子拆分为单词列表 simple_preprocess()。设置 deacc=True 选项会删除标点符号。 def snds(seecs): for setees in sntces: sent = r.sub('\S*@\S*\s?', '', sent) # 删除电子邮件 snt = re.sb('\s+', '', sent) # 移除换行字符 set = re.sb("\'", "", sent) # 删除单引号 set = geim.uls.smplprerss(str(sent), deacc=True) # 转换为列表 data = df.cnt.lus.tolist() 复制代码 构建双字母组、三字母组模型和推理 让我们使用模型形成双字母组、三字母组。为了提高执行速度,这个模型被传递给Phraser()。 接下来,将每个词词形还原为其词根形式,仅保留名词、形容词、动词和副词。 我们只保留这些POS标签,因为它们对句子的含义贡献最大。在这里,我使用spacy进行词法处理。 # 建立大词和三词模型 bigrm = endl.Pres(dta_ords, mncnt=5, thrshl=100) # 更高的阈值会减少短语。 tigam = genm.del.Prses(bga[dtawors], thrhld=100) bigm_od = gsim.molpss.Pasr(bgrm) tigrmod = genm.mos.pres.hrser(tigam) # 在终端运行一次 ""删除止损词,形成大词、三词和词组"" texts = [[wor fo wrd in sipeeproe(tr(dc)) [iram_od[oc] for doc in txts] tets = [rirammod[igrmmod[dc]] for dc in tets] tetout = [] np = scy.oad('en', dial=['解析器', 'ner']) for set in txs: dc = np(" ".join(sn)) tex_.ppd([tknlea_ fr toen in oc if toenpo_ in aowed_ots]) # 在词法化之后,再一次删除停止词 atady = roe_os(daa_ds) # 处理过的文本数据! 复制代码 构建主题模型 要使用 构建 LDA 主题模型,您需要语料库和字典。让我们先创建它们,然后构建模型。训练好的主题(关键字和权重)也输出在下面。 如果你检查一下主题关键词,它们共同代表了我们最初选择的主题。教会、冰球、地区和摩托车。很好! # 创建字典 id2od = copoDciary(dta_eay) # 创建语料库。术语文档频率 crpus = [i2wod.o2bow(ext) for txt in daa_ey] # 建立LDA模型 Lal(copus=copus, id2wrd=id2wrd, nu_tpic=4, radom_ate=100, updaeeery=1, chnsie=10, pas=10。 alha='symmetric', iteatos=100, prdics=True) (ldampcs()) 复制代码 什么是主导主题及其在每个文档中的百分比贡献 在 LDA 模型中,每个文档由多个主题组成。但是,通常只有一个主题占主导地位。下面的代码提取每个句子的主要主题,并在格式良好的输出中显示主题和关键字的权重。 这样,您将知道哪个文档主要属于哪个主题。 # 启动输出 se_tpcf = p.Dataame() # 获取每个文档中的主要话题 for i, ro_isin enate(ldmoel[crps]): rw = rw_s0] if lamoel.pe_wortopis else rowlis row = soed(ow, ky=laba x: (x[1]), evre=True) # 获取每个文档的主导主题、perc贡献和关键词 for j, (toicum, pr_pic) in enate(row): if j == 0: # => 主导话题 wp = ldel.shotoic(topic_num) # 在输出的最后添加原始文本 deeos = fratcs(lodel=damoe, copus=crpus, tets=dary) # 格式化 topic = os.retidex() 复制代码 每个话题最有代表性的一句话 有时您想获得最能代表给定主题的句子样本。此代码为每个主题获取最典型的句子。 # 显示设置,在列中显示更多的字符 for i, grp in serpd: senlet = pd.cnct([senlet, gp.srtes(['Peion'], asng=Fase).hed(1)] ais=0) # 重置索引 seet.resex(drp=True, inlce=True) # 格式化 senllet.couns = ['Toum', "TopCorib", "Kywrds", "rsa xt"] # 显示 sencoet.head(10) 复制代码 添加图片注释,不超过 140 字(可选) 文档中字数的频率分布 在处理大量文档时,您想知道文档的整体大小和主题大小。让我们绘制文档字数分布。 # 绘图 plt.fiue(fe=(6,7), dpi=60) plt.xtcs(nplic(0,00,9)) 复制代码 添加图片注释,不超过 140 字(可选) import sebon as sns fig.titat() fig.sbts_juo0.90) plt.xticks(np.lisa(0,00,9)) plt.sow() 复制代码
点击标题查阅往期内容 添加图片注释,不超过 140 字(可选) Python之LDA主题模型算法应用 添加图片注释,不超过 140 字(可选) 左右滑动查看更多 添加图片注释,不超过 140 字(可选) 01 添加图片注释,不超过 140 字(可选) 02 添加图片注释,不超过 140 字(可选) 03 添加图片注释,不超过 140 字(可选) 04 添加图片注释,不超过 140 字(可选) 每个话题的前N个关键词词云 虽然你已经看到了每个主题中的主题关键词是什么,但字数大小与权重成正比的词云是很好的可视化方法。 # 1. 每个主题中前N个词的词云 from matplotlib import pyplot as plt from worcloud mport WrCloud,STOPWODS clod = WordClud(stopwds=stp_ords, barounolr='white', reer_oronal=1.0) plt.sow() 复制代码 添加图片注释,不超过 140 字(可选) 主题关键词的字数 当涉及主题中的关键字时,关键字的重要性(权重)很重要。除此之外,这些单词在文档中出现的频率也很有趣。 让我们在同一图表中绘制字数和每个关键字的权重。 您要关注出现在多个主题中的词以及相对频率大于权重的词。通常,这些词变得不那么重要。我在下面绘制的图表是在开始时将几个这样的词添加到停用词列表并重新运行训练过程的结果。 tops = l_mdl.swtcs(foatd=Fase) # 绘制主题关键词的字数和权重图 fig, as = pltuls(2, 2, fiiz=(16,10), sey=rue, di=160) fig.tigh_lyut_pad=2) plt.shw() 复制代码 按主题着色的句子图表 文档中的每个单词都代表 4 个主题之一。让我们根据给定文档中的每个单词所属的主题 id 为其着色。 # 对N个句子进行着色的句子 for i, ax in eumate(xes): cour = corp[i-1] 。 topprcs, wrdits, wrdihius = lda[copr] wodoac = [(lmod2word[wd], tpic[0]) or w, tpc in odid_opcs] # 绘制矩形区域 tpcred = soted(tpps, key= x: (x[1]), rvese=True) word_pos = 0.06 plt.subdt(wsace=0, hsace=0) plt.show() 复制代码 文件中讨论最多的话题是什么? 让我们计算归因于每个主题的文档总数。 # 对N个句子进行着色 主导话题 = [] 话题百分比 = [] for i, crp in euete(opu_el): topcs, wordics, wrlues = moel[crp] dopic = soted(torcs, key = lmda x: x[1], reerse=Tue)[0][0] 。 doics, toages = topent(mol=lda, copus=crus,en=-) # 每个文档中主导话题的分布 dfc = dh_dc.t_frme(ame='cunt').eeinex() # 按实际权重计算的总主题分布 topweig = pd.DaaFae([dct(t) for t in toges] ) # 每个主题的前三个关键词 [(i, tpic) for i, tocs in lda.shcs(fted=Flse) for j, (tic, wt) in eae(toic)if j < 3) 复制代码 让我们做两个图:
- 通过将文档分配给该文档中权重最大的主题来计算每个主题的文档数。
- 通过总结每个主题对各自文档的实际权重贡献来计算每个主题的文档数量。
添加图片注释,不超过 140 字(可选) 本文摘选 《 Python主题建模LDA模型、t-SNE 降维聚类、词云可视化文本挖掘新闻组数据集 》 ,点击“阅读原文”获取全文完整资料。
点击标题查阅往期内容 自然语言处理NLP:主题LDA、情感分析疫情下的新闻文本数据 【视频】文本挖掘:主题模型(LDA)及R语言实现分析游记数据 NLP自然语言处理—主题模型LDA案例:挖掘人民网留言板文本数据 Python主题建模LDA模型、t-SNE 降维聚类、词云可视化文本挖掘新闻组数据集 自然语言处理NLP:主题LDA、情感分析疫情下的新闻文本数据 R语言对NASA元数据进行文本挖掘的主题建模分析 R语言文本挖掘、情感分析和可视化哈利波特小说文本数据 Python、R对小说进行文本挖掘和层次聚类可视化分析案例 用于NLP的Python:使用Keras进行深度学习文本生成 长短期记忆网络LSTM在时间序列预测和文本分类中的应用 用Rapidminer做文本挖掘的应用:情感分析 R语言文本挖掘tf-idf,主题建模,情感分析,n-gram建模研究 R语言对推特twitter数据进行文本情感分析 Python使用神经网络进行简单文本分类 用于NLP的Python:使用Keras的多标签文本LSTM神经网络分类 R语言文本挖掘使用tf-idf分析NASA元数据的关键字 R语言NLP案例:LDA主题文本挖掘优惠券推荐网站数据 Python使用神经网络进行简单文本分类 R语言自然语言处理(NLP):情感分析新闻文本数据 Python、R对小说进行文本挖掘和层次聚类可视化分析案例 R语言对推特twitter数据进行文本情感分析 R语言中的LDA模型:对文本数据进行主题模型topic modeling分析 R语言文本主题模型之潜在语义分析(LDA:Latent Dirichlet Allocation)R语言对NASA元数据进行文本挖掘的主题建模分析 R语言文本挖掘、情感分析和可视化哈利波特小说文本数据 Python、R对小说进行文本挖掘和层次聚类可视化分析案例 用于NLP的Python:使用Keras进行深度学习文本生成 长短期记忆网络LSTM在时间序列预测和文本分类中的应用 用Rapidminer做文本挖掘的应用:情感分析 R语言文本挖掘tf-idf,主题建模,情感分析,n-gram建模研究 R语言对推特twitter数据进行文本情感分析 Python使用神经网络进行简单文本分类 用于NLP的Python:使用Keras的多标签文本LSTM神经网络分类 R语言文本挖掘使用tf-idf分析NASA元数据的关键字 R语言NLP案例:LDA主题文本挖掘优惠券推荐网站数据 Python使用神经网络进行简单文本分类 R语言自然语言处理(NLP):情感分析新闻文本数据 Python、R对小说进行文本挖掘和层次聚类可视化分析案例 R语言对推特twitter数据进行文本情感分析 R语言中的LDA模型:对文本数据进行主题模型topic modeling分析 R语言文本主题模型之潜在语义分析(LDA:Latent Dirichlet Allocation) 标签:LDA,SNE,新闻组,Python,模型,主题,文档,文本 From: https://www.cnblogs.com/tecdat/p/16832979.html