步骤概览
具体实现
读取文本数据: 我们首先将《战争与和平》的文本文件读入程序中。这里假设文件名为war_and_peace.txt
并且位于当前工作目录。
使用jieba
进行分词: jieba
是一个中文分词工具,我们使用它将整篇文章分割成一个个单词。
统计人名出现次数: 我们定义了一个包含主要人名的列表,并使用Counter
对这些人名在分词结果中的出现次数进行统计。
合并别名: 为了统计的准确性,我们将一些别名合并到相应的人名。例如,“公爵”计入“安德烈”,“小姐”计入“娜塔莎”,“伯爵”计入“皮埃尔”。
绘制统计图表: 使用matplotlib
绘制柱形图,展示出现次数最多的10个人名及其出现次数。
结果展示
总结
通过这篇博客,我们展示了如何利用Python的jieba
和matplotlib
库对中文文本进行词语分析,并绘制统计图表。希望这篇博客能对你有所帮助,如果有任何问题或建议,欢迎留言讨论!
请确保在运行代码前已安装必要的Python库:
pip install jieba matplotlib
并将《战争与和平》的文本文件命名为war_and_peace.txt
,放置在当前工作目录中。
源码👇
https://yan-sheng-li.github.io/project/Participle_analysis.html