python读写txt文件,并用jieba库进行中文分词

在虎扑上随便找了一段文字,粘贴到word.txt文件中,然后对这段文字进行处理。

其中用到的matplotlib库,主要是用来绘图;jieba库,对文字进行分词;wordcloud库,构建词云。

一、引用库

import jieba
import matplotlib as mpl
import matplotlib.pyplot as plt
from wordcloud import WordCloud
二、读取txt文件

#定义一个空字符串
final = ""
#文件夹位置
filename = r"E:\Program Files\爬虫\word.txt"

#打开文件夹,读取内容,并进行分词
with open(filename,'r',encoding = 'gb2312') as f:
    for line in f.readlines():
        word = jieba.cut(line)
        for i in word:
            final = final + i +" "

三、构造词云

word_pic = WordCloud(font_path = r'C:\Windows\Fonts\simkai.ttf',width = 2000,height = 1000).generate(final)
plt.imshow(word_pic)
#去掉坐标轴
plt.axis('off')
#保存图片到相应文件夹
plt.savefig(r'E:\Program Files\6.png')
最后生成的图片如下:


猜你喜欢

转载自blog.csdn.net/songrenqing/article/details/80541055