• 欢迎访问佰阅部落,本站为优质开源程序分享站,所有自研项目均开源免费,可在Github查看源码。 QQ群
  • 如果您觉得本站非常有看点,那么赶紧使用Ctrl+D 收藏吧
  • 欢迎积极参与讨论、反馈问题
  • 春节期间,消息回复延迟1~7天

Python分词云图:中英文Stylecloud调用代码精校,可拿来直接用

Python 佰阅部落 5个月前 (01-09) 741次浏览 0个评论
文章目录[隐藏]

用代码写个文件的单词云图,需要写多少代码?事实告诉你,用python一行代码就可以实现英文分词云图的制作,用4行就可以实现中文分词云图的制作。博主已精校代码,可直接拿来复用。

0.英文分词

from stylecloud import gen_stylecloud

gen_stylecloud(file_path='abc.txt')

没错,就两行内容,一行导入stylecloud,另外一行直接调用,就可以生成一张单词云图,效果如下(内容为TED讲座所有标题):

Python分词云图:中英文Stylecloud调用代码精校,可拿来直接用

1.中文分词

import jieba
from stylecloud import gen_stylecloud


def jieba_cloud(file_name):
    with open(file_name,'r',encoding='utf8') as f:
        word_list = jieba.cut(f.read())
        result = " ".join(word_list)    #分词用 隔开
        #制作中文云词
        gen_stylecloud(text=result,icon_name='fas fa-quote-left',font_path='C:\\Windows\\Fonts\\simhei.ttf',output_name=file_name.split('.')[0] + '.png')  #必须加中文字体,否则格式错误
        
if __name__ == "__main__":
    file_name = '斗破苍穹.txt'
    jieba_cloud(file_name)

我们以10MB大小的斗破苍穹.txt为例,最终效果如下:

Python分词云图:中英文Stylecloud调用代码精校,可拿来直接用

如此看来,这种小说肯定入不了我们的眼界,不过故事性无法展现,也无法加以评论。

2.为啥要用jieba分词?

据说是目前做中文分词做厉害的一个,暂未发现比这个更智能、更AI的,所以只能用这个了。

3.为啥要用sylecloud,而不用wordcloud?

从需求而言,stylecloud是我们最需要的,这个库是一位大数据数据分析者Max Woolf做的,基于wordcloud,算是优化改良版。操作简单,直接调用。

4.小结

这里汇总的分词云图,可以随时拿来,直接去处理一些中英文分词操作,入手简单,需求也准求。值得分享出来。


佰阅部落 , 版权所有丨如未注明 , 均为原创丨本网站采用BY-NC-SA协议进行授权
转载请注明原文链接:Python分词云图:中英文Stylecloud调用代码精校,可拿来直接用
赞一下 (0)
佰阅部落
关于作者:
爱折腾,爱学习,我是一个Docker菜鸟,用心分享各种实用搭建教程,让优质web程序脱颖而出,欢迎订阅!

您必须 登录 才能发表评论!