代码编织梦想

导入jieba

win+r 输入

pip install jieba

pip3 install jieba

注意不能使用IDLE
由于是外网可能会下载失败,可以尝试这个指令

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple jieba

如果无效可以尝试下载到本地安装

下载到本地安装的流程

安装成功后win +r输入

pip list

寻找有没有jieba,如果看到jieba,恭喜你安装jieba库成功
在这里插入图片描述

实例(Python词频统计)

1.导入jieba库
2.打开secretletter
3.利用jieba.lcut统计词频
4.使用字典counts进行统计重复字符个数
5.将字典counts转换成列表items
6.对items排序
7.遍历输出items

import jieba
#打开文件,根据自己的文件的地址写对应路径
txt = open("python\\secretletter.txt","r",encoding='utf-8').read()
words = jieba.lcut(txt)
#利用字典counts统计重复次数
counts = {}
for word in words:
    if len(word) == 1:
        continue
    else:
        counts[word] = counts.get(word,0) + 1
#字典转换成列表排序
items = list(counts.items())
#对列表的第二个字段排序,reverse=True为降序(从大到小,不写“reverse = True”某认升序)
items.sort(key = lambda x:x[1],reverse = True)
#列出前15个
for i in range(15):
    word,count = items[i]
    print("{0:<10}{1:>5}".format(word,count))
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/lexn666/article/details/128004466

python 利用nltk,jieba库统计词频并导入csv文件-爱代码爱编程

利用Python的nltk模块进行词频统计: 示例的negreview.txt 链接见: 链接:https://pan.baidu.com/s/10XJiJtzjhVauGJ8vtyxDIQ 提取码:g65t 这是一段女装

python词频统计导入txt,创建词云和词频数据可视化_brother_jian的博客-爱代码爱编程

统计词频将其导入TXT文档这个步骤卡了我好几天,问题不是导入失败就是格式错误,弄了我好几天才解决了,发现自己走了许多弯路啊!!!!现在我把我的代码分享给大家: import codecs import jieba from

手把手教你Python3使用Jieba工具-爱代码爱编程

疫情宅在家,只能静下心来弄毕设~ 话不多说,直接上干货,本篇博客包含: 中文分词添加自定义词典词性标注关键词抽取  环境: Python3.5Jieba-0.39Pycharm2018一、安装jieba 在安装有python3 和 pip 的机子上,安装jieba库很简单,使用pip即可: pip install jieba 二、Jieba分

jieba词频统计、关键词提取、词云图制作-爱代码爱编程

1、jieba分词及词频统计 import jieba import pandas as pd # 加载自定义分词词典(txt内容格式:自定义关键词+空格+空格 ----->换行继续) jieba.load_userdict("./dict.txt") content = open('./测试.txt',encoding='utf-8').r

python词频统计_用Python实现一个词频统计(词云+图)-爱代码爱编程

第一步:首先需要安装工具python 第二步:在电脑cmd后台下载安装如下工具: (有一些是安装好python电脑自带有哦) 有一些会出现一种情况就是安装不了词云展示库 有下面解决方法,需看请复制链接查看:https://www.lfd.uci.edu/~gohlke/pythonlibs/#wordcloud 第三步: 1.准备好你打算统计的文件,命

python词频统计完整步骤_Python中文文本分词、词频统计、词云绘制-爱代码爱编程

本文主要从中文文本分词、词频统计、词云绘制方面介绍Python中文文本分词的使用。会使用到的中文文本处理包包括:wordcloud,jieba,re(正则表达式),collections。 1 准备工作 导入相关的包,读取相关数据。 #导入包 import pandas as pd #数据处理包 import numpy as np #数据处理包 from

python红楼梦词频统计_Python 红楼梦的字频与词频统计-爱代码爱编程

Python 红楼梦的字频与词频统计 使用jieba分词工具分词,在网上下载了一个停用词表(包括标点符号)去除停用词。 使用wordcloud生成词云。 其实除了停用词,程度词与否定词等也应该去除,但没有找到合适的词表。 字频: 字符 字频 了 13993 的 9862 不 9439 一 8160 道 7271 来 7189 人

python词频统计结果写入csv_Python词频对比并导入CSV文件-爱代码爱编程

需要用到的停用词库我上传到我的资源了,大家也可以自己去网上找! 本来是想把两个词频统计放入一个CSV文件中,但是无奈向已经存在的CSV文件中追加写入数据只能在已经存在的数据下面追加,也就是在同一列追加,不能另起一列添加数据,哪位兄弟怼出来了,欢迎回复或私信! import jieba import pandas as pd import csv

python词频统计时、文件放哪里_初学python,词频统计小实验-爱代码爱编程

最近突然对python感兴趣,就学了起来。我可怜的计算机基础只有VB,而且学的时候这门课还特别水,仅仅了解了语法,考试基本上是背题过的。 现在自学python还是比较吃力。今天捣鼓了一下午,搞出了一个词频统计的程序,敲了三四十行代码,还是十分有成就感。本着输出是为了更好的理解知识的初心,我来谈谈我是怎么写的,用的那些方法。毕竟是刚接触的小白,很有地方

python统计词云词频_用Python实现一个词频统计(词云)图-爱代码爱编程

有没有办法一眼扫过去,就知道一篇很长的文章是讲什么的呢? 词云图,就是做这个用途, 就像下面这张图, 词云图 看过是不是马上就有了“数据、分析、功能”这个概念? 那么这种图是怎么做出来的呢,很简单,下面我就带大家一步一步做出这张图来。 01 准备工作 首先安装好python (我用的是3.6版本),具体安装方法可以参考文末链接。 再下

python分析红楼梦出现的虚词词频统计,python对红楼梦的每一章节进行词频统计-爱代码爱编程

python对红楼梦的每一章节进行词频统计 python对红楼梦的每一章节进行词频统计 import jieba f=open("G:\\红楼梦.txt","r",encoding="utf-8") txt=f.read() words=jieba.lcut(txt)#精准模式 ls=[] ![在这里插入图片描述](https://img

python词云分析 jieba+wordcloud 按词频生成词云-爱代码爱编程

《大数据文摘》历史文章top10进行词频分析 数据来源及功能:爬取大数据文摘点赞量前10的文章,将文章转换成txt文档,进行词频分析并生成词云分析图。 Step1:安装所需库 pip install re pip install jieba pip install collections pip install numpy pip install

python 词频统计,分词笔记-爱代码爱编程

Python的中文分词库有很多,常见的有: jieba(结巴分词)THULAC(清华大学自然语言处理与社会人文计算实验室)pkuseg(北京大学语言计算与机器学习研究组)SnowNLPpynlpirCoreNLPpyltp参考:https://www.jianshu.com/p/7ad0cd33005e nltk词频统计 本文使用的包为nlt

vscode python jieba 词频统计-爱代码爱编程

用到了几个库 import re # 正则表达式库 import collections # 词频统计库 import jieba # 结巴分词 用之前在命令行执行:pip install 库名称。现在包/库管理基本是一种通用的模式。Node.js的npm,VS里面的nuget,这个跟我们从苹果或安卓应用市场下载应用一样。应该市场面对最终用户,包管

python文件操作案例之统计词频_jiankang66的博客-爱代码爱编程

博主简介:原互联网大厂tencent员工,网安巨头Venustech员工,阿里云开发社区专家博主,微信公众号java基础笔记优质创作者,csdn优质创作博主,创业者,知识共享者,欢迎关注,点赞,收藏。 目录