包含python之jieba库使用的词条

包含python之jieba库使用的词条自然语言处理(NLP)是机器学习重要分支之一,主要应用于篇章理解、文本摘要、情感分析、知识图谱、文本翻译等领域。而NLP应用首先是对文本进行分词,当前中文分词器有Ansj、paoding、盘古分词等多种,而最基础的分词器应该属于jieba分词器(比较见下图)。

本文目录一览:

jieba分词(R vs. python)

自然语言处理(NLP)是机器学习重要分支之一,主要应用于篇章理解、文本摘要、情感分析、知识图谱、文本翻译等领域。而NLP应用首先是对文本进行分词,当前中文分词器有Ansj、paoding、盘古分词等多种,而最基础的分词器应该属于jieba分词器(比较见下图)。

下面将分别应用R和python对jieba分词器在中文分词、词性标注和关键词提取领域的应用进行比较。

R实现

通过函数worker()来初始化分词引擎,使用segment()进行分词。有四种分词模式:最大概率法(MP)、隐马尔科夫模型(HMM)、混合模型(Mix)及索引模型(query),默认为混合模型。具体可查看help(worker).

#install.packages(‘jiebaR’)library(jiebaR)mixseg – worker()segment( “这是一段测试文本” , mixseg ) #或者用以下操作mixseg[‘这是一段测试文本’]mixseg = “这是一段测试文本”

python实现

python中需安装jieba库,运用jieba.cut实现分词。cut_all参数为分词类型,默认为精确模式。

import jiebaseg_list = jieba.cut(u”这是一段测试文本”,cut_all = False)print(“Full mode: “+ “,”.join(seg_list))  #默认精确模式

无论是R还是python都为utf—8编码。

R实现

可以使用=.tagger 或者tag 来进行分词和词性标注,词性标注使用混合模型模型分词,标注采用和 ictclas 兼容的标记法。

words = “我爱北京天安门”tagger = worker(“tag”) #开启词性标注启发器tagger = words    #    r        v      ns      ns    # “我”    “爱”  “北京” “天安门”

python实现

#词性标注import jieba.posseg as psegwords = pseg.cut(“我爱北京天安门”)for word,flag in words:    print(‘%s, %s’ %(word,flag))

R实现

R关键词提取使用逆向文件频率(IDF)文本语料库,通过worker参数“keywords”开启关键词提取启发器,topn参数为关键词的个数。

keys = worker(“keywords”,topn = 5, idf = IDFPATH)keys = “会议邀请到美国密歇根大学(University of Michigan, Ann Arbor)环境健康科学系副教授奚传武博士作题为“Multibarrier approach for safe drinking waterin the US : Why it failed in Flint”的学术讲座,介绍美国密歇根Flint市饮用水污染事故的发生发展和处置等方面内容。讲座后各相关单位同志与奚传武教授就生活饮用水在线监测系统、美国水污染事件的处置方式、生活饮用水老旧管网改造、如何有效减少消毒副产物以及美国涉水产品和二次供水单位的监管模式等问题进行了探讨和交流。本次交流会是我市生活饮用水卫生管理工作洽商机制运行以来的又一次新尝试,也为我市卫生计生综合监督部门探索生活饮用水卫生安全管理模式及突发水污染事件的应对措施开拓了眼界和思路。”#结果:#        48.8677        23.4784        22.1402        20.326        18.5354 #      “饮用水”        “Flint”        “卫生”      “水污染”        “生活”

python实现

python实现关键词提取可运用TF-IDF方法和TextRank方法。allowPOS参数为限定范围词性类型。

#关键词提取import jieba.analysecontent = u’会议邀请到美国密歇根大学(University of Michigan, Ann Arbor)环境健康科学系副教授奚传武博士作题为“Multibarrier approach for safe drinking waterin the US : Why it failed in Flint”的学术讲座,介绍美国密歇根Flint市饮用水污染事故的发生发展和处置等方面内容。讲座后各相关单位同志与奚传武教授就生活饮用水在线监测系统、美国水污染事件的处置方式、生活饮用水老旧管网改造、如何有效减少消毒副产物以及美国涉水产品和二次供水单位的监管模式等问题进行了探讨和交流。本次交流会是我市生活饮用水卫生管理工作洽商机制运行以来的又一次新尝试,也为我市卫生计生综合监督部门探索生活饮用水卫生安全管理模式及突发水污染事件的应对措施开拓了眼界和思路。’#基于TF-IDFkeywords = jieba.analyse.extract_tags(content,topK = 5,withWeight = True,allowPOS = (‘n’,’nr’,’ns’))for item in keywords:        print item[0],item[1]  #基于TF-IDF结果# 饮用水 0.448327672795# Flint 0.219353532163# 卫生 0.203120821773# 水污染 0.186477211628# 生活 0.170049997544

#基于TextRankkeywords = jieba.analyse.textrank(content,topK = 5,withWeight = True,allowPOS = (‘n’,’nr’,’ns’))for item in keywords:        print item[0],item[1]    #基于TextRank结果:# 饮用水 1.0# 美国 0.570564785973# 奚传武 0.510738424509# 单位 0.472841889334# 讲座 0.443770732053

写在文后

自然语言处理(NLP)在数据分析领域有其特殊的应用,在R中除了jiebaR包,中文分词Rwordseg包也非常常用。一般的文本挖掘步骤包括:文本获取(主要用网络爬取)——文本处理(分词、词性标注、删除停用词等)——文本分析(主题模型、情感分析)——分析可视化(词云、知识图谱等)。本文是自然语言处理的第一篇,后续将分别总结下应用深度学习Word2vec进行词嵌入以及主题模型、情感分析的常用NLP方法。

参考资料

Introduction · jiebaR 中文分词

知乎:【文本分析】利用jiebaR进行中文分词

雪晴数据网:全栈数据工程师养成攻略

搜狗实验室,词性标注应用

【R文本挖掘】中文分词Rwordseg

python中怎么安装jieba库

首先点击桌面左下角的开始图标,然后选择运行。

(推荐教程:Python入门教程)

在弹出的窗口中输入cmd,然后点击确定。

输入:pip install jieba,然后按下回车键会自动开始安装。

安装成功后输入:python -m pip list,然后按下回车键来看下jieba库是否安装成功。

输入:python,按下回车键,进入python解释器。

输入代码:import jieba,导入这个库,如果不报错就时安装成功啦。

包含python之jieba库使用的词条

jieba库怎么安装

演示Python如何安装jieba。

电脑:Windows系统电脑1台

系统:ISO

软件:提前在Windows电脑安装好Python3.6

1、首先打开谷歌浏览器如图示输入地址,打开jieba下载首页。

2、点击”Download files“并点击”jieba-0.42.1.tar.gz “下载。

3、将其解压到指定目录,我这里为了演示方便解压到python的安装目录。

4、找到解压目录里面的setup.py文件,并用鼠标复制目录路径。

5、按下快捷键”Windows + R“调出运行窗口,并输入”CMD“点击”确定“打开dos运行终端界面。

6、依次如图示输入“d:”进入D盘、输入“cd D:\Python36\jieba-0.42.1\jieba-0.42.1”进入setup.py文件所在目录。

7、输入“python setup.py install”命令安装jieba。

8、输入命令”python“打开python运行终端界面。

9、输入命令”import jieba“没有报错,说明jieba安装完成。

10、下面执行一个测试用例,输入如下内容并回车:jieba.lcut(“我爱中国");可以看到jieba已经成功将这句话分词,说明jieba安装成功。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
转载请注明出处: https://daima100.com/23220.html

(0)
上一篇 2023-11-27
下一篇 2023-11-27

相关推荐

  • Python实现打开文件夹的方法

    Python实现打开文件夹的方法在Python程序中,我们可以使用os模块来调用操作系统自带的命令,实现文件夹的打开、删除、添加等操作。其中,打开文件夹是我们最为常见的操作之一。示例代码如下:

    2024-03-23
    77
  • 查看conda安装的包

    查看conda安装的包Conda是一个包管理系统和环境管理系统,可在计算机上管理多个语言的软件包及其依赖项。它旨在与Python语言一起使用,但也可以与R、Ruby、Lua等语言一起使用。本文将详细介绍如何查看conda安装的包,方便读者更好地管理自己的开发环境。

    2024-09-16
    22
  • markdown的python(markdown)

    markdown的python(markdown)Markdown本来就是依托于HTML,没有HTML就没有Markdown,因此正常的操作就是先将Markdown解析为HTML格式文本,再对其进行处理。

    2023-10-28
    139
  • Python的字典类型及其应用

    Python的字典类型及其应用Python字典是一种无序的、可变的数据类型,用于存储键值对(key:value)。字典的处理效率非常高,非常适合用于查找和处理大型数据集合。

    2024-03-06
    78
  • 【从零单排HBase 01】从一无所知到5分钟快速了解HBase「建议收藏」

    【从零单排HBase 01】从一无所知到5分钟快速了解HBase「建议收藏」最近公司正好准备投入HBase,因此做了一些基础学习准备,所以先暂时停止MySQL的更新,把HBase的学习心得跟大家分享一下,接下来一段时间都会发布HBase相关内容。 在学的过程中,发现跟MyS…

    2023-02-04
    143
  • MySQL关于命令的问题、Exists关键字[通俗易懂]

    MySQL关于命令的问题、Exists关键字[通俗易懂]truncate 与 delete 的区别 truncate table :删除内容、不删除定义、释放空间。 delete table : 删除内容、不删除定义、不释放空间。 drop table :

    2023-02-10
    150
  • PostgreSQL源码学习(3)插入数据#1

    PostgreSQL源码学习(3)插入数据#1本节介绍RelationPutHeapTuple函数的代码流程。 相关数据结构 //src/interfaces/ecpg/preproc/type.h /* 值为0时为非法,值为正数时表示共享缓冲…

    2023-02-16
    142
  • Python By Walk:如何让您的代码更易读、更高效?

    Python By Walk:如何让您的代码更易读、更高效?Python语言有着简单易学、可读性强等特点,但是当代码量变大后,代码阅读体验也会变得更为困难。为了让您的Python代码更易读、更高效,接下来我们将从选取变量名、函数的设计、代码注释、代码优化等多个方面详细阐述。

    2024-01-30
    106

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注