[python]分词工具jieba

jieba 简介

基于前缀词典进行词图扫描,构成全部可能分词结果的有向无环图,动态规划查找最大概率路径

支持三种分词模式

  • 精确模式:试图将句子最精确地切开,适合文本分析
  • 全模式:把句子中所有的可以成词的词语都扫描出来,速度非常快,但不能解决歧义
    -搜索引擎模式:在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词

支持繁体分词

支持自定义字典

MIT授权协议

MIT 协议可能是几大开源协议中最宽松的一个,核心条款是:
该软件及其相关文档对所有人免费,可以任意处置,包括使用,复制,修改,合并,发表,分发,再授权,或者销售。唯一的限制是,软件中必须包含上述版 权和许可提示。

算法

  • 基于前缀词典实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图(DAG)
  • 采用了动态规划查找最大概率路径,找出基于词频的最大切分组合
  • 对于未登录词,采用了基于汉字成词能力的HMM模型,使用了Viterbi算法

主要方法

  • jieba.cut

    cut方法参数描述:

    • string : 需要分词的字符串
    • cut_all: 是否采用全模式,默认为精确模式
    • HMM:是否使用HMM模型
  • jieba.cut_for_search

    该方法适用于搜索引擎构建倒排索引分词,粒度较细。

    • string : 需要分词的字符串
    • HMM: 是否使用HMM模型
  • jieba.lcut以及jieba.lcut_for_search 直接返回list
  • jieba.Tokenizer(dictionary=DEFAULT_DICT)

    新建自定义分词器,可用于同时使用不同词典。jieba.dt为默认分词器,所以全局分词相关函数都是该分词器的映射。

  • jieba.load_userdict(file_name)

    指定自定义词典,以便包含jieba词库里没有的词。自行添加新词可以保证更高的正确率。

    • 词典格式:[词语,词频(可省略),词性(可省略)],用空格隔开,顺序不可颠倒,文件编码必须为UTF-8
    • 词频自动省略时使用自动计算的能保证分出该词的词频
  • jieba.analyse.set_stop_words(file_name)

    指定停用词文件

    扫描二维码关注公众号,回复: 5194540 查看本文章

关键词提取

基于TF-IDF算法的关键词抽取

  • jieba.analyse.extrac_tags(sentence.topK=20,withWeight=False,allowPOS=())

    参数详解

    • sentence:提取文本
    • topK: 返回TF/IDF权重最大的关键词个数,默认值为20
    • withWeight: 是否一并返回关键词权重值,默认值为False
    • allowPOS: 仅包括指定词性的词,默认为空,既不筛选。

基于TextRank算法的关键词提取

  • jieba.analyse.textrank(sentence, topK=20, withWeight=False, allowPOS=('ns', 'n', 'vn', 'v'))

    直接使用,接口相同,注意默认过滤词性。
    基本思想:

    • 将待抽取关键词的文本进行分词
    • 以固定窗口大小(默认为5,通过span属性调整),词之间的共现关系,构建图
    • 计算图中节点的PageRank,注意是无向带权图

词性标注

jieba.posseg.POSTokenizer(tokenizer=None)

新建自定义分词器,tokenizer 参数可指定内部使用的 jieba.Tokenizer 分词器。

  • jieba.posseg.dt 为默认词性标注分词器。
  • 标注句子分词后每个词的词性,采用和 ictclas 兼容的标记法。

参考内容 :jieba分词文档

猜你喜欢

转载自blog.csdn.net/weixin_34311757/article/details/87017692