您现在的位置是:首页 > 文章详情

NLP自然语言处理中英文分词工具集锦与基本使用介绍

日期:2019-05-30点击:595

一、中文分词工具
(1)Jieba

(2_1
)snowNLP分词工具

_2
3)thulac分词工具

_3
4)pynlpir 分词工具
_4

(5)StanfordCoreNLP分词工具
1.from stanfordcorenlp import StanfordCoreNLP
2.with StanfordCoreNLP(r'E:UsersEternal SunPycharmProjects1venvLibstanford-corenlp-full-2018-10-05', lang='zh') as nlp:

  1. print("stanfordcorenlp分词:n",nlp.word_tokenize(Chinese))
    (6)Hanlp分词工具

_5

分词结果如下:
_6

二、英文分词工具

  1. NLTK:
    _7

二者之间的区别在于,如果先分句再分词,那么将保留句子的独立性,即生成结果是一个二维列表,而对于直接分词来说,生成的是一个直接的一维列表,结果如下:
_8

  1. SpaCy:
    _9
  1. StanfordCoreNLP:
    _10

分词结果

_11

原文链接:https://yq.aliyun.com/articles/704247
关注公众号

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。

持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。

文章评论

共有0条评论来说两句吧...

文章二维码

扫描即可查看该文章

点击排行

推荐阅读

最新文章