ubuntu下使用pycharm调用Hanlp自然语言处理包
首先点击File,选择Settings,在Project 下点击Project Interpreter,并通过点击右边的加号:
搜索JPype,根据python版本选择你需要的JPype版本安装。
之后,在https://github.com/hankcs/HanLP/releases
网站下载hanlp.jar包、模型data包、配置文件hanlp.properties,新建一个文件夹Hanlp,
把hanlp.jar和hanlp.properties放进去:
之后需要再新建一个文件夹hanlp,并将data放进去:
修改Hanlp下的路径为当前data的路径,由于我将data放在/home/javawork/hanlp下,因此:root=/home/javawork/hanlp/
接下来新建一个文件demo_hanlp.py,代码如下:
! /usr/bin/env python2.7
coding=utf-8
from jpype import *
startJVM(getDefaultJVMPath(), "-Djava.class.path=home/javawork/Hanlp/hanlp-1.2.7.jar;home/javawork/Hanlp/", "-Xms1g", "-Xmx1g")
startJVM(getDefaultJVMPath(), "-Djava.class.path=/home/qinghua/javawork/Hanlp/hanlp-1.2.7.jar:/home/qinghua/javawork/Hanlp")
HanLP = JClass('com.hankcs.hanlp.HanLP')
中文分词
print(HanLP.segment('你好,欢迎在Python中调用HanLP的API'))
testCases = [
"商品和服务", "结婚的和尚未结婚的确实在干扰分词啊", "买水果然后来世博园最后去世博会"]
for sentence in testCases: print(HanLP.segment(sentence))
命名实体识别与词性标注
NLPTokenizer = JClass('com.hankcs.hanlp.tokenizer.NLPTokenizer')
print(NLPTokenizer.segment('中国科学院计算技术研究所的宗成庆教授正在教授自然语言处理课程'))
关键词提取
document = "水利部水资源司司长陈明忠9月29日在国务院新闻办举行的新闻发布会上透露," \
"根据刚刚完成了水资源管理制度的考核,有部分省接近了红线的指标," \ "有部分省超过红线的指标。对一些超过红线的地方,陈明忠表示,对一些取用水项目进行区域的限批," \ "严格地进行水资源论证和取水许可的批准。"
print(HanLP.extractKeyword(document, 2))
自动摘要
print(HanLP.extractSummary(document, 3))
依存句法分析
print(HanLP.parseDependency("徐先生还具体帮助他确定了把画雄鹰、松鼠和麻雀作为主攻目标。"))
shutdownJVM()
需要注意的是ubuntu的路径分割符为”:”,而window 为” ; ”
另附hanlp调用常见问题集:
https://github.com/hankcs/HanLP/issues?page=3&q=is%3Aissue+is%3Aopen
文章来源于erfect00的博客
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
中文分词利器 jieba 和 HanLP
从本文开始,我们进入实战部分。首先,我们按照中文自然语言处理流程的第一步获取语料,然后重点进行中文分词的学习。中文分词有很多种,常见的比如有中科院计算所 NLPIR、哈工大 LTP、清华大学 THULAC 、斯坦福分词器、Hanlp 分词器、jieba 分词、IKAnalyzer 等。这里针对 jieba 和 HanLP 分别介绍不同场景下的中文分词应用。 jieba 分词jieba 安装(1)Python 2.x 下 jieba 的三种安装方式,如下: 全自动安装:执行命令 easy_install jieba 或者 pip install jieba / pip3 install jieba,可实现全自动安装。 半自动安装:先下载 jieba,解压后运行 python setup.py install。 手动安装:将 jieba 目录放置于当前目录或者 site-packages 目录。 安装完通过 import jieba 验证安装成功与否。 (2)Python 3.x 下的安装方式。 Github 上 jieba 的 Python3.x 版本的路径是:https://githu...
- 下一篇
汉语言处理包 HanLP v1.6.0 发布,感知机词法分析器
HanLP 是由一系列模型与算法组成的 Java 工具包,目标是普及自然语言处理在生产环境中的应用。HanLP 具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点。 在提供丰富功能的同时,HanLP 内部模块坚持低耦合、模型坚持惰性加载、服务坚持静态提供、词典坚持明文发布,使用非常方便,同时自带一些语料处理工具,帮助用户训练自己的模型。 HanLP v1.6.0 更新内容: 《基于感知机的中文分词、词性标注与命名实体识别框架》 《动态双数组trie树》 新数据包 data-for-1.6.0.zip md5=38d19afa881ddb00b213f4680259ce68获取最新版的数据包,请fork一份并git clone https://github.com/YourName/HanLP.git。 Portable 版同步升级到 v1.6.0 <dependency> <groupId>com.hankcs</groupId> <artifactId>hanlp</artifactId> <version&g...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果
- CentOS7安装Docker,走上虚拟化容器引擎之路
- CentOS8编译安装MySQL8.0.19
- Docker安装Oracle12C,快速搭建Oracle学习环境
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- CentOS关闭SELinux安全模块
- CentOS7设置SWAP分区,小内存服务器的救世主
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题