外网访问内网Elasticsearch WEB
外网访问内网Elasticsearch WEB
本地安装了Elasticsearch,只能在局域网内访问其WEB,怎样从外网也能访问本地Elasticsearch?
本文将介绍具体的实现步骤。
1. 准备工作
1.1 安装Java 1.7及以上版本
执行命令java -version检查Java安装和配置是否正确。
1.2 安装并启动Elasticsearch
默认安装的Elasticsearch WEB端口是9200。
2. 实现步骤
2.1 下载并解压holer软件包
Holer软件包:holer-client.zip
2.2 修改holer配置文件
在holer官网上申请专属的holer access key或者使用开源社区上公开的access key信息。
例如申请得到的holer信息如下,这里以此holer信息为例:
---------------------------------------------
Holer Client : holerdemo@gmail.com
Access Key : 6688daebe02846t88s166733595eee5d
---------------------------------------------
Domain Name : holer65004.wdom.net
Internet Address : holer.org:65004
Local Address : 127.0.0.1:9200
---------------------------------------------
修改配置文件: holer-client/conf/holer.conf
配置项更新为: HOLER_ACCESS_KEY=6688daebe02846t88s166733595eee5d
2.3 启动holer服务
进入目录: holer-client/bin
Windows系统平台:
双击startup.bat或者打开CMD控制台,进入目录下执行命令:startup.bat
Linux系统平台:
执行命令: sh startup.sh
2.4 访问映射后的公网地址
浏览器里输入如下URL,就可从外网也能访问本地Elasticsearch WEB了。
http://holer65004.wdom.net或者http://holer.org:65004
2.5 问题咨询与帮助
使用holer过程中遇到问题可以先查看holer日志文件,日志路径:holer-client/logs,这样很容易排查出问题的具体原因。
如果需要帮助请联系holer技术支持人员,联系方式详见holer官网。
更多的holer使用示例,请参考holer官方博客。
关注公众号
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
-
上一篇
0004-Hive表字段Comment中文乱码
温馨提示:要看高清无码套图,请使用手机打开并单击图片放大查看。 1.问题描述 默认Hive中创建有中文注释的表时,无论是在Hive CLI还是Hue中该注释显示都会是乱码。如使用以下建表语句: create external table test_table ( s1 string comment 'abc', s2 string comment '你好啊' ) row format delimited fields terminated by '#' stored as textfile location '/lilei/test_table'; 在Hive CLI中查看如下: Hue中显示一样,这里省略。 2.解决办法 这个问题是因为mysql中的元数据库表COLUMNS_V2中的字段COMMENT编码问题导致的,需要设置为utf-8,如下所示: 在mysql中设置该字段的编码为utf-8,如下所示: mysql –u root –puse metastore;alter table COLUMNS\_V2 modify column COMMENT varchar(256) ch...
-
下一篇
初学Spark
什么是Spark? Spark是一个分布式计算引擎,2009年诞生于UC伯克利的AMPLab,2010年开源并于2013年成为Apache顶级项目。 名称 地址 官方网站 https://spark.apache.org/ git地址 https://github.com/apache/spark Spark具有如下特点: 1.快速 DAG框架 Spark采用的是DAG框架,DAG是在MapReduce框架基础上演化而来。 对于一些复杂的数据处理,比如有多个Reduce Stage,MapReduce框架中一个Reduce前面必须要有一个Map(Map-Reduce-Map-Reduce...),不能多个Reduce级联处理,这样会导致处理过程中会增加很多冗余的Map阶段,即使Map不做任何数据处理(读取HDFS数据直接输出),但是这个过程耗费了很
相关文章
文章评论
共有0条评论来说两句吧...

微信收款码
支付宝收款码