Docker安装ElasticSearch和Elasticsearch-Head以及IK分词器
ElasticSearch 是一个分布式、高扩展、高实时的搜索引擎。它能很方便的使大量数据具有搜索、分析和探索的能力。充分利用ElasticSearch的水平伸缩性,能使数据在生产环境变得更有价值。ElasticSearch 的实现原理主要分为以下几个步骤,首先用户将数据提交到Elastic Search 数据库中,再通过分词控制器去将对应的语句分词,将其权重和分词结果一并存入数据,当用户搜索数据时候,再根据权重将结果排名,打分,再将返回结果呈现给用户,本文介绍如果通过Docker进行安装Elasticsearch单节点和集群
一、安装单节点Elasticsearch
1、拉取Elasticsearch
docker pull elasticsearch:6.8.7
2、创建数据卷
主要用于将容器内的数据和宿主机进行挂载,避免容器重启和挂掉的时候数据丢失
- 创建目录
# -p是创建多级目录 mkdir -p /data/es
- 进入刚刚创建的es目录,创建数据存放目录和日志存放目录
# 进入目录 cd /data/es # 创建数据目录和日志目录 mkdir data log # 这两个目录的用户权限要与启动es的用户相同,否则会出现没有权限读取,这里为了方便直接给开放最大权限 chmod 777 data log
- 创建配置文件
vim es.yml
- 文件中加入以下内容
cluster.name: elasticsearch-cluster node.name: es-node http.port: 9200 network.host: 0.0.0.0 http.cors.enabled: true http.cors.allow-origin: "*"
3、启动
docker run -d --name es -p 9200:9200 -p 9300:9300 --restart always -v /data/es/data/:/usr/share/elasticsearch/data -v /data/es/log/:/usr/share/elasticsearch/logs -v /data/es/es.yml:/usr/share/elasticsearch/config/elasticsearch.yml -e "discovery.type=single-node" elasticsearch:6.8.7
- 最后通过浏览器测试是否启动成功
4、安装IK分词器
Elasticsearch分词器,对中文分词不是太友好。这里我们可以下载开源的IK
分词器
- 进入es容器
docker exec -it es bash
- 进入plugin目录并安装分词器
# 进入目录 cd plugins/ # 安装分词器 wget https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v6.8.7/elasticsearch-analysis-ik-6.8.7.zip
5、安装Elasticsearch-Head
提供了操作Elasticsearch的界面
- 拉取镜像
docker pull mobz/elasticsearch-head:5
- 运行
docker run -d -p --name eshead 9100:9100 docker.io/mobz/elasticsearch-head:5
最后通过浏览器打开,并进行连接测试是否连接成功,这时候对ES集群进行操作时会出现406
异常,需要我们去配置下
# 进入head容器 docker exec -it eshead bash # 编辑配置文件,如果没有vim命令自行安装vim vim _site/vendor.js # 在未编辑的模式下使用以下命令查询 /contentType 输入i开启编辑模式,application/x-www-form-urlencoded 改为 application/json;charset=UTF-8 # 按键盘的ESC健退出编辑模式,然后查询下一个 /var inspectData = s.contentType 输入i开启编辑模式,将application/x-www-form-urlencoded 改为 application/json;charset=UTF-8 # 输入wq保存并退出,最后退出容器并重启容器 exit docker restart eshead
到此就安装好单节点的Elasticsearch啦,但是有个地方要注意,ES的版本号一定要和分词器的版本对应
二、安装集群版的Elasticsearch
这里只介绍如何安装集群,不再介绍安装分词器等。。
1、创建配置文件
这里还是延续安装单节点,在/data/es
目录中创建,如果服务器没有该目录就自行创建
vim es.yml
加入以下内容
cluster.name: elasticsearch-cluster node.name: es-node1 network.host: 0.0.0.0 network.publish_host: 192.168.1.97 http.port: 9200 transport.tcp.port: 9300 http.cors.enabled: true http.cors.allow-origin: "*" node.master: true node.data: true discovery.zen.ping.unicast.hosts: ["192.168.1.97:9300","192.168.1.98:9300"] discovery.zen.minimum_master_nodes: 2
- 在第二台服务器也创建该配置文件并加入以下内容
cluster.name: elasticsearch-cluster node.name: es-node2 network.host: 0.0.0.0 network.publish_host: 192.168.1.98 http.port: 9200 transport.tcp.port: 9300 http.cors.enabled: true http.cors.allow-origin: "*" node.master: true node.data: true discovery.zen.ping.unicast.hosts: ["192.168.1.98:9300","192.168.1.97:9300"] discovery.zen.minimum_master_nodes: 2
以下为配置的描述
配置 | 描述 |
---|---|
cluster.name | 用于唯一标识一个集群,不同的集群,其 cluster.name 不同,集群名字相同的所有节点自动组成一个集群 |
node.name | 节点名,默认随机指定一个name列表中名字。一个集群中node名字不能重复 |
network.host | 允许访问的IP,默认为0.0.0.0 |
network.publish_host | 设置其它结点和该结点交互的ip地址,如果不设置它会自动判断,值必须是个真实的ip地址 |
http.port | 设置对外服务的http端口,默认为9200 |
transport.tcp.port | 设置节点之间交互的tcp端口,默认是9300 |
http.cors.enabled | 是否允许跨域 |
http.cors.allow-origin | 允许的域名,* 表示所有 |
node.master | 该结点是否有资格被选举为主结点(候选主结点),用于处理请求和管理集群。如果结点没有资格成为主结点,那么该结点永远不可能成为主结点;如果结点有资格成为主结点,只有在被其他候选主结点认可和被选举为主结点之后,才真正成为主结点 |
node.data | 配置该结点是数据结点,用于保存数据,执行数据相关的操作 |
discovery.zen.ping.unicast.hosts | 集群中节点的IP地址 |
discovery.zen.minimum_master_nodes | 自动发现master节点的最小数,如果这个集群中配置进来的master节点少于这个数目,es的日志会一直报master节点数目不足,甚至会出现主备切换时误认为有两个激活的master节点。最好为主节点总数 / 2 + 1 ,默认1 |
2、运行
分别运行两台服务器中的Elasticsearch,这里不在介绍拉取镜像
docker run -d --name es -p 9200:9200 -p 9300:9300 --restart always -v /data/es/data/:/usr/share/elasticsearch/data -v /data/es/log/:/usr/share/elasticsearch/logs -v /data/es/es.yml:/usr/share/elasticsearch/config/elasticsearch.yml elasticsearch:6.8.7
这里的命令比安装单节点少了个环境变量-e "discovery.type=single-node "
,运行成功后通过head去测试下连接,如果都连接成功的话就算是成功啦,如果失败,就自己去看看哪里配置错了哦
本文到此就结束咯,有任何疑问欢迎在评论区发表
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
阿里云新品发布会周刊第51期 丨 怎样用CDN防篡改、抗攻击、控内容?一份CDN安全指南请查收
点击订阅新品发布会 新产品、新版本、新技术、新功能、价格调整,评论在下方,下期更新!关注更多新品发布会! 热门阅读 1、怎样用CDN防篡改、抗攻击、控内容?一份CDN安全指南请查收 CDN是业界公认的加速网站访问效率、提升用户体验的内容分发加速产品,也是互联网重要基础设施之一。阿里云CDN除了传统缓存、优化保障访问质量外,也天然具备边缘安全的优势。在安全问题更严峻、更频发、更复杂的互联网态势之下,加持安全防护的能力已经逐渐成为新一代CDN的标配。 查看原文 2、五项措施,让阿里云存储更安全 数字经济时代,数据正在成为重要的资源,甚至是资产,而云则是存储、管理、利用、保护这些资产的重要基础设施。如何保障数据的安全性,进而保障业务的连续性成为云所要解决的关键问题之一。 查看原文 3、阿里云:助力数字经济新基建,打造物联网安全基石 近日,中央政治局常委会会议提出,加快发展5G、数据中心、人工智能、物联网等新型基础设施建设进度。北京、上海、江苏等8个省份公布了近34万亿的投资额。国家的高度重视与重点扶持成为经济转型升级与未来经济增长的核心推进器。 查看原文 4、阿里云:构建全球企业内外安全网络...
- 下一篇
【从入门到放弃-Kubernetes】Kubernetes入门-部署MySQL
前言 上文【从入门到放弃-Kubernetes】Kubernetes入门-有状态应用扩缩容中,介绍了如何部署有状态应用。有状态应用中,MySQL是我们最常见也是最常用的。本文我们就实战部署一个一组多从的MySQL集群。 配置准备 configMap #application/mysql/mysql-configmap.yaml apiVersion: v1 kind: ConfigMap metadata: name: mysql labels: app: mysql data: master.cnf: | # Apply this config only on the master. [mysqld] log-bin slave.cnf: | # Apply this config only on slaves. [mysqld] super-read-only configMap可以将配置文件和镜像解耦开。上面的配置意思是,创建一个master.cnf文件配置内容为:log-bin,即开启bin-log日志,供主节点使用。创建一个slave.cnf文件配置内容为:super-rea...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Docker安装Oracle12C,快速搭建Oracle学习环境
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- Hadoop3单机部署,实现最简伪集群
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题
- CentOS8编译安装MySQL8.0.19
- SpringBoot2整合Redis,开启缓存,提高访问速度
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- SpringBoot2全家桶,快速入门学习开发网站教程
- Windows10,CentOS7,CentOS8安装Nodejs环境
- CentOS7,CentOS8安装Elasticsearch6.8.6