mongo-connector导入数据到Elasticsearch
当前测试环境下Elasticsearch版本为2.3。不同版本的mongo-connector、elastic-doc-manager/elastic2-doc-manager所支持的Elasticsearch版本不同,安装时注意版本的选择。
安装mongo-connector
测试机上Python的默认版本为2.6,由于我采用anonacoda作为Python开发环境,Python默认版本2.7。故使用pip2.7而不是pip命令。
# 安装mongo-connector(当前版本为2.3) ./CONDA-HOME/bin/pip2.7 install mongo-connector # elastic2-doc-manager (当前版本为0.1.0) ./CONDA-HOME/bin/pip2.7 install elastic2-doc-manager
- 1
- 2
- 3
- 4
- 5
- 6
- 1
- 2
- 3
- 4
- 5
- 6
导入mongodb中的数据到Elasticsearch集群
在安装了monog-connector的机子的命令行中执行下面的命令(该命令为测试时的真实命令)。
mongo-connector --auto-commit-interval=0 -m ip_addr1:27018 -t ip_addr2:9200 -d elastic2_doc_manager -n db.collection
- 1
- 1
mongo-connector命令主要参数解析:
-m mongodb_host:port —— 数据源地址,mongodb数据库地址。 -t target_host:port —— 数据目的地地址,elasticsearch/solr/mongodb集群地址。建议为集群中的协调节点的地址。 -d xxx_doc_manager —— 数据目的地的document类型。例如: 将mongodb中的数据同步到elasticsearch,使用elastic_doc_manager或elastic2_doc_manager。 将mongodb中的数据同步到solr,使用solr_doc_manager。 将mongodb中数据同步到其他mongodb,使用mongo_doc_manager。 -n db.collection ... —— 待同步的数据库及其collection。默认同步所有数据库。 -i filed_name ... —— 待同步的字段。默认同步所有字段。 -o mongodb_oplog_position.oplog —— mongo-connector的oplog。默认在mongo-connector命令执行目录下创建oplog.timestamp文件。 建议重新分配存储位置(也可重新分配存储文件名),例如 /opt/mongo-connector.oplog。 --auto-commit-interval —— 数据同步间隔。默认在不同系统上有不同的值。设置为0表示mongodb中的任何操作立即同步到数据目的地。 --continue-on-error —— 一条数据同步失败,日志记录该失败操作,继续后续同步操作。默认为中止后续同步操作。 其他参数包括设置日志输出行为(时间、间隔、路径等)、设置mongodb登录账户和密码、设置(数据目的地)Http连接的证书等、设置mongo-connector的配置文件
。
使用mongo-connector同步数据注意事项
1. mongodb必须开启副本集(Replica Set)。开启副本集才会产生oplog,副本拷贝主分片的oplog并通过oplog与主分片进行同步。 mongo-connector也是通过oplog进行数据同步,故必须开启副本集。 2. 使用mongo-connector命令同步数据时,-m参数中的mongodb地址应该是主/从分片的地址, 从该地址登录可以看见并操作local数据库(oplog存储在local.oplog.rs);不能使用mongoos地址。 3. 使用mongo-connector命令同步数据时 ,mongo-connector的oplog(参照-o参数)不能随便删除, 否则会引起重新同步所有数据的问题。该问题可以通过--no-dump选项关闭。 4. 生产环境下建议将mongo-connector配置为系统服务,运行mongo-connector时采用配置文件的方式。
踩过的坑
1. 数据库A中有多个集合(A1, A2, A3),且已开启了副本集(Replica Set),但是集合A1可以同步,集合A2不能同步. 原因:oplog中有A1的操作记录,没有A2的操作记录。 结论:开启副本集(Replica Set)并不能保证一定能同步,oplog中必须包含待同步集合的操作记录,才能通过mongo-connector同步到Elasticsearch集群。 2. mongodb3.x版本加强了安全机制,导致了在只拥有某个库的权限时不能同步数据的问题。 原因:拥有某个库的权限,并不能拥有oplog的读取权限,而mongo-connector需要读取oplog的权限。 结论:同步数据至少需要能够读取oplog的权限,确保当前mongodb用户的权限能够操作oplog,或者直接使用mongodb的管理员权限。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
[ElasticSearch]嵌套对象之嵌套类型
nested类型是一种特殊的对象object数据类型(specialised version of the object datatype ),允许对象数组彼此独立地进行索引和查询。 1. 对象数组如何扁平化 内部对象object字段的数组不能像我们所期望的那样工作。 Lucene没有内部对象的概念,所以Elasticsearch将对象层次结构扁平化为一个字段名称和值的简单列表。 例如,以下文件: curl -XPUT 'localhost:9200/my_index/my_type/1?pretty' -H 'Content-Type: application/json' -d' { "group" : "fans", "user" : [ { "first" : "John", "last" : "Smith" }, { "first" : "Alice", "last" : "White" } ] } ' 说明 user字段被动态的添加为object类型的字段。 在内部其转换成一个看起来像下面这样的文档: { "group" : "fans", "user.first" : [ ...
- 下一篇
几十条业务线日志系统如何收集处理?
在互联网迅猛发展的今天 各大厂发挥十八般武艺的收集用户的各种信息,甚至包括点击的位置,我们也经常发现自己刚搜完一个东西,再打开网页时每个小广告都会出现与之相关联的商品或信息,在感叹智能的同时不惊想 什么时候泄露的行踪。 许多公司的业务平台每天都会产生大量的日志数据。收集业务日志数据,供离线和在线的分析系统使用,正是日志收集系统的要做的事情。 用户的数据除了这种后台默默的收集外,还有各种运行的日志数据和后台操作日志,因此每个业务可以算是一种类型的日志,那稍大点的公司就会有几十种日志类型要收集,而且业务都分布到不同的服务器上,这就导致了日志的汇集的困难, 在此可以用Flume来解决此类问题,参考以下架构。 Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,目前已经是Apache的一个子项目。 Flume作为一个日志收集工具,非常轻量级,基于一个个Flume Agent,能够构建一个很复杂很强大的日志收集系统,它的灵活性和优势,高可用性,高可靠性和可扩展性是日志收集系统所具有的基本特征。主要体现在如下几点: 模块化设计:在其Flume Agen...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Hadoop3单机部署,实现最简伪集群
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- Windows10,CentOS7,CentOS8安装MongoDB4.0.16
- CentOS6,CentOS7官方镜像安装Oracle11G
- CentOS8安装MyCat,轻松搞定数据库的读写分离、垂直分库、水平分库
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- SpringBoot2整合Thymeleaf,官方推荐html解决方案
- SpringBoot2更换Tomcat为Jetty,小型站点的福音
- MySQL8.0.19开启GTID主从同步CentOS8