【原创】单独部署secondarynamenode
总共分五步:
1.SecondaryNameNode通知NameNode准备提交edits文件,此时主节点产生edits.new
2.SecondaryNameNode通过http get方式获取NameNode的fsimage与edits文件(在SecondaryNameNode的current同级目录下可见到temp.check-point或者previous-checkpoint目录,这些目录中存储着从namenode拷贝来的镜像文件)
3.SecondaryNameNode开始合并获取的上述两个文件,产生一个新的fsimage文件fsimage.ckpt
4.SecondaryNameNode用http post方式发送fsimage.ckpt至NameNode
5.NameNode将fsimage.ckpt与edits.new文件分别重命名为fsimage与edits,然后更新fstime,整个checkpoint过程到此结束。
环境介绍:
192.168.15.72 slave1
192.168.15.71 slave2
192.168.15.132 slave3
下面我将secondarynamenode部署在slave3节点上。
fs.checkpoint.period 默认检查时间是1小时,这里以秒结尾。
3600
fs.checkpoint.size 默认检查块大小是64M。
67108864
fs.checkpoint.dir
/data/work/hdfs/namesecondary
最后的fs.checkpoint.dir这个值是根据你的dfs.name.dir值去参考,我的这个就是如下图所示:
/data/work/hdfs/name
2、修改hdfs-site.xml文件,修改如下内容:
dfs.http.address
0.0.0.0:50070
The address and the base port where the dfs namenode web ui will listen on.
If the port is 0 then the server will start on a free port.
总用量 12
drwxrwxr-x 2 hadoop hadoop 4096 7月 17 13:51 current
drwxrwxr-x 2 hadoop hadoop 4096 7月 11 19:36 image
-rw-rw-r-- 1 hadoop hadoop 0 7月 16 17:28 in_use.lock
drwxrwxr-x 2 hadoop hadoop 4096 7月 17 13:46 previous.checkpoint

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
什么时候才应该使用HBase?
在使用HBase一定要明白HBase的适用场合,因为HBase并非适用于每种情况。 首先,要确认有足够多的数据存入HBase。 如 果有几亿或者几十亿条记录要存入HBase,那么HBase就是一个正确的选择;否则如果你仅有几百万条甚至更少的数据,那么HBase当然不是正确的选 择,这种情况下应当选择传统的关系型数据库,因为如果这么少的数据存入HBase,就会导致数据堆积在一两个节点上,而HBase集群内部的其他节点都处 于空闲状态。 其次,要确认即便不使用传统关系型数据库提供的额外功能(比如数据库的列有强类型限制,secondary index,transaction,SQL等高级查询语言)系统也能顺畅工作。 基于传统关系型数据上的应用不能通过简单的更换JDBC驱动程序”迁移”到HBase。系统从普通的关系型数据库迁移到HBase将导致整个系统的重新设计。 最后,确认有足够的硬件服务器来支撑HBase的运行。 即便单独运行HDFS,HDFS在少于5个节点的情况下工作不理想,由于在默认情况下HDFS的block replication factor为3,另外还要加上一个Namenode。...
- 下一篇
【原创】hive搭建
本章节主要介绍两部分内容: 1、hive搭建元数据存放于本地文件系统。 2、hive搭建元数据存放于第三方开源数据库mysql。 两者的定义大致如下: ingle User Mode:此模式连接到一个In-memory的数据库Derby,一般用于Unit Test。 Multi User Mode:通过网络连接到一个数据库中,是最经常使用到的模式。 区别在于如果你用本地文件系统存放hive元数据的话,那么将不支持多用户并发,简单来讲就是只允许一个用户登录hive查询,另外你再开启一个终端登录hive查询会报错,就如下图所示: hive> show tables;FAILED: Error in metadata: javax.jdo.JDOFatalDataStoreException: Failed to start database 'metastore_db', see the next exception for details.NestedThrowables:java.sql.SQLException: Failed to start database 'metast...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS7,CentOS8安装Elasticsearch6.8.6
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- 2048小游戏-低调大师作品
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- Docker安装Oracle12C,快速搭建Oracle学习环境
- Linux系统CentOS6、CentOS7手动修改IP地址
- CentOS7安装Docker,走上虚拟化容器引擎之路
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- CentOS7设置SWAP分区,小内存服务器的救世主
- CentOS6,7,8上安装Nginx,支持https2.0的开启