CentOS7部署Hadoop2.7.5全分布式群集
思路
- 安装虚拟机
- 安装JDK
- 克隆
- 安装HADOOP
- 配置ssh
- 搭建hadoop集群
- 配置hadoop-env.sh
- 配置hadoop-core-site.xm
- 配置hadoop-hdfs-site.xm
- 配置hadoop-mapred-site.xml
- 配置hadoop-yarm-site.xml
- 配置slave
- 发送hadoop文件到所有机子上
- 测试
安装虚拟机
VMware Workstation 12.5.7 PRO 安装 CentOS7
安装JDK
克隆
我是直接克隆虚拟机,要是有服务器或者自安装也可以。
点击完整克隆
安装HADOOP
配置HADOOP
修改UUID
vim /etc/sysconfig/network-scripts/ifcfg-ens33
因为克隆过来的UUID是相同的,可以删除重新生成,也可以修改其中一个数就可以了,里面的数值是16进制的,在这范围内就可以。
修改计算机名
hostnamectl –static set-hostname hadoop01
修改映射
vim /etc/hosts
192.168.164.137 hadoop01 www.hadoop01.com 192.168.164.136 hadoop02 www.hadoop02.com 192.168.164.138 hadoop03 www.hadoop03.com
- 1
- 2
- 3
CentOS7克隆之后IP地址是自动分配的,所以不需要自己设置
查询本机IP
ifconfig
检验是能联通,在win的cmd ping一下
改名之后可以通过名字来在虚拟机之间通讯
配置SSH
cd /root/.ssh
ssh-keygen -t rsa
ssh-copy-id hadoop01
ssh-copy-id hadoop02
ssh-copy-id hadoop03
# hadoop01,hadoop02,hadoop03是我的主机名,主机名自己设置的
搭建全分布环境
规划
主机名称 | IP地址 | 功能 |
---|---|---|
hadoop01 | 192.168.164.137 | NameNode,DataNode,ResourceManager,NodeManager |
hadoop02 | 192.168.164.136 | DataNode,NodeManager |
hadoop03 | 192.168.164.138 | DataNode,NodeManager |
所有机子都需要配置 |
---|
1.JDK 2.SSH免登陆 3.Hadoop集群 |
配置hadoop-env.sh
vim /usr/local/hadoop-2.7.5/etc/hadoop/hadoop-env.sh
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.161-0.b14.el7_4.x86_64 export HADOOP_CONF_DIR=/usr/local/hadoop-2.7.5/etc/hadoop/
- 1
- 2
- 3
配置core-site.xml
vim /usr/local/Hadoop-2.7.5/etc/Hadoop/core-site.xml
<configuration> <!-- configuration hdfs file system namespace --> <property> <name>fs.defaultFS</name> <value>hdfs://hadoop01:9000</value> </property> <!-- configuration hdfs cache size of the operation --> <property> <name>io.file.buffer.size</name> <value>4096</value> </property> <!-- configuration hdfs Temporary data storage directory --> <property> <name>hadoop.tmp.dir</name> <value>/home/mshing/bigdata/tmp</value> </property> </configuration>
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
配置hdfs-site.xml
vim /usr/local/hadoop-2.7.5/etc/hadoop/hdfs-site.xml
<configuration> <property> <name>dfs.namenode.name.dir</name> <value>/home/hadoop/hadoopdata/dfs/name</value> </property> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/home/hadoop/hadoopdata/dfs/data</value> </property> <property> <name>dfs.chechpoint.dir</name> <value>/home/hadoop/hadoopdata/checkpoint/dfs/cname</value> </property> <property> <name>dfs.http.address</name> <value>hadoop01:50070</value> </property> <property> <name>dfs.secondary.http.address</name> <value>hadoop01:50090</value> </property> <property> <name>dfs.webhdfs.enabled</name> <value>false</value> </property> <property> <name>dfs.permissions</name> <value>false</value> </property> </configuration>
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
- 38
- 39
- 40
- 41
- 42
- 43
- 44
配置mapred-site.xml
cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml
vim etc/hadoop/mapred-site.xml
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> <final>true</final> </property> <property> <name>mapreduce.jobhistory.address</name> <value>hadoop01:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>hadoop01:19888</value> </property> </configuration>
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
配置yarn-site.xml
vim etc/hadoop/yarn-site.xml
<configuration> <!-- Site specific YARN configuration properties --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>hadoop01:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>hadoop01:8030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>hadoop01:8031</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>hadoop01:8033</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>hadoop01:8088</value> </property> </configuration>
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
配置slaves
vim etc/hadoop/slaves
远程分发到服务器上
scp -r /usr/local/hadoop-2.7.5/ hadoop02:/usr/local/
scp -r /usr/local/hadoop-2.7.5/ hadoop03:/usr/local/
启动之前需要格式化
启动之前,在namenode服务器上先格式化,只需格式化一次就好了
hadoop namenode -format
测试
启动namenode,datanode,ResourceManager,NodeManager节点
全启动:
start-all.sh
模块启动:
start -dfs.sh
start -yarn.sh
单个进程启动/停止:
hadoop-damon.sh start/stop namenode
hadoop-damons.sh start/stop datanode
yarn-damon.sh start/stop namenode
yarn-damons.sh start/stop namenode
mr-jobhistory-daemon.sh start/stop historyserver
验证
在三台机子分别输入
jsp
就可以看到启动的进程了

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
hive在E-MapReduce集群的实践(一)hive异常排查入门
hive是hadoop集群最常用的数据分析工具,只要运行sql就可以分析海量数据。初学者在使用hive时,经常会遇到各种问题,不知道该怎么解决。 本文是hive实践系列的第一篇,以E-MapReduce集群环境为例,介绍常见的hive执行异常,定位和解决方法,以及hive日志查看方法。 除作者本人的知乎专栏外,其他转载需要先联系我。 一.常见异常表现 主要是执行hive sql时卡住,提示异常信息。 如执行sql时直接提示异常信息,执行sql时卡住,显示mapreduce进度一直0%,mapreduce进度长时间不变化,执行一半提示异常退出,等等。 二.异常定位和解决 2.1.执行sql直接提示异常信息 一般是语法问题,资源问题或hive服务异常。 2.1.1 语法解析错误 sql写的有问题。如ParseException hive> sho
- 下一篇
4月12日云栖精选夜读:阿里云黄海宇:窄带高清2.0——让直播更惊艳的魔术
2018年4月11-12日,2018亚太CDN峰会在北京隆重召开,大会由亚太CDN领袖论坛、电视云论坛、短视频论坛、视频云论坛、新技术论坛、运营商论坛、国际云论坛等7大部分组成。在视频云论坛上,阿里云视频云高级算法专家黄海宇作了题为《窄带高清2.0——让直播更惊艳的魔术》的主题致辞。 热点热议 阿里云黄海宇:窄带高清2.0——让直播更惊艳的魔术 作者:樰篱 ECS主动运维2.0,体验升级,事半功倍 作者:践远 hive在E-MapReduce集群的实践(一)hive异常排查入门 作者:鸿初 知识整理 阿里云朱照远:AI打开新视界 8K时代已来! 作者:樰篱 2018亚太CDN峰会开幕,阿里云王海华解读云+端+AI的短视频最佳实践 作者:樰篱 浅谈人工智能芯片(一)-- 深度神经网络和NVidia GPU的崛起 作者:昀龙 MySQL 大表优化方案,收藏了细看! 作者:冠豸山上人 PouchContainer 发布 0.3.0 版本,支持 Kubernetes 拥抱 CNCF 生态 作者:allencloud 美文回顾 SpringBoot开发案例之整合Quartz注入Service 作...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果
- SpringBoot2全家桶,快速入门学习开发网站教程
- Jdk安装(Linux,MacOS,Windows),包含三大操作系统的最全安装
- MySQL8.0.19开启GTID主从同步CentOS8
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- CentOS8编译安装MySQL8.0.19
- SpringBoot2初体验,简单认识spring boot2并且搭建基础工程
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- Linux系统CentOS6、CentOS7手动修改IP地址