centos 6.6 hadoop 2.7.1 完全分布式安装部署
1.安装前,准备三台CENTOS 6.6系统的主机或虚机,并且关闭防火墙及selinux.
2.按如下表格配置IP地址,修改hosts文件及本机名
192.168.199.21 hadoop21 Master
102.168.199.22 hadoop22 Slave1
192.168.199.23 hadoop23 Slave2
同理修改Slave1,Slave2的IP地址,hosts文件及本机名。
3.安装ORACLE JDK
先卸载本机openJDK,使用rpm -qa|grep java查看,然后用rpm -e 卸载
从oracle网站找到最新JDK,我这选择了JDK8
http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
下载好以后解压,并移至/usr/java,如果没有可以mkdir 建立。
tar -xzvf jdk-8u51-linux-x64.gz
mv jdk1.8.0_51 /usr/java
vi /etc/profile
export JAVA_HOME=/usr/java/jdk1.8.0_51
export CLASSPATH=.:$JAVA_HOME/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin
source /etc/profile
4.在各节点分别建立Hadoop运行帐号grid,并设置密码
5.配置SSH免密码登陆。
在各节点分别以grid用户名生成两个密钥文件,一个是私钥id_rsa,另一个是公钥id_rsa.pub
ssh-keygen -t rsa -f ~/.ssh/id_rsa
然后在hadoop21上
cp /home/grid/.ssh/id_rsa.pub /home/grid/.ssh/authorized_keys
scp hadoop22:/home/grid/.ssh/id_rsa.pub pubkeys22
scp hadoop23:/home/grid/.ssh/id_rsa.pub pubkeys23
cat pubkeys22 >> /home/grid/.ssh/authorized_keys
cat pubkeys23 >> /home/grid/.ssh/authorized_keys
rm pubkeys22
rm pubkeys23
最后分发authorized_keys 到各节点
scp /home/grid/.ssh/authorized_keys hadoop22:/home/grid/.ssh
scp /home/grid/.ssh/authorized_keys hadoop23:/home/grid/.ssh
6.在Master机下载并解压Hadoop2.7.1(使用grid用户名)
找到最近的hadoop镜像,使用wget下载2.7.1
wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.7.1/hadoop-2.7.1.tar.gz
解压hadoop-2.7.1.tar.gz
tar -xzvf hadoop-2.7.1.tar.gz
cd hadoop-2.7.1
建立tmp,dfs,dfs/data,dfs/name
7.修改配置文件
修改hadoop-env.sh
export JAVA_HOME=/usr/java/jdk1.8.0_51
8. 分发至各Salve节点
scp -r /home/grid/hadoop-2.7.1 hadoop22:/home/grid
scp -r /home/grid/hadoop-2.7.1 hadoop23:/home/grid
9.Master机格式化namenode
cd /home/grid/hadoop-2.7.1
./bin/hdfs namenode -format
10.启动Hadoop
11.验证是否成功
Master机应该启动NameNode,SecondaryNameNode,ResourceManager
Slave机应该启动DataNode,NodeManager
本文转自yzy121403725 51CTO博客,原文链接:http://blog.51cto.com/lookingdream/1835082,如需转载请自行联系原作者

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
kafka详细介绍,安装,配置
1、简介 Kafka is a distributed,partitioned,replicated commit logservice。它提供了类似于JMS的特性,但是在设计实现上完全不同,此外它并不是JMS规范的实现。kafka对消息保存时根据Topic进行归类,发送消息者成为Producer,消息接受者成为Consumer,此外kafka集群有多个kafka实例组成,每个实例(server)成为broker。无论是kafka集群,还是producer和consumer都依赖于zookeeper来保证系统可用性集群保存一些meta信息。 Kafka是一种分布式的,基于发布/订阅的消息系统 ,它的架构包括以下组件: i. 消息的发布(publish)称作producer,消息的订阅(subscribe)称作consumer,中间的存储阵列称作broker。ii. 多个broker协同合作,producer、consumer和broker三者之间通过zookeeper来协调请求和转发。iii. producer产生和推送(push)数据到broker,consumer从broke...
- 下一篇
hive下UDF函数的使用
1、编写函数 [java] view plain copy print ? packagecom.example.hive.udf; importorg.apache.hadoop.hive.ql.exec.UDF; importorg.apache.hadoop.io.Text; publicfinalclassLowerCaseextendsUDF{ publicTextevaluate(finalTexts){ if(s==null){returnnull;} returnnewText(s.toString().toLowerCase()); } } package com.example.hive.udf; import org.apache.hadoop.hive.ql.exec.UDF; import org.apache.hadoop.io.Text; public final class LowerCase extends UDF { public Text evaluate(final Text s) { if (s == null) { return nul...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS8编译安装MySQL8.0.19
- CentOS7,8上快速安装Gitea,搭建Git服务器
- Eclipse初始化配置,告别卡顿、闪退、编译时间过长
- SpringBoot2更换Tomcat为Jetty,小型站点的福音
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- SpringBoot2全家桶,快速入门学习开发网站教程
- CentOS7设置SWAP分区,小内存服务器的救世主
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果
- SpringBoot2整合Redis,开启缓存,提高访问速度