hadoop伪分布式安装
首先需要有一台linux的虚拟机,什么版本的都差不多
这里以redhat为例
下载hadoop(只是为了学习使用的是老版本的0.20.2)
网上有很多下载的地方
为服务器安装jdk
jdk文件版本为jdk-7u45-linux-i586.rpm
可以在官网上下载各个版本的linux jdk文件
使用命令
rpm -ivh jdk-7u45-linux-i586.rpm
进行安装
安装完成之后编辑profile文件配置环境变量
vi /etc/profile
在末尾追加
export JAVA_HOME=/usr/java/jdk1.7.0_45
export PATH=$JAVA_HOME/bin/:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
注意jdk对应的版本号
编辑完成后使用命令
source /etc/profile
保存配置
之后输入java -version可以查看jdk版本信息
配置ssh免密码登录
在服务器上
输入命令
chmod -R 755 /home/hadoop
mkdir ~/.ssh
ssh-keygen -t rsa
ssh-keygen -t dsa
rsa和dsa分别生成不同加密格式的ssh密钥,直接一直按回车键保存在默认的路径
在节点上配置authorized_keys文件
输入命令
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
将本地的密钥保存在authorized_keys
输入命令
chmod -R 700 ~/.ssh
注意当前你所在的路径
接下来可以在服务器上测试ssh是否可以免密码登录了
例:
ssh localhost date将会提示
The authenticity of host 'master (10.10.10.100)' can't be established.
RSA key fingerprint is 99:ef:c2:9e:28:e3:b6:83:e2:00:eb:a3:ee:ad:29:d8.
Are you sure you want to continue connecting (yes/no)?
这是因为这台机器上的ssh没有把master记录在已知的主机列表中
输入yes回车即可
(之后的各个节点一样,输入yes让其记住主机,之后就可以免密码登录)
如果中间出现什么异常或者错误,有可能是权限问题导致,请百度之
在节点上配置hadoop
将hadoop包放到/home/hadoop目录下方便操作
进入hadoop目录下的conf目录
1.修改hadoop-env.sh文件
添加
export JAVA_HOME=/usr/java/jdk1.7.0_45
配置jdk的环境变量,注意jdk版本
2.修改core-site.xml文件
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/tmp</value>
</property>
设置namenode节点的IP和端口
设置hadoop.tmp.dir路径,默认是/tmp/$username,重启就会删除该目录的文件,所以这里给他配置一个自定义的路径
3.修改hdfs-site.xml文件
<property>
<name>dfs.data.dir</name>
<value>/home/hadoop/hadoop-data</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/home/hadoop/hadoop-name</value>
</property>
<property>
<name>fs.checkpoint.dir</name>
<value>/home/hadoop/hadoop-namesecondary</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
设置hdfs文件系统
4.修改mapred-site.xml文件
<property>
<name>mapred.job.tracker</name>
<value>master:9001</value>
</property>
设置jobtracker的ip和端口
以上xml文件的配置都只是在源文件的基础上添加对应的property节点即可
进入hadoop目录下的bin目录
输入命令
hadoop namenode -format
开始格式化namenode
注意看提示格式化是否成功
在输入命令
start-all.sh
启动hadoop集群
启动完成后
输入命令jps可以看到5个java进程
分别是
NameNode
SecondaryNameNode
JobTracker
TaskTracker
DataNode
伪分布式安装启动完成

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
如何正确在IDEA 里非maven或非SBT构建的项目中引入lib的jar包(图文详解)
以下是我,手动的一个项目 假设,大家,还需要导入 导入spark的jar包:是安装主目录下的jars所有jar包和examples/jars包。 本文转自大数据躺过的坑博客园博客,原文链接:http://www.cnblogs.com/zlslch/p/7447529.html,如需转载请自行联系原作者
- 下一篇
完全分布式安装hadoop
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq1010885678/article/details/43499577 以三个节点为例的服务器集群来安装和配置hadoop 以下是各服务器ip地址和对应所做的节点 192.168.61.128 master 192.168.61.129 slave1 192.168.61.133 slave2 首先修改每个服务器上的hosts文件 使用命令 vi /etc/hosts编辑 在最后追加 192.168.61.128 master 192.168.61.129 slave1 192.168.61.133 slave2 三行 为每个服务器创建hadoop账户 在root用户下,使用命令 useradd hadoop passwd hadoop 输入两遍新密码完成 为每个服务器安装jdk jdk文件版本为jdk-7u45-linux-i586.rpm 可以在官网上下载各个版本的linux jdk文件 使用命令 rpm -ivh jdk-7u45-linux-i586.rpm 进行安装 安装完成...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- CentOS关闭SELinux安全模块
- CentOS7设置SWAP分区,小内存服务器的救世主
- Docker安装Oracle12C,快速搭建Oracle学习环境
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题
- SpringBoot2整合Thymeleaf,官方推荐html解决方案
- CentOS8编译安装MySQL8.0.19
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- Docker使用Oracle官方镜像安装(12C,18C,19C)