Linux的企业-Hadoop的多节点配置
一.配置环境 redhat6.5 server1 172.25.29.1 hadoop master nfs server2 172.25.29.2 nfs server3 172.25.29.3 nfs server4 172.25.29.4 nfs server5 172.25.29.5 高可用备机 nfs 使用 nfs 共享同步配置文件 二.Hadoop单点配置 1.安装hadoop和jdk 使用hadoop用户运行 2.配置hadoop在java上的运行环境 3.算法模块测试 output生成的数据 4.配置单点hadoop 5.给hadoop设置用户密码,设置主机之间免密 6.设置储存节点为1个 7.格式化hdfs 8.启动hadoop 9.设置查看进程的java的命令jps的运行路径 10.查看节点运行状态,测试 11.以文本模式查看结果 创建目录 四.多节点hadoop配置 使用 nfs 共享同步配置文件 1.server1配置nfs服务 2.在server2至server5安装nfs,并新建hadoop用户,并启动rpcbind 3.建立主机之间免密 4.hadoop集...
