hadoop+spark集群搭建
1.选取三台服务器(CentOS系统64位) 114.55.246.88主节点 114.55.246.77从节点 114.55.246.93从节点 之后的操作如果是用普通用户操作的话也必须知道root用户的密码,因为有些操作是得用root用户操作。如果是用root用户操作的话就不存在以上问题。 我是用root用户操作的。 2.修改hosts文件 修改三台服务器的hosts文件。 vi /etc/hosts 在原文件的基础最后面加上: 114.55.246.88 Master 114.55.246.77 Slave1 114.55.246.93 Slave2 修改完成后保存执行如下命令。 source /etc/hosts 3.ssh无密码验证配置 3.1安装和启动ssh协议 我们需要两个服务:ssh和rsync。 可以通过下面命令查看是否已经安装: rpm -qa|grep openssh rpm -qa|grep rsync 如果没有安装ssh和rsync,可以通过下面命令进行安装: yum install ssh(安装ssh协议) yum install rsync(rsync...