《循序渐进学Spark》一1.3 Spark 集群试运行
本节书摘来自华章出版社《循序渐进学Spark》一书中的第1章,第1.3节,作者 小象学院 杨 磊 更多章节内容可以访问云栖社区“华章计算机”公众号查看。
1.3 Spark 集群试运行
下面试运行Spark。
1)在Master主机上,分别启动Hadoop与Spark。
cd /usr/local/hadoop/sbin/
./start-all.sh
cd /usr/local/spark/sbin
./start-all.sh
2) 检查Master与Worker进程是否在各自节点上启动。在Master主机上,执行命令 jps,如图1-5所示。
在Worker节点上,以Worker1为例,执行命令jps,如图1-6所示。
从图1-6中可以清晰地看到,Master进程与Worker及相关进程在各自节点上成功运行,Hadoop与Spark运行正
