《深入理解Spark:核心思想与源码分析》——1.2节Spark初体验
本节书摘来自华章社区《深入理解Spark:核心思想与源码分析》一书中的第1章,第1.2节Spark初体验,作者耿嘉安,更多章节内容可以访问云栖社区“华章社区”公众号查看 1.2 Spark初体验本节通过Spark的基本使用,让读者对Spark能有初步的认识,便于引导读者逐步深入学习。1.2.1 运行spark-shell要运行spark-shell,需要先对Spark进行配置。1)进入Spark的conf文件夹:cd ~/install/spark-1.2.0-bin-hadoop1/conf2)复制一份spark-env.sh.template,命名为spark-env.sh,对它进行编辑,命令如下:cp spark-env.sh.template spark-env.shvim spark-env.sh3)添加如下配置:export SPARK_MASTER_IP=127.0.0.1export SPARK_LOCAL_IP=127.0.0.14)启动spark-shell:cd ~/install/spark-1.2.0-bin-hadoop1/bin./spark-shell最...