深入理解Spark:核心思想与源码分析. 1.2 Spark初体验
1.2 Spark初体验
本节通过Spark的基本使用,让读者对Spark能有初步的认识,便于引导读者逐步深入学习。
1.2.1 运行spark-shell
要运行spark-shell,需要先对Spark进行配置。
1)进入Spark的conf文件夹:
cd ~/install/spark-1.2.0-bin-hadoop1/conf
2)复制一份spark-env.sh.template,命名为spark-env.sh,对它进行编辑,命令如下:
cp spark-env.sh.template spark-env.sh
vim spark-env.sh
3)添加如下配置:
export SPARK_MASTER_IP=127.0.0.1
export SPARK_LOCAL_IP=127.0.0.1
4)启动spark-shell:
cd ~/inst