在Ubuntu下搭建Spark群集
在前一篇文章中,我们已经搭建好了Hadoop的群集,接下来,我们就是需要基于这个Hadoop群集,搭建Spark的群集。由于前面已经做了大量的工作,所以接下来搭建Spark会简单很多。 首先打开三个虚拟机,现在我们需要安装Scala,因为Spark是基于Scala开发的,所以需要安装Scala。在Ubuntu下安装Scala很简单,我们只需要运行 sudo apt-get install scala 就可以安装Scala了。 安装完成后运行scala -version可以看到安装的Scala的版本,我现在2.11版,安装目录是在/usr/share/scala-2.11 。 接下来下载Spark。到官方网站,找到最新版的Spark的下载地址,选择Hadoop版本, http://spark.apache.org/downloads.html wget http://spark下载地址 当下载完毕后解压文件: tar xvf spark-2.0.2-bin-hadoop2.7.tgz 接下来我们需要将解压的文件夹移动到指定目录,因为之前我们Hadoop安装到/usr/local/hado...