《Spark Cookbook 中文版》一1.3 通过Maven构建Spark源码
本节书摘来异步社区《Spark Cookbook 中文版》一书中的第1章,第1.3节,作者: 【印度】Rishi Yadav(亚达夫)译者: 顾星竹 , 刘见康 责编: 胡俊英,更多章节内容可以访问云栖社区“异步社区”公众号查看。 1.3 通过Maven构建Spark源码 在大多数情况下使用二进制文件安装Spark已经足够了。对于一些高级的需求(并不局限于下列需求),通过源码编译是个更好的选择。 需要使用特定的Hadoop版本进行编译。 集成Hive。 集成YARN。 1.3.1 准备工作 开始本篇教程之前需要以下必备条件。 Java 1.6或更新版本。 Maven 3.x。 1.3.2 具体步骤 使用Maven构建Spark源码的步骤如下。 1.增大堆的MaxPermSize参数。 $ echo "export _JAVA_OPTIONS=\"-XX:MaxPermSize=1G\"" >> /home/ hduser/.bashrc 2.打开一个新的终端窗口并通过GitHub下载源码。 $ wget https://github.com/apache/spark/arc...