[Spark]Spark RDD 指南二 初始化
1. 初始化 Spark程序必须做的第一件事是创建一个JavaSparkContext对象(Scala和Python中是SparkContext对象),它告诉Spark如何访问集群。 要创建SparkContext,您首先需要构建一个包含有关应用程序信息的SparkConf对象。 Java版本: private static String appName = "JavaWordCountDemo"; private static String master = "local"; // 初始化Spark private static SparkConf conf = new SparkConf().setAppName(appName).setMaster(master); private static JavaSparkContext sc = new JavaSparkContext(conf); Scala版本: val conf = new SparkConf().setAppName(appName).setMaster(master) new SparkContext(con...