您现在的位置是:首页 > 文章详情

一键部署 spark

日期:2019-10-19点击:1159

前言

Spark简介

Spark是整个BDAS的核心组件,是一个大数据分布式编程框架,不仅实现了MapReduce的算子map 函数和reduce函数及计算模型,还提供更为丰富的算子,如filter、join、groupByKey等。是一个用来实现快速而同用的集群计算的平台。

Spark将分布式数据抽象为弹性分布式数据集(RDD),实现了应用任务调度、RPC、序列化和压缩,并为运行在其上的上层组件提供API。其底层采用Scala这种函数式语言书写而成,并且所提供的API深度借鉴Scala函数式的编程思想,提供与Scala类似的编程接口

1.准备工作

下载安装包

 scala-2.9.3:一种编程语言   Scala下载地址:http://www.scala-lang.org/download/
 spark-1.4.0:必须是编译好的Spark,如果下载的是Source,则需要自己根据环境使用SBT或者MAVEN重新编译才能使用。 Spark下载地址:http://spark.apache.org/downloads.html

如图所示:

wKioL1lfBBiik2_vAAAZRg6niHU987.png

wKiom1lfBCmjhMqvAAAeQhUK_IM727.png

2、安装scala-2.9.3

wKioL1lfBEWSf0nLAAAccT6w3M4907.png


3、安装spark-1.4.0

wKiom1lfBFqxE3aeAAAW06Lu99w381.png



4、修改Spark配置文件

wKioL1lfBKrjh8u1AAAO5hNpa9c856.png


在spark-env.sh末端添加如下几行:


wKiom1lfBNPjBC1YAABHeel1kCU965.png

  spark-defaults.conf中还有如下配置参数:



5、测试spark安装是否成功

wKioL1lfBO7TctxaAABUhkdJCs0891.png


6、使用wordcount例子测试,启动spark-shell之前先上传一份文件到hdfs 7、代码:     val file = sc.textFile("hdfs://hadoop.master:9000/data/intput/wordcount.data")     val count = file.flatMap(line=>(line.split(" "))).map(word=>(word,1)).reduceByKey(_+_)     count.collect()     count.textAsFile("hdfs://hadoop.master:9000/data/output") 理解上面的代码你需要学习scala语言。

wKiom1lfBRHydf_EAAAOvq4pqA4394.png-wh_50

总结:山不厌高,海不厌深。





原文链接:https://yq.aliyun.com/articles/608067
关注公众号

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。

持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。

文章评论

共有0条评论来说两句吧...

文章二维码

扫描即可查看该文章

点击排行

推荐阅读

最新文章