Spark初窥
标签(空格分隔): Spark
[toc]
intro
dataset和operation
Spark对数据集合的基本抽象叫做Dataset。Dataset可以从文件直接创建,也可以从其他dataset经过transform变换而来。具体变换操作比如:
textFile.map(line => line.split(" ").size).reduce((a, b) => if (a > b) a else b)
这个transform会将数据映射为数字并计算最大值。这里有map操作,有reduce操作,每个操作后都会转换为一个新的Dataset。而这就是Spark支持的MapReduce模型的data flow。
cache
Spark也支持把数据集拉倒cluster-wide下的内存cache中进行缓存。这对于数据重复读取非常
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
【大数据】阿里巴巴的大规模数据流处理系统
随着阿里系的应用几乎覆盖了移动互联网的全行业,阿里巴巴开始致力于搭建世界一流的计算引擎。 在2015年,阿里巴巴开始将视线转向Flink,发现表现不错,于是开始将其投入到计算引擎的测试中,并定义内部名称为Blink。在随后的一年克服了稳定性和可靠性的问题;而到了2017年,就开始专注于Blink各组件性能的提升,包括SQL的功能及平台。 在Blink的生态系统中,自下而上分别是资源管理及存储、Blink运行引擎、数据流API及数据集API、统一的SQL API。在SQL API之上,阿里开发了两个平台,一个是SQL平台,允许用户使用SQL编译,或部署SQL任务;另一个平台是机器学习平台,这个平台是纯图形化UI,用户可以在界面上拖动任务或组件,以达到配置和连接的目的。有了这两大平台,就足以支撑阿里系上述的所有互联网产品。 阿里为何选择SQL作为整个平台的底层接口(Blink的上层接口)呢?SQL有以下5大特点: 通用性:各种平台的开发人员都熟悉SQL 易于理解:更易描述业务逻辑 性能优化:SQL系统的核心优化器能使任务更快捷地执行 稳定性:甚至可以平滑替换运行引擎 统一性:即可用户Bat...
- 下一篇
Spark2.4.0源码分析之WorldCount FinalRDD构建(一)
Spark2.4.0源码分析之WorldCount FinalRDD构建(一) 更多资源 github: https://github.com/opensourceteams/spark-scala-maven-2.4.0 主要内容描述 Spark dataSet执行计算转成FinalRDD FinalRdd从第一个RDD到最到一个RDD的转化过程 RDD之间的依赖引用关系 ShuffleRowRDD默认分区器为HashPartitioning,实际new Partitioner,分区个数为200 FinalRDD 层级 FileScanRDD [0] MapPartitionsRDD [1] MapPartitionsRDD [2] MapPartitionsRDD [3] MapPartitionsRDD [4] MapPartitionsRDD [5] MapPartitionsRDD [6] ShuffledRowRDD [7] MapPartitionsRDD [8] MapPartitionsRDD [9] FinalRDD DAG Visualization 时序图 ht...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Eclipse初始化配置,告别卡顿、闪退、编译时间过长
- SpringBoot2整合Thymeleaf,官方推荐html解决方案
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- CentOS8编译安装MySQL8.0.19
- SpringBoot2配置默认Tomcat设置,开启更多高级功能
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- CentOS7,CentOS8安装Elasticsearch6.8.6
- MySQL8.0.19开启GTID主从同步CentOS8
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果