Spark(十二)--性能调优篇
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq1010885678/article/details/48505701 一段程序只能完成功能是没有用的,只能能够稳定、高效率地运行才是生成环境所需要的。 本篇记录了Spark各个角度的调优技巧,以备不时之需。 一、配置参数的方式和观察性能的方式 额。。。从最基本的开始讲,可能一些刚接触Spark的人不是很清楚Spark的一些参数变量到底要配置在哪里。 可以通过三种方式配置参数,任选其一皆可。 spark-env.sh文件中配置:最近常使用的配置方式,格式可以参考其中的一些官方保留的配置。 程序中通过SparkConf配置:通过SparkConf对象set方法设置键值对,比较直观。 程序中通过System.setProperty配置:和方法二差不多。 值得一提的是一个略显诡异的现象,有些参数在spark-env.sh中配置并不起作用,反而要在程序中设置才有效果。 Spark的参数很多,一些默认的设置可以参考官网推荐的配置参数:/docs/latest/configuration.html...