《深入理解Spark:核心思想与源码分析》——3.3节创建metadataCleaner
本节书摘来自华章社区《深入理解Spark:核心思想与源码分析》一书中的第3章,第3.3节创建metadataCleaner,作者耿嘉安,更多章节内容可以访问云栖社区“华章社区”公众号查看 3.3 创建metadataCleanerSparkContext为了保持对所有持久化的RDD的跟踪,使用类型是TimeStamped-WeakValueHashMap的persistentRdds缓存。metadataCleaner的功能是清除过期的持久化RDD。创建metadataCleaner的代码如下。 private[spark] val persistentRdds = new TimeStampedWeakValueHashMap[Int, RDD[_]] private[spark] val metadataCleaner =