旧版spark(1.6版本) 将rdd动态转为dataframe
版权声明:本文由董可伦首发于https://dongkelun.com,非商业转载请注明作者及原创出处。商业转载请联系作者本人。 https://blog.csdn.net/dkl12/article/details/80304950 我的原创地址:https://dongkelun.com/2018/05/11/rdd2df/ 前言 旧版本spark不能直接读取csv转为df,没有spark.read.option(“header”, “true”).csv这么简单的方法直接将第一行作为df的列名,只能现将数据读取为rdd,然后通过map和todf方法转为df,如果csv的列数很多的话用如Array((1,2..))即Arrar(元组)创建的话很麻烦,本文解决如何用旧版spark读取多列txt文件转为df 1、新版 为了直观明白本文的目的,先看一下新版spark如何实现 1.1 数据 data.csv,如图: 1.2 代码 新版代码较简单,直接通过spark.read.option(“header”, “true”).csv(data_path)即可实现! package com.d...