Spark Streaming 的saveAsTextFiles遇到的坑
使用sparkStreaming消费数据,并使用Dstream的saveAsTextFile保存数据到hdfs中,通过使用这个方法,生成的文件夹存在问题, 代码例子如下: resultRdd.map(x=>x).saveAsTextFiles("hdfs:ip//data/storage/20181010/"+(new Date())) //new Date()自行转化 ssc.start() ssc.awaitermination() 而hsfs中目录显示为 /data/storage/20181010/201810100708223-1547016648000 /data/storage/20181010/201810100708223-1547016652000 /data/storage/20181010/201810100708223-1547016658000 ......................................... 从中发现最后面多了一条横杠 -和时间戳1547016648000,是根据间隔时间自动生成的,但是我不想要他...