您现在的位置是:首页 > 文章详情

Spark整合Mongodb[转]

日期:2018-11-29点击:580
  • 环境准备 

mongodb下载

解压安装

启动mongodb服务

$MONGODB_HOME/bin/mongod --fork --dbpath=/root/data/mongodb/ --logpath=/root/data/log/mongodb/mongodb.log

  • pom依赖 

  org.mongodb.spark  mongo-spark-connector_2.11  ${spark.version}  


  • 实例代码 

object ConnAppTest {  def main(args: Array[String]): Unit = {  val spark = SparkSession.builder()  .master("local[2]")  .appName("ConnAppTest")  .config("spark.mongodb.input.uri", "mongodb://192.168.31.136/testDB.testCollection") // 指定mongodb输入  .config("spark.mongodb.output.uri", "mongodb://192.168.31.136/testDB.testCollection") // 指定mongodb输出  .getOrCreate()  // 生成测试数据  val documents = spark.sparkContext.parallelize((1 to 10).map(i => Document.parse(s"{test: $i}")))  // 存储数据到mongodb  MongoSpark.save(documents)  // 加载数据  val rdd = MongoSpark.load(spark)  // 打印输出  rdd.show  }  }


原文链接:http://blog.csdn.net/soul_code/article/details/78523140

原文链接:https://blog.roncoo.com/article/131053
关注公众号

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。

持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。

文章评论

共有0条评论来说两句吧...

文章二维码

扫描即可查看该文章

点击排行

推荐阅读

最新文章