Spark(八) -- 使用Intellij Idea搭建Spark开发环境
Intellij Idea下载地址:
官方下载
选择右下角的Community Edition版本下载安装即可
本文中使用的是windows系统
环境为:
jdk1.6.0_45
scala2.10.5
在网上下载jdk和scala的安装包双击运行安装即可
注意:如果之后要将scala文件打包成jar包并在spark集群上运行的话,请确保spark集群和打包操作所在机器 环境保持一致!不然运行jar包会出现很多异常
要使用idea开发spark程序首先要安装scala插件
进入idea主界面
在线安装:
选择Plugins
输入scala
选择安装即可
离线安装:
scala离线插件包
下载完scala插件包之后,在idea主界面的Plugins中选择从本地安装
选择下载好的scala插件安装即可
本文使用的是Idea14.1.3 对应的scala插件版本为1.5
不同版本的Idea对应的scala插件版本可能不同,无法识别
现在可以用idea来新建一个scala项目
New Project->Scala
再此页面中选择jdk和scala安装的目录,Idea会自动识别
Finish完成Project的创建
在File中选择Project Structure对项目进行配置
选中左侧的Mudules,点击+号添加一下新的Module。Idea中的Project相当于Eclipse中的一个WorkSpace,里面的Module相当于Project
新建一个First的Module
在src目下新新建main和scala目录,并设置为Sources类型
点击左侧的Liberaries,点击+进行添加spark的jar包
只要引入图中的那个jar包即可,spark版本为1.3.1,一般下载spark之后可以在其目录下找到
在scala文件夹下右键新建一个scala class,类型选择为Object
编写简单的代码
File->Project Structure->在右侧选择Artifacts->JAR->From modules with dependencies
选择新建的Test
将默认的SparkApp:jar重新名一下,并将依赖包删除,只剩First这个module本身(因为集群上已经安装了jdk,scala和spark,所以那些包可以去掉节省编译时间)
在菜单栏上选择Build->Build Artifacts
如图所示的操作
编译成功后可以在对应的输出文件夹下找到jar包
需要注意:
编译选择Main Class时如果是手动选择Object的话,Idea会弹出错误提示xx is not acceptable,而让其自动过滤选择的时候就不会。。。
scala代码中,如果注释中有中文默认可能会编译错误
在下图设置中加入
-ENCODING UTF-8
即可

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
ElasticSearch入门 第二篇:集群配置
这是ElasticSearch 2.4 版本系列的第二篇: ElasticSearch入门 第一篇:Windows下安装ElasticSearch ElasticSearch入门 第二篇:集群配置 ElasticSearch入门 第三篇:索引 ElasticSearch入门 第四篇:使用C#添加和更新文档 ElasticSearch入门 第五篇:使用C#查询文档 ElasticSearch入门 第六篇:复合数据类型——数组,对象和嵌套 ElasticSearch入门 第七篇:分析器 ElasticSearch入门 第八篇:存储 ElasticSearch入门 第九篇:实现正则表达式查询的思路 ElasticSearch共有两个配置文件,都位于config目录下,分别是elasticsearch.yml和logging.yml,其中,elasticsearch.yml 是全局配置文件,用于在服务器级别对ElasticSearch进行配置。ElasticSearch的配置选项分为静态设置和动态设置两种,静态设置必须在结点级别(node-level)设置,或配置在elasticsearch...
- 下一篇
Spark(九) -- SparkSQL API编程
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq1010885678/article/details/45957991 本文测试的Spark版本是1.3.1 Text文本文件测试 一个简单的person.txt文件内容为: JChubby,13 Looky,14 LL,15 分别是Name和Age 在Idea中新建Object,原始代码如下: object TextFile{ def main(args:Array[String]){ } } SparkSQL编程模型: 第一步: 需要一个SQLContext对象,该对象是SparkSQL操作的入口 而构建一个SQLContext对象需要一个SparkContext 第二步: 构建好入口对象之后,要引入隐式转换的方法,作用是将读取到的各种文件转换成DataFrame,DataFrame是SparkSQL上进行统一操作的数据类型 第三步: 根据数据的格式,构建一个样例类。作用是提供将读取到的各种各样的数据类型隐式转换成一个统一的数据格式,方便编程 第四步: 使用SQLContext对象...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- MySQL8.0.19开启GTID主从同步CentOS8
- Docker安装Oracle12C,快速搭建Oracle学习环境
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- CentOS7安装Docker,走上虚拟化容器引擎之路
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题
- Hadoop3单机部署,实现最简伪集群
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- CentOS8编译安装MySQL8.0.19