在windows下使用eclipes连接linux下的Hadoop集群
来源:http://suxain.iteye.com/blog/1748356
hadoop 是工作在linux下的分布式系统,做为一个开发者,对于手里资源有限,不得不使用只有终端的虚拟机来运行hadoop集群。但是,在这种环境下,开发,调试就变得那么的不容易了。那么,有没有办法在windows下发调试呢。答案是肯定的。
hadoop为我们提供了一个Eclipes插件,使用我们可以在Eclipse环境下开发,调试hadoop程序,那么,应该如何安装eclipse-hadoop插件呢。下面把我的研究结果分享给大家(附上我自己编译的插件)。
1、编译eclipse-hadoop-plugins
在hadoop目录下的找到/src/contrib/eclipse-plugin,用eclipse导入该project,
由于插件需要hadoop的一些JAR 文件,所以,右键单击项目->build path ->configuretion build path->libraies->add External jars 。在hadoop的目录和其lin目录找到下面的jar,并加入
然后打开 build-contrib.xml
修改以下地方
<property name="hadoop.root" location="E:\boolbean\eclipseWorkspaces\hadoop-1.1.0" />
<property name="eclipse.home" location="D:/Program Files/eclipse" />
<property name="version" value="1.1.0" />
然后右击 build.xml -> run as -> ant build...
编译成功后,到${hadoop.root}/build/contrib/eclipse-plugin/找到hadoop-eclipse-plugin-1.1.0.jar,
将该JAR复制到eclipse安装目录的 plugins目录下,重启eclipse。
待eclipse重启后,选择window->Preferences,出现如图效果,刚安装成功
交且可以在 Projects Explorer里看到DFS Location
然后单击 window -> show views -> others ,找到Map/Reduce Locations,显示MapReduce视图
右击,选择Edit hadoop location...
Location name ,自定,无要求
Map/Reduce Master 对应 mapred-site.xml中设置的IP和端口
DFS Master core-site.xml 中的IP和端口
在 Advanced 中,有各项设置参数,在里面,对core-site.xml、hdfs-site.xml、mapred-site.xml中设置过的参数,在这里也做相应的修改。
然后 Finish
若成功,在DFS Location出现hdfs目录结构
在eclipse连接hadoop的时候,要关闭linux防火墙,或者编辑iptables过虑规则。
以上是本人纠结了很多天纠结出来的结果。编译安装过程中,新我这样的新手会遇到很多问题,各种谷歌,百度。另外,在连接hadoop的时候,把 eclipse 的 Error log 视图显示出来,可以让我们看到很详细的错误说明。以便找准方向解决问题。当遇到问题是,不防假设,问题会出在哪里。
- hadoop-eclipse-plugin-1.1.0.jar (6.1 MB)
- 下载次数: 0
微信公众号: 猿人谷
如果您认为阅读这篇博客让您有些收获,不妨点击一下右下角的【推荐】
如果您希望与我交流互动,欢迎关注微信公众号
本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
分布式计算Hadoop简介
Hadoop是什么:Hadoop是一个开发和运行处理大规模数据的软件平台,是Appach的一个用java语言实现开源软件框架,实现在大量计算机组成的集群中对海量数据进行分布式计算。 Hadoop是什么:Hadoop是一个开发和运行处理大规模数据的软件平台,是Appach的一个用java语言实现开源软件框架,实现在大量计算机组成的集群中对海量数据进行分布式计算。 Hadoop框架中最核心设计就是:HDFS和MapReduce。HDFS提供了海量数据的存储,MapReduce提供了对数据的计算。 数据在Hadoop中处理的流程可以简单的按照下图来理解:数据通过Haddop的集群处理后得到结果。 HDFS:Hadoop Distributed File System,Hadoop的分布式文件系统。 大文件被分成默认64M一块的数据块分布存储在集群机器中。 如下图中的文件 data1被分成3块,这3块以冗余镜像的方式分布在不同的机器中。 MapReduce:Hadoop为每一个input split创建一个task调用Map计算,在此task中依次处理此split中的一个个记录(record)...
- 下一篇
Hadoop的安装
来源: http://suxain.iteye.com/blog/1744652 本来是用word写的,里面有一些截图,可是iteye的编辑器上传图片不方便,所以,附件中是原版word文档 一、 Hadoop安装 1.1 hosts文件修改 在每个结点修改hosts文件,配置节点IP与别名 Vi /etc/hosts 1.2 建立hadoop用户 Useradd username //添加用户 Passwd username //为用户生成密码 1.3 生成公私钥密钥对 用hadoop 用户登录 在各个节点上,分别使用 ssh-keygen –t rsa –f ~/.ssh/id_rsa来生成密钥 Cd ~/.ssh cat id_rsa.pub >> authorized_keys 1.4 密钥合并和相互复制 将各个节点的authorized_keys 合并,并分发到每个节点,如果是从本地免密码登录远程主机,则把本现的id_rsa.pub复制到远程主机。 1.5 安装hadoop 从mirror.bit.edu.cn 用hadoop用户解压到安装目录, ...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Docker安装Oracle12C,快速搭建Oracle学习环境
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- CentOS7安装Docker,走上虚拟化容器引擎之路
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题
- CentOS8安装Docker,最新的服务器搭配容器使用
- Hadoop3单机部署,实现最简伪集群
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- CentOS8编译安装MySQL8.0.19