首页 文章 精选 留言 我的
优秀的个人博客,低调大师

微信关注我们

原文链接:https://yq.aliyun.com/articles/483981

转载内容版权归作者及来源网站所有!

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

hadoop1.2.1集群安装过程详解

hadoop集群安装过程详解 一,环境: 1,主机规划: 集群中包括4个节点:1个Master,2个Salve,节点之间局域网连接,可以相互ping通。 机器名称 IP地址 hadoop01 192.168.0.31 hadoop02 192.168.0.32 hadoop03 192.168.0.33 三个节点上均是CentOS6.3x86_64系统,并且有一个相同的用户hadoop。hadoop01做为master配置NameNode和JobTracker的角色,负责总管分布式数据和分解任务的执行;另外两台配置DataNode和TaskTracker的角色,负责分布式数据存储以及任务的执行。安装目录统一为/usr/local下 2,软件版本: hadoop-1.2.1.tar.gz,jdk-7u25-linux-x64.rpm 二,准备工作,三台机器都需要做 ,将三台机器selinux,iptables停用。 1,安装jdk [root@hadoop01 ~]# rpm -ivh jdk-7u25-linux-x64.rpm [root@hadoop01 ~]# cd /usr/j...

MAP TASK内存泄露

这几天于遇到一个略诡异的CASE:线上报警一个MR Job的一个MAP TASK使用的物理内存过大,仔细一看超过了Xmx=1.3GB,而物理内存消耗到1.7GB,第一反应是不是遇到JVM内存泄露了.先对MAP TASK做个dump分析: 发现实际JVM使用不到300MB,算上Perm(MaxPermSize=128MB),那其余的1.XGB的内存是哪里来的呢?想到了non-heap memoryleak,常见的主要几种:JNI,NIO,ZIP和AWT,查看MAP日志发现处理大量的GZIP文件是不是可能由于这个导致的呢,由于MAP启动具有一定的随机性,常见的non-heap分析工具可能比较困难,不过先Google了一下果然有所发现:http://code.google.com/p/bigstreams/issues/detail?id=30 Hadoop native gzip存在内存泄露!解决的办法就是用Javabuiltin GZIP或者其他压缩格式.线上是并用GZIP和SNAPPY的,历史的GZIP还没有转到SNAPPY,看来有活干了...BTW,对于Sqoop的导入Job默认是g...

相关文章

发表评论

资源下载

更多资源
优质分享App

优质分享App

近一个月的开发和优化,本站点的第一个app全新上线。该app采用极致压缩,本体才4.36MB。系统里面做了大量数据访问、缓存优化。方便用户在手机上查看文章。后续会推出HarmonyOS的适配版本。

Apache Tomcat

Apache Tomcat

Tomcat是Apache 软件基金会(Apache Software Foundation)的Jakarta 项目中的一个核心项目,由Apache、Sun 和其他一些公司及个人共同开发而成。因为Tomcat 技术先进、性能稳定,而且免费,因而深受Java 爱好者的喜爱并得到了部分软件开发商的认可,成为目前比较流行的Web 应用服务器。

Eclipse

Eclipse

Eclipse 是一个开放源代码的、基于Java的可扩展开发平台。就其本身而言,它只是一个框架和一组服务,用于通过插件组件构建开发环境。幸运的是,Eclipse 附带了一个标准的插件集,包括Java开发工具(Java Development Kit,JDK)。

JDK

JDK

JDK是 Java 语言的软件开发工具包,主要用于移动设备、嵌入式设备上的java应用程序。JDK是整个java开发的核心,它包含了JAVA的运行环境(JVM+Java系统类库)和JAVA工具。