Hadoop平台配置汇总
Hadoop平台配置汇总
@(Hadoop)
Hadoop
hadoop-env.sh和yarn-env.sh中export log和pid的dir即可和JAVA_HOME。
core-site.xml
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://ns1</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/data2/hadoop/tmp</value> </property> <property> <name>ha.zookeeper.quorum</name> <value>zx-hadoop-210-11:2181,zx-hadoop-210-12:2181,zx-hadoop-210-31:2181</value> </property> </configuration>
hdfs-site.xml
<configuration> <property> <name>dfs.name.dir</name> <value>/data2/hadoop/hdfs/name</value> </property> <property> <name>dfs.data.dir</name> <value>/data2/hadoop/hdfs/data</value> </property> <property> <name>dfs.hosts</name> <value>/usr/local/bigdata/hadoop/etc/hadoop/datanode-allow.list</value> </property> <property> <name>dfs.hosts.exclude</name> <value>/usr/local/bigdata/hadoop/etc/hadoop/datanode-deny.list</value> </property> <property> <name>dfs.nameservices</name> <value>ns1</value> </property> <property> <name>dfs.ha.namenodes.ns1</name> <value>nn1,nn2</value> </property> <property> <name>dfs.namenode.rpc-address.ns1.nn1</name> <value>zx-hadoop-210-11:9000</value> </property> <property> <name>dfs.namenode.http-address.ns1.nn1</name> <value>zx-hadoop-210-11:50070</value> </property> <property> <name>dfs.namenode.rpc-address.ns1.nn2</name> <value>zx-hadoop-210-12:9000</value> </property> <property> <name>dfs.namenode.http-address.ns1.nn2</name> <value>zx-hadoop-210-12:50070</value> </property> <property> <name>dfs.namenode.shared.edits.dir</name> <value>qjournal://zx-hadoop-210-11:8485;zx-hadoop-210-12:8485;zx-hadoop-210-31:8485/ns1</value> </property> <property> <name>dfs.journalnode.edits.dir</name> <value>/data2/hadoop/journal</value> </property> <property> <name>dfs.ha.automatic-failover.enabled</name> <value>true</value> </property> <property> <name>dfs.client.failover.proxy.provider.ns1</name> <value> org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider </value> </property> <property> <name>dfs.ha.fencing.methods</name> <value> sshfence shell(/bin/true) </value> </property> <property> <name>dfs.ha.fencing.ssh.private-key-files</name> <value>/home/hadoop/.ssh/id_rsa</value> </property> <property> <name>dfs.ha.fencing.ssh.connect-timeout</name> <value>30000</value> </property> </configuration>
yarn-site.xml
<configuration> <property> <name>yarn.resourcemanager.hostname</name> <value>zx-hadoop-210-11</value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.log-aggregation-enable</name> <value>true</value> </property> <property> <name>yarn.nodemanager.remote-app-log-dir</name> <value>/data2/hadoop/logs/yarn</value> </property> <property> <name>yarn.log-aggregation.retain-seconds</name> <value>259200</value> </property> <property> <name>yarn.log-aggregation.retain-check-interval-seconds</name> <value>3600</value> </property> </configuration>
mapred-site.xml
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
HBase
hbase-env.sh
export JAVA_HOME=/usr/java/jdk1.7.0_55 export HBASE_MANAGES_ZK=false export HBASE_OPTS="-XX:+UseConcMarkSweepGC" export HBASE_PID_DIR=/data2/hadoop/pid export HBASE_LOG_DIR=/data2/hadoop/logs/hbase
hbase-site.xml
<configuration> <property> <name>hbase.rootdir</name> <value>hdfs://ns1/hbase</value> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property> <name>hbase.zookeeper.quorum</name> <value>zx-hadoop-210-11:2181,zx-hadoop-210-12:2181,zx-hadoop-210-31:2181</value> </property> <property> <name>hbase.master</name> <value>zx-hadoop-210-11</value> </property> <property> <name>zookeeper.session.timeout</name> <value>6000000</value> </property> </configuration>
作者:@小黑

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
Spark学习之数据读取与保存(4)
Spark学习之数据读取与保存(4) 1. 文件格式 Spark对很多种文件格式的读取和保存方式都很简单。 如文本文件的非结构化的文件,如JSON的半结构化文件,如SequenceFile结构化文件。通过扩展名进行处理。 2. 读取/保存文本文件 Python中读取一个文本文件 input = sc.textfile("file:///home/holen/repos/spark/README.md") Scala中读取一个文本文件 val input = sc.textFile("file:///home/holen/repos/spark/README.md") Java中读取一个文本文件 JavaRDD<String> input = sc.textFile("file:///home/holen/repos/spark/README.md") saveAsTextFile()方法用了保存为文本文件 3. 读取/保存JSON文件 Python中读取JSON文件 import json data = input.map(lambda x: json.loads(x)) ...
- 下一篇
Spark学习之编程进阶——累加器与广播(5)
Spark学习之编程进阶——累加器与广播(5) 1. Spark中两种类型的共享变量:累加器(accumulator)与广播变量(broadcast variable)。累加器对信息进行聚合,而广播变量用来高效分发较大的对象。 2. 共享变量是一种可以在Spark任务中使用的特殊类型的变量。 3. 累加器的用法: 通过在驱动器中调用SparkContext.accumulator(initialValue)方法,创建出存有初始值的累加器。返回值为org.apache.spark.Accumlator[T]对象,其中T是初始值initialValue的类型。 Spark闭包里的执行器代码可以使用累加器的+=方法(在Java中是add)增加累加器的值。 驱动器程序可以调用累加器的value属性(在Java中使用value()或setValue()来访问累加器的值。 Python中实现累加空行 file = sc.textFile(inputFile) #创建Accumulator[Int]并初始化为0 blankLines = sc.accumulator(0) def extractCa...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- 设置Eclipse缩进为4个空格,增强代码规范
- CentOS关闭SELinux安全模块
- CentOS8,CentOS7,CentOS6编译安装Redis5.0.7
- Jdk安装(Linux,MacOS,Windows),包含三大操作系统的最全安装
- Windows10,CentOS7,CentOS8安装Nodejs环境
- CentOS7设置SWAP分区,小内存服务器的救世主
- SpringBoot2整合Redis,开启缓存,提高访问速度
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- SpringBoot2全家桶,快速入门学习开发网站教程