centos7 hadoop 单机模式安装配置
我的原创地址:https://dongkelun.com/2018/03/23/hadoopConf/
前言
由于现在要用spark,而学习spark会和hdfs和hive打交道,之前在公司服务器配的分布式集群,离开公司之后,自己就不能用了,后来用ambari搭的三台虚拟机的集群太卡了,所以就上网查了一下hadoop+hive的单机部署,以便自己能进行简单的学习,这里记录一下,本来想把hadoop和hive的放在一起写,由于太多,就分成两篇写了。
1、首先安装配置jdk(我安装的1.8)
2、下载hadoop
下载地址:http://mirror.bit.edu.cn/apache/hadoop/common/,我下载的是hadoop-2.7.5.tar.gz 
 (由于我之前用的2.7.1是几年前下载保存在本地的,现在发现之前在配置spark那篇写的那个hadoop下载地址较慢,所以改成这个地址)
3、解压到/opt目录下(目录根据自己习惯)
tar -zxvf hadoop-2.7.5.tar.gz  -C /opt/ 
  
 4、配置hadoop环境变量
vim /etc/profile 
 export HADOOP_HOME=/opt/hadoop-2.7.5
export PATH=$PATH:$HADOOP_HOME/bin   
 source /etc/profile 
 5、配置hadoop
5.1 配置hadoop-env.sh
vim /opt/hadoop-2.7.5/etc/hadoop/hadoop-env.sh 
 找到# The java implementation to use.将其下面的一行改为:
export JAVA_HOME=/opt/jdk1.8.0_45 
 5.2 配置core-site.xml (5.2和5.3中配置文件里的文件路径和端口随自己习惯配置)
其中的IP:192.168.44.128为虚拟机ip,不能设置为localhost,如果用localhost,后面在windows上用saprk连接服务器(虚拟机)上的hive会报异常(win读取的配置也是localhost,这样localhost就为win本地ip了~也可以给ip加个映射,不过因为单机的我就没加)。
vim /opt/hadoop-2.7.5/etc/hadoop/core-site.xml 
 <configuration>
<property>
        <name>hadoop.tmp.dir</name>
        <value>file:///opt/hadoop-2.7.5</value>
        <description>Abase for other temporary directories.</description>
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://192.168.44.128:8888</value>
    </property>
</configuration>
 
 5.3 配置hdfs-site.xml
vim /opt/hadoop-2.7.5/etc/hadoop/hdfs-site.xml 
 <configuration>
        <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:///opt/hadoop-2.7.5/tmp/dfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:///opt/hadoop-2.7.5/tmp/dfs/data</value>
    </property>
</configuration>
 
 6、SSH免密码登录
7、启动与停止
第一次启动hdfs需要格式化:
cd /opt/hadoop-2.7.5
./bin/hdfs namenode -format   
 Re-format filesystem in Storage Directory /opt/hadoop-2.7.5/tmp/dfs/name ? (Y or N) 
 输入:Y 
 (出现询问输入Y or N,全部输Y即可) 
 启动:
./sbin/start-dfs.sh 
 停止:
./sbin/stop-dfs.sh 
 验证,浏览器输入:http://192.168.44.128:50070
简单的验证hadoop命令:
hadoop fs -mkdir /test 
 在浏览器查看,出现如下图所示,即为成功 
8、配置yarn
8.1 配置mapred-site.xml
cd /opt/hadoop-2.7.5/etc/hadoop/
cp mapred-site.xml.template mapred-site.xml
vim mapred-site.xml 
 <configuration>
    <!-- 通知框架MR使用YARN -->
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration> 
 8.2 配置yarn-site.xml
vim yarn-site.xml 
 <configuration>
    <!-- reducer取数据的方式是mapreduce_shuffle -->
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration> 
 8.3 yarn启动与停止
启动:
cd /opt/hadoop-2.7.5
./sbin/start-yarn.sh   
 ./sbin/stop-yarn.sh  
 浏览器查看:http://192.168.44.128:8088 
 jps查看进程 
 到此,hadoop单机模式就配置成功了!
参考资料
关注公众号
					低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 
							
								
								    上一篇
								    
								
								你的数据安全么?Hadoop再曝安全漏洞| 黑客利用Hadoop Yarn资源管理系统未授权访问漏洞进行攻击
4月30日,阿里云发现,俄罗斯黑客利用Hadoop Yarn资源管理系统REST API未授权访问漏洞进行攻击。 Hadoop是一款由Apache基金会推出的分布式系统框架,它通过著名的 MapReduce 算法进行分布式处理,Yarn是Hadoop集群的资源管理系统。 此次事件主要因Hadoop YARN 资源管理系统配置不当,导致可以未经授权进行访问,从而被攻击者恶意利用。攻击者无需认证即可通过REST API部署任务来执行任意指令,最终完全控制服务器。 利用方式还原及趋势判断 1、通过对比分析,阿里云安全专家观察到,与之前Redis、CouchDB事件相比,Hadoop作为一个分布式计算应用程序框架,让其更容易被“攻陷”,因为: Hadoop种类和功能繁多,各种组件安全问题,可能会带来更大的攻击面; 针对某一个薄弱点的攻击,可能通过该框
 - 
							
								
								    下一篇
								    
								
								centos7 hive 单机模式安装配置
版权声明:本文由董可伦首发于https://dongkelun.com,非商业转载请注明作者及原创出处。商业转载请联系作者本人。 https://blog.csdn.net/dkl12/article/details/80232813 我的原创地址:https://dongkelun.com/2018/03/24/hiveConf/ 前言: 由于只是在自己的虚拟机上进行学习,所以对hive只是进行最简单的配置,其他复杂的配置文件没有配置。 1、前提 1.1 安装配置jdk1.8 1.2 安装hadoop2.x hadoop单机模式安装见:centos7 hadoop 单机模式安装配置 1.3 安装mysql并配置myql允许远程访问,我的mysql版本5.7.18。 mysql数据库安装过程请参考:Centos 7.2 安装 Mysql 5.7.13 2、下载hive 下载地址:http://mirror.bit.edu.cn/apache/hive/,我下载的是apache-hive-2.3.2-bin.tar.gz。 wget http://mirror.bit.edu.cn/ap...
 
相关文章
文章评论
共有0条评论来说两句吧...

			




				
				
				
				
				
				
				
微信收款码
支付宝收款码