centos7 hive 单机模式安装配置
我的原创地址:https://dongkelun.com/2018/03/24/hiveConf/
前言:
由于只是在自己的虚拟机上进行学习,所以对hive只是进行最简单的配置,其他复杂的配置文件没有配置。
1、前提
1.1 安装配置jdk1.8
1.2 安装hadoop2.x
hadoop单机模式安装见:centos7 hadoop 单机模式安装配置
1.3 安装mysql并配置myql允许远程访问,我的mysql版本5.7.18。
mysql数据库安装过程请参考:Centos 7.2 安装 Mysql 5.7.13
2、下载hive
下载地址:http://mirror.bit.edu.cn/apache/hive/,我下载的是apache-hive-2.3.2-bin.tar.gz。
wget http://mirror.bit.edu.cn/apache/hive/hive-2.3.2/apache-hive-2.3.2-bin.tar.gz 或者下载到本地,通过工具上传到虚拟机中
3、解压到/opt目录下(目录根据自己习惯)
tar -zxvf apache-hive-2.3.2-bin.tar.gz -C /opt/
4、配置hive环境变量
vim /etc/profile
export HIVE_HOME=/opt/apache-hive-2.3.2-bin export PATH=$PATH:$HIVE_HOME/bin
source /etc/profile
5、配置hive
5.1 配置hive-site.xml
其中ConnectionUserName和ConnectionPassword为mysql远程访问的用户名和密码,hive_metadata为mysql数据库,随自己习惯命名。
cd /opt/apache-hive-2.3.2-bin/conf/ vim hive-site.xml
<?xml version="1.0" encoding="UTF-8" standalone="no"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://192.168.44.128:3306/hive_metadata?&createDatabaseIfNotExist=true&characterEncoding=UTF-8&useSSL=false</value> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>root</value> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>Root-123456</value> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.jdbc.Driver</value> </property> <property> <name>datanucleus.schema.autoCreateAll</name> <value>true</value> </property> <property> <name>hive.metastore.schema.verification</name> <value>false</value> </property> </configuration>
5.2 配置hive-site.xml
cp hive-env.sh.template hive-env.sh vim hive-env.sh
HADOOP_HOME=/opt/hadoop-2.7.5 export HIVE_CONF_DIR=/opt/apache-hive-2.3.2-bin/conf
具体位置如图:
6、加载mysql驱动(要与自己安装的mysql版本一致)
下载地址:http://dev.mysql.com/downloads/connector/j/
我下载的是:mysql-connector-java-5.1.46.tar.gz,解压并将其中的mysql-connector-java-5.1.46-bin.jar放到hive/lib下
具体路径为:/opt/apache-hive-2.3.2-bin/lib
7、初始化数据库
schematool -initSchema -dbType mysql
8、启动hive
启动hive之前先启动hadoop,不然会报Connection refused异常,在命令行jps看一下hadoop是否启动成功然后启动hive
hive
然后简单的测试:
show databases;
出现如下图所示即代表配置成功!
9、简单的hive语句测试
建表:
CREATE TABLE IF NOT EXISTS test (id INT,name STRING)ROW FORMAT DELIMITED FIELDS TERMINATED BY " " LINES TERMINATED BY "\n";
插入数据
insert into test values(1,'张三');
查询
select * from test;
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
centos7 hadoop 单机模式安装配置
版权声明:本文由董可伦首发于https://dongkelun.com,非商业转载请注明作者及原创出处。商业转载请联系作者本人。 https://blog.csdn.net/dkl12/article/details/80232782 我的原创地址:https://dongkelun.com/2018/03/23/hadoopConf/ 前言 由于现在要用spark,而学习spark会和hdfs和hive打交道,之前在公司服务器配的分布式集群,离开公司之后,自己就不能用了,后来用ambari搭的三台虚拟机的集群太卡了,所以就上网查了一下hadoop+hive的单机部署,以便自己能进行简单的学习,这里记录一下,本来想把hadoop和hive的放在一起写,由于太多,就分成两篇写了。 1、首先安装配置jdk(我安装的1.8) 2、下载hadoop 下载地址:http://mirror.bit.edu.cn/apache/hadoop/common/,我下载的是hadoop-2.7.5.tar.gz (由于我之前用的2.7.1是几年前下载保存在本地的,现在发现之前在配置spark那篇写的那个h...
- 下一篇
Spark拉取Kafka的流数据,转插入HBase中
Spark拉取Kafka的流数据,转插入HBase中 pom.xml文件样例 <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/maven-v4_0_0.xsd"> <modelVersion>4.0.0</modelVersion> <groupId>com.yys.spark</groupId> <artifactId>spark</artifactId> <version>1.0</version> <inceptionYear>2008</inceptionYear> <properties> <scala.versio...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- SpringBoot2更换Tomcat为Jetty,小型站点的福音
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- MySQL8.0.19开启GTID主从同步CentOS8
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- SpringBoot2整合Thymeleaf,官方推荐html解决方案
- CentOS关闭SELinux安全模块
- CentOS7设置SWAP分区,小内存服务器的救世主
- Docker安装Oracle12C,快速搭建Oracle学习环境
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题