通过数据库客户端界面工具DBeaver连接Hive
我的原创地址:https://dongkelun.com/2018/07/13/dbeaverConnectHive/
前言
本文讲解如何通过数据库客户端界面工具DBeaver连接hive,并解决驱动下载不下来的问题。
1、为什么使用客户端界面工具
为什么使用客户端界面工具而不用命令行使用hive
- 通过界面工具查看分析hive里的数据要方便很多
- 业务人员没有权限通过命令行连接hive
- 领导喜欢在界面工具上查看hive里的数据
2、为什么使用DBeaver
其实在网上搜一下,连接hive的工具还有很多,使用DBeaver的原因是因为我之前连接关系型数据库使用的就是DBeaver,正好DBeaver支持连接hive,且个人认为DBeaver确实挺好用的,支持各种关系型数据库,如连接Oracle数据库不需要像plsql那样自己配置连接文件,只需要在界面上输入url、用户名、密码即可,还有就是DBeaver的快捷键和Eclipse是一样的,比如注释、删除一行、复制一行到下一行等。
3、DBeaver下载、安装
之前我一直用的旧版的,现在在官网上下载了最新版的DBeaver,发现界面功能比旧版好用了很多,亲测连hive没有问题。
下载地址:https://dbeaver.io/download/
我下载的免安装版(不带jre),windows64位,大家可以根据自己情况下载对应版本。
因为我下载的免安装版,所以解压后,直接点击dbeaver.exe就可以使用了!
4、启动hive相关
测试连接前先启动hive相关的服务
1、启动hdfs、yarn
opt/hadoop-2.7.5/sbin/start-dfs.sh /opt/hadoop-2.7.5/sbin/start-yarn.sh
2、启动hiveserver2(hive-0.11.0以后的版本)
如果想远程连接hive,则需要启动hiveserver2
/opt/apache-hive-2.3.2-bin/bin/hive --service hiveserver2
关于hadoop和hive的配置可以参考centos7 hadoop 单机模式安装配置、centos7 hive 单机模式安装配置
- 注:图中的startall.sh就是上面hdfs、yarn的启动命令
5、创建hive测试表
CREATE TABLE IF NOT EXISTS test_20180713 (id INT,name STRING)ROW FORMAT DELIMITED FIELDS TERMINATED BY " " LINES TERMINATED BY "\n"; insert into test_20180713 values(1,'tom');
6、DBeaver连接hive
DBeaver连接关系型数据库比较的简单,连接hive的话因为要配置下载驱动,所以这里详细说明一下。
6.1 文件->新建->数据库连接(新版是中文的,而之前旧版的是英文的,这点我还是比较喜欢的~)
6.2 选择新连接类型->Apache Hive(从这里看到,DBeaver支持的数据库还是很多的)
6.3 填一下hiveserver2的ip和hive的数据库名
6.4 编辑驱动设置-下载/更新(第一次打开需要下载maven的依赖配置,需等待一会)
这里需等待一会,截图太多,记不清楚是不是这个图了~
6.5 选择hive的版本,我这里的版本为2.3.2
到这里就有问题了,之前我在公司的测试机用ambari装的hive的版本是1.2.1,然后下载1.2.1需要的hive的jar包,很快就下载下来了,之后就可以查询hive里的数据了,但是在自己的虚拟机版本为2.3.2,2.3.2的jar就下不下来了
尝试将maven库改为阿里云的无效,且测试和DBeaver的版本无关,旧版和最新版的都下载不下来
7、用hive自带的jdbc jar
多次尝试依然解决不了驱动下载不下来的问题,只能尝试用hive安装包自带的jdbc jar了,幸好DBeaver和hive很好的支持了这种方法。hive帮我们集成了jdbc相关的一个jar包,这样我们就不用一个一个去lib下找相关的jar包了~
首先将hive安装包里的jdbc包下载到本地,jar包位置:
/opt/apache-hive-2.3.2-bin/jdbc/hive-jdbc-2.3.2-standalone.jar
然后将DBeaver默认的jar删除,再添加上我们刚才下载的jar包,然后下一步,命名我们的连接。
8、测试连接
右键连接名->编辑连接->测试连接,然后发现报了一个异常
9、解决异常
但是在ambari安装的hive上测试这种方法是没有问题的,经过网上查询该异常,发现是我的hdfs配置问题,修改hdfs的core-site.xml即可
先关掉hdfs、yarn、hiveserver2服务
vim /opt/hadoop-2.7.5/etc/hadoop/core-site.xml
添加
<property> <name>hadoop.proxyuser.root.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.root.groups</name> <value>*</value> </property>
然后重启hdfs、yarn、hiveserver2
具体可参考[Hive]那些年我们踩过的Hive坑里的第十个异常。
10、再次测试
再次测试连接,成功!
从这里可以看出DBeaver的界面功能还是挺丰富的,使用起来也比较方便

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
虚拟机中Linux(Ubuntu16.04)与本地Win7共享文件夹
虚拟机中Linux(Ubuntu16.04)与本地Win7共享文件夹 一、前面的废话 在虚拟机里装了系统之后想要在系统里安装软件真的是很头疼的事,因为在虚拟机里面下载东西比较慢,来回折腾U盘也很麻烦,尤其是如果你需要在虚拟机里的好几个系统里装相同的软件,那更是能急死人,但如果虚拟机里的系统能访问本地系统的话就太棒了,在本地系统下下载一份需要的文件,在所有虚拟机里都能用,真的省去了很多麻烦。 二、文件共享设置 1、虚拟机设置 虚拟机菜单栏 -> 虚拟机 -> 设置 -> 选项 -> 共享文件夹 -> 总是启用 -> 添加(我将添加的共享目录命名为Shared) ->确定 2、VMware Tools安装 (1)虚拟机菜单栏 -> 虚拟机 -> 安装VMware Tools (2)等一会虚拟机会自己打开VMware Tools文件夹 (3)在该目录下,右键打开命令行,将压缩文件拷贝到桌面上,再到桌面上将其解压缩 cp VMwareTools-10.1.6-5214329.tar.gz /home/hadoop/Desktop/ cd /...
- 下一篇
Spark UDF使用详解及代码示例
版权声明:本文由董可伦首发于https://dongkelun.com,非商业转载请注明作者及原创出处。商业转载请联系作者本人。 https://blog.csdn.net/dkl12/article/details/81381151 我的原创地址:https://dongkelun.com/2018/08/02/sparkUDF/ 前言 本文介绍如何在Spark Sql和DataFrame中使用UDF,如何利用UDF给一个表或者一个DataFrame根据需求添加几列,并给出了旧版(Spark1.x)和新版(Spark2.x)完整的代码示例。 关于UDF:UDF:User Defined Function,用户自定义函数。 1、创建测试用DataFrame 下面以Spark2.x为例给出代码,关于Spark1.x创建DataFrame可在最后的完整代码里查看。 // 构造测试数据,有两个字段、名字和年龄 val userData = Array(("Leo", 16), ("Marry", 21), ("Jack", 14), ("Tom", 18)) //创建测试df val use...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Hadoop3单机部署,实现最简伪集群
- SpringBoot2全家桶,快速入门学习开发网站教程
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- SpringBoot2整合Redis,开启缓存,提高访问速度
- CentOS8,CentOS7,CentOS6编译安装Redis5.0.7
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题
- Mario游戏-低调大师作品
- CentOS7,8上快速安装Gitea,搭建Git服务器
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果