Hive常用操作
1. 绑定数据
1.1 创建表&创建文本文件
create table fantj.t3(id int,name string,age int) row format delimited fields terminated by ','stored as textfile;
hive> create table fantj.t3(id int,name string,age int) row format delimited fields terminated by ','stored as textfile; OK Time taken: 4.467 seconds hive> select * from fantj.t3; OK Time taken: 2.82 seconds
表示行格式用逗号来分割字段。
创建文本文件test.txt
我创建在/home/fantj
目录下。
1,jiao,18 2,fantj,20 3,laowang,30 4,laotie,40
1.2 从本地导入到hive
LOAD DATA LOCAL INPATH '/home/fantj/test.txt' OVERWRITE INTO TABLE t3;
hive> LOAD DATA LOCAL INPATH '/home/fantj/test.txt' OVERWRITE INTO TABLE fantj.t3; Loading data to table fantj.t3 [Warning] could not update stats. OK Time taken: 26.334 seconds
select * from fantj.t3;
hive> select * from fantj.t3; OK 1 jiao 18 2 fantj 20 3 laowang 30 4 laotie 40 Time taken: 2.303 seconds, Fetched: 4 row(s)
导入成功!
1.3 从hdfs导入到hive
先将test文件上传到hdfs中
[root@s166 fantj]# hadoop fs -put test.txt /hdfs2hive
-rw-r--r-- 3 root supergroup 46 /hdfs2hive/test.txt
进入hive,创建表t5
create table fantj.t5(id int,name string,age int) row format delimited fields terminated by ','stored as textfile;
hive> create table fantj.t5(id int,name string,age int) row format delimited fields terminated by ','stored as textfile; OK Time taken: 3.214 seconds
执行导入
LOAD DATA INPATH '/hdfs2hive/test.txt' OVERWRITE INTO TABLE fantj.t5;
hive> LOAD DATA INPATH '/hdfs2hive/test.txt' OVERWRITE INTO TABLE fantj.t5; Loading data to table fantj.t5 [Warning] could not update stats. OK Time taken: 25.498 seconds
检查是否成功:
hive> select * from fantj.t5; OK 1 jiao 18 2 fantj 20 3 laowang 30 4 laotie 40 Time taken: 5.046 seconds, Fetched: 4 row(s)
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
.NET基于Eleasticsearch搭建日志系统实战演练(公开版)
一、需求背景介绍 1.1、需求描述 大家都知道C/S架构模式的客户端应用程序(比如:WinForm桌面应用、WPF、移动App应用程序、控制台应用程序、Windows服务等等)的日志记录都存储在本地客户端中,这样就导致有时候一旦客户端出现了的异常问题,为了快速地定位对应服务端出现的位置却极其的繁琐和不方便,就需要找到当时的客户端出现异常问题的日志快照记录。 所以说为了解决实时日志监控问题,ELK提供的一套的解决方案就应运而生了 。然而真实的现状往往比你现实的想象中的还有更糟糕,很有可能在我们的项目团队中会遇到一些下面的问题: 1)、我们公司都是Windows服务器,没有专门Linux运维人员! 2)、. NET项目技术成员目前对Windows系统比较熟悉,对Linux系统不太熟悉。 3)、考虑时间成本短时间内不可能开发出来一套成熟的实时日志监控系统。 那么作为.NET技术的我们该如何快速的搭建中小型企业级日志实时监控系统,解决我们的日志实时监控痛点问题! 一位伟大的领袖说过这么一句话:自己动手,丰衣足食!那么新时代的赋予了我们年轻人的使命:撸起袖子加油干! 1.2、一句话总结今天我们要...
- 下一篇
Hadoop所有命令详解
FS Shell 调用文件系统(FS)Shell命令应使用 bin/hadoop fs <args>的形式。 所有的的FS shell命令使用URI路径作为参数。URI格式是scheme://authority/path。对HDFS文件系统,scheme是hdfs,对本地文件系统,scheme是file。其中scheme和authority参数都是可选的,如果未加指定,就会使用配置中指定的默认scheme。一个HDFS文件或目录比如/parent/child可以表示成hdfs://namenode:namenodeport/parent/child,或者更简单的/parent/child(假设你配置文件中的默认值是namenode:namenodeport)。大多数FS Shell命令的行为和对应的Unix Shell命令类似,不同之处会在下面介绍各命令使用详情时指出。出错信息会输出到stderr,其他信息输出到stdout。 cat 使用方法:hadoop fs -cat URI [URI …] 将路径指定文件的内容输出到stdout。 示例: hadoop fs -ca...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Hadoop3单机部署,实现最简伪集群
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- Linux系统CentOS6、CentOS7手动修改IP地址
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题
- CentOS8安装Docker,最新的服务器搭配容器使用
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- Windows10,CentOS7,CentOS8安装Nodejs环境
- SpringBoot2全家桶,快速入门学习开发网站教程
- CentOS8安装MyCat,轻松搞定数据库的读写分离、垂直分库、水平分库
- CentOS7安装Docker,走上虚拟化容器引擎之路