hive连接eclipse
1、在Hadoop/etc/core-site.xml中新增
<property>
<name>hadoop.proxyuser.qiqi.hosts</name>
<value>主节点地址</value>
</property>
<property>
<name>hadoop.proxyuser.qiqi.groups</name>
<value>*</value>
</property>
修改后重启Hadoop
测试:./beeline -u 'jdbc:hive2://localhost:10000/userdb' -n doutao
2、到hive/conf/hive-site.xml文件下,修改文件
<configuration>
<property>
<name>hive.server2.thrift.port</name>
<value>10000</value>
</property>
<property>
<name>hive.server2.thrift.bind.host</name>
<value>192.168.33.128</value>
</property>
</configuration>
3、启动hive服务
hive --service hiveserver2
4、打开eclipse,新建hive项目,导入hive/lib下的jar包
5、代码封装测试
import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.ResultSet;
import java.sql.SQLException;
import java.sql.Statement;
public class Hive {
Connection con=null;
Statement statement=null;
ResultSet res=null;
public boolean openConnection() throws SQLException{
try {
Class.forName("org.apache.hive.jdbc.HiveDriver");
con=DriverManager.getConnection("jdbc:hive2://192.168.147.140:10000/default", "qiqi", "123456");
} catch (ClassNotFoundException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
return false;
}
//select
public ResultSet selevtAll(String sql) throws SQLException{
statement=con.createStatement();
res=statement.executeQuery(sql);
return res;
}
//insert update delete
public boolean updatAll(String sql) throws SQLException{
statement=con.createStatement();
boolean re=statement.execute(sql);
return re;
}
//close
public void closeAll(){
try {
res.close();
statement.close();
con.close();
} catch (SQLException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
}
}
import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.ResultSet;
import java.sql.Statement;
public class Test {
public static void main(String[] args) throws Exception {
// TODO Auto-generated method stub
Hive hive = new Hive();
//String dropSql="drop table kissli";
//String createSql="CREATE TABLE gool(name String,age int)";
//String createSql="CREATE TABLE kiss(key string,xm string,nl int)STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler' WITH SERDEPROPERTIES ('hbase.columns.mapping' = ':key,hu:xm,huxie:nl') TBLPROPERTIES ('hbase.table.name' = 'kissli1')";
//String insertSql="insert into gool values('wangzhang',89)";
String querySql="select * from gool";
//String sql="drop table fengzi";
boolean sta=hive.openConnection();
//System.out.print(hive.updatAll(insertSql));
//statement.execute(createSql);
//statement.execute(insertSql);
ResultSet rs=hive.selevtAll(querySql);
while(rs.next()){
System.out.println(rs.getString(1));
System.out.println(rs.getInt(2));
}
hive.closeAll();
}
}

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
-
上一篇
威胁快报|ProtonMiner挖矿蠕虫扩大攻击面,加速传播
背景 近日,阿里云安全监测到一种挖矿蠕虫,正在互联网上加速传播。阿里云安全根据它使用ProtonMail邮箱地址作为矿池用户名的行为,将其命名为ProtonMiner。据分析,这种蠕虫与TrendMicro于2018年12月曾报导过的“利用ElasticSearch旧漏洞传播的蠕虫”非常相似,可能是同一团伙所为。但与先前报导不同的是,二月中旬,该挖矿蠕虫扩大了攻击面,从仅攻击ElasticSearch这一种服务,变为攻击包括Redis, Weblogic在内的多种服务,传播速度大大加快。 本文着重描写该挖矿僵尸网络的传播手法,并在文末列出了安全建议,以帮助用户避免遭受感染,或在已被感染的情况下进行清理。 感染路径 攻击者先控制被感染主机执行以下两条命令之一,从而下载并运行uuu.sh。 /bin/bash -c curl -fsSL h
-
下一篇
What can be Streamed
What can be Streamed Flink用于Java和Scala的DataStream APIs将允许传输他们可以序列化的任何内容。 Flink的序列化器用于: 简单类型:String,Long,integer,Boolean,Array 复合类型:Tuples,POJOs,Scala case classes 而Flink对于其他类型则回归于Kryo。 Java Tuples 对于Java而言,Flink定义了Tuple1到Tuple25类型。 Tuple2<String, Integer> person = new Tuple2<>("Fred", 35); // zero based index! String name = person.f0; Integer age = person.f1 POJOs 一个POJOs(普通的旧Java对象)是任何Java类: 有一个空的默认构造函数 所有域都是以下之一: public 有一个默认的getter和setter 例如: public class Person { public String na...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Docker容器配置,解决镜像无法拉取问题
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- 2048小游戏-低调大师作品
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果
- SpringBoot2初体验,简单认识spring boot2并且搭建基础工程
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- MySQL数据库在高并发下的优化方案
- Dcoker安装(在线仓库),最新的服务器搭配容器使用
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题