首页 文章 精选 留言 我的

精选列表

搜索[安装],共10000篇文章
优秀的个人博客,低调大师

Hadoop2.6.x安装hive1.2.1

1、配置hive-site.xml <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://master:3306/hive?createDatabaseIfNotExist=true&characterEncoding=UTF-8</value> <description>JDBC connection string for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.jdbc.Driver</value> <description>Driver class name for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>root</value> <description>username for metastore database</description> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>root</value> <description></description> </property> <property> <name>hive.metastore.warehouse.dir</name> <value>/app/data/hive/warehouse</value> <description></description> </property> #如果不配置下面的部分会产生错误1. <property> <name>hive.exec.local.scratchdir</name> <value>/app/data/hive/iotmp</value> <description>Local scratch space for Hive jobs</description> </property> <property> <name>hive.downloaded.resources.dir</name> <value>/app/data/hive/iotmp</value> <description>Temporary local directory for added resources in the remote file system.</description> </property> <property> <name>hive.querylog.location</name> <value>/app/data/hive/iotmp/log</value> <description>Location of Hive run time structured log file</description> </property> <property> <name>hive.server2.logging.operation.log.location</name> <value>/app/data/hive/iotmp/operation_logs</value> <description>Top level directory where operation logs are stored if logging functionality is enabled</description> </property> 2、配置hive-env.sh export HIVE_HOME=/app/bigdata/hive/apache-hive-1.2.1-bin export HIVE_CONF_DIR=/app/bigdata/hive/apache-hive-1.2.1-bin/conf 3、配置 hive-config.sh export JAVA_HOME=/app/bigdata/java/jdk1.7.0_79 export HADOOP_HOME=/app/bigdata/hadoop/hadoop-2.6.4 export SPARK_HOME=/app/bigdata/spark/spark-1.6.2-bin-hadoop2.6 4、配置log vim hive-log4j.properties hive.log.dir=/app/bigdata/hive/hive/log/ 5、mysql给hive表授权 grant select,insert,update,delete,create,drop on vtdc.employee to joe@10.163.225.87 identified by ‘123′; 给来自10.163.225.87的用户joe分配可对数据库vtdc的employee表进行select,insert,update,delete,create,drop等操作的权限,并设定口令为123。 grant all on hive.* to root@'master' identified by 'root'; flush privileges; 6、启动hadoop服务:http://192.168.1.10:50070/ sh sbin/start-dfs.sh sbin/start-yarn.sh 7、启动Hive 8、Hive数据库CRUD操作集合 Create DataBase:create database testdb; Show DataBase: show databases; show tables: show tables; user table; Create Table:create table sudent(int id); 9、Hive数据导入导出 1、第一种加载数据到student中 注意:使用load加载数据到数据库中是不使用mapreduce的,而桶类型的表用insert要用到mapreduce Import Data: load data local inpath '/app/bigdata/hive/apache-hive-1.2.1-bin/student' into table student; 使用select * 不加条件时,不执行MapReduce,执行比较快;最后一行显示的是null,原因是文件中有一行空格; 2、第二种加载数据到student中的方法 在/usr/local/hive/目录下创建student_1文件,并写入一列数字; 执行命令hadoop fs -put student /app/data/hive/warehouse/testdb.db/student 或者 hdfs dfs -put student /app/data/hive/warehouse/testdb.db/student 10、批量kill linux qemu 进程 ps aux|grep hadoop|grep -v grep|awk '{print $2}'|xargs kill -9

资源下载

更多资源
腾讯云软件源

腾讯云软件源

为解决软件依赖安装时官方源访问速度慢的问题,腾讯云为一些软件搭建了缓存服务。您可以通过使用腾讯云软件源站来提升依赖包的安装速度。为了方便用户自由搭建服务架构,目前腾讯云软件源站支持公网访问和内网访问。

Spring

Spring

Spring框架(Spring Framework)是由Rod Johnson于2002年提出的开源Java企业级应用框架,旨在通过使用JavaBean替代传统EJB实现方式降低企业级编程开发的复杂性。该框架基于简单性、可测试性和松耦合性设计理念,提供核心容器、应用上下文、数据访问集成等模块,支持整合Hibernate、Struts等第三方框架,其适用范围不仅限于服务器端开发,绝大多数Java应用均可从中受益。

Rocky Linux

Rocky Linux

Rocky Linux(中文名:洛基)是由Gregory Kurtzer于2020年12月发起的企业级Linux发行版,作为CentOS稳定版停止维护后与RHEL(Red Hat Enterprise Linux)完全兼容的开源替代方案,由社区拥有并管理,支持x86_64、aarch64等架构。其通过重新编译RHEL源代码提供长期稳定性,采用模块化包装和SELinux安全架构,默认包含GNOME桌面环境及XFS文件系统,支持十年生命周期更新。

Sublime Text

Sublime Text

Sublime Text具有漂亮的用户界面和强大的功能,例如代码缩略图,Python的插件,代码段等。还可自定义键绑定,菜单和工具栏。Sublime Text 的主要功能包括:拼写检查,书签,完整的 Python API , Goto 功能,即时项目切换,多选择,多窗口等等。Sublime Text 是一个跨平台的编辑器,同时支持Windows、Linux、Mac OS X等操作系统。

用户登录
用户注册