hive thrift 开机启动
这个问题困扰我很久,之前redis的时候,也出现了这个问题,从网上找的thrift脚本没有一个好使的,最后通过修改/etc/rc.d/rc.local来执行一些非服务的命令,这样子就不需要像写服务那样写start,stop方法啦,不过修改这个配置文件要小心,命令里面不要包含阻塞式的命令,否则开机进不了界面,就悲剧了,我就这样玩挂了一次系统。
经过一顿挣扎之后,终于找到解决的方法了。
su - cenyuhai -c "hive --service hiveserver &"
上面的这句命令的意思是用账号cenyuhai来执行 "hive --service hiverserver" 这个命令, 命令结束后的&意思是在后台运行,则该命令不会阻塞系统,否则就悲剧了,发生进不去系统的问题。
分享结束,收工!

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
Spark Streaming 流式计算实战
这篇文章由一次平安夜的微信分享整理而来。在Stuq 做的分享, 原文内容。 业务场景 这次分享会比较实战些。具体业务场景描述: 我们每分钟会有几百万条的日志进入系统,我们希望根据日志提取出时间以及用户名称,然后根据这两个信息形成 userName/year/month/day/hh/normal userName/year/month/day/hh/delay 路径,存储到HDFS中。如果我们发现日志产生的时间和到达的时间相差超过的一定的阈值,那么会放到 delay 目录,否则放在正常的 normal 目录。 Spark Streaming 与 Storm 适用场景分析 为什么这里不使用 Storm呢? 我们初期确实想过使用 Storm 去实现,然而使用 Storm 写数据到HDFS比较麻烦: * Storm 需要持有大量的 HDFS 文件句柄。需要落到同一个文件里的记录是不确定什么时候会来的,你不能写一条就关掉,所以需要一直持有。 * 需要使用HDFS 的写文件的 append 模式,不断追加记录。 大量持有文件句柄以及在什么时候释放这些文件句柄都是一件很困难的事情。另外使用 HDF...
- 下一篇
hadoop 1.1.2和 hive 0.10 和hbase 0.94.9整合
今天弄了一下hive0.10和hbase0.94.9整合,需要设置的并不多,但是也遇到了一些问题。 1.复制jar包 拷贝hbase-0.94.9.jar,zookeeper-3.4.5.jar,protobuf-java-2.4.0a.jar到hive/lib下,删掉lib下面旧版的jar包。 拷贝hbase-0.94.9.jar到所有hadoop节点的lib文件夹下面,拷贝hbase/confi的hbase-site.xml文件拷贝到所有的hadoop节点conf文件夹下。 2.修改hive-site.xml配置文件,添加以下内容 <property> <name>hive.querylog.location</name> <value>/usr/hive/logs</value> </property> <property> <name>hive.aux.jars.path</name> <value>file:///usr/hive/lib/hive-hbas...
相关文章
文章评论
共有0条评论来说两句吧...