-
hadoop2.2.0集群安装和配置
依赖一些C++的本地库, 所以如果在64位的操作上安装hadoop-2.2.0就需要重新在64操作系统上重新编译 集群规划: 主机名 IP 安装的软件 运行的进程 cloud1 192.168.61.128jdk
时间:2015-03-20收藏
-
ElasticSearch入门 第一篇:Windows下安装ElasticSearch
ElasticSearch官网:http://www.elasticsearch.org 一,安装Java SE环境 在安装Elasticsearch引擎之前,必须安装ES需要的软件环境,安装Java JDK
时间:2015-03-18收藏
-
跟我一起数据挖掘(22)——spark入门
spark本机安装 流程:进入linux->安装JDK->安装scala->安装spark。 JDK的安装和配置(略)。
时间:2015-03-14收藏
-
hadoop2.2.0伪分布式安装
iptables stop #查看防火墙开机启动状态 chkconfig iptables --list #关闭防火墙开机启动 chkconfig iptables off 重启Linux reboot 安装JDK
时间:2015-03-12收藏
-
Hadoop 学习第三天之集群安装(上)
/root/.ssh/* b)删掉原来的hadoop安装程序 #rm –rf /usr/local/*(如果该目录下还有其他的有用数据,则只删除hadoop的即可) c)删掉环境变量中的hadoop和jdk
时间:2015-03-10收藏
-
hadoop hive hbase 入门学习 (二)
0.94.26 HIVE_HOME=/home/hadoop/hive-0.9.0HADOOP_HOME=/home/hadoop/hadoop-1.1.1JAVA_HOME=/home/hadoop/jdk1.7.0PATH
时间:2015-03-08收藏
-
一步一步用jenkins,ansible,supervisor打造一个web构建发布系统
下面将要介绍的完整流程是: github作为源代码仓库 jenkins做为打包服务器,Web控制服务器 ansible把war包,发布到远程机器 安装python-pip 用pip安装supervisor 安装jdk
时间:2015-03-05收藏
-
Hadoop入门 -- 简介,安装,示例
安装Hadoop需要一些辅助环境与软件,首先是java环境,安装JDK,linux环境下安装JDK主要是配置环境变量,可参考相关教程。
时间:2015-02-25收藏
-
hadoop hive hbase 入门学习 (一)
把公钥放到文件authorized_keys.(3)执行命令ssh-copy-id -i ~/.ssh/authorized_keys Master验证:ssh hadoop01.8 安装oracle的jdk
时间:2015-02-15收藏
-
HBase集群的安装部署
HBASE_HOME/bin 保存退出 #source /etc/profile 修改$HBASE_HOME/conf/hbase-env.sh,修改内容如下: export JAVA_HOME=/usr/java/jdk1.6.0
时间:2015-02-14收藏
-
HBase基础和伪分布式安装配置
bin 保存退出 #source /etc/profile 4.2 修改$HBASE_HOME/conf/hbase-env.sh,修改内容如下: export JAVA_HOME=/usr/java/jdk1.6.0
时间:2015-02-13收藏
-
hadoop 2.6全分布安装
步骤二:在3台虚拟机上安装jdk yum install java 注:hadoop是java写的,jdk是必须的。上述命令,会安装openjdk最基本的运行时,没有源码和javac等其它工具。
时间:2015-02-12收藏