首页 文章 精选 留言 我的

精选列表

搜索[centos],共5623篇文章
优秀的个人博客,低调大师

CentOS下LVS DR模式详细搭建过程

1、LVS环境组网 由于是使用的VM环境,自己PC当作客户机(即公网地址),调度器与服务器都是VM中虚拟机,所以客户和所有服务器之间都是物理直接相连网络,逻辑拓扑图如下: 2、ipvsadm安装前准备 外部IP地址 内部IP地址 角色 10.211.55.16/24 192.168.1.3/24 LVS调度器(虚拟机) 10.211.55.15/24 192.168.1.4/24 RS1(虚拟机) 10.211.55.14/24 192.168.1.5/24 RS2(虚拟机) 10.211.55.19/24 无 客户机(自己电脑) 注:实际应用中RS1 RS2没有外部地址,当前环境中,没有物理双网卡环境,都采用一个网卡配置多个IP地址。 例: [root@LVS1~]#cp/etc/sysconfig/network-scripts/ifcfg-eth0/etc/sysconfig/network-scripts/ifcfg-eth0:0 [root@LVS1~]#vi/etc/sysconfig/network-scripts/ifcfg-eth0:0#修改后保存退出 DEVICE=eth0:0 ONBOOT=yes BOOTPROTO=static IPADDR=192.168.1.3 NETMASK=255.255.255.0 [root@LVS1~]#/etc/init.d/networkrestart 3、httpd与ipvsadm下载 1)在各服务器上关闭防火墙和修改主机名: [root@LVS1~]#serviceiptablesstop [root@LVS1~]#hostnameLVS1 [root@RS1~]#serviceiptablesstop [root@RS1~]#hostnameRS1 [root@RS2~]#serviceiptablesstop [root@RS2~]#hostnameRS2 2)在RS1 RS2上安装httpd服务 [root@RS2~]#yuminstallhttpd&ndash;y [root@RS2~]#/etc/init.d/httpdstart [root@RS2~#ps-ef|grephttpd [root@RS1~]#yuminstallhttpd&ndash;y [root@RS1~]#/etc/init.d/httpdstart [root@RS1~#ps-ef|grephttpd<==查看httpd服务是否起来 [root@RS1~]#cat/etc/httpd/conf/httpd.conf|grepDocumentRoot<==查找系统站点目录路径 #DocumentRoot:Thedirectoryoutofwhichyouwillserveyour DocumentRoot"/var/www/html" #ThisshouldbechangedtowhateveryousetDocumentRootto. #DocumentRoot/www/docs/dummy-host.example.com [root@RS1~]#echo"RS1">/var/www/html/index.html [root@RS2src]#echo"RS2">/var/www/html/index.html Httpd服务测试: 3)下载ipvsadm wgethttp://www.linuxvirtualserver.org/software/kernel-2.6/ipvsadm-1.24.tar.gz ln 我所使用的源包下载目录/usr/local/src 我的LVS环境: [root@LVS1~]#yum-yinstallkernel-develgccc++ [root@RS1src]#cat/etc/redhat-release CentOSrelease5.8(Final) [root@RS1src]#uname-rm 2.6.18-308.el5x86_64 ipvsadm-1.26对内核有要求,要求内核版本在2.6.28及以后的版本,如果符合了系统环境,还要安装依赖包yum install libnlpopt-y。 我的内核版本不满足,使用ipvsadm-1.24。 [root@LVS1src]#tar-zxfipvsadm-1.24.tar.gz [root@LVS1src]#ln-s/usr/src/kernels/2.6.18-348.12.1.el5-x86_64/usr/src/linux<==编译有使用的路径为/usr/src/linux,可在Makefile中查看,如果不做链接,会编译失败 [root@LVS1src]#ll/usr/src/ total16 drwxr-xr-x2rootroot4096May112011debug drwxr-xr-x3rootroot4096Aug503:53kernels lrwxrwxrwx1rootroot43Aug503:56linux->/usr/src/kernels/2.6.18-348.12.1.el5-x86_64<==要使用ll/usr/src/查看,如果软链接一闪一闪的,代表链接失败 [root@LVS1src]#cdipvsadm-1.24 [root@LVS1ipvsadm-1.24]#make&&makeinstall<==如果编译失败,请按上面步骤一步一步排错。 [root@LVS1ipvsadm-1.24]#lsmod|grepip_vs<==查看内核模块是否有ipvsadm [root@LVS1ipvsadm-1.24]#ipvsadm IPVirtualServerversion1.2.1(size=4096) ProtLocalAddress:PortSchedulerFlags ->RemoteAddress:PortForwardWeightActiveConnInActConn 还有一种加载ipvsadm方法,用modprobe ip_vs [root@LVS1 ipvsadm-1.24]# lsmod |grep ip_vs <==查看内核模块,有代表ipvsadm加载进内核当中,此时LVS安装完毕ip_vs 122113 0 4、LVS负载均衡配置 1)配置VIP和DIP IP配置参考步骤2安装准备 [root@LVS1~]#ifconfigeth010.211.55.16netmask255.255.255.0#VIP [root@LVS1~]#ifconfigeth0:1192.168.1.3netmask255.255.255.0#DIP 2)添加真实服务器 [root@LVS1~]#ipvsadm&ndash;C<==手工清空原来表内容 [root@LVS1~]#ipvsadm--set30560<==设置连接超时值 [root@LVS1~]#ipvsadm-A-t10.211.55.16:80-swrr-p20<==-A添加地址,-t指定VIPTCP端口,-s指定调度算法–p会话保持时间 [root@LVS1~]#ipvsadm-L-n<==查看表内容,添加了一组VIP地址和端口 IPVirtualServerversion1.2.1(size=4096) ProtLocalAddress:PortSchedulerFlags ->RemoteAddress:PortForwardWeightActiveConnInActConn TCP10.211.55.16:80wrrpersistent20 [root@LVS1~]#ipvsadm-a-t10.211.55.16:80-r192.168.1.4:80-g-w1<==-a指定真实服务器,-tlvs上VIP,-r真实服务器ip及端口,-w权重值,-g先择DR模式(-m为NAT模式) [root@LVS1~]#ipvsadm-a-t10.211.55.16:80-r192.168.1.5:80-g-w1 [root@LVS1~]#ipvsadm-L-n<==查看表内容,添加了两台负载转发的真实服务器 IPVirtualServerversion1.2.1(size=4096) ProtLocalAddress:PortSchedulerFlags ->RemoteAddress:PortForwardWeightActiveConnInActConn TCP10.211.55.16:80wrrpersistent20 ->192.168.1.4:80Route100 ->192.168.1.5:80Route100 如果添加服务器地址写错了,可用如下命令删除,即大A添加改为大D删除,小a添加改为小d删除 ipvsadm&ndash;D&ndash;t10.211.55.16:80&ndash;swrr ipvsadm&ndash;d&ndash;t10.211.55.16:80&ndash;r192.168.1.4:80 5、真实WEB服务器配置及arp抑制 [root@RS1~]#ifconfigeth0|grep"inetaddr"<==此地址用来自己电脑用CRT软件登陆设备,同时也用来发送arp请求客户机MAC(因为是直接返回页面给客户机,而当前网络是同一物理网段,必须同网段才正常)。 inetaddr:10.211.55.15Bcast:10.211.55.255Mask:255.255.255.0 [root@RS1~]#ifconfigeth0:0192.168.1.4netmask255.255.255.0<==配置内部IP地址 [root@RS1~]#ifconfiglo10.211.55.16netmask255.255.255.255<==每台真实服务器都需要配置VIP 为什么要绑定VIP呢?因为DR模式原理是LVS调度器修改mac地址为真实服务器地址,报文的目的IP还是VIP没修改,,网卡只会把目的MAC和目的IP都是自己的报文上送CPU,所以真实服务器上必须配置VIP! 为什么使用lo口呢?因为lo口为本地环回口,防止本地局域网IP地址冲突! [root@RS2src]#ifconfieth0|grep"inetaddr"<==此地址用来自己电脑用CRT软件登陆设备,同时也用来发送arp请求客户机MAC(因为是直接返回页面给客户机,而当前网络是同一物理网段,必须同网段才正常)。 inetaddr:10.211.55.14Bcast:10.211.55.255Mask:255.255.255.0 [root@RS2src]#ifconfigeth0:0192.168.1.5netmask255.255.255.0<==配置内部IP地址 [root@RS2src]#ifconfiglo10.211.55.16netmask255.255.255.255 此时配置完成,只是测试时出现一个问题,再次登陆CRT中 10.211.55.16地址时,登陆到RS1上去了,再刷新,登陆到RS2上去了。怎么解决呢? 通过分析,得出,访问10.211.55.16时,会发送arp请求10.211.55.16的mac,而这个网络中有3个10.211.55.16地址,此时,那谁给的arp回应到客户机,访问的就是谁了。如果RS1的arp回应先到,就访问的RS1了 解决方法: 抑制ARP响应 该抑制只在真实服务器上配置 [root@RS1~]#echo"1">/proc/sys/net/ipv4/conf/lo/arp_ignore [root@RS1~]#echo"2">/proc/sys/net/ipv4/conf/lo/arp_announce [root@RS1~]#echo"1">/proc/sys/net/ipv4/conf/all/arp_ignore [root@RS1~]#echo"2">/proc/sys/net/ipv4/conf/all/arp_announce [root@RS2src]#echo"1">/proc/sys/net/ipv4/conf/lo/arp_ignore [root@RS2src]#echo"2">/proc/sys/net/ipv4/conf/lo/arp_announce [root@RS2src]#echo"1">/proc/sys/net/ipv4/conf/all/arp_ignore [root@RS2src]#echo"2">/proc/sys/net/ipv4/conf/all/arp_announce 1 2都代表什么内容,可在最后附录中查看,也可自己网上搜索 显示的值是RS1,则此时该链接是分配到192.168.1.4上 我们使用的是wrr调度算法,该算法中,谁的权重值高,会优先分配给谁 查看配置,发现权重值一样 [root@LVS1~]#ipvsadm-L-n IPVirtualServerversion1.2.1(size=4096) ProtLocalAddress:PortSchedulerFlags ->RemoteAddress:PortForwardWeightActiveConnInActConn TCP10.211.55.16:80wrrpersistent20 ->192.168.1.4:80Route100 ->192.168.1.5:80Route100 由于有会话保持功能,接下来修改权重值 [root@LVS1~]#ipvsadm-d-t10.211.55.16:80-r192.168.1.5:80<==删除原来配置 [root@LVS1~]#ipvsadm-a-t10.211.55.16:80-r192.168.1.5:80-g-w2<==重新配置权重值为2 [root@LVS1~]#ipvsadm-L-n IPVirtualServerversion1.2.1(size=4096) ProtLocalAddress:PortSchedulerFlags ->RemoteAddress:PortForwardWeightActiveConnInActConn TCP10.0.0.30:80wrrpersistent20 ->192.168.1.5:80Route200 ->192.168.1.4:80Route100 再次进行测试: 7、附:arp抑制参数 arp响应限制 1)arp_ignore: 定义对目标地址为本地IP的ARP询问不同的应答模式0 0 - (默认值): 回应任何网络接口上对任何本地IP地址的arp查询请求 1 - 只回答目标IP地址是来访网络接口本地地址的ARP查询请求 2 -只回答目标IP地址是来访网络接口本地地址的ARP查询请求,且来访IP必须在该网络接口的子网段内 3 - 不回应该网络界面的arp请求,而只对设置的唯一和连接地址做出回应 4-7 - 保留未使用 8 -不回应所有(本地地址)的arp查询 2)arp_announce: 对网络接口上,本地IP地址的发出的,ARP回应,作出相应级别的限制: 确定不同程度的限制,宣布对来自本地源IP地址发出Arp请求的接口 0 - (默认) 在任意网络接口(eth0,eth1,lo)上的任何本地地址 1 -尽量避免不在该网络接口子网段的本地地址做出arp回应. 当发起ARP请求的源IP地址是被设置应该经由路由达到此网络接口的时候很有用.此时会检查来访IP是否为所有接口上的子网段内ip之一.如果改来访IP不属于各个网络接口上的子网段内,那么将采用级别2的方式来进行处理. 2 - 对查询目标使用最适当的本地地址.在此模式下将忽略这个IP数据包的源地址并尝试选择与能与该地址通信的本地地址.首要是选择所有的网络接口的子网中外出访问子网中包含该目标IP地址的本地地址. 如果没有合适的地址被发现,将选择当前的发送网络接口或其他的有可能接受到该ARP回应的网络接口来进行发送.

优秀的个人博客,低调大师

hadoop(1):centos 安装 hadoop &amp; hive

1,关于hive Hive是一个基于Hadoop的数据仓库平台。通过hive,我们可以方便地进行ETL的工作。hive定义了一个类似于SQL的查询语言:HQL,能 够将用户编写的QL转化为相应的Mapreduce程序基于Hadoop执行。 Hive是Facebook 2008年8月刚开源的一个数据仓库框架,其系统目标与 Pig 有相似之处,但它有一些Pig目前还不支持的机制,比如:更丰富的类型系统、更类似SQL的查询语言、Table/Partition元数据的持久化等。 本文的原文连接是: http://blog.csdn.net/freewebsys/article/details/47617975 未经博主允许不得转载。 网站首页: http://hive.apache.org/ 2,安装 首先要安装hadoop https://hadoop.apache.org/ 直接下载tar.gz解压缩。最新版本2.7.1。 tar -zxvf hadoop-2.7.1.tar.gz mv hadoop-2.7.1 hadoop 下载地址: http://hive.apache.org/downloads.html 直接解压缩就可以。最新版本 1.2.1。 tar -zxvf apache-hive-1.2.1-bin.tar.gz mv apache-hive-1.2.1 apache-hive 设置环境变量: export JAVA_HOME=/usr/java/default export CLASS_PATH=$JAVA_HOME/lib export PATH=$JAVA_HOME/bin:$PATH export HADOOP_HOME=/data/hadoop export PATH=$HADOOP_HOME/bin:$PATH export HIVE_HOME=/data/apache-hive export PATH=$HIVE_HOME/bin:$PATH 3,启动hive,创建表 hive 官网:https://cwiki.apache.org/confluence/display/Hive/Home 配置环境变量就可以启动hive了,这个hive是一个本机环境,只依赖hadoop,只有有hadoop环境变量就行。 创建数据表,和mysql非常类似 参考:http://www.uml.org.cn/yunjisuan/201409235.asp https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DDL # hive Logging initialized using configuration in jar:file:/data/apache-hive/lib/hive-common-1.2.1.jar!/hive-log4j.properties hive> show databases; OK default Time taken: 1.284 seconds, Fetched: 1 row(s) hive> use default; OK Time taken: 0.064 seconds hive> show tables; OK Time taken: 0.051 seconds hive> CREATE TABLE user_info(uid INT,name STRING) > PARTITIONED BY (create_date STRING) > ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' > STORED AS TEXTFILE; OK Time taken: 0.09 seconds 使用apache hive 创建数据库表的时候有可能会遇到问题: FAILED: ParseException line 5:2 Failed to recognize predicate 'date'. Failed rule: 'identifier' in column specification 说明关键字冲突了。不能使用date,user等关键字。 指定存储格式为 Sequencefile 时,把txt格式的数据导入表中,hive 会报文件格式错 Failed with exception Wrong file format. Please check the file's format. FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.MoveTask 4,导入数据 hive不支持用insert语句一条一条的进行插入操作,也不支持update操作。数据是以load的方式加载到建立好的表中。 数据一旦导入就不可以修改。因为hadoop是这个特性。 创建两个数据文件: /data/user_info_data1.txt 121,zhangsan1 122,zhangsan2 123,zhangsan3 /data/user_info_data2.txt 124,zhangsan4 125,zhangsan5 126,zhangsan6 数据导入:分别将数据导入到两个分区中。 hive> LOAD DATA LOCAL INPATH '/data/user_info_data1.txt' OVERWRITE INTO TABLE user_info PARTITION (create_date='20150801'); Loading data to table default.user_info partition (create_date=20150801) Partition default.user_info{create_date=20150801} stats: [numFiles=1, numRows=0, totalSize=42, rawDataSize=0] OK Time taken: 0.762 seconds hive> LOAD DATA LOCAL INPATH '/data/user_info_data2.txt' OVERWRITE INTO TABLE user_info PARTITION (create_date='20150802'); Loading data to table default.user_info partition (create_date=20150802) Partition default.user_info{create_date=20150802} stats: [numFiles=1, numRows=0, totalSize=42, rawDataSize=0] OK Time taken: 0.403 seconds 5,查询 直接查询即可。 hive> select * from user_info where create_date = 20150801; OK 121 zhangsan1 20150801 122 zhangsan2 20150801 123 zhangsan3 20150801 Time taken: 0.099 seconds, Fetched: 3 row(s) 更多查询函数参考: hive 函数大全和用户自定义函数 https://cwiki.apache.org/confluence/display/Hive/LanguageManual+UDF 6,总结 本文的原文连接是: http://blog.csdn.net/freewebsys/article/details/47617975 未经博主允许不得转载。 hive可以非常方便的进行离线数据统计,因为数据一旦录入是不能进行修改的。 hive的语法和mysql非常相似,可以充分利用hadoop进行数据统计,可以进行多次join而不用担心效率问题。 目前,有一个小问题没有解决,是数据导入必须使用textfile,不是压缩文件类型。 这个问题的具体描述参考: http://blog.163.com/xiaoy2002@126/blog/static/6797953420128118227663/

优秀的个人博客,低调大师

CentOS 64位上编译 Hadoop2.6.0

由于hadoop-2.6.0.tar.gz安装包是在32位机器上编译的,64位的机器加载本地库.so文件时会出错,比如: java.lang.UnsatisfiedLinkError: org.apache.hadoop.util.NativeCrc32.nativeComputeChunkedSumsByteArray(II[BI[BIILjava/lang/String;JZ)V 所以需要重新编译 1.编译环境 yum install cmake lzo-devel zlib-devel gcc gcc-c++ autoconf automake libtool ncurses-devel openssl-devel libXtst 2.安装JDK(下载JDK1.7,只能用1.7,否则编译会出错) 下载页面: http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html tar -zxvf jdk-7u75-linux-x64.tar.gz -C /usr/local export JAVA_HOME=/usr/local/jdk1.7.0_75 export JRE_HOME=$JAVA_HOME/jre export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export PATH=$PATH:$JAVA_HOME/bin 3.安装protobuf 下载protobuf-2.5.0,不能用高版本,否则Hadoop编译不能通过 wget https://protobuf.googlecode.com/files/protobuf-2.5.0.tar.gz 或者 在百度云盘上下载:http://yun.baidu.com/share/link?shareid=830873155&uk=3573928349 tar -zxvf protobuf-2.5.0.tar.gz cd protobuf-2.5.0 ./configure make make install protoc --version 4.安装ANT wget http://mirror.bit.edu.cn/apache/ant/binaries/apache-ant-1.9.4-bin.tar.gz tar -zxvf apache-ant-1.9.4-bin.tar.gz -C /usr/local vi /etc/profile export ANT_HOME=/usr/local/apache-ant-1.9.4 export PATH=$PATH:$ANT_HOME/bin 5.安装maven wget http://mirror.bit.edu.cn/apache/maven/maven-3/3.3.1/binaries/apache-maven-3.3.1-bin.tar.gz tar -zxvf apache-maven-3.3.1-bin.tar.gz -C /usr/local vi /etc/profile export MAVEN_HOME=/usr/local/apache-maven-3.3.1 export PATH=$PATH:$MAVEN_HOME/bin 修改配置文件 vi /usr/local/apache-maven-3.3.1/conf/settings.xml 更改maven资料库,在<mirrors></mirros>里添加如下内容: <mirror> <id>nexus-osc</id> <mirrorOf>*</mirrorOf> <name>Nexusosc</name> <url>http://maven.oschina.net/content/groups/public/</url> </mirror> 在<profiles></profiles>内新添加 <profile> <id>jdk-1.7</id> <activation> <jdk>1.7</jdk> </activation> <repositories> <repository> <id>nexus</id> <name>local private nexus</name> <url>http://maven.oschina.net/content/groups/public/</url> <releases> <enabled>true</enabled> </releases> <snapshots> <enabled>false</enabled> </snapshots> </repository> </repositories> <pluginRepositories> <pluginRepository> <id>nexus</id> <name>local private nexus</name> <url>http://maven.oschina.net/content/groups/public/</url> <releases> <enabled>true</enabled> </releases> <snapshots> <enabled>false</enabled> </snapshots> </pluginRepository> </pluginRepositories> </profile> 在shell下执行,使环境变量生效 source /etc/profile 7.编译 Hadoop2.6.0 wget http://mirror.bit.edu.cn/apache/hadoop/core/hadoop-2.6.0/hadoop-2.6.0-src.tar.gz cd hadoop-2.6.0-src mvn package -DskipTests -Pdist,native -Dtar 如果是第一次使用maven,会打印很多如下日志信息 Downloading: http://maven.oschina.net/... Scanning for projects... ... [INFO] Apache Hadoop Main ................................. SUCCESS [ 4.590 s][INFO] Apache Hadoop Project POM .......................... SUCCESS [ 3.503 s][INFO] Apache Hadoop Annotations .......................... SUCCESS [ 5.870 s][INFO] Apache Hadoop Assemblies ........................... SUCCESS [ 0.540 s][INFO] Apache Hadoop Project Dist POM ..................... SUCCESS [ 3.921 s][INFO] Apache Hadoop Maven Plugins ........................ SUCCESS [ 7.731 s][INFO] Apache Hadoop MiniKDC .............................. SUCCESS [ 6.805 s][INFO] Apache Hadoop Auth ................................. SUCCESS [ 9.008 s][INFO] Apache Hadoop Auth Examples ........................ SUCCESS [ 6.991 s][INFO] Apache Hadoop Common ............................... SUCCESS [03:12 min][INFO] Apache Hadoop NFS .................................. SUCCESS [ 16.557 s][INFO] Apache Hadoop KMS .................................. SUCCESS [ 24.476 s][INFO] Apache Hadoop Common Project ....................... SUCCESS [ 0.115 s][INFO] Apache Hadoop HDFS ................................. SUCCESS [05:09 min][INFO] Apache Hadoop HttpFS ............................... SUCCESS [ 40.145 s][INFO] Apache Hadoop HDFS BookKeeper Journal .............. SUCCESS [ 15.876 s][INFO] Apache Hadoop HDFS-NFS ............................. SUCCESS [ 9.236 s][INFO] Apache Hadoop HDFS Project ......................... SUCCESS [ 0.125 s][INFO] hadoop-yarn ........................................ SUCCESS [ 0.129 s][INFO] hadoop-yarn-api .................................... SUCCESS [02:49 min][INFO] hadoop-yarn-common ................................. SUCCESS [01:01 min][INFO] hadoop-yarn-server ................................. SUCCESS [ 0.099 s][INFO] hadoop-yarn-server-common .......................... SUCCESS [ 25.019 s][INFO] hadoop-yarn-server-nodemanager ..................... SUCCESS [ 33.655 s][INFO] hadoop-yarn-server-web-proxy ....................... SUCCESS [ 5.761 s][INFO] hadoop-yarn-server-applicationhistoryservice ....... SUCCESS [ 13.714 s][INFO] hadoop-yarn-server-resourcemanager ................. SUCCESS [ 41.930 s][INFO] hadoop-yarn-server-tests ........................... SUCCESS [ 13.364 s][INFO] hadoop-yarn-client ................................. SUCCESS [ 17.408 s][INFO] hadoop-yarn-applications ........................... SUCCESS [ 0.042 s][INFO] hadoop-yarn-applications-distributedshell .......... SUCCESS [ 5.131 s][INFO] hadoop-yarn-applications-unmanaged-am-launcher ..... SUCCESS [ 3.710 s][INFO] hadoop-yarn-site ................................... SUCCESS [ 0.107 s][INFO] hadoop-yarn-registry ............................... SUCCESS [ 12.531 s][INFO] hadoop-yarn-project ................................ SUCCESS [ 7.781 s][INFO] hadoop-mapreduce-client ............................ SUCCESS [ 0.116 s][INFO] hadoop-mapreduce-client-core ....................... SUCCESS [ 47.915 s][INFO] hadoop-mapreduce-client-common ..................... SUCCESS [ 38.104 s][INFO] hadoop-mapreduce-client-shuffle .................... SUCCESS [ 9.073 s][INFO] hadoop-mapreduce-client-app ........................ SUCCESS [01:01 min][INFO] hadoop-mapreduce-client-hs ......................... SUCCESS [ 18.149 s][INFO] hadoop-mapreduce-client-jobclient .................. SUCCESS [ 9.002 s][INFO] hadoop-mapreduce-client-hs-plugins ................. SUCCESS [ 3.222 s][INFO] Apache Hadoop MapReduce Examples ................... SUCCESS [ 13.224 s][INFO] hadoop-mapreduce ................................... SUCCESS [ 6.571 s][INFO] Apache Hadoop MapReduce Streaming .................. SUCCESS [ 9.781 s][INFO] Apache Hadoop Distributed Copy ..................... SUCCESS [ 16.254 s][INFO] Apache Hadoop Archives ............................. SUCCESS [ 5.302 s][INFO] Apache Hadoop Rumen ................................ SUCCESS [ 13.760 s][INFO] Apache Hadoop Gridmix .............................. SUCCESS [ 8.858 s][INFO] Apache Hadoop Data Join ............................ SUCCESS [ 6.252 s][INFO] Apache Hadoop Ant Tasks ............................ SUCCESS [ 4.276 s][INFO] Apache Hadoop Extras ............................... SUCCESS [ 6.206 s][INFO] Apache Hadoop Pipes ................................ SUCCESS [ 1.945 s][INFO] Apache Hadoop OpenStack support .................... SUCCESS [ 12.239 s][INFO] Apache Hadoop Amazon Web Services support .......... SUCCESS [ 38.137 s][INFO] Apache Hadoop Client ............................... SUCCESS [ 13.213 s][INFO] Apache Hadoop Mini-Cluster ......................... SUCCESS [ 0.169 s][INFO] Apache Hadoop Scheduler Load Simulator ............. SUCCESS [ 13.206 s][INFO] Apache Hadoop Tools Dist ........................... SUCCESS [ 15.248 s][INFO] Apache Hadoop Tools ................................ SUCCESS [ 0.162 s][INFO] Apache Hadoop Distribution ......................... SUCCESS [01:09 min][INFO] ------------------------------------------------------------------------[INFO] BUILD SUCCESS[INFO] ------------------------------------------------------------------------[INFO] Total time: 25:19 min[INFO] Finished at: 2015-03-26T17:54:10+08:00[INFO] Final Memory: 106M/402M[INFO] ------------------------------------------------------------------------ 经过漫长的等待编译过程后,编译成功后会打包,放在hadoop-dist/target #ll total 528824drwxr-xr-x 2 root root 4096 Mar 26 17:53 antrun-rw-r--r-- 1 root root 1874 Mar 26 17:53 dist-layout-stitching.sh-rw-r--r-- 1 root root 647 Mar 26 17:53 dist-tar-stitching.shdrwxr-xr-x 9 root root 4096 Mar 26 17:53 hadoop-2.6.0-rw-r--r-- 1 root root 180222548 Mar 26 17:53 hadoop-2.6.0.tar.gz-rw-r--r-- 1 root root 2777 Mar 26 17:53 hadoop-dist-2.6.0.jar-rw-r--r-- 1 root root 361254421 Mar 26 17:54 hadoop-dist-2.6.0-javadoc.jardrwxr-xr-x 2 root root 4096 Mar 26 17:53 javadoc-bundle-optionsdrwxr-xr-x 2 root root 4096 Mar 26 17:53 maven-archiverdrwxr-xr-x 2 root root 4096 Mar 26 17:53 test-dir 编译后的文件见百度云盘 然后把lib下native下的文件覆盖掉hadoop下native中文件就ok了

优秀的个人博客,低调大师

AlmaLinux 9.5 发布,CentOS 最佳替代方案之一

AlmaLinux OS 9.5 现已正式发布,代号 ““Teal Serval”。目前提供的 ISO 镜像文件支持如下 4 种架构: Intel/AMD (x86_64) ARM64 (aarch64) IBM PowerPC (ppc64le) IBM Z (s390x) 公告称,AlmaLinux 9.5 旨在提高性能、开发工具和安全性。更新的模块流为 Web 应用程序提供了更好的支持。新版本的编译器提供了对最新功能和优化的访问,从而提高了性能并实现了更好的代码生成。 该版本还引入了对系统性能监控、可视化和系统性能数据收集的改进。安全更新旨在加强加密,而 SELinux 策略则实施更严格的访问控制。此外,加密策略提供了更强大的加密,从而提高了系统的整体安全性。 完整信息可查看AlmaLinux OS 9.5 发行说明。 询问AI

优秀的个人博客,低调大师

AlmaLinux 9.4 发布,CentOS 最佳替代方案之一

AlmaLinux OS 9.4现已正式发布,代号 “Seafoam Ocelot”。目前提供的 ISO 镜像文件支持如下 4 种架构: Intel/AMD (x86_64) ARM64 (aarch64) IBM PowerPC (ppc64le) IBM Z (s390x) 公告称,AlmaLinux 9.4 引入了增强机器安全性和数据保护的更新。网络控制台和系统角色的增强功能可自动执行更多操作,提高复杂 IT 环境的一致性。新版本的功能旨在提高系统可用性和可靠性,简化恢复操作,并增强混合云环境中的虚拟机快照功能。 新引入的系统角色能够创建和管理 logical volume manager(LVM)快照,从而改进数据备份和恢复流程。此外,9.4 版本中的更新继续为开发人员在构建和管理应用程序时提高性能、可扩展性和可靠性。 更新对上游已弃用硬件的支持 修改了以下设备驱动程序,以便为上游禁用的硬件重新添加 PCI ID: aacraid- Dell PERC2, 2/Si, 3/Si, 3/Di, Adaptec Advanced Raid Products, HP NetRAID-4M, IBM ServeRAID & ICP SCSI be2iscsi- 用于 BladeEngine 2 和 3 适配器的 Emulex OneConnectOpen-iSCSI hpsa- 惠普智能阵列控制器 lpfc- Emulex LightPulse Fibre Channel SCSI megaraid_sas- Broadcom MegaRAID SAS mlx4_core- Mellanox Gen2 和 ConnectX-2 适配器 mpt3sas- LSI MPT Fusion SAS 3.0 mptsas- Fusion MPT SAS Host qla2xxx- QLogic Fibre Channel HBA qla4xxx- QLogic iSCSI HBA 有关此版本中添加的硬件支持的完整列表,可参阅 9.4 发行说明中的​​扩展硬件支持部分。

优秀的个人博客,低调大师

CentOS 替代方案 AlmaLinux 开源其构建系统 ALBS

AlmaLinux 开源了其构建系统 ALBS (AlmaLinux Build System),该工具被用于构建最近发布的 AlmaLinux 8.6 和 AlmaLinux 9.0,支持所有的架构,包括x86_64、aarch64 和 ppc64le。 AlmaLinux 是开放源码、社区驱动的项目,它从红帽企业版 Linux (RHEL) 的源码编译而来。AlmaLinux 跟 RHEL 8 完全在二进制上兼容,它由 CloudLinux OS 的创建者打造。AlmaLinux 团队承诺永久免费提供 AlmaLinux 操作系统,项目永久开源且不采取任何限制,不收取任何费用,支持至 2029 年。 AlmaLinux 团队表示,开源其构建系统是为了提升项目的透明度,让大众了解构建软件包的更多细节,以及目前正在构建的内容、构建日志等。此外,AlmaLinux 开发者希望开源 ALBS 能推动社区进行更大的协作和贡献。 下图展示了 ALBS 工作流程: Build System 的 Master Service通过API接口与 UI & CLI 工具进行交互。 Build Node向 Master Service 发送请求并接收 Build Tasks,然后构建软件包。构建完成后,这些软件包保存到Artifact Storage中。 Test System发送请求并接收Test Tasks (builds)以测试来自 Artefact Storage 的构建包。Test System 通过 Test Nodes(例如具有不同架构的 Docker 或 OpenNebula)来测试软件包,并将测试工件或测试日志和报告发送回 Artifact Storage。 签名服务器发送请求并接收签名任务以使用 PGP 密钥对包进行签名。 Release System发送请求并接收发布任务以将签名包上传到公共仓库。 Git 服务器通过 API 向 Master Service 发送更新。它在两个服务的帮助下完成:gitea-listener和 git-cacher。 AlmaLinux 已将 ALBS 代码托管到 GitHub,此外还开放了支持匿名、只读访问他们实际部署的构建系统:https://build.almalinux.org/。 AlmaLinux 团队还宣布,他们正在努力通过 CodeNotary 集成和 RBAC 系统为包构建添加 SBOM 支持,让更多维护者和贡献者能够访问他们的构建系统来构建软件包。AlmaLinux 团队希望在 7 月份完成这两项工作。同时,在 AlmaLinux 的 ALBS 之外,他们正在研究 COPR 支持、自动化 VM 和容器映像构建/发布,以及构建系统中的组织/SIG 命名空间。

资源下载

更多资源
优质分享App

优质分享App

近一个月的开发和优化,本站点的第一个app全新上线。该app采用极致压缩,本体才4.36MB。系统里面做了大量数据访问、缓存优化。方便用户在手机上查看文章。后续会推出HarmonyOS的适配版本。

Mario

Mario

马里奥是站在游戏界顶峰的超人气多面角色。马里奥靠吃蘑菇成长,特征是大鼻子、头戴帽子、身穿背带裤,还留着胡子。与他的双胞胎兄弟路易基一起,长年担任任天堂的招牌角色。

Spring

Spring

Spring框架(Spring Framework)是由Rod Johnson于2002年提出的开源Java企业级应用框架,旨在通过使用JavaBean替代传统EJB实现方式降低企业级编程开发的复杂性。该框架基于简单性、可测试性和松耦合性设计理念,提供核心容器、应用上下文、数据访问集成等模块,支持整合Hibernate、Struts等第三方框架,其适用范围不仅限于服务器端开发,绝大多数Java应用均可从中受益。

Sublime Text

Sublime Text

Sublime Text具有漂亮的用户界面和强大的功能,例如代码缩略图,Python的插件,代码段等。还可自定义键绑定,菜单和工具栏。Sublime Text 的主要功能包括:拼写检查,书签,完整的 Python API , Goto 功能,即时项目切换,多选择,多窗口等等。Sublime Text 是一个跨平台的编辑器,同时支持Windows、Linux、Mac OS X等操作系统。

用户登录
用户注册