首页 文章 精选 留言 我的

精选列表

搜索[伪集群],共10000篇文章
优秀的个人博客,低调大师

Hadoop 2.6.0集群搭建

yum install gcc yum install gcc-c++ yum install make yum install autoconfautomake libtool cmake yum install ncurses-devel yum install openssl-devel groupadd hadoop 添加一个组 useradd hadoop -g hadoop 添加用户 安装protoc(需用root用户) 1 tar -xvf protobuf-2.5.0.tar.bz2 2 cd protobuf-2.5.0 3 ./configure --prefix=/opt/protoc/ 4 make && make install 编译hadoop mvn clean package -Pdist,native -DskipTests -Dtar 编译完的hadoop在 /home/hadoop/ocdc/hadoop-2.6.0-src/hadoop-dist/target 路径下 配置hosts文件 10.1.245.244 master 10.1.245.243 slave1 命令行输入 hostname master 免密码登录: 执行命令生成密钥: ssh-keygen -t rsa -P "" 进入文件夹cd .ssh (进入文件夹后可以执行ls -a 查看文件) 将生成的公钥id_rsa.pub 内容追加到authorized_keys(执行命令:cat id_rsa.pub >> authorized_keys) ---------------------------(core-site.xml)------------------------------ <configuration> <!--指定hdfs的nameservice为ns1--> <property> <name>fs.defaultFS</name> <value>hdfs://master</value> </property> <property> <name>io.file.buffer.size</name> <value>131072</value> </property> <!--指定hadoop数据存放目录--> <property> <name>hadoop.tmp.dir</name> <value>/home/hadoop/ocdc/hadoop-2.6.0/tmp</value> <description>Abasefor other temporary directories.</description> </property> <property> <name>hadoop.proxyuser.spark.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.spark.groups</name> <value>*</value> </property> </configuration> <!--指定zookeeper地址--> <property> <name>ha.zookeeper.quorum</name> <value>h4:2181,h5:2181,h6:2181</value> </property> </configuration> -------------------------------(hdfs-site.xml )----------------------------------- <configuration> <property> <name>dfs.namenode.secondary.http-address</name> <value>master:9001</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/home/hadoop/ocdc/hadoop-2.6.0/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/home/hadoop/ocdc/hadoop-2.6.0/data</value> </property> <property> <name>dfs.replication</name> <value>3</value> </property> <property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property> <property> <name>dfs.nameservices</name> <value>ns1</value> </property> <!-- ns1下面有两个NameNode,分别是nn1,nn2 --> <property> <name>dfs.ha.namenodes.ns1</name> <value>nn1,nn2</value> </property> </configuration> ----------------------------------------(yarn-site.xml)-------------------------- <configuration> <!-- Site specific YARN configuration properties --> <!--指定nodemanager启动时加载server的方式为shuffle server --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>master:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>master:8030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>master:8035</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>master:8033</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>master:8088</value> </property> <property> <name>yarn.nodemanager.resource.memory-mb</name> <value>16384</value> </property> </configuration> <!--指定resourcemanager地址--> <property> <name>yarn.resourcemanager.hostname</name> <value>h3</value> </property> -----------------------------(mapred-site.xml)------------------------------- <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>master:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>master:19888</value> </property> <property> <name>yarn.scheduler.maximum-allocation-mb</name> <value>16384</value> </property> </configuration>

优秀的个人博客,低调大师

利用Splunk收集HBase集群日志

什么是splunk Splunk是日志界的google。支持任何服务器产生的日志,其对日志进行处理的方式是进行高效索引之后让管理员可以对日志中出现的各种情况进行搜索,并且通过非常好的图形化的方式展现出来。让管理员彻底从繁琐的ssh,grep中解放出来。 我们可以通过配置splunk,收集cluster内的HBase/Hadoop以及一切由log4j生成的日志。 1. 安装splunk 可以在其中一台机器上安装splunk,安装方法可以参考:http://www.splunk.com/base/Documentation/latest/Installation/InstallonLinux 2. 为splunk添加数据源 Splunk的webconsole是: http://{install_machine_ip}:8000 以admin和默认的changeme密码登录后,可以看到这样的界面 现在,我们为splunk加入一个udp的数据源 “Add Data” à “UDP” à 新增资料 这里,我们添加了一个UDP数据源,类别为log4j,端口为1688 3. 修改log4j配置,将日志导入到splunk中。 修改HBase中conf的log4j配置,增加一个指向splunk server服务器的appender。 view plain copy to clipboard print ? #syslog # log4j.rootLogger=INFO,logfile,SYSLOG …… #Definetherootloggertothesystemproperty"hbase.root.logger". log4j.rootLogger=${hbase.root.logger},SYSLOG ....... log4j.appender.SYSLOG=org.apache.log4j.net.SyslogAppender log4j.appender.SYSLOG.facility=local1 log4j.appender.SYSLOG.layout=org.apache.log4j.PatternLayout log4j.appender.SYSLOG.layout.ConversionPattern=%p%c{2}:%m%n log4j.appender.SYSLOG.SyslogHost=10.64.66.211:1688 log4j.appender.SYSLOG.threshold=DEBUG log4j.appender.SYSLOG.Header=true log4j.appender.SYSLOG.FacilityPrinting=true 这个例子中,我们的syslog Host是10.64.66.211,将其改为实际的splunk server IP地址就可以了。 这样子,日志将导入到splunk,之后,我们就可以方便的对其查询了。 转载

优秀的个人博客,低调大师

阿里云VPC网络下自建K8s集群集群使用记录(一)

K8s 管理平台使用者越来越多,要搞清楚其特性,最好来实战安装一下 一.准备工作 创建了三台vpc实例主机,分配角色如下 ubuntu16 master 192.168.0.98 Centos 7.4 worker 192.168.0.96 192.168.0.97 三台主机中直接yum/apt安装好docker yum install docker apt-get install docker 阿里云ecs 默认是关闭防火墙的,如果有开启防火墙和selinux服务,需要先关闭 使用阿里云镜像源在每台ecs中安装kubeletkubeadmkubectl https://opsx.alibaba.com/mirror Debian / Ubuntu curl https://mirrors.aliyun.com/kubernetes/apt/doc/apt-key.gpg | apt-key add -cat <<EOF >/etc/apt/sources.list.d/kubernetes.listdeb https://mirrors.aliyun.com/kubernetes/apt/ kubernetes-xenial mainEOFapt-get updateapt-get install -y kubelet kubeadm kubectl apt-get update && apt-get install -y apt-transport-https CentOS / RHEL / Fedora cat <<EOF > /etc/yum.repos.d/kubernetes.repo [kubernetes]name=Kubernetesbaseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/enabled=1gpgcheck=0repo_gpgcheck=0gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpgEOFsetenforce 0yum install -y kubelet kubeadm kubectlsystemctl enable kubelet && systemctl start kubelet 二.配置master节点 网络上有很多都是手工安装各个组件 etcd flannel 我们按照最简单的方式,使用kubeadm来执行安装,即按照官方文档的方法来操作 https://kubernetes.io/docs/setup/independent/create-cluster-kubeadm/ 所有管理组件采用DaemonSetPod来安装 vi ~/kubeadm.conf apiVersion: kubeadm.k8s.io/v1alpha1 kind: MasterConfiguration api: advertiseAddress: 0.0.0.0 networking: podSubnet: 10.244.0.0/16 etcd: image: registry.cn-hangzhou.aliyuncs.com/google_containers/etcd-amd64:3.1.11 kubernetesVersion: v1.10.3 imageRepository: registry.cn-hangzhou.aliyuncs.com/google_containers 执行操作命令 Kubeadm init —config /root/kubeadm.conf 2.安装kube-flannel kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/v0.10.0/Documentation/kube-flannel.yml 三.配置worker节点 1.将worker节点加入master kubeadm join 192.168.0.98:6443 --token catsr2.vxxxx --discovery-token-ca-cert-hash sha256:xxxxxx 这些信息来自master节点执行kubeadm init 完成后输出的结果 如果没有记录,可以在master节点中执行如下命令获取 kubeadm token create --print-join-command 2.安装kube-flannel kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/v0.10.0/Documentation/kube-flannel.yml 三.配置worker节点 1.将worker节点加入master kubeadm join 192.168.0.98:6443 --token catsr2.vxxxx --discovery-token-ca-cert-hash sha256:xxxxxx 这些信息来自master节点执行kubeadm init 完成后输出的结果 如果没有记录,可以在master节点中执行如下命令获取 kubeadm token create --print-join-command api: advertiseAddress: 0.0.0.0 networking: podSubnet: 10.244.0.0/16 etcd: image: registry.cn-hangzhou.aliyuncs.com/google_containers/etcd-amd64:3.1.11 kubernetesVersion: v1.10.3 imageRepository: registry.cn-hangzhou.aliyuncs.com/google_containers kind: MasterConfiguration api: advertiseAddress: 0.0.0.0 networking: podSubnet: 10.244.0.0/16 etcd: image: registry.cn-hangzhou.aliyuncs.com/google_containers/etcd-amd64:3.1.11 kubernetesVersion: v1.10.3 imageRepository: registry.cn-hangzhou.aliyuncs.com/google_containers 执行操作命令 Kubeadm init —config /root/kubeadm.conf 2.安装kube-flannel kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/v0.10.0/Documentation/kube-flannel.yml 三.配置worker节点 1.将worker节点加入master kubeadm join 192.168.0.98:6443 --token catsr2.vxxxx --discovery-token-ca-cert-hash sha256:xxxxxx 这些信息来自master节点执行kubeadm init 完成后输出的结果 如果没有记录,可以在master节点中执行如下命令获取 kubeadm token create --print-join-command 2.master向worker 分发kube-proxy和flannel pod 直接去拉取 k8s.gcr.io上的镜像是不成功的 所以需要在worker节点上 先下载阿里云的镜像源中pause-amd,然后再做个tag docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/pause-amd64:3.1 docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/pause-amd64:3.1 k8s.gcr.io/google_containers/pause-amd64:3.1 最终完成结果如图所示 四.Troubleshooting 1.无法执行kubectl操作,可以按照执行如下命令之一 export KUBECONFIG=/etc/kubernetes/kubelet.conf alias kubectl='kubectl --kubeconfig=/etc/kubernetes/kubelet.conf 阿里云容器服务可以直接通过web方式一键安装,更省心省力 https://yq.aliyun.com/articles/73922 https://www.aliyun.com/product/kubernetes

资源下载

更多资源
Mario

Mario

马里奥是站在游戏界顶峰的超人气多面角色。马里奥靠吃蘑菇成长,特征是大鼻子、头戴帽子、身穿背带裤,还留着胡子。与他的双胞胎兄弟路易基一起,长年担任任天堂的招牌角色。

腾讯云软件源

腾讯云软件源

为解决软件依赖安装时官方源访问速度慢的问题,腾讯云为一些软件搭建了缓存服务。您可以通过使用腾讯云软件源站来提升依赖包的安装速度。为了方便用户自由搭建服务架构,目前腾讯云软件源站支持公网访问和内网访问。

Rocky Linux

Rocky Linux

Rocky Linux(中文名:洛基)是由Gregory Kurtzer于2020年12月发起的企业级Linux发行版,作为CentOS稳定版停止维护后与RHEL(Red Hat Enterprise Linux)完全兼容的开源替代方案,由社区拥有并管理,支持x86_64、aarch64等架构。其通过重新编译RHEL源代码提供长期稳定性,采用模块化包装和SELinux安全架构,默认包含GNOME桌面环境及XFS文件系统,支持十年生命周期更新。

Sublime Text

Sublime Text

Sublime Text具有漂亮的用户界面和强大的功能,例如代码缩略图,Python的插件,代码段等。还可自定义键绑定,菜单和工具栏。Sublime Text 的主要功能包括:拼写检查,书签,完整的 Python API , Goto 功能,即时项目切换,多选择,多窗口等等。Sublime Text 是一个跨平台的编辑器,同时支持Windows、Linux、Mac OS X等操作系统。

用户登录
用户注册