首页 文章 精选 留言 我的

精选列表

搜索[部署],共10000篇文章
优秀的个人博客,低调大师

CentOS64位6.5下部署Zabbix2.2.6监控系统

系统环境: [root@it3246~]#cat/etc/redhat-release CentOSrelease6.5(Final) 软件环境LAMP: 1.在已有的LAMP或者LNMP的基础上安装zabbix,安装一些依赖包: [root@it3246~]#yum-y installgccgcc-c++autoconfhttpdphpmysqlmysql-serverphp-mysql httpd-manualmod_sslmod_perlmod_auth_mysqlphp-gdphp-xmlphp-mbstring php-ldapphp-pearphp-xmlrpcphp-bcmathmysql-connector-odbcmysql-devel libdbi-dbd-mysqlnet-snmp-develcurl-develunixODBC-develOpenPMI-devel java-devellibxml2-devel 2.在系统中添加一个管理zabbix的用户: [root@it3246~]#groupaddzabbix [root@it3246~]#useraddzabbix-gzabbix-s/sbin/nologin-m 3.登陆mysql数据库,创建zabbix系统的数据库,添加授权账号 mysql>createdatabasezabbixcharactersetutf8; mysql>grantallprivilegesonzabbix.*tozabbix@localhostidentifiedby'zabbix'; mysql>flushprivileges; 4.编译安装zabbix 下载地址: wget http://nchc.dl.sourceforge.net/project/zabbix/ZABBIXLatest Stable/2.2.6/zabbix-2.2.6.tar.gz [root@it3246src]#tar xfzabbix-2.2.6.tar.gz [root@it3246src]#ls LAMPzabbix-2.2.6 zabbix-2.2.6.tar.gz [root@it3246src]#cd zabbix-2.2.6 [root@it3246 zabbix-2.2.6]# ./configure --prefix=/usr/local/zabbix--enable-server--enable-agent\ --with-mysql --with-net-snmp--with-libcurl [root@it3246mysql]#makeinstall 5.导入数据库(源码包的里面包含的数据库初始表,这里mysql设置密码是123456,在操作时候可以更改为自己系统mysql数据库的密码) 进入zabbix安装包中,按照如下命令查看mysql文件 [root@it3246mysql]# mysql-uroot-p123456zabbix<./schema.sql [root@it3246mysql]# mysql-uroot-p123456zabbix<./p_w_picpaths.sql [root@it3246mysql]# mysql-uroot-p123456zabbix<./data.sql 注意:[root@it3246 mysql]# mysql -uroot -p123456 zabbix < ./data.sql ERROR 1146 (42S02) at line 2: Table 'zabbix.hosts'doesn't exist 错误提示:在第二行表 zabbix.hosts文件不存在。此时差错肯定在表上。 6.修改zabbixServer的配置文件 配置zabbix 连接数据库的账号密码 [root@it3246mysql]#vim/usr/local/zabbix/etc/zabbix_server.conf 替换:DBUser=root换成DBUser=zabbix 添加:DBPassword DBPassword=123456 脚本替换 sed-i's/^DBUser=.*$/DBUser=zabbix/g'/usr/local/zabbix/etc/zabbix_server.conf sed-i's/^.*DBPassword=.*$/DBPassword=zabbix/g'/usr/local/zabbix/etc/zabbix_server.conf sed-i's/BASEDIR=\/usr\/local/BASEDIR=\/usr\/local\/zabbix/g'/etc/init.d/zabbix_server sed-i's/BASEDIR=\/usr\/local/BASEDIR=\/usr\/local\/zabbix/g'/etc/init.d/zabbix_agentd 7.配置启动脚本,授予启动权限 [root@it3246zabbix-2.2.6]#pwd /usr/local/src/zabbix-2.2.6 [root@it3246zabbix-2.2.6]#ls aclocal.m4confconfigure.acINSTALLmanupgrades AUTHORSconfig.guessCOPYINGinstall-shmisc binconfig.logdatabasem4missing buildconfig.statusdepcompMakefileNEWS ChangeLogconfig.subfrontendsMakefile.amREADME compileconfigureincludeMakefile.insrc [root@it3246zabbix-2.2.6]# cpmisc/init.d/fedora/core/zabbix_server/etc/init.d/ [root@it3246zabbix-2.2.6]# cpmisc/init.d/fedora/core/zabbix_agentd/etc/init.d/ [root@it3246zabbix-2.2.6]# [root@it3246zabbix-2.2.6]cp-Rfrontends/php//var/www/html/zabbix [root@it3246zabbix-2.2.6]#chmod+x/etc/init.d/zabbix_server [root@it3246zabbix-2.2.6]#chmod+x/etc/init.d/zabbix_agentd 8.添加服务端口: [root@it3246zabbix-2.2.6]#cat>>/etc/services<<EOF >zabbix-agent10050/tcpZabbixAgent >zabbix-agent10050/udpZabbixAgent >zabbix-trapper10051/tcpZabbixTrapper >zabbix-trapper10051/udpZabbixTrapper >EOF 9.启动服务,并且加入开机启动项 [root@it3246zabbix-2.2.6]#/etc/init.d/zabbix_serverstart Startingzabbix_server:/etc/init.d/functions:line546:/usr/local/sbin/zabbix_server:没有那个文件或目录 [失败]/etc/init.d/httpdstart [root@it3246zabbix-2.2.6]#/etc/init.d/zabbix_serverstart Startingzabbix_server:/etc/init.d/functions:line546:/usr/local/sbin/zabbix_server:没有那个文件或目录 [root@it3246zabbix-2.2.6]# echo"/etc/init.d/zabbix_serverstart">>/etc/rc.local [root@it3246zabbix-2.2.6]# echo"/etc/init.d/zabbix_agentdstart">>/etc/rc.local 错误提示 解决 (1)进入zabbix_server zabbix_agentd配置文件 [root@it3246zabbix-2.2.6]#vim/etc/init.d/zabbix_server (2)修改BASEDIR选项 BASEDIR=/usr/local/zabbix (3)修改完成后,重新启动httpd。 10.web页面配置 10.1 配置http访问好了后web登陆:http://ip/zabbix主要会报一些php报错的信息,对应的修改就好了,date.timezone = Asia/Shanghai 进入该页面按照提示一步一步初始化。 报错: PHP option post_max_size 8M 16M Fail PHP option max_execution_time 30 300 Fail PHP option max_input_time 60 300 Fail PHP time zone unknown Fail 通过修改php配置文件 /etc/php.ini 解决方法 (1)编辑修改php.ini [root@it3246~]#ls-d/etc/php. php.d/php.ini [root@it3246~]#vi/etc/php.ini [PHP] ;;;;;;;;;;;;;;;;;;; ;Aboutphp.ini; ;;;;;;;;;;;;;;;;;;; (2) 保存退出,重启httpd服务 (3)上一步改错了,max_input_time改动如下。 (4)再次重启httppd刷新页面如下 10.2 查看之前的授权,用户名zabbix密码zabbix 10.3 初始登录账户和密码: zabbix zabbix 10.4 下一步配置服务器端数据库详细: 出现这个错误,提示: Configuration file"/var/www/html/zabbix/conf/zabbix.conf.php"created:Fail 解决办法: (1)这个需要把一个模板文件zabbix.conf.php.example拷贝为zabbix.conf.php,然后编辑这个php文件,主要是数据库连接的信息,核对正确即可。 操作如下: [root@it3246conf]# cpzabbix.conf.php.examplezabbix.conf.php [root@it3246conf]#ls maintenance.inc.phpzabbix.conf.phpzabbix.conf.php.example [root@it3246conf]#vimzabbix.conf.php (2)现在看到的界面,本机的服务和监控是not running的 (3)点击Configuration、Hosts看到的ZabbixServer的Status状态为Not monitored,可以点击Not monitored按钮将其设置成Monitored。 错误提示: Zabbix server is not running the informationdisplayed may not be current 解决思路 (1) selinux是否关闭。一定要关闭这个,开启selinux会引起一连串问题,甚至zabbix的discovery功能也不能正常使用 关闭SELinux的方法: 修改/etc/selinux/config文件中的SELINUX=""为 disabled ,然后重启。 如果不想重启系统,使用命令setenforce0 注: setenforce 1 设置SELinux 成为enforcing模式 setenforce 0 设置SELinux 成为permissive模式 在lilo或者grub的启动参数中增加:selinux=0,也可以关闭selinux (2) zabbix web目录下面 $ZBX_SERVER 是否为ip,如果是localhost,ping下localhost是否能解析。如果不能,需要在/etc/hosts文件里增加相应的项目 (3)查看php的fsockopen模块是否启用。 方法一: 第一步: php.ini文件中查找 allow_url_fopen = On 使其值为On 第二步: php.ini文件中查找 extension=php_openssl.dll 如果前面有分号,去掉分号 第三步: 重启web服务器,apache或IIS 还有一种情况,也就是方法二: (1) vi php.ini 找到allow_url_fopen 这个参数设置成 On,即 allow_url_fopen = On (2)让你的php支持 opensll扩展。 默认,是没有openssl扩展的,只能重新编译安装。 yum install openssl openssl-devel cd /usr/local/src/php-5.2.14/ext/openssl /usr/local/php/bin/phpize ./configure –with-openssl –with-php-config=/usr/local/bin/php-config make && make install 看提示,把编译成的openssl.so拷贝到你在php.ini 中指定的 extension_dir 下 (3) vi php.ini 加入 extension=openssl.so (4)重启web server

优秀的个人博客,低调大师

基于Hadoop数据仓库Hive1.2部署及使用

接下来安装Hadoop数据仓库Hive,上节了解HBase简单使用,听起来HBase与Hive有些类似,概念也有点模糊,那我们先了解下他们之间有什么区别: HBase是一种分布式、面向列的NoSQL数据库,基于HDFS存储,以表的形式存储数据,表由行和列组成,列划分到列族中。HBase不提供类SQL查询语言,要想像SQL这样查询数据,可以使用Phonix,让SQL查询转换成hbase的扫描和对应的操作,也可以使用现在说讲Hive仓库工具,让HBase作为Hive存储。 Hive是运行在Hadoop之上的数据仓库,将结构化的数据文件映射为一张数据库表,提供简单类SQL查询语言,称为HQL,并将SQL语句转换成MapReduce任务运算。有利于利用SQL语言查询、分析数据,适于处理不频繁变动的数据。Hive底层可以是HBase或者HDFS存储的文件。 两者都是基于Hadoop上不同的技术,相互结合使用,可处理企业中不同类型的业务,利用Hive处理非结构化离线分析统计,利用HBase处理在线查询。 Hive三种元数据存储方式: 1>.本地derby存储,只允许一个用户连接Hive,适用于测试环境 2>.本地/远程MySQL存储,支持多用户连接Hive,适用于生产环境 三、Hive安装与配置(以下将元数据存储到远程MySQL配置) 1.在MySQL创建Hive元数据存放库和连接用户 1 2 3 mysql>createdatabasehive; mysql>grantallon*.*to 'hive' @ '%' identifiedby 'hive' ; mysql>flushprivileges; 2.安装与配置Hive(在HMaster0安装) 1 2 #tarzxvfapache-hive-1.2.0-bin.tar.gz #mvapache-hive-1.2.0-bin/opt 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 #vihive-site.xml <configuration> <!--以下是MySQL连接信息--> <property> <name>javax.jdo.option.ConnectionURL< /name > <value>jdbc:mysql: //192 .168.18.210:3306 /hive ?createDatabaseIfNotExist= true < /value > < /property > <property> <name>javax.jdo.option.ConnectionDriverName< /name > <value>com.mysql.jdbc.Driver< /value > < /property > <property> <name>javax.jdo.option.ConnectionUserName< /name > <value>hive_user< /value > < /property > <property> <name>javax.jdo.option.ConnectionPassword< /name > <value>hive_pass< /value > < /property > < /configuration > 3.配置系统变量 1 2 3 4 5 #vi/etc/profile HIVE_HOME= /opt/apache-hive-1 .2.0-bin PATH=$PATH:$HIVE_HOME /bin export HIVE_HOMEPATH #source/etc/profile 4.启动Hive 1 #hive--servicemetastore&#启动远程模式,否则你只能在本地登录 5.检查是否正常启动 查看进程是否启动: 1 2 3 4 5 6 7 [root@HMaster0~] #jps 2615DFSZKFailoverController 30027ResourceManager 29656NameNode 25451Jps 10270HMaster 14975RunJar #会启动一个RunJar进程 执行hive命令会进入命令界面: 1 2 3 4 5 6 [root@HMaster0~] #hive Logginginitializedusingconfiguration in file : /opt/apache-hive-1 .2.0-bin /conf/hive-log4j .properties hive>showdatabases; OK default Timetaken:0.986seconds,Fetched:1row(s) 查看数据库,默认有一个default库,现在就可以用你熟悉的SQL语言了。 6.客户端连接Hive(必须有Hadoop环境) 1 2 #tarzxvfapache-hive-1.2.0-bin.tar.gz #mvapache-hive-1.2.0-bin/opt 1 2 3 4 5 6 7 8 #vihive-site.xml <configuration> <!--通过thrift方式连接hive--> <property> <name>hive.metastore.uris< /name > <value>thrift: //192 .168.18.215:9083< /value > < /property > < /configuration > 配置好连接信息,连接命令行: 1 #/opt/apache-hive-1.2.0-bin/bin/hive 7.Hive常用SQL命令 7.1 先创建一个测试库 1 hive>createdatabase test ; 7.2 创建tb1表,并指定字段分隔符为tab键(否则会插入NULL) 1 hive>createtabletb1( id int,namestring)row format delimitedfieldsterminatedby '\t' 如果想再创建一个表,而且表结构和tb1一样,可以这样: 1 hive>createtabletb3liketb1; 查看下表结构: 1 2 3 4 5 hive>describetb3; OK id int namestring Timetaken:0.091seconds,Fetched:2row(s) 7.3 从本地文件中导入数据到Hive表 先创建数据文件,键值要以tab键空格: 1 2 3 4 #catkv.txt 1zhangsan 2lisi 3wangwu 再导入数据: 1 hive>loaddata local inpath '/root/kv.txt' overwriteintotabletb1; 7.4 从HDFS中导入数据到Hive表 1 2 3 4 5 #hadoopfs-cat/kv.txt#查看hdfs中要导入的数据 1zhangsan 2lisi 3wangwu hive>loaddatainpath '/kv.txt' overwriteintotabletb1; 7.5查询是否导入成功 1 2 3 4 5 6 hive> select *fromtb1; OK 1zhangsan 2lisi 3wangwu Timetaken:0.209seconds,Fetched:3row(s) 博客地址:http://lizhenliang.blog.51cto.com 上面是基本表的简单操作,为了提高处理性能,Hive引入了分区机制,那我们就了解分区表概念: 1>.分区表是在创建表时指定的分区空间 2>.一个表可以有一个或多个分区,意思把数据划分成块 3>.分区以字段的形式在表结构中,不存放实际数据内容 分区表优点:将表中数据根据条件分配到不同的分区中,缩小查询范围,提高检索速度和处理性能。 单分区表: 7.6创建单分区表tb2(HDFS表目录下只有一级目录): 1 hive>createtabletb2(idint,namestring)partitionedby(dtstring)row format delimitedfieldsterminatedby '\t' ; 注:dt可以理解为分区名称。 7.7从文件中把数据导入到Hive分区表,并定义分区信息 1 2 hive>loaddata local inpath '/root/kv.txt' intotabletb2partition(dt= '2015-06-26' ); hive>loaddata local inpath '/root/kv.txt' intotabletb2partition(dt= '2015-06-27' ); 7.8查看表数据 1 2 3 4 5 6 7 8 9 hive> select *fromtb2; OK 1zhangsan2015-06-26 2lisi2015-06-26 3wangwu2015-06-26 1zhangsan2015-06-27 2lisi2015-06-27 3wangwu2015-06-27 Timetaken:0.223seconds,Fetched:6row(s) 7.9查看HDFS仓库中表目录变化 1 2 3 4 5 #hadoopfs-ls-R/user/hive/warehouse/test.db/tb2 drwxr-xr-x-rootsupergroup02015-06-2604:12 /user/hive/warehouse/test .db /tb2/dt =2015-06-26 -rwxr-xr-x3rootsupergroup272015-06-2604:12 /user/hive/warehouse/test .db /tb2/dt =2015-06-26 /kv .txt drwxr-xr-x-rootsupergroup02015-06-2604:15 /user/hive/warehouse/test .db /tb2/dt =2015-06-27 -rwxr-xr-x3rootsupergroup272015-06-2604:15 /user/hive/warehouse/test .db /tb2/dt =2015-06-27 /kv .txt 可以看到tb2表导入的数据根据日期将数据划分到不同目录下。 多分区表: 7.10 创建多分区表tb3(HDFS表目录下有一级目录,一级目录下再有子级目录) 1 hive>createtabletb3(idint,namestring)partitionedby(dtstring,locationstring)rowformatdelimitedfieldsterminatedby '\t' ; 7.11从文件中把数据导入到Hive分区表,并定义分区信息 1 2 hive>loaddata local inpath '/root/kv.txt' intotabletb3partition(dt= '2015-06-26' ,location= 'beijing' ); hive>loaddata local inpath '/root/kv.txt' intotabletb3partition(dt= '2015-06-27' ,location= 'shanghai' ); 7.12 查看表数据 1 2 3 4 5 6 7 8 9 hive> select *fromtb3; OK 1zhangsan2015-06-26beijing 2lisi2015-06-26beijing 3wangwu2015-06-26beijing 1zhangsan2015-06-26shanghai 2lisi2015-06-26shanghai 3wangwu2015-06-26shanghai Timetaken:0.208seconds,Fetched:6row(s) 7.13查看HDFS仓库中表目录变化 1 <span style= "color:rgb(0,0,0);" > #hadoopfs-ls-R/user/hive/warehouse/test.db/tb3<br>drwxr-xr-x-rootsupergroup02015-06-2604:35/user/hive/warehouse/test.db/tb3/dt=2015-06-26<br>drwxr-xr-x-rootsupergroup02015-06-2604:35/user/hive/warehouse/test.db/tb3/dt=2015-06-26/location=beijing<br>-rwxr-xr-x3rootsupergroup272015-06-2604:35/user/hive/warehouse/test.db/tb3/dt=2015-06-26/location=beijing/kv.txt<br>drwxr-xr-x-rootsupergroup02015-06-2604:45/user/hive/warehouse/test.db/tb3/dt=2015-06-27<br>drwxr-xr-x-rootsupergroup02015-06-2604:45/user/hive/warehouse/test.db/tb3/dt=2015-06-27/location=shanghai<br>-rwxr-xr-x3rootsupergroup272015-06-2604:45/user/hive/warehouse/test.db/tb3/dt=2015-06-27/location=shanghai/kv.txt<br></span> 可以看到表中一级dt分区目录下又分成了location分区。 7.14查看表分区信息 1 hive>showpartitionstb2; 7.15 根据分区查询数据 1 hive> select namefromtb3wheredt= '2015-06-27' ; 7.16 重命名分区 1 hive>altertabletb3partition(dt= '2015-06-27' ,location= 'shanghai' )renametopartition(dt= '20150627' ,location= 'shanghai' ); 7.17 删除分区 1 hive>altertabletb3droppartition(dt= '2015-06-26' ,location= 'shanghai' ); 7.18模糊搜索表 1 hive>showtables 'tb*' ; 7.19给表新添加一列 1 hive>altertabletb1addcolumns(commnetstring); 7.20重命名表 1 hive>altertabletb1renametonew_tb1; 7.21删除表 1 hive>droptablenew_tb1; 8.启动过程中遇到错误 报错1: [ERROR]Terminal initialization failed; falling back to unsupported java.lang.IncompatibleClassChangeError:Found class jline.Terminal, but interface was expected 解决方法,将hive/lib下jline包拷贝到hadoop/yarn/lib下: 1 2 #cp/opt/apache-hive-1.2.0-bin/lib/jline-2.12.jar/opt/hadoop-2.6.0/share/hadoop/yarn/lib/ #rm/opt/hadoop-2.6.0/share/hadoop/yarn/lib/jline-0.9.94.jar 报错2: javax.jdo.JDOFatalInternalException:Error creating transactional connection factory 解决方法,在百度下载java连接MySQL包放到hive/lib下: 1 #cpmysql-connector-java-5.1.10-bin.jar/opt/apache-hive-1.2.0-bin/lib

优秀的个人博客,低调大师

K8S集群搭建,并部署nginx实现跨网络访问

K8S基础概念一、核心概念1、NodeNode作为集群中的工作节点,运行真正的应用程序,在Node上Kubernetes管理的最小运行单元是Pod。Node上运行着Kubernetes的Kubelet、kube-proxy服务进程,这些服务进程负责Pod的创建、启动、监控、重启、销毁、以及实现软件模式的负载均衡。 Node包含的信息: ·Node地址:主机的IP地址,或Node ID。 ·Node的运行状态:Pending、Running、Terminated三种状态。 ·Node Condition:… ·Node系统容量:描述Node可用的系统资源,包括CPU、内存、最大可调度Pod数量等。 ·其他:内核版本号、Kubernetes版本等。 查看Node信息: k

资源下载

更多资源
腾讯云软件源

腾讯云软件源

为解决软件依赖安装时官方源访问速度慢的问题,腾讯云为一些软件搭建了缓存服务。您可以通过使用腾讯云软件源站来提升依赖包的安装速度。为了方便用户自由搭建服务架构,目前腾讯云软件源站支持公网访问和内网访问。

Nacos

Nacos

Nacos /nɑ:kəʊs/ 是 Dynamic Naming and Configuration Service 的首字母简称,一个易于构建 AI Agent 应用的动态服务发现、配置管理和AI智能体管理平台。Nacos 致力于帮助您发现、配置和管理微服务及AI智能体应用。Nacos 提供了一组简单易用的特性集,帮助您快速实现动态服务发现、服务配置、服务元数据、流量管理。Nacos 帮助您更敏捷和容易地构建、交付和管理微服务平台。

Spring

Spring

Spring框架(Spring Framework)是由Rod Johnson于2002年提出的开源Java企业级应用框架,旨在通过使用JavaBean替代传统EJB实现方式降低企业级编程开发的复杂性。该框架基于简单性、可测试性和松耦合性设计理念,提供核心容器、应用上下文、数据访问集成等模块,支持整合Hibernate、Struts等第三方框架,其适用范围不仅限于服务器端开发,绝大多数Java应用均可从中受益。

Rocky Linux

Rocky Linux

Rocky Linux(中文名:洛基)是由Gregory Kurtzer于2020年12月发起的企业级Linux发行版,作为CentOS稳定版停止维护后与RHEL(Red Hat Enterprise Linux)完全兼容的开源替代方案,由社区拥有并管理,支持x86_64、aarch64等架构。其通过重新编译RHEL源代码提供长期稳定性,采用模块化包装和SELinux安全架构,默认包含GNOME桌面环境及XFS文件系统,支持十年生命周期更新。

用户登录
用户注册