首页 文章 精选 留言 我的

精选列表

搜索[搭建],共10000篇文章
优秀的个人博客,低调大师

搭建大数据应用平台 运营商具有天然的优势

发展大数据的根本目的是为了应用,即通过对数据的挖掘、建模、分析、应用,提升政府治理水平,引领产业转型创新,服务改善民生。因此,信息的应用和信息平台的建设是繁荣大数据的关键。“互联网+”是以平台为中心的应用,云管端的核心是平台,平台既是业务的运行中心,又是海量数据的集散地和安全的管控点。5月13日上午举行的第十三届中国信息港论坛“大平台成就大应用”专题峰会上,来自政府、通信运营企业、医疗卫生行业的代表以及专家学者就如何合作共建大数据应用平台、挖掘大数据价值等问题展开了深入探讨。 在第十三届中国信息港论坛的“大平台成就大应用”专题峰会上,中国移动副总裁李正茂表示,像医疗、交通这样的重点领域,由于大数据平台涉及信息较多、内容较重要,因而要特别做好平台的监管和保障,而电信运营商在这方面具有得天独厚的优势。 李正茂表示,今年“两会”刚刚通过的《“十三五”发展规划》中,明确提出“十三五”期间要提出“实施大数据战略”,这就标志着大数据正式上升为国家战略,成为国家的重要战略资源。但是他认为,大数据与石油这样的资源不同,石油会被耗尽,而大数据会一直存在,并且体量会越来越大。谈到大数据的价值,李正茂说,大数据就像是物联网时代各行各业的味精,食物中缺少味精就变得逊色很多,大数据的作用也是这样,在互联网时代,没有大数据,各行各业很难运行得漂亮,大数据将为各行各业带来巨大能量。 李正茂强调,信息的引用和信息平台的建设是大数据的关键,大数据需要大平台拉动,“互联网+”是以平台为中心的应用,平台是海量数据的集散地和数据的监测管控中心,因而构建大数据平台是十分重要的。随着“互联网+”时代的到来,网络应用的功能需求更加多样化,这就需要加快建设技术更先进、功能更强大的网络平台。大数据应用平台将首先在一些重点领域建立,金融、医疗、交通等重点领域,由于涉及信息较多、内容较为重要,一旦出现信息泄露,将给个人甚至国家带来重大损失。因此这些信息涉及国计民生的、社会安全的重点领域,需要特别管控,做好平台的统一监管,保障国计民生。 在大数据应用平台的建设方面,李正茂认为,电信运营商具有得天独厚的优势。一是以运营商为主体建设的平台是完全可控可靠的,三大运营商作为通信行业的支柱,一直以来都按照“谁接入,谁负责”的原则,积极配合国家对语音通话和网络内容进行电信级别的安全管控;二是电信运营商有丰富的经验,依托运营商建立平台可以充分地应用现有资源,借用成功经验,借助这些海量数据进行数据分析,有助于提供更精准的指导。 李正茂介绍,作为信息化的倡导者和推动者,中国移动充分发挥信息技术和平台优势,致力于大数据平台的建设,到目前为止,大云的大数据相关产品已经在17个省市进行了超过100项应用试点和商用,部署规模超过3000台服务器,在快速响应市场需求的同时也降低了企业运营成本。在医疗大数据应用平台方面,中国移动建立了专业和开放的医疗健康云平台,通过与产业链的广泛合作,提供多种医疗健康服务,为用户提供专业化、个性化的服务。中国移动还通过自身的大数据分析能力,提供丰富的增值服务。此外,中国移动运用大数据和网络优势,在交通及物流领域也做了一些探索,实现了智能化的运输网络与运力规划,在实施交通能力和车队管理等方面都取得了不俗的成绩。 李正茂强调,在“互联网+ ”时代,大数据应用平台的特征就是业务交叉性强、融合性强,这需要建立协同机制,加强跨行业、跨部门的沟通与协作。 本文转自d1net(转载)

优秀的个人博客,低调大师

Elasticsearch、Logstash、Kibana搭建统一日志分析平

ELKstack是Elasticsearch、Logstash、Kibana三个开源软件的组合。目前都在Elastic.co公司名下。 ELK是一套常用的开源日志监控和分析系统,包括一个分布式索引与搜索服务Elasticsearch, 一个管理日志和事件的工具logstash,和一个数据可视化服务Kibana logstash_1.5.3 负责日志的收集,处理和储存 elasticsearch-1.7.2 负责日志检索和分析 kibana-4.1.2-linux-x64.tar.gz 负责日志的可视化 redis-2.4.14 DB以及日志传输的通道来处理 用一张图来表示他们之间的关系 此文以两个服务器为例来部署 服务器A:192.168.0.1 java elasticsearch redis kibana logstash(agent indexer) 服务器B:192.168.0.2 java logstash(agent) 首先安装服务器A相关软件 一、安装基础软件 yum -y install curl wget lrzsz axel 二、安装配置redis服务 1、安装tcl8.6.1 a) tar -xf tcl8.6.1-src.tar.gz --strip-components=1 b) cd tcl8.6.1/unix c) ./configure --prefix=/usr/local d) make e) make test f) make install g) make install-private-headers h) ln -v -sf tclsh8.6 /usr/bin/tclsh i) chmod -v 755 /usr/lib/libtcl8.6.so(可选,并且如报找不到文件,没关系) 2、安装redis-3.0.2 wget http://download.redis.io/releases/redis-3.0.2.tar.gz tar xzf redis-3.0.2.tar.gz /usr/local/redis cd redis-3.0.2 make MALLOC=libc make test make install 2、配置redis a) mkdir /etc/redis b) mkdir /var/redis c) cp utils/redis_init_script /etc/init.d/redis d) vim /etc/init.d/redis 头部添加: #chkconfig: 345 60 60 #!/bin/bash e) mkdir /var/redis/6379 f) cp redis.conf /etc/redis/6379.conf g) vim /etc/redis/6379.conf #设置daemonize为yes #设置pidfile为/var/run/redis_6379.pid #设置loglevel #设置logfile为/var/log/redis_6379.log #设置dir为/var/redis/6379 h) sysctl vm.overcommit_memory=1 i) chkconfig --add redis j) chkconfig redis on 3、重启服务 service redis start/stop 4、查看进程和端口 1)查看进程 ps -ef |grep redis root 31927 25099 0 18:26 pts/0 00:00:00 vi /etc/init.d/redis 2)查看端口 netstat -tupnl |grep redis tcp 0 0 0.0.0.0:6379 0.0.0.0:* LISTEN 31966/redis-server tcp 0 0 :::6379 :::* LISTEN 31966/redis-server 三、安装java环境 1、安装包 yum -y list java* yum -y install openjdk-7-jdk 2、查看版本 java -version java version "1.7.0_91" OpenJDK Runtime Environment (rhel-2.6.2.2.el6_7-x86_64 u91-b00) OpenJDK 64-Bit Server VM (build 24.91-b01, mixed mode) 四、安装elasticsearch 1、下载elasticsearch wget https://download.elastic.co/elasticsearch/elasticsearch/elasticsearch-1.7.2.noarch.rpm 2、安装elasticsearch rpm -ivh elasticsearch-1.7.2.noarch.rpm 3、配置 1)备份配置 cp /etc/elasticsearch/elasticsearch.yml /etc/elasticsearch/elasticsearch.yml.bak 2)修改配置 echo "network.bind_host: 192.168.0.1" >> /etc/elasticsearch/elasticsearch.yml 4、启动elasticsearch服务 /etc/init.d/elasticsearch start /etc/init.d/elasticsearch stop 5、查看进程和端口 1)查看进程 ps -ef |grep java 2)查看端口 netstat -tupnl |grep java 6、测试 curl -X GET http://192.168.54.147:9200 { "status" : 200, "name" : "Miguel O'Hara", "cluster_name" : "elasticsearch", "version" : { "number" : "1.7.2", "build_hash" : "e43676b1385b8125d647f593f7202acbd816e8ec", "build_timestamp" : "2015-09-14T09:49:53Z", "build_snapshot" : false, "lucene_version" : "4.10.4" }, "tagline" : "You Know, for Search" } 7、添加到开机启动 update-rc.d elasticsearch defaults update-rc.d: using dependency based boot sequencing 五、安装logstash 1、下载logstash wget https://download.elastic.co/logstash/logstash/packages/centos/logstash-1.5.4-1.noarch.rpm 2、安装logstash rpm -ivh logstash-1.5.4-1.noarch.rpm 3、配置(默认没有这个配置文件) vim /etc/logstash/conf.d/logstash_indexer.conf input { redis { host => "192.168.0.1" data_type => "list" key => "logstash:redis" type => "redis-input" port => "6379" } } output { elasticsearch { host => "192.168.0.1" } } 4、启动服务 /etc/init.d/logstash start 5、使用jps -mlv或ps -ef来查看下进程 ps -ef|grep logst 6、设置开机启动 update-rc.d logstash defaults update-rc.d: using dependency based boot sequencing 六、安装kibana(前端web) 1、下载 wget https://download.elastic.co/kibana/kibana/kibana-4.1.2-linux-x64.tar.gz 2、解压到指定目录 tar zxvf kibana-4.1.2-linux-x64.tar.gz -C /opt 3、创建日志目录 mkdir -p /opt/kibanalog 4、配置 1)备份配置 cp /opt/kibana-4.1.2-linux-x64/config/kibana.yml /opt/kibana-4.1.2-linux-x64/config/kibana.yml.bak 2)修改配置 sed -i 's!^elasticsearch_url: .*!elasticsearch_url: "http://192.168.0.1:9200"!g' /opt/kibana-4.1.2-linux-x64/config/kibana.yml sed -i 's!^host: .*!host: "192.168.0.1"!g' /opt/kibana-4.1.2-linux-x64/config/kibana.yml 5、启动服务 cd /opt/kibanalog && nohup /opt/kibana-4.1.2-linux-x64/bin/kibana & 6、查看进程和端口 1)查看进程 ps aux |grep kibana 2)查看端口 netstat -tupnl|grep 5601 7、在windows上访问 http://192.168.0.1:5601 8、设置开机启动 echo "cd /opt/kibanalog && nohup /opt/kibana-4.1.2-linux-x64/bin/kibana &" >> /etc/rc.local 到此服务器A的相关软件全部安装完成; 现在安装日志采集端的程序(服务器B),可以有多个 clientB安装配置logstash(agent) 1、安装java环境 yum -y list java* yum -y install openjdk-7-jdk 1、下载logstash wget https://download.elastic.co/logstash/logstash/packages/centos/logstash-1.5.4-1.noarch.rpm 2、安装logstash rpm -ivh logstash-1.5.4-1.noarch.rpm 3、配置(默认没有这个配置文件) 1)配置logstash_agent vim /etc/logstash/conf.d/logstash_agent.conf input { file { path => "/tmp/*.log" start_position => beginning } } output { redis { host => "192.168.0.1" data_type => "list" key => "logstash:redis" } } 5、启动服务 /etc/init.d/logstash start logstash started. 6、使用jps -mlv或ps -ef来查看下进程 ps -ef|grep logst 7、设置开机启动 update-rc.d logstash defaults update-rc.d: using dependency based boot sequencing 至此服务器B也安装配置完成,根据日志采集端的需要可以配置N个服务B 如何查看日志: 1、查看redis日志 cat /var/log/redis/redis-server.log 2、查看elasticsearch日志 cat /var/log/elasticsearch/elasticsearch.log tail -300f /var/log/elasticsearch/elasticsearch.log 3、查看logstash日志 cat /var/log/logstash/logstash.errtail -30f /var/log/logstash/logstash.err 4、查看kibana日志 cat /opt/kibanalog/nohup.out tail -30f /opt/kibanalog/nohup.out 错误处理 1)unable to fetch mapping, do you have indices matching the pattem? kibana 报这个错误就是因为没有从logstash 过来任何数据一般检查一下数据传输 作者:纯洁的微笑 出处:www.ityouknow.com 本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。本文如对您有帮助,还请多帮【推荐】下此文。如果喜欢我的文章,请关注我的公众号 分类: 系统架构 本文转自纯洁的微笑博客博客园博客,原文链接:http://www.cnblogs.com/ityouknow/p/4933103.html,如需转载请自行联系原作者

优秀的个人博客,低调大师

ELK日志服务器的快速搭建并收集nginx日志

今天给大家带来的是开源实时日志分析 ELK , ELK 由 ElasticSearch 、 Logstash 和 Kiabana 三个开源工具组成。官方网站:https://www.elastic.co 其中的3个软件是: Elasticsearch 是个开源分布式搜索引擎,它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制, restful 风格接口,多数据源,自动搜索负载等。 Logstash 是一个完全开源的工具,他可以对你的日志进行收集、分析,并将其存储供以后使用(如,搜索)。 kibana 也是一个开源和免费的工具,他 Kibana 可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助您汇总、分析和搜索重要数据日志 系统 系统需要安装的软件 ip 描述 centos6.4 Elasticsearch/test5 192.168.48.133 搜索存储日志 centos6.4 Elasticsearch/test4 192.168.48.131 搜索存储日志 centos6.4 Logstash/nginx/test1 192.168.48.129 用来收集日志给上面 centos6.4 kibana,nginx/test2 192.168.48.130 用来后端的展示 软件下载:链接:链接:http://share.weiyun.com/3b6c27e33cbf4d0acc0ccfa14877bd05 (密码:IWLe) 架构原理图: 一、先安装elasticsearch集群,并测试通过再进行其他软件安装。 在test5,test4上安装分别安装elasticsearch-2.3.3.rpm 前提要安装java1.8 步骤如下: yumremovejava-1.7.0-openjdk rpm-ivhjdk-8u91-linux-x64.rpm yumlocalinstallelasticsearch-2.3.3.rpm 配置elasticsearch 在目录/etc/elasticsearch目录下面 lasticsearch.yml elasticsearch.yml.bak logging.yml scripts 编辑lasticsearch.yml 修改如下配置 cluster.name: myelk #设置集群的名称,在一个集群里面都是这个名称,必须相同 node.name: test5 #设置每一个节点的名,每个节点的名称必须不一样。 path.data: /path/to/data #指定数据的存放位置,线上的机器这个要放到单一的大分区里面。 path.logs: /path/to/logs #日志的目录 bootstrap.mlockall: true #启动最优内存配置,启动就分配了足够的内存,性能会好很多,测试我就不启动了。 network.host: 0.0.0.0 #监听的ip地址,这个表示所有的地址。 http.port: 9200 #监听的端口号 discovery.zen.ping.unicast.hosts: ["192.168.48.133", "192.168.48.131"] #知道集群的ip有那些,没有集群就会出现就一台工作 建立目录 mkdir-pv/pach/to/{data,logs} chownelasticsearch.elasticsearch/path-R 启动服务器 service elasticsearch start 并查看监控端口启动 访问9200端口查看服务 两台的配置都一样就是上面的IP和note名称要配置不一样就行 安装插件 head和kopf 之后访问ip:9200/_plugin/head 和ip:9200/_plugin/kopf (插件可以图形查看elasticsearch的状态和删除创建索引) /usr/share/elasticsearch/bin/plugininstalllmenezes/elasticsearch-kopf /usr/share/elasticsearch/bin/plugininstallmobz/elasticsearch-head 二、安装nginx和logstash软件 在test1上安装好nginx服务 就是收集它的日志呢 yum-yinstallzlibzlib-developensslopenssl--develpcrepcre-devel ./configure--prefix=/usr/local/nginx--with-pcre--with-openssl=--with-zlib= make&&makeinstall 日志在/usr/local/nginx/logs/access.log 然后在test1上安装logstash-2.3.3-1.noarch.rpm yumremovejava-1.7.0-openjdk rpm-ivhjdk-8u91-linux-x64.rpm rpm-ivhlogstash-2.3.3-1.noarch.rpm /etc/init.d/logstashstart#启动服务 /opt/logstash/bin/logstash-e"input{stdin{}}output{stdout{codec=>"rubydebug"}}"#检测环境执行这个命令检测环境正常否,启动完成后直接输入东西就会出现 之后输入/opt/logstash/bin/logstash -e 'input {stdin{}} output{ elasticsearch { hosts => ["192.168.48.131:9200"] index => "test"}}' 就是输入东西到48.131的elasticsearch上 会在/path/to/data/myelk/nodes/0/indices 生成你名称test索引文件目录 可以多输入几个到48.131的目录看看有没有文件有就证明正常。 之后在/etc/logstash/conf.d 建立以.conf结尾的配置文件,我收集nginx就叫nginx.conf了内容如下; ########################################################################################### input { file { type => "accesslog" path => "/usr/local/nginx/logs/access.log" #日志的位置 start_position => "beginning" #日志收集文件,默认end } } output { if [type] == "accesslog" { elasticsearch { hosts => ["192.168.0.87"] ###elasticearch的地址 index => "nginx-access-%{+YYYY.MM.dd}" #生成的索引和刚才的test一样会在那里生成后面的是日期变量。 } } } ########################################################################################## 一定要仔细,之后运行/etc/init.d/logstash configtest检测配置是否正常。 查看进程是否启动 之后在elasticearch查看有没有索引生成。多访问下nginx服务 如果没有就修改这个文件 vi /etc/init.d/logstash ###################################################################################################### LS_USER=root ###把这里换成root或者把访问的日志加个权限可以让logstash可以读取它 重启服务就会生成索引了 LS_GROUP=root LS_HOME=/var/lib/logstash LS_HEAP_SIZE="1g" LS_LOG_DIR=/var/log/logstash LS_LOG_FILE="${LS_LOG_DIR}/$name.log" LS_CONF_DIR=/etc/logstash/conf.d LS_OPEN_FILES=16384 LS_NICE=19 KILL_ON_STOP_TIMEOUT=${KILL_ON_STOP_TIMEOUT-0} #default value is zero to this variable but could be updated by user request LS_OPTS="" ####################################################################################################### 看logstash的日志有下面的信息就成功了 三、安装kibana软件 上面的都安装完成后在test2上面安装kibana rpm-ivhkibana-4.5.1-1.x86_64.rpm 编辑配置文件在这里/opt/kibana/config/kibana.yml 就修改下面几项就行 ####################################################################################################### server.port: 5601 端口 server.host: "0.0.0.0" 监听 elasticsearch.url: "http://192.168.48.131:9200"elasticsearch地址 ###################################################################################################### /etc/init.d/kibana start 启动服务 访问kibana http://ip:5601 添加展示的索引,就是在上面定义的 nginx-access-2016.07.03 四、其他的一些配置。 kibana是直接访问的比较不安全,我们需要用nginx访问代理,并设置权限用户名和密码访问 先在kibana服务器上安装nginx 不介绍了 在nginx里面配置 ################################################################################# server { listen 80; server_name localhost; auth_basic "Restricted Access"; auth_basic_user_file /usr/local/nginx/conf/htpasswd.users; #密码和用户 location / { proxy_pass http://localhost:5601; #代理kibana的5601之后就可以直接80访问了 proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header REMOTE-HOST $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; } } #################################################################################### 创建密码和用户文件:htpasswd.users 需要安装httpd-tool包先安装它 htpasswd -bc /usr/local/nginx/conf/htpasswd.users admin paswdadmin #前面是用户后面是密码 ################################################################################## 之后通过访问需要密码和用户并且是80端口了 到这里就完成了,谢谢你的阅读。

优秀的个人博客,低调大师

kvm虚拟化学习笔记(十九)之convirt集中管理平台搭建

原创作品,允许转载,转载时请务必以超链接形式标明文章 原始出处、作者信息和本声明。否则将追究法律责任。 http://koumm.blog.51cto.com/703525/1305553 kvm虚拟化学习笔记(二十)之convirt安装linux系统 http://koumm.blog.51cto.com/703525/1306526 情况说明: (1)本文采用OEL6.3x64操作系统,需要有KVM安装环境。(2)convirt2.1.1采用源码方式安装,convirt环境分别两部分,一部分是cms,用于管理kvm/xen虚拟主机上的虚拟机,一部分做为客户端安装到kvm/xen虚拟主机上。(3)convirt2.1.1是开源的管理xen/kvm虚拟化管理工具,是众多开源工具中的一种。 1.安装convirt环境 (1)安装KVM环境 kvm虚拟化学习笔记(一)之kvm虚拟化环境安装:http://koumm.blog.51cto.com/703525/1288795 (2)准备convirt安装源 1 2 # cd /etc/yum.repos.d # wget --no-cache http: //www.convirture.com/repos/definitions/rhel/6.x/convirt.repo (3)下载convirt与cms安装包 1 2 3 # cd /root/ # wget --no-cache http: //www.convirture.com/downloads/convirt/2.1.1/convirt-2.1.1.tar.gz # wget --no-cache http: //www.convirture.com/downloads/convirt/2.1.1/convirt-install-2.1.1.tar.gz (4)安装convirt安装包 1 2 # tar -xzvf convirt-install- 2.1 . 1 .tar.gz # cd convirt-install/install/cms/scripts/ && ./install_dependencies 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 … 初始化 MySQL 数据库: Installing MySQL system tables... OK Filling help tables... OK To start mysqld at boot time you have to copy support-files/mysql.server to the right place for your system PLEASE REMEMBER TO SET A PASSWORD FOR THE MySQL root USER ! To do so, start the server, then issue the following commands: /usr/bin/mysqladmin -u root password 'new-password' /usr/bin/mysqladmin -u root -h vmnode1 password 'new-password' Alternatively you can run: /usr/bin/mysql_secure_installation which will also give you the option of removing the test databases and anonymous user created by default . This is strongly recommended for production servers. See the manual for more instructions. You can start the MySQL daemon with : cd /usr ; /usr/bin/mysqld_safe & You can test the MySQL daemon with mysql-test-run.pl cd /usr/mysql-test ; perl mysql-test-run.pl Please report any problems with the /usr/bin/mysqlbug script! [确定] 正在启动 mysqld: [确定] Running mysql_secure_installation. Current root password for fresh installation is blank. So simple press enter. NOTE: RUNNING ALL PARTS OF THIS SCRIPT IS RECOMMENDED FOR ALL MySQL SERVERS IN PRODUCTION USE! PLEASE READ EACH STEP CAREFULLY! In order to log into MySQL to secure it, we'll need the current password for the root user. If you've just installed MySQL, and you haven't set the root password yet, the password will be blank, so you should just press enter here. Enter current password for root (enter for none): OK, successfully used password, moving on... Setting the root password ensures that nobody can log into the MySQL root user without the proper authorisation. Set root password? [Y/n] y New password: Re-enter new password: Password updated successfully! Reloading privilege tables.. ... Success! By default , a MySQL installation has an anonymous user, allowing anyone to log into MySQL without having to have a user account created for them. This is intended only for testing, and to make the installation go a bit smoother. You should remove them before moving into a production environment. Remove anonymous users? [Y/n] y ... Success! Normally, root should only be allowed to connect from 'localhost' . This ensures that someone cannot guess at the root password from the network. Disallow root login remotely? [Y/n] y ... Success! By default , MySQL comes with a database named 'test' that anyone can access. This is also intended only for testing, and should be removed before moving into a production environment. Remove test database and access to it? [Y/n] y - Dropping test database... ... Success! - Removing privileges on test database... ... Success! Reloading the privilege tables will ensure that all changes made so far will take effect immediately. Reload privilege tables now? [Y/n] y ... Success! Cleaning up... All done! If you've completed all of the above steps, your MySQL installation should now be secure. Thanks for using MySQL! mysqld (pid 2691 ) 正在运行... MySQL service is already running. Prerequsite for ConVirt Management Server (CMS) installed. 说明:安装过程会安装mysql数据库,并输入mysql数据库root帐号密码。 (5)修改mysql数据库配置文件 (6)解压CMS软件包并安装 1 2 3 4 5 # cd /root/ # cd convirt-install/install/cms/scripts/ && source install_config # cd /root && tar -xzf convirt- 2.1 . 1 .tar.gz -C $CONVIRT_BASE # ./setup_tg2 # ./setup_convirt 安装过程略… (7)启动与关闭convirtCMS 启动convirt 关闭convirt 1 # /root/convirt/convirt-ctl stop (8)打开convirt2.1.1 http://192.168.233.170:8081 输入admin/admin 还需要在kvm虚拟主机上安装convirt-tools工具之后才能添加。 2.在KVM虚拟主机上安装convirt-tools工具 注:在kvm虚拟主机上安装convirt-tools工具。 1 2 3 4 5 # wget http: //www.convirture.com/downloads/convirture-tools/2.1.1/convirture-tools-2.1.1.tar.gz # tar zxvf convirture-tools- 2.1 . 1 .tar.gz # cd convirture-tools/install/managed_server/scripts # ./convirt-tool install_dependencies # ./convirt-tool setup 3.在convirtcms上添加KVM虚拟主机 添加KVM虚拟主机。 本文出自 “koumm的linux技术博客” 博客,请务必保留此出处http://koumm.blog.51cto.com/703525/1305553

资源下载

更多资源
优质分享App

优质分享App

近一个月的开发和优化,本站点的第一个app全新上线。该app采用极致压缩,本体才4.36MB。系统里面做了大量数据访问、缓存优化。方便用户在手机上查看文章。后续会推出HarmonyOS的适配版本。

Spring

Spring

Spring框架(Spring Framework)是由Rod Johnson于2002年提出的开源Java企业级应用框架,旨在通过使用JavaBean替代传统EJB实现方式降低企业级编程开发的复杂性。该框架基于简单性、可测试性和松耦合性设计理念,提供核心容器、应用上下文、数据访问集成等模块,支持整合Hibernate、Struts等第三方框架,其适用范围不仅限于服务器端开发,绝大多数Java应用均可从中受益。

Rocky Linux

Rocky Linux

Rocky Linux(中文名:洛基)是由Gregory Kurtzer于2020年12月发起的企业级Linux发行版,作为CentOS稳定版停止维护后与RHEL(Red Hat Enterprise Linux)完全兼容的开源替代方案,由社区拥有并管理,支持x86_64、aarch64等架构。其通过重新编译RHEL源代码提供长期稳定性,采用模块化包装和SELinux安全架构,默认包含GNOME桌面环境及XFS文件系统,支持十年生命周期更新。

Sublime Text

Sublime Text

Sublime Text具有漂亮的用户界面和强大的功能,例如代码缩略图,Python的插件,代码段等。还可自定义键绑定,菜单和工具栏。Sublime Text 的主要功能包括:拼写检查,书签,完整的 Python API , Goto 功能,即时项目切换,多选择,多窗口等等。Sublime Text 是一个跨平台的编辑器,同时支持Windows、Linux、Mac OS X等操作系统。

用户登录
用户注册