首页 文章 精选 留言 我的

精选列表

搜索[部署],共10000篇文章
优秀的个人博客,低调大师

生物数据库搭建教程①——在Ubuntu14.04上部署LAMP环境

搭建数据库的第一步就是先把环境搭建好。常用的环境有很多啦,我主要用的就是LAMP环境。 何为LAMP? LAMP = Linux + Apache+ Mysql + PHP 现在也有用nginx来替代apache,称为LNMP的环境。作为一个小网站,其实没这么多讲究,哪个顺手用哪个就好了。另外,其实apache也没那么菜啦,看你的需要来选择就好 :-) 服务器选择 我用的服务器一般是阿里云或者腾讯云,因为他们有针对学生的优惠,一个月十块钱的样子,配置也还凑合。最近华为云也开启了学生活动,价格差不多。 升级apt源 新拿到的服务器第一步要干啥呢?如果你直接运行sudo apt-get install apache2是会报失败的,因为要先更新和升级一下apt源才能用噢 sudo apt-get update sudo apt-get upgrade 这样就更新好啦。 安装apache2 在Ubuntu14.04里,apache已经更新到apache2了。不同的Ubuntu版本的apt源里的软件也是不一样的。 sudo apt-get install apache2 怎么查看有没有安装成功呢? apache2 -v 如果没报错就ok啦。 安装php5 在Ubuntu14.04里php的版本是5,到16.04里就是php7了。 sudo apt-get install php5 php5 -v 查看apache和php的连接文件是否存在 cat /etc/apache2/mods-enabled/php5.load 我们需要确认一下apache和php是否连接上了,只有连接上了之后apache才能指挥php5干各种各样的活~一般而言这一条是没问题的。 安装mysql sudo apt-get install mysql-server 这一步会跳出粉色的框让你设置mysql的密码,如果你担心记不住或者搞混的话可以直接设置成你服务器的密码不过这样比较不安全噢。 查看php5和mysql的连接文件是否存在 cat /etc/php5/conf.d/mysql.ini #or cat /etc/php5/mods-available/mysql.ini 两条命令都试试,我已经不记得哪个是有效的了。。阿里云的服务器亲测是需要手动安装这个扩展的。 sudo apt-get install php5-mysql 重复上面的连接文件检查步骤,应该就ok了,如果还是没有的话~~百度去吧。 重启mysql & apache2 sudo service mysql restart sudo service apache2 restart 有没有简单一点的办法呢? 当然有啦! sudo apt-get install apache2 php5 mysql-server php5-mysql 一条命令就搞定了~如果是阿里云的服务器的话,放心用就好了,我试过很多次的,没出过啥问题。 番外:安装phpmyadmin phpmyadmin是非常好用的基于php的mysql可视化管理软件,即使你SQL语句不太过关也可以管理你的数据库啦。 sudo apt-get install phpmyadmin 这里也需要你设置一个phpmyadmin的密码的。 phpmyadmin默认安装在/usr/share/phpmyadmin下。为了方便web访问,可以设置一个软连接到apache的默认位置下。 sudo ln -s /usr/share/phpmyadmin /var/www/html/phpmyadmin 设置好之后只要输入IP/phpmyadmin就可以可视化地访问mysql了。 apache默认的位置在/var/www/html下。 基本环境就搭好啦!晚安世界~ 2018年10月18日00点17分。

优秀的个人博客,低调大师

私有Chart仓库搭建以及使用CodePipeline部署Chart到Kubernetes集群的实践

阿里云Kubernetes服务已经内置提供了Helm/Chart支持,可以直接使用。参考文档:https://help.aliyun.com/document_detail/58587.html 搭建私有Chart仓库 本文主要演示使用阿里云OSS Bucket和阿里云容器服务提供的ChartMuseum应用搭建私有Chart仓库的过程。 申请OSS Bucket 为了保证chart存储的高可用,可漂移,这里使用oss作为chart文件存储的载体。 安装ChartMuseum 在阿里云Kubernetes服务的应用目录页面找到chartmuseum并选择安装此chart。这里需要修改一些默认的values配置: env: open: # storage backend, can be one of: local, alibaba,

优秀的个人博客,低调大师

CentOS7部署Hadoop2.7.5全分布式群集

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq_34173549/article/details/79905306 思路 安装虚拟机 安装JDK 克隆 安装HADOOP 配置ssh 搭建hadoop集群 配置hadoop-env.sh 配置hadoop-core-site.xm 配置hadoop-hdfs-site.xm 配置hadoop-mapred-site.xml 配置hadoop-yarm-site.xml 配置slave 发送hadoop文件到所有机子上 测试 安装虚拟机 VMware Workstation 12.5.7 PRO 安装 CentOS7 安装JDK linux安装最新版JDK 克隆 我是直接克隆虚拟机,要是有服务器或者自安装也可以。点击完整克隆 安装HADOOP CentOS7安装单机版Hadoop 配置HADOOP 修改UUID vim /etc/sysconfig/network-scripts/ifcfg-ens33 因为克隆过来的UUID是相同的,可以删除重新生成,也可以修改其中一个数就可以了,里面的数值是16进制的,在这范围内就可以。 修改计算机名 hostnamectl –static set-hostname hadoop01 修改映射 vim /etc/hosts 192.168.164.137 hadoop01 www.hadoop01.com 192.168.164.136 hadoop02 www.hadoop02.com 192.168.164.138 hadoop03 www.hadoop03.com 1 2 3 CentOS7克隆之后IP地址是自动分配的,所以不需要自己设置查询本机IP ifconfig 检验是能联通,在win的cmd ping一下改名之后可以通过名字来在虚拟机之间通讯 配置SSH cd /root/.sshssh-keygen -t rsa ssh-copy-id hadoop01ssh-copy-id hadoop02ssh-copy-id hadoop03# hadoop01,hadoop02,hadoop03是我的主机名,主机名自己设置的 搭建全分布环境 规划 主机名称 IP地址 功能 hadoop01 192.168.164.137 NameNode,DataNode,ResourceManager,NodeManager hadoop02 192.168.164.136 DataNode,NodeManager hadoop03 192.168.164.138 DataNode,NodeManager 所有机子都需要配置 1.JDK2.SSH免登陆3.Hadoop集群 配置hadoop-env.sh vim /usr/local/hadoop-2.7.5/etc/hadoop/hadoop-env.sh export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.161-0.b14.el7_4.x86_64 export HADOOP_CONF_DIR=/usr/local/hadoop-2.7.5/etc/hadoop/ 1 2 3 配置core-site.xml vim /usr/local/Hadoop-2.7.5/etc/Hadoop/core-site.xml <configuration> <!-- configuration hdfs file system namespace --> <property> <name>fs.defaultFS</name> <value>hdfs://hadoop01:9000</value> </property> <!-- configuration hdfs cache size of the operation --> <property> <name>io.file.buffer.size</name> <value>4096</value> </property> <!-- configuration hdfs Temporary data storage directory --> <property> <name>hadoop.tmp.dir</name> <value>/home/mshing/bigdata/tmp</value> </property> </configuration> 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 配置hdfs-site.xml vim /usr/local/hadoop-2.7.5/etc/hadoop/hdfs-site.xml <configuration> <property> <name>dfs.namenode.name.dir</name> <value>/home/hadoop/hadoopdata/dfs/name</value> </property> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/home/hadoop/hadoopdata/dfs/data</value> </property> <property> <name>dfs.chechpoint.dir</name> <value>/home/hadoop/hadoopdata/checkpoint/dfs/cname</value> </property> <property> <name>dfs.http.address</name> <value>hadoop01:50070</value> </property> <property> <name>dfs.secondary.http.address</name> <value>hadoop01:50090</value> </property> <property> <name>dfs.webhdfs.enabled</name> <value>false</value> </property> <property> <name>dfs.permissions</name> <value>false</value> </property> </configuration> 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 配置mapred-site.xml cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xmlvim etc/hadoop/mapred-site.xml <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> <final>true</final> </property> <property> <name>mapreduce.jobhistory.address</name> <value>hadoop01:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>hadoop01:19888</value> </property> </configuration> 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 配置yarn-site.xml vim etc/hadoop/yarn-site.xml <configuration> <!-- Site specific YARN configuration properties --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>hadoop01:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>hadoop01:8030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>hadoop01:8031</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>hadoop01:8033</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>hadoop01:8088</value> </property> </configuration> 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 配置slaves vim etc/hadoop/slaves 远程分发到服务器上 scp -r /usr/local/hadoop-2.7.5/ hadoop02:/usr/local/scp -r /usr/local/hadoop-2.7.5/ hadoop03:/usr/local/ 启动之前需要格式化 启动之前,在namenode服务器上先格式化,只需格式化一次就好了 hadoop namenode -format 测试 启动namenode,datanode,ResourceManager,NodeManager节点 全启动: start-all.sh 模块启动: start -dfs.shstart -yarn.sh 单个进程启动/停止: hadoop-damon.sh start/stop namenodehadoop-damons.sh start/stop datanodeyarn-damon.sh start/stop namenodeyarn-damons.sh start/stop namenodemr-jobhistory-daemon.sh start/stop historyserver 验证在三台机子分别输入 jsp 就可以看到启动的进程了

优秀的个人博客,低调大师

Kotlin学习(一)—— IDEAIntelliJ IDEA的安装配置及Kotlin的环境部署

一.概括 从这篇博客开始,我们就正式的开始学习Kotlin了,首先我们来了解下他的几个重点 Kotlin 是一个基于 JVM 的新的编程语言,由 JetBrains 开发。 Kotlin可以编译成Java字节码,也可以编译成JavaScript,方便在没有JVM的设备上运行。 JetBrains,作为目前广受欢迎的Java IDE IntelliJ 的提供商,在 Apache 许可下已经开源其Kotlin 编程语言。 Kotlin已正式成为Android官方支持开发语言 JetBrains 的另一个代表作:IDEA,我相信大家都不陌生,所以我们在前期学习的时候依旧会以IDEA作为编译器,后期讲到Android这一块的时候,再用Android Studio 那我们首先先安装一下IntelliJ IDEA 点击直接下载就好了 IntelliJ IDEA下载地址 二.安装 安装的话,一路Next下去就好了,然后启动 这里是提示你是否有配置好的setting.jar,我们作为一次全新的安装,就选下面的没有就好了 这是认证,想要破解的话自行搜索就好了,推荐使用注册码 这里是选择的主题,白的黑的随便你 OK,到这里安装步骤算是完成了 三.创建Kotlin项目 我们成功安装完了之后,就可以创建项目了 点击Create New Project 然后我们选中Kotlin一栏,这里就有两种类型了,一种JVM还有一种JS,我们选择JVM,然后Next 这里就要说明一下了,首先,name就是工程的名字,然后location的话,随便你放哪,紧接着SDK,这里你一开始安装的时候会提示没有,所以你需要指定你的JDK安装地址,也就是JAVA_HOME给他就好了,Library的话是默认自带的KotlinJavaRuntime,然后点击Finish就好了 到这里算是成功创建了,我们从下节课开始就会开始学习了 四.IDEA配置 其实IDEA的配置和Android Studio基本上一样,所以大家可以直接看我的这篇博客 Android Studio重构之路,我们重新来了解一下Google官方的Android开发工具 如果有兴趣的话,可以来Github参与一下 Kotlin 我的公众号,期待你的关注

优秀的个人博客,低调大师

openstack学习笔记五 多节点部署之 rabbitmq信息中枢与元数据

元数据 rabbitmq信息中枢 rabbitmq信息中枢 所有组件通信的时候 实用 AMQP 高级消息队列 qpid rabbitmq 端口5672 sll加密5671 1 2 3 192.168.1.201h1.hequan.comh1 192.168.1.202h2.hequan.comh2 192.168.1.203h3.hequan.comh3 在h3上操作 配置YUM源 把openstack软件包上传到openstack目录下 1 2 3 4 5 6 7 8 [openstack] name=openstack baseurl= file : ///openstack enabled=1 gpgcheck=0 yumcleanall yummakecache [root@h1yum.repos.d] #yuminstall-yrabbitmq-server.noarch 1 2 3 4 5 [root@h3~] #systemctlstartrabbitmq-server.service [root@h3~] #systemctlenablerabbitmq-server.service [root@h3~] #netstat-lntup|grep5672 tcp000.0.0.0:256720.0.0.0:*LISTEN1354 /beam .smp tcp600:::5672:::*LISTEN1354 /beam .smp #使用这个 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 [root@h1keystone] #egrep-v'^$|^#'keystone.conf|greprabbit [oslo_messaging_rabbit] rabbit_host=localhost rabbit_port=5672 rabbit_hosts=localhost:5672 rabbit_use_ssl=False rabbit_userid=guest #默认用户 rabbit_password=guest rabbit_virtual_host=/ rabbit_ha_queues=False [root@h3~] #cd/etc/rabbitmq/ [root@h3rabbitmq] #ls rabbitmq.config ##配置文件 [root@h1rabbitmq] #catrabbitmq-env.conf NODE_PORT=5672 可以用web管理 1 2 3 4 5 6 7 8 9 10 11 12 13 [root@h3rabbitmq] #rabbitmq-pluginslist##查看插件 [root@h3rabbitmq] #rabbitmq-pluginsenablerabbitmq_management##启用管理插件 Thefollowingpluginshavebeenenabled: mochiweb webmachine rabbitmq_web_dispatch amqp_client rabbitmq_management_agent rabbitmq_management Pluginconfigurationhaschanged.RestartRabbitMQ for changestotakeeffect. [root@h3rabbitmq] #systemctlrestartrabbitmq-server.service [root@h3rabbitmq] #netstat-lntup|grep15672 tcp000.0.0.0:156720.0.0.0:*LISTEN1976 /beam .smp http://192.168.1.203:15672/ 用户guest 密码guest 元数据metadata 查看控制节点 网卡设置是否有问题 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 [root@h1~] #ovs-vsctlshow c34056d1-7b80-437f-b73c-5bf05258d303 Bridgebr-ex Port "qg-c4dff563-63" Interface "qg-c4dff563-63" type :internal Port "qg-62a3088b-40" Interface "qg-62a3088b-40" type :internal Port "qg-df2db69c-60" Interface "qg-df2db69c-60" type :internal Port "eth0" Interface "eth0" Portbr-ex Interfacebr-ex type :internal [root@h1~] #cat/proc/sys/net/ipv4/ip_forward##转发功能 1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 [root@h2~] #cd/etc/nova/ [root@h2nova] #grepmetadatanova.conf #Numberofmetadataitemsallowedperinstance(integervalue) #quota_metadata_items=128 #enabled_apis=ec2,osapi_compute,metadata #OpenStackmetadataservicemanager(stringvalue) #metadata_manager=nova.api.manager.MetadataManager #TheIPaddressonwhichthemetadataAPIwilllisten.(stringvalue) #metadata_listen=0.0.0.0 #TheportonwhichthemetadataAPIwilllisten.(integervalue) #metadata_listen_port=8775 #Numberofworkersformetadataservice.Thedefaultwillbethenumberof #metadata_workers=<None> #Listofmetadataversionstoskipplacingintotheconfigdrive(string #vendordata_driver=nova.api.metadata.vendordata_json.JsonFileVendorData #Timeinsecondstocachemetadata;0todisablemetadatacachingentirely #metadataAPIwhenunderheavyload.Highervaluesmayincreasememoryusage #andresultinlongertimesforhostmetadatachangestotakeeffect.(integer #metadata_cache_expiration=15 #TheIPaddressforthemetadataAPIserver(stringvalue) #metadata_host=$my_ip metadata_host=192.168.1.201 ################主机 #TheportforthemetadataAPIport(integervalue) #metadata_port=8775 #SetflagtoindicateNeutronwillproxymetadatarequestsandresolve #service_metadata_proxy=false #SharedsecrettovalidateproxiesNeutronmetadatarequests(stringvalue) #metadata_proxy_shared_secret= 实例云主机 可以查看metadate的设置数据 1 2 3 4 5 curlhtt: //169 .254.169.254 /2009-04-04/meta-data/ hostname local -ipv4 public-ipv4 seruity- groups 安全组 本文转自 295631788 51CTO博客,原文链接:http://blog.51cto.com/hequan/1796041,如需转载请自行联系原作者

资源下载

更多资源
优质分享App

优质分享App

近一个月的开发和优化,本站点的第一个app全新上线。该app采用极致压缩,本体才4.36MB。系统里面做了大量数据访问、缓存优化。方便用户在手机上查看文章。后续会推出HarmonyOS的适配版本。

Nacos

Nacos

Nacos /nɑ:kəʊs/ 是 Dynamic Naming and Configuration Service 的首字母简称,一个易于构建 AI Agent 应用的动态服务发现、配置管理和AI智能体管理平台。Nacos 致力于帮助您发现、配置和管理微服务及AI智能体应用。Nacos 提供了一组简单易用的特性集,帮助您快速实现动态服务发现、服务配置、服务元数据、流量管理。Nacos 帮助您更敏捷和容易地构建、交付和管理微服务平台。

Spring

Spring

Spring框架(Spring Framework)是由Rod Johnson于2002年提出的开源Java企业级应用框架,旨在通过使用JavaBean替代传统EJB实现方式降低企业级编程开发的复杂性。该框架基于简单性、可测试性和松耦合性设计理念,提供核心容器、应用上下文、数据访问集成等模块,支持整合Hibernate、Struts等第三方框架,其适用范围不仅限于服务器端开发,绝大多数Java应用均可从中受益。

Rocky Linux

Rocky Linux

Rocky Linux(中文名:洛基)是由Gregory Kurtzer于2020年12月发起的企业级Linux发行版,作为CentOS稳定版停止维护后与RHEL(Red Hat Enterprise Linux)完全兼容的开源替代方案,由社区拥有并管理,支持x86_64、aarch64等架构。其通过重新编译RHEL源代码提供长期稳定性,采用模块化包装和SELinux安全架构,默认包含GNOME桌面环境及XFS文件系统,支持十年生命周期更新。

用户登录
用户注册