首页 文章 精选 留言 我的

精选列表

搜索[加密工具],共10000篇文章
优秀的个人博客,低调大师

ECS 备份数据到NAS(一):使用Windows Server Backup工具

使用阿里云NAS文件存储服务,用户可以非常方便地实现计算和存储分离的架构设计,即将计算任务以及内存态数据保留在ECS上,而将需要持久化的数据保存到NAS上,这样当发生ECS宕机的情况时,用户业务可以快速切换到其他ECS上,并且在新的ECS上可以无缝地持续访问原来保存在NAS上的数据。可以说,NAS是多ECS共享数据以及实现计算存储分离的利器。 除了以上这一最典型的使用场景,很多用户的场景下虽然没有强烈的数据共享需求,但希望可以把ECS上的数据定期或者不定期地同步到云盘之外的存储,目的主要有两个:1. 保留历史数据;2. 当发生灾难性事件(比如误删除ECS及云盘)时的数据恢复。在这个数据备份的场景中,NAS也可以发挥重要作用,帮助用户保存重要数据。相比云盘的基于整盘的快照来保存历史数据,当备份历史数据到NAS时可以有更加灵活的选择,

优秀的个人博客,低调大师

运维人员的强大工具

sparkhistory Server产生背景 以standalone运行模式为例,在运行Spark Application的时候,Spark会提供一个WEBUI列出应用程序的运行时信息;但该WEBUI随着Application的完成(成功/失败)而关闭,也就是说,Spark Application运行完(成功/失败)后,将无法查看Application的历史记录; Spark history Server就是为了应对这种情况而产生的,通过配置可以在Application执行的过程中记录下了日志事件信息,那么在Application执行结束后,WEBUI就能重新渲染生成UI界面展现出该Application在执行过程中的运行时信息; Spark运行在yarn或者mesos之上,通过spark的history server仍然可以重构出一个已经完成的Application的运行时参数信息(假如Application运行的事件日志信息已经记录下来); sparkhistory Server的配置 1. 在Spark的conf目录下/usr/local/spark-1.6.0-bin-hadoop2.6/conf,将spark-defaults.conf.template改名为spark-defaults.conf mv spark-defaults.conf.template spark-defaults.conf spark@SparkSingleNode:/usr/local/spark/spark-1.5.2-bin-hadoop2.6$ ls bin data examples licenses NOTICE README.md work CHANGES.txt derby.log lib logs python RELEASE conf ec2 LICENSE metastore_db R sbin spark@SparkSingleNode:/usr/local/spark/spark-1.5.2-bin-hadoop2.6$ cd conf/ spark@SparkSingleNode:/usr/local/spark/spark-1.5.2-bin-hadoop2.6/conf$ ls docker.properties.template metrics.properties.template spark-env.sh fairscheduler.xml.template slaves log4j.properties.template spark-defaults.conf.template spark@SparkSingleNode:/usr/local/spark/spark-1.5.2-bin-hadoop2.6/conf$mv spark-defaults.conf.template spark-defaults.conf spark@SparkSingleNode:/usr/local/spark/spark-1.5.2-bin-hadoop2.6/conf$ ls docker.properties.template metrics.properties.template spark-env.sh fairscheduler.xml.template slaves log4j.properties.template spark-defaults.conf spark@SparkSingleNode:/usr/local/spark/spark-1.5.2-bin-hadoop2.6/conf$ 2. 对spark-defaults.conf 配置 spark@SparkSingleNode:/usr/local/spark/spark-1.5.2-bin-hadoop2.6/conf$vim spark-defaults.conf spark.eventLog.enabled true spark.eventLog.dir hdfs://SparkSingleNode:9000/historyserverforSpark spark.history.ui.port 18080 spark.history.fs.logDirectory hdfs://SparkSingleNode:9000/historyserverforSpark 3.启动history-server spark@SparkSingleNode:/usr/local/spark/spark-1.5.2-bin-hadoop2.6/conf$ cd .. spark@SparkSingleNode:/usr/local/spark/spark-1.5.2-bin-hadoop2.6$sbin/start-history-server.sh starting org.apache.spark.deploy.history.HistoryServer, logging to /usr/local/spark/spark-1.5.2-bin-hadoop2.6/sbin/../logs/spark-spark-org.apache.spark.deploy.history.HistoryServer-1-SparkSingleNode.out failed to launch org.apache.spark.deploy.history.HistoryServer: full log in /usr/local/spark/spark-1.5.2-bin-hadoop2.6/sbin/../logs/spark-spark-org.apache.spark.deploy.history.HistoryServer-1-SparkSingleNode.out spark@SparkSingleNode:/usr/local/spark/spark-1.5.2-bin-hadoop2.6$ jps 6816 Jps 3876 Worker 6772 HistoryServer 3174 NameNode 5990 CoarseGrainedExecutorBackend 3703 Master 3453 SecondaryNameNode 3293 DataNode 5887 SparkSubmit spark@SparkSingleNode:/usr/local/spark/spark-1.5.2-bin-hadoop2.6$ 4、spark-env.sh 5.在web浏览器中查看http://SparkSingleNode:18080/显示页面 1.6.0 History Server Event log directory: hdfs://Master:9000/historyserverforSpark 成功! 本文转自大数据躺过的坑博客园博客,原文链接:http://www.cnblogs.com/zlslch/p/5922165.html,如需转载请自行联系原作者

优秀的个人博客,低调大师

Docker容器学习梳理--web管理工具DockerUI部署记录

Docker提供一个平台来把应用程序当作容器来打包、分发、共享和运行,它已经通过节省工作时间来拯救了成千上万的系统管理员和开发人员。Docker不用关注主机上运行的操作系统是什么,它没有开发语言、框架或打包系统的限制,并且可以在任何时间、任何地点运行,从小型计算机到高端服务器都可以。 由于运行Docker容器和管理它们可能会花费一点点努力和时间,因为基于web的应用程序-DockerUI应运而生,它可以让管理和运行容器变得很简单。DockerUI是一个开源的基于Docker API的web应用程序,提供等同Docker命令行的大部分功能,支持container管理,image管理。它最值得称道的是它华丽的设计和用来运行和管理docker的简洁的操作界面。 1 2 3 4 5 6 DockerUI优点: 1)支持container批量操作; 2)支持image管理(虽然比较薄弱) DockerUI缺点: 不支持多主机。 下面记录在DockerUI管理环境的部署过程: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 1)首先拉去dockerUI镜像,现在dockerUI镜像位置变了,如下: [root@localhost ~] # docker pull uifd/ui-for-docker //之前镜像位置为dockerui/dockerui [root@localhost ~] # docker images REPOSITORY TAG IMAGE ID CREATED SIZE 192.168.1.23:5000 /tomcat7 latest 47c5123914a1 4 days ago 562.3 MB docker.io /redis latest e4a35914679d 4 weeks ago 182.9 MB docker.io /ubuntu latest 0ef2e08ed3fa 4 weeks ago 130 MB centos7 7.3.1611 d5ebea14da54 5 weeks ago 311 MB docker.io /centos latest 67591570dd29 3 months ago 191.8 MB docker.io /tomcat latest ebb17717bed4 5 months ago 355.4 MB docker.io /uifd/ui-for-docker latest 965940f98fa5 6 months ago 8.096 MB <none> <none> 980e0e4c79ec 6 months ago 196.7 MB docker.io /registry 2.2 ad379b517aa6 14 months ago 224.5 MB 2)启动DockerUI容器。 如果服务器开启了Selinux,那么就得使用--privileged标志。这里我在本机关闭了Selinux,所以不用添加--privileged [root@localhost ~] # docker run -it -d --name docker-web -p 9000:9000 -v /var/run/docker.sock:/var/run/docker.sock docker.io/uifd/ui-for-docker [root@localhost ~] # docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES c078f0f41285 docker.io /uifd/ui-for-docker "/ui-for-docker" 4 seconds ago Up 2 seconds 0.0.0.0:9000->9000 /tcp docker-web [root@localhost ~] # vim /etc/sysconfig/iptables ...... -A INPUT -p tcp -m state --state NEW -m tcp --dport 9000 -j ACCEPT [root@localhost ~] # systemctl restart iptables.service 接着就可以在浏览器访问DockerUI管理界面了。启动了 DockerUI容器之后,就可以用它来执行启动、暂停、终止、删除以及DockerUI提供的其它操作Docker容器的命令。在浏览器里面输入 http://ip-address:9000,默认情况下登录不需要认证,但是可以配置我们的 web 服务器来要求登录认证。 DockerUI的管理: 1)Dashboard控制台。点击Running Containers下面活跃的容器,进入容器的管理界面进行相关操作,比如修改容器名,commit提交容器为新的镜像等。 2)container容器管理。点击Display All,可以显示所有创建了的容器,包括没有启动的。然后点击Action,可以对容器进行启动,关闭,重启,删除,挂起等操作。 3)images镜像管理。点击Action,可以对已有的镜像镜像移除操作。点击Pull,可以拉取镜像。点击镜像ID进去后可以添加或移除镜像tag 如下截图,Pull镜像的时候,Registry为空,默认从docker hub上拉取镜像。 点击镜像ID进入,可以添加或删除镜像tag标识。 ***************当你发现自己的才华撑不起野心时,就请安静下来学习吧*************** 本文转自散尽浮华博客园博客,原文链接:http://www.cnblogs.com/kevingrace/p/6655153.html,如需转载请自行联系原作者

资源下载

更多资源
Mario

Mario

马里奥是站在游戏界顶峰的超人气多面角色。马里奥靠吃蘑菇成长,特征是大鼻子、头戴帽子、身穿背带裤,还留着胡子。与他的双胞胎兄弟路易基一起,长年担任任天堂的招牌角色。

Spring

Spring

Spring框架(Spring Framework)是由Rod Johnson于2002年提出的开源Java企业级应用框架,旨在通过使用JavaBean替代传统EJB实现方式降低企业级编程开发的复杂性。该框架基于简单性、可测试性和松耦合性设计理念,提供核心容器、应用上下文、数据访问集成等模块,支持整合Hibernate、Struts等第三方框架,其适用范围不仅限于服务器端开发,绝大多数Java应用均可从中受益。

Rocky Linux

Rocky Linux

Rocky Linux(中文名:洛基)是由Gregory Kurtzer于2020年12月发起的企业级Linux发行版,作为CentOS稳定版停止维护后与RHEL(Red Hat Enterprise Linux)完全兼容的开源替代方案,由社区拥有并管理,支持x86_64、aarch64等架构。其通过重新编译RHEL源代码提供长期稳定性,采用模块化包装和SELinux安全架构,默认包含GNOME桌面环境及XFS文件系统,支持十年生命周期更新。

Sublime Text

Sublime Text

Sublime Text具有漂亮的用户界面和强大的功能,例如代码缩略图,Python的插件,代码段等。还可自定义键绑定,菜单和工具栏。Sublime Text 的主要功能包括:拼写检查,书签,完整的 Python API , Goto 功能,即时项目切换,多选择,多窗口等等。Sublime Text 是一个跨平台的编辑器,同时支持Windows、Linux、Mac OS X等操作系统。

用户登录
用户注册