首页 文章 精选 留言 我的

精选列表

搜索[windows],共10000篇文章
优秀的个人博客,低调大师

Windows活动目录--操作主机的转移实验

操作主机的转移实验 n 网络拓扑如下图 n 实验场景 情况1:DC01,DC02,都正常,但是我发现DC01性能不是很好,DC02的性能不错,因此我想把操作主机角色转移 到DC02上。 如下图08ser01,就是DC01,08ser02是DC02,OK下面我开始实验。 ? 首先我查看下五种操作主机是否都在DC01上。 命令:netdom query fsmo,OK,确认完毕 ? 在08Ser1上“更改域控制器” ? 选择“Server02.abc.com” ? 然后选择操作主机 ? 如下图我们就可以进行操作主机的更改了 ? 选择更改选择是 ? 如下图成功传送了操作主机到08Ser02上,其它的PDC,基础结构主机的传送也一样操作。 ?传送域命名主机,首先在08Ser01上运行如下命令 ? 选择操作主机 ? 然后选择更改 ? 选择“是” ? 传送成功 ?传送架构操作主机,首先在开始运行中注册下如下命令 ? 如下图注册成功 ? 然后在MMC中添加架构 ? 在如下图中选择“更改域控制器” ? 然后选择08Ser02 ? 然后选择更改 ? 如下图成功传送了“架构操作主机” ? 最后在08Ser02上查看,如下图“五种操作主机都是08Ser02”。 n 实验场景 情况2:DC01是abc.com域中的第一台域控制承担了目前五种操作主机角色,但是现在DC01出现了故障,比如 说主板硬盘都因为断电烧掉了,因此希望让DC02来成功五种操作主机角色,来维持域的正常使用。 ? OK下面我来进行实验,我实验很简单把DC01关机来模拟DC01的故障,然后进行操作主机角色的抢夺。 ? 首先我们在08Ser02上以域管理员身份登录,然后在Power shell输入如下命令:Ntdsutil,然后输入“问号(?) 可以看到Roles,命令是用来管理角色的。不需要进入域目录还原模式 ? 然后我们就输入Roles,然后输入问号(?)来查看具体的使用方法 ? 然而因为我们要进行角色的抢夺,所以我们必须先连接到目前的服务器也就是08Ser02,使用Connections,这里我利用CO,来进行简写,然后利用问号(?),来查看连接到服务器的命令,然后输入Connect to server server02.abc.com来连接到08ser02。 ? OK,如下图已经绑定到了08Ser02上 ?既然绑定了,那么我们就可以先退出如下图我输入了:quit,然后我们来进行的角色抢夺了,抢夺的英文为Size,因此可以看到下面我用黄色标记的五条以Size开头的命令。 如下图我就进行了“基础结构主机的抢夺”,弹出对话框,当然了我们要选择是。 ? 如下图在强行夺取之前,会尝试“安全索取”,如果不行再进行强行夺取。 ? 然后继续执行另外4个夺取命令,我这里就在执行一个“域命名操作主机”的夺取。 ? 其它的都执行完成后,我们就可以看到五种操作主机的角色都在08Ser02上了。 ?通过上述的操作我们就已经完成了操作主机的抢夺,但是我们必须再进行一个操作,什么操作呢?其实是这样的原来活动目录数据库包含了两台DC的信息,正确情况的卸载的话,他们之间会进行相互通知,然后删除活动目录数据库中的信息,但是现在话并没有进行正常的卸载,因此我们需要在活动目录数据库中删除原来DC01的信息 本文转自 onesthan 51CTO博客,原文链接:http://blog.51cto.com/91xueit/1156988,如需转载请自行联系原作者

优秀的个人博客,低调大师

windows 基于docker下的 spark 开发环境搭建

docker toolbox https://www.docker.com/products/docker-toolbox spark https://hub.docker.com/r/singularities/spark/~/dockerfile/ # start-hadoop-namenode # hadoop fs -mkdir /user # hadoop fs -mkdir /user/root/ # hadoop fs -put ./README.md /user/root # start-spark # start-spark worker [master] # spark-shell # spark-shell --master spark://a60b8c8f9653:7077 scala> val lines = sc.textFile("file:///usr/local/spark-2.1.0/README.md") scala> val lines = sc.textFile("hdfs:///usr/local/spark-2.1.0/README.md") lines: org.apache.spark.rdd.RDD[String] = file:///usr/local/spark-2.1.0/README.md MapPartitionsRDD[1] at textFile at <console>:24 scala> lines.count() res0: Long = 104 scala> lines.saveAsTextFile("hdfs:///user/root/README2.md") // 保存到hdfs 本文转自 拖鞋崽 51CTO博客,原文链接:http://blog.51cto.com/1992mrwang/1895904

优秀的个人博客,低调大师

Windows Server 2008 Active Directory操作主机(下)

当为林根域创建第一台域控制器时,所有五个操作主机角色都将由该域控制器执行。随着向域中添加更多的域控制器,即可将操作主机角色的分配转移到其他域控制器上,以便在多台域控制器上负载进行平衡,或优化某一特定操作主机的安置。 可用下列工具来识别当前的操作主机: PDC仿真器:Active Directory用户和计算机管理单元。右击域,并选择“操作主机”,随后切换到PDC选项卡。 RID主机:Active Directory用户和计算机管理单元。右击域,并选择“操作主机”,随后切换到RID选项卡。 结构主机:Active Directory用户和计算机管理单元。右击域,并选择“操作主机”,随后切换到“基础结构”选项卡。 域命名主机:Active Directory域和信任关系管理单元。右击管理单元的根节点,并选择“操作主机”。 架构主机:Active Directory结构管理单元。右击管理单元的根节点,并选择“操作主机”。 注意: 架构主机管理单元在使用前需要在命令行中用以下命令注册: 1 regsvr32 schmmgmt.dll 本文转自 bannerpei 51CTO博客,原文链接:http://blog.51cto.com/281816327/1365347,如需转载请自行联系原作者

资源下载

更多资源
Nacos

Nacos

Nacos /nɑ:kəʊs/ 是 Dynamic Naming and Configuration Service 的首字母简称,一个易于构建 AI Agent 应用的动态服务发现、配置管理和AI智能体管理平台。Nacos 致力于帮助您发现、配置和管理微服务及AI智能体应用。Nacos 提供了一组简单易用的特性集,帮助您快速实现动态服务发现、服务配置、服务元数据、流量管理。Nacos 帮助您更敏捷和容易地构建、交付和管理微服务平台。

Spring

Spring

Spring框架(Spring Framework)是由Rod Johnson于2002年提出的开源Java企业级应用框架,旨在通过使用JavaBean替代传统EJB实现方式降低企业级编程开发的复杂性。该框架基于简单性、可测试性和松耦合性设计理念,提供核心容器、应用上下文、数据访问集成等模块,支持整合Hibernate、Struts等第三方框架,其适用范围不仅限于服务器端开发,绝大多数Java应用均可从中受益。

Rocky Linux

Rocky Linux

Rocky Linux(中文名:洛基)是由Gregory Kurtzer于2020年12月发起的企业级Linux发行版,作为CentOS稳定版停止维护后与RHEL(Red Hat Enterprise Linux)完全兼容的开源替代方案,由社区拥有并管理,支持x86_64、aarch64等架构。其通过重新编译RHEL源代码提供长期稳定性,采用模块化包装和SELinux安全架构,默认包含GNOME桌面环境及XFS文件系统,支持十年生命周期更新。

Sublime Text

Sublime Text

Sublime Text具有漂亮的用户界面和强大的功能,例如代码缩略图,Python的插件,代码段等。还可自定义键绑定,菜单和工具栏。Sublime Text 的主要功能包括:拼写检查,书签,完整的 Python API , Goto 功能,即时项目切换,多选择,多窗口等等。Sublime Text 是一个跨平台的编辑器,同时支持Windows、Linux、Mac OS X等操作系统。