SuSE Linux上修改主机名
1) 临时修改主机名
临时修改使用hostname即可,格式为:hostname 新主机名。Hostname命令除可以临时修改主机名外,还可以用它来查看主机名,不带参数执行它,即为查看主机名。
2) 永久修改主机名
修改文件/etc/HOSTNAME即可:
cat /etc/HOSTNAME VM-40-171-sles10-64 |
但修改后,如果不重启系统,则不会立即生效。如果希望立即生效,但不愿意重启,则可以通过执行命令“/etc/rc.d/boot.localnet start”来实现。
注意Hadoop要求主机名中不能包含下划线。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
Hadoop深入学习:Combiner
在本节中,我们着重学习MapReduce编程模型中的Combiner组件。 每一个map都可能会产生大量的本地输出,Combiner的作用就是对map端的输出先做一次合并,以减少在map和reduce节点之间的数据传输量,以提高网络IO性能,是MapReduce的一种优化手段之一。 1)、Combiner最基本是实现本地key的聚合,对map输出的key排序、value进行迭代。如下所示: 引用 map:(key1,value1) ——> list(key2,value2) conbine:(key2,list(value2)) ——> list(key2,value2) reduce:(key2,list(value2)) ——> list(key3,value3) 2)、Combiner还有本地reduce功能(其本质上就是一个reduce): 引用 map:(key1,value1) ——> list(key2,value2) conbine:(key2,list(value2)) ——> list(key3,value3) re...
- 下一篇
启动Hadoop HDFS时的“Incompatible clusterIDs”错误原因分析
Hadoop HDFS时的“Incompatible clusterIDs”错误原因分析.pdf “IncompatibleclusterIDs”的错误原因是在执行“hdfsnamenode-format”之前,没有清空DataNode节点的data目录。 网上一些文章和帖子说是tmp目录,它本身也是没问题的,但Hadoop2.4.0是data目录,实际上这个信息已经由日志的“/data/hadoop/hadoop-2.4.0/data”指出,所以不能死死的参照网上的解决办法,遇到问题时多仔细观察。 从上述描述不难看出,解决办法就是清空所有DataNode的data目录,但注意不要将data目录本身给删除了。 data目录由core-site.xml文件中的属性“dfs.datanode.data.dir”指定。 2014-04-1719:30:33,075INFOorg.apache.hadoop.hdfs.server.common.Storage:Lockon/data/hadoop/hadoop-2.4.0/data/in_use.lockacquiredbynodena...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题
- Linux系统CentOS6、CentOS7手动修改IP地址
- Docker安装Oracle12C,快速搭建Oracle学习环境
- CentOS7设置SWAP分区,小内存服务器的救世主
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- CentOS7,8上快速安装Gitea,搭建Git服务器
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- CentOS8安装MyCat,轻松搞定数据库的读写分离、垂直分库、水平分库
- Windows10,CentOS7,CentOS8安装Nodejs环境