Hadoop学习第四天之hadoop命令操作(上)
Hadoop命令操作
格式:hadoop fs
可以在/etc/profile 中添加
alias hf=’hadoopfs’ #简化每次命令的书写
-ls <path> 表示对hdfs下一级目录的查看
-lsr <path> 表示对hdfs目录的递归查看
-mkdir <path> 创建目录
-put <src> <des> 从linux上传文件到hdfs (同-copyFromLocal)可以上传多个文件,最后一个为目的地址
-get <src> <des> 从hdfs下载文件到linux (同-copyToLocal),可以在下载的时候重命名文件
-text <path> 查看文件内容
-rm <path> 删除文件,显示红框内容显示删除成功,否则会显示删除不成功的错误提示
-rmr <path> 表示递归删除文件, 删除文件(夹)
-touchz <path> //创建一个空文件
-help [cmd] //显示命令的帮助信息
-du <path> //显示目录中所有文件大小,前面是文件(目录)大小,后面是完整的路径
-dus <path> //显示指定路径的空间大小
-count[-q] <path> //显示目录中目录数量、文件数量、空间大小、完整路径
-mv <src> <dst> //移动多个文件到目标目录(都是hdfs目录)
-cp <src> <dst> //复制多个文件到目标目录(都是hdfs目录)
-copyFromLocal //同put
-moveFromLocal //从本地文件移动到hdfs
-getmerge <src> <localdst> //将源目录中的所有文件排序合并到一个文件中
-cat <src> //在终端显示文件内容,同-text

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
Hadoop 学习第三天之集群安装(下)
Hadoop 学习之集群安装(下) Hadoop集群的其他配置步骤(可选) 1.将secondaryNameNode和NameNode及JobTracker分开,放在不同的主机上 修改hadoop的配置目录conf下的masters root@conf#vim master 将secondaryNameNode放在hadoop2上 重新启动服务 2.将NameNode和JobTracker放在不同的主机上 修改的代价比较大,最好在机器搭建时就规划好 修改nameNode的地址,如下图的红框中的value中的hadoop1为其他机器的即可 修改Jobtracker的地址,但必须在每个从节点都配置为一样的参数 修改后需要在所在节点单独起进程 PS:对于配置文件core-site.xml和mapred-site.xml在所有节点都是相同的内容,所以说要在hadoop集群搭建之时就要规划好,然后复制出从节点时这两个文件就不用修改了 3.动态增加一个hadoop从节点 3.1配置新节点的环境,如上的配置步骤:在主节点hadoop1 #vim /usr/local/hadoop/conf/sl...
- 下一篇
Hadoop学习第四天之hadoop命令操作(下)
Hadoop学习第四天之hadoop命令操作(下) 1.Hadoopdfsadmin #启动dfs admin客户端 -report #报告当前集群的节点信息 -safemode enter #进入安全模式 -safemode leave #离开安全模式 -safemode get #获取安全模式状态 -safemode wait #等待,直到安全模式结束 -saveNamespace #开启保存命名空间,必须开启安全模式 -refreshNodes 刷新集群的datanode节点 -finalizeUpgrade #升级时先删除现有备份 -upgradeProgress status #查询集群升级的状态 -upgradeProgress details #查询集群升级的详细状态信息 -upgradeProgress force #强制升级 -metesave <fileName> #将元信息保存在hdfs上的指定文件中 -refreshServiceAcl 刷新服务的访问控制列表,Namenode将会重新加载访问控制列表 -refreshUserToGroupsMap...
相关文章
文章评论
共有0条评论来说两句吧...