CDH5之Trash
http://www.linuxidc.com/Linux/2012-02/55102.htm
查看CDH 的hdfs的配置,是否开启trash 及 保留时间:
测试:
点击(此处)折叠或打开
- 1.创建test.txt
- [root@sht-sgmhadoopnn-01 ~]# vi /tmp/test.txt
- 1
- 2
- 3
- 4
- 5
-
- 2.创建文件夹
- [root@sht-sgmhadoopnn-01 ~]# hadoop fs -mkdir /testdir
- You have new mail in /var/spool/mail/root
- [root@sht-sgmhadoopnn-01 ~]# hadoop fs -ls /
- Found 4 items
- drwxr-xr-x - hdfs supergroup 0 2016-02-04 00:38 /system
- drwxr-xr-x - root supergroup 0 2016-02-19 08:17 /testdir
- drwxrwxrwt - hdfs supergroup 0 2016-02-10 16:04 /tmp
- drwxr-xr-x - hdfs supergroup 0 2016-02-10 16:02 /user
-
- 3.put 文件到hadoop
- [root@sht-sgmhadoopnn-01 ~]# hadoop fs -put /tmp/test.txt /testdir
- [root@sht-sgmhadoopnn-01 ~]# hadoop fs -ls /testdir
- Found 1 items
- -rw-r--r-- 3 root supergroup 10 2016-02-19 08:18 /testdir/test.txt
- [root@sht-sgmhadoopnn-01 ~]# hadoop fs -cat /testdir/test.txt
- 1
- 2
- 3
- 4
- 5
- You have mail in /var/spool/mail/root
-
- 4.删除文件夹testdir
- [root@sht-sgmhadoopnn-01 ~]# hadoop fs -rm -r /testdir
- 16/02/19 08:27:05 INFO fs.TrashPolicyDefault: Namenode trash configuration: Deletion interval = 1440 minutes, Emptier interval = 0 minutes.
- Moved: 'hdfs://sgm-nameservice/testdir' to trash at: hdfs://sgm-nameservice/user/root/.Trash/Current
- [root@sht-sgmhadoopnn-01 ~]# hadoop fs -ls /
- Found 3 items
- drwxr-xr-x - hdfs supergroup 0 2016-02-04 00:38 /system
- drwxrwxrwt - hdfs supergroup 0 2016-02-10 16:04 /tmp
- drwxr-xr-x - hdfs supergroup 0 2016-02-10 16:02 /user
- You have mail in /var/spool/mail/root
-
- 5.查看回收站
- [root@sht-sgmhadoopnn-01 ~]# hadoop fs -ls /user/root/.Trash/Current
- Found 1 items
- drwxr-xr-x - root supergroup 0 2016-02-19 08:18 /user/root/.Trash/Current/testdir
-
- 6.恢复文件夹
- [root@sht-sgmhadoopnn-01 ~]# hadoop fs -mv /user/root/.Trash/Current/testdir /
- [root@sht-sgmhadoopnn-01 ~]# hadoop fs -ls /
- Found 4 items
- drwxr-xr-x - hdfs supergroup 0 2016-02-04 00:38 /system
- drwxr-xr-x - root supergroup 0 2016-02-19 08:17 /testdir
- drwxrwxrwt - hdfs supergroup 0 2016-02-10 16:04 /tmp
- drwxr-xr-x - hdfs supergroup 0 2016-02-10 16:02 /user
- [root@sht-sgmhadoopnn-01 ~]# hadoop fs -cat /testdir/test.txt
- 1
- 2
- 3
- 4
- 5

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
SparkContext的初始化(伯篇)——执行环境与元数据清理器
《深入理解Spark:核心思想与源码分析》一书前言的内容请看链接《深入理解SPARK:核心思想与源码分析》一书正式出版上市 《深入理解Spark:核心思想与源码分析》一书第一章的内容请看链接《第1章 环境准备》 《深入理解Spark:核心思想与源码分析》一书第二章的内容请看链接《第2章 SPARK设计理念与基本架构》 由于本书的第3章内容较多,所以打算分别开辟三篇随笔分别展现。本文展现第3章第一部分的内容: 第3章 SparkContext的初始化 “道生一,一生二,二生三,三生万物。”——《道德经》 本章导读: SparkContext的初始化是Driver应用程序提交执行的前提,本章内容以local模式为主,并按照代码执行顺序讲解,这将有助于首次接触Spark的读者理解源码。读者朋友如果能边跟踪代码,边学习本章内容,也许是快速理解SparkContext初始化过程的便捷途径。已经熟练使用Spark的开发人员可以选择跳过本章内容。 本章将在介绍SparkContext初始化过程的同时,向读者介绍各个组件的作用,为阅读后面的章节打好基础。Spark中的组件很多,就其功能而言...
- 下一篇
Spark的调度策略详解
Spark的调度策略 Spark目前有两种调度策略,一种是FIFO即先来先得,另一种是FAIR即公平策略。所谓的调度策略就是对待调度的对象进行排序,按照优先级来进行调度。调度的排序接口如下所示,就是对两个可调度的对象进行比较。 private[spark] trait SchedulingAlgorithm { defcomparator(s1: Schedulable, s2: Schedulable): Boolean } 其实现类为FIFOSchedulingAlgorithm、FairSchedulingAlgorithm /** * FIFO排序的实现,主要因素是优先级、其次是对应的Stage * 优先级高的在前面,优先级相同,则靠前的stage优先 */private[spark] classFIFOSched
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Hadoop3单机部署,实现最简伪集群
- SpringBoot2全家桶,快速入门学习开发网站教程
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- SpringBoot2整合Redis,开启缓存,提高访问速度
- CentOS8,CentOS7,CentOS6编译安装Redis5.0.7
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题
- Mario游戏-低调大师作品
- CentOS7,8上快速安装Gitea,搭建Git服务器
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果