ElasticSearch 在Hadoop生态圈的位置
它的位置非常清晰,直接贴图。 更详细点,见 本文转自大数据躺过的坑博客园博客,原文链接:http://www.cnblogs.com/zlslch/p/6612671.html,如需转载请自行联系原作者
【fs最常用命令】
|
1
2
3
4
5
6
7
|
bin/hadoop fs -ls hdfs_path
//查看HDFS目录下的文件和子目录
bin/hadoop fs -mkdir hdfs_path
//在HDFS上创建文件夹
bin/hadoop fs -rm hdfs_path
//删除HDFS上的文件
bin/hadoop fs -rmr hdfs_path
//删除HDFS上的文件夹
bin/hadoop fs -put local_file hdfs_path
//将本地文件copy到HDFS上
bin/hadoop fs -get hdfs_file local_path
//复制HDFS文件到本地
bin/hadoop fs -cat hdfs_file
//查看HDFS上某文件的内容
|
【查看目录下文件(夹)大小】
|
1
2
3
4
5
6
|
//单位Byte:
bin/hadoop fs -du / | sort -n
//单位MB:
bin/hadoop fs -du / | awk -F
' '
'{printf "%.2fMB\t\t%s\n", $1/1024/1024,$2}'
| sort -n
//单位GB,大于1G:
bin/hadoop fs -du / | awk -F
' '
'{num=$1/1024/1024/1024; if(num>1){printf "%.2fGB\t\t%s\n", num, $2} }'
| sort -n
|
以下内容walker摘自《Hadoop实战(第二版)》(陆嘉恒)第九章-HDFS详解。
fs可以说是HDFS最常用的命令,这是一个高度类似linux文件系统的命令集。你可以使用这些命令查看HDFS上的目录结构文件、上传和下载文件、创建文件夹、复制文件等。其使用方法如下:
|
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
|
hadoop fs [genericOpitions]
[-ls <path>]
//显示目标路径当前目录下的所有文件
[-lsr <path>]
//递归显示目标路径下的所有目录及文件(深度优先)
[-du <path>]
//以字节为单位显示目录中所有文件的大小,或该文件的大小(如果path为文件)
[-dus <paht>]
//以字节为单位显示目标文件大小(用于查看文件夹大小)
[-count [-q] <path>]
//将目录的大小、包含文件(包括文件)个数的信息输出到屏幕(标准stdout)
[-mv <src> <dst>]
//把文件或目录移动到目标路径,这个命令允许同时移动多个文件,但是只允许移动到一个目标路径中,参数中的最有一个文件夹即为目标路径
[-cp <src> <dst>]
//复制文件或目录到目标路径,这个命令允许同时复制多个文件,如果复制多个文件,目标路径必须是文件夹
[-rm [-skipTrash] <path>]
//删除文件,这个命令不能删除文件夹
[-rmr [-skipTrash] <path>]
//删除文件夹及其下的所有文件
[-expunge]
[-put <localsrc> ... <dst>]
//从本地文件系统上传文件到HDFS中
[-copyFromLocal <localsrc> ... <dst>]
//与put相同
[-moveFromLocal <localsrc> ... <dst>]
//与put相同,但是文件上传之后会从本地文件系统中移除
[-get [-ignoreCrc] [-crc] <src> <localdst>]
//复制文件到本地文件系统。这个命令可以选择是否忽视校验和,忽视校验和和下载主要用于挽救那些已经发生错误的文件
[-getmerge <src> <localdst> [addnl]]
//将源目录中的所有文件进行排序并写入目标文件中,文件之间以换行符分隔
[-cat <src>]
//在终端显示(标准输出stdout)文件中的内容,类似Linux系统中的cat
[-text <src>]
[-copyToLocal [-ignoreCrc] [-crc] <src> <localdst>]
//与get相同
[-moveToLocal [-crc] <src> <localdst>]
[-mkidr <path>]
//创建文件夹
[-setrep [-R] [-w] <rep> <path/file>]
//改变一个文件的副本个数。参数-R可以递归地对该目录下的所有文件做统一操作
[-touchz <path>]
//类似Linux中的touch,创建一个空文件
[-test -[ezd] <path>]
//将源文件输出为文本格式显示到终端上,通过这个命令可以查看TextRecordInputStream(SequenceFile等)或zip文件
[-stat [format] <path>]
//以指定格式返回路径的信息
[-tail [-f] <file>]
//在终端上显示(标准输出stdout)文件的最后1kb内容。-f选项的行为与LInux中一致,会持续监测先添加到文件中的内容,这在查看日志文件时会显得非常方便。
[-chmod [-R] <MODE[,MODE]...| OCTALMODE> PATH...]
//改变文件的权限,只有文件的所有者或者是超级用户才能使用这个命令。-R可以递归地改变文件夹内的所有文件的权限
[-chown [-R] [OWNER] [:[GROUP] PATH...]]
//改变文件的拥有者,-R可以递归地改变文件夹内所有文件的拥有者。同样,这个命令只有超级用户才能使用
[-chgrp [-R] GROUP PATH...]
//改变文件所属的组,-R可以递归地改变文件夹内所有文件所属的组。这个命令必须是超级用户才能使用
[-help [cmd]]
//这是命令的帮助信息
|
在这些命令中,参数<path>的完整格式是hdfs://NameNodeIP:port/,比如你的NameNode地址是192.168.0.1,端口是9000,那么,如果想访问HDFS上路径为/user/root/hello的文件,则需要输入的地址是hdfs:/192.168.0.1:9000/user/root/hello。在Hadoop中,如果参数<path>没有NameNodeIP,那么会默认按照core-site.xml中属性fs.default.name的设置,附加“/user/你的用户名”作为路径,这是为了方便使用以及对不同用户进行区分。
*** walker ***
本文转自walker snapshot博客51CTO博客,原文链接http://blog.51cto.com/walkerqt/1689205如需转载请自行联系原作者
RQSLT
微信关注我们
转载内容版权归作者及来源网站所有!
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
近一个月的开发和优化,本站点的第一个app全新上线。该app采用极致压缩,本体才4.36MB。系统里面做了大量数据访问、缓存优化。方便用户在手机上查看文章。后续会推出HarmonyOS的适配版本。
马里奥是站在游戏界顶峰的超人气多面角色。马里奥靠吃蘑菇成长,特征是大鼻子、头戴帽子、身穿背带裤,还留着胡子。与他的双胞胎兄弟路易基一起,长年担任任天堂的招牌角色。
Nacos /nɑ:kəʊs/ 是 Dynamic Naming and Configuration Service 的首字母简称,一个易于构建 AI Agent 应用的动态服务发现、配置管理和AI智能体管理平台。Nacos 致力于帮助您发现、配置和管理微服务及AI智能体应用。Nacos 提供了一组简单易用的特性集,帮助您快速实现动态服务发现、服务配置、服务元数据、流量管理。Nacos 帮助您更敏捷和容易地构建、交付和管理微服务平台。
Rocky Linux(中文名:洛基)是由Gregory Kurtzer于2020年12月发起的企业级Linux发行版,作为CentOS稳定版停止维护后与RHEL(Red Hat Enterprise Linux)完全兼容的开源替代方案,由社区拥有并管理,支持x86_64、aarch64等架构。其通过重新编译RHEL源代码提供长期稳定性,采用模块化包装和SELinux安全架构,默认包含GNOME桌面环境及XFS文件系统,支持十年生命周期更新。