大数据学习路线分享AWK详解
大数据学习路线分享AWK怎详解,awk是一个强大的文本分析工具,相对于grep的查找,sed的编辑,awk在其对数据分析并生成报告时,显得尤为强大。简单来说awk就是把文件逐行的读入,以空格为默认分隔符将每行切片,切开的部分再进行各种分析处理。
awk是在文件或者字符串中基于指定规则浏览和抽取信息,awk抽取信息后,才能进行其他文本操作。完整的awk脚本通常用来格式化文本文件中的信息。
通常,awk是以文件的一行为处理单位的。awk每接收文件的一行,然后执行相应的命令,来处理文本。
awk操作
有三种方式调用awk
1.命令行方式
awk [-F field-separator] 'commands' input-file(s)
其中,commands 是真正awk命令,[-F域分隔符]是可选的。 input-file(s) 是待处理的文件。在awk中,文件的每一行中,由域分隔符分开的每一项称为一个域。通常,在不指名-F域分隔符的情况下,默认的域分隔符是空格。
2.shell脚本方式
将所有的awk命令插入一个文件,并使awk程序可执行,然后awk命令解释器作为脚本的首行,一遍通过键入脚本名称来调用。
相当于shell脚本首行的:#!/bin/sh
可以换成:#!/bin/awk
3.将所有的awk命令插入一个单独文件,然后调用:awk -f awk-script-file input-file(s)
其中,-f选项加载awk-script-file中的awk脚本,input-file(s)跟上面的是一样的。
awk语法
1、awk命令格式
(1) awk [-F 分隔域] 'command' input-file(s)
(2) awk -f awk-script-file input-file(s)
模拟文件:
cat employee.txt
100 Thomas Manager Sales 5000
200 Jason Developer Technology 5500
300 Sanjay Sysadmin Technology 7000
400 Nisha Manager Marketing 9500
500 Randy DBA Technology 60002
2.awk操作
1.输出文件的每一行:
awk '{print $0}' ./employee.txt
2.输出/etc/passwd第一个字段
awk -F ":" '{print $1}' /etc/passwd
3.打印文件的全部内容
awk '{print $0}' employee.txt
4.抽取文件test中的第一列
awk '{print $1}' employee.txt
或者
awk -F ' ' '{print $1}' employee.txt
5.列出所有的用户名和登陆的shell名
awk -F ':' '{print $1,$6}' /etc/passwd
当分隔符为多个符号时,如:
a , b , c , d
a1 , b1 , c1 , d1
awk -F ' , ' '{print $1,$2}' 文件名
6.打印用户名为root的那一行
awk -F ':' '$1=="root" {print $0}' /etc/passwd
或者
awk -F ':' '$1=="keke" {print $1}' /etc/passwd
说明:$1=="root"和$1=="keke"都是属于判断条件
awk工作流程是这样的:读入有'n'换行符分割的一条记录,然后将记录按指定的域分隔符划分域,填充域,$0则表示所有域,$1表示第一个域,$n表示第n个域。默认域分隔符是"空白键" 或 "[tab]键"。
7.给输出信息加上表头
awk -F ":" 'BEGIN {print "nametshelln--------------------------------"}
{print $1"\t"$6}' /etc/passwd
8.给输出信息加上表头和末尾
awk -F : 'BEGIN {print "nametshelln--------------------------------"} {print $1"\t"$6}
END {print "end-of-report"}' /etc/passwd
awk -F ":" 'BEGIN {print"--BEGIN--"}
$1=="root" { print $1} END{print"----END------"}' /etc/passwd
awk -F ":" 'BEGIN {print"--BEGIN--"} {if( $1=="root") print $1}
END{print"----END------"}' /etc/passwd
awk工作流程是这样的:先执行BEGING,然后读取文件,读入有/n换行符分割的一条记录,然后将记录按指定的域分隔符划分域,填充域,$0则表示所有域,$1表示第一个域,$n表示第n个域,随后开始执行模式所对应的动作action。接着开始读入第二条记录······直到所有的记录都读完,最后执行END操作。
awk与mapreduce区别
1.awk主要用于单机版文件的操作
2.mapreduce则可以用于分布式文件系统,可用于对大量数据的操作,缺点是编程比awk复杂,不过在框架的支持下,编写mapreducce程序只需要负责业务逻辑即可。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
好程序员大数据学习路线分享hadoop常用四大模块文件
好程序员大数据学习路线分享hadoop常用四大模块文件1.1.1core-site.xml(工具模块)包括Hadoop常用的工具类,由原来的Hadoopcore部分更名而来。主要包括系统配置工具Configuration、远程过程调用RPC、序列化机制和Hadoop抽象文件系统FileSystem等。它们为在通用硬件上搭建云计算环境提供基本的服务,并为运行在该平台上的软件开发提供了所需的API。1.1.2hdfs-site.xml(数据存储模块)分布式文件系统,提供对应用程序数据的高吞吐量,高伸缩性,高容错性的访问。是Hadoop体系中数据存储管理的基础。它是一个高度容错的系统,能检测和应对硬件故障,用于在低成本的通用硬件上运行。HDFS简化了文件的一致性模型,通过流式数据访问,提供高吞吐量应用程序数据访问功能,适合带有大型数据集的应用程序。namenode+ datanode + secondarynode1.1.3mapred-site.xml(数据处理模块)基于YARN的大型数据集并行处理系统。是一种计算模型,用以进行大数据量的计算。Hadoop的MapReduce实现,和Com...
- 下一篇
好程序员分享MapReduce全过程解析
好程序员分享MapReduce全过程解析,移动数据与移动计算在学习大数据的时候接触了移动数据和移动计算这两种联系紧密而又有很大不同的概念,其中移动计算也叫做本地计算。在以前的数据处理中时使用的移动数据,其实就是将需要处理的数据传输到存放不同处理数据方式逻辑的各个节点上。这样做的效率很低,特别是大数据中的数据量是很大的,至少都是GB以上,更大的是TB、PB甚至更大,而且磁盘I/O、网络I/O的效率是很低的,这样处理起来就需要很长的时间,远远不能满足我们的要求。而移动计算就出现了。移动计算,也叫做本地计算,是数据就存放在节点上不再变动,而是将处理逻辑程序传输到各个数据节点上。由于处理程序的大小肯定不会特别的大,这样就可以实现很快将程序传输到存放数据的各个节点上去,然后本地执行处理数据,效率高。现在的大数据处理技术都是采用这种方式。 言简意赅的说:Map阶段:1、Read:读取数据源,将数据进行filter成一个个的K/V2、Map:在map函数中,处理解析的K/V,并产生新的K/V3、Collect:输出结果,存于环形内缓冲区4、Spill:内存区满,数据写到本地磁盘,并生产临时文件5、C...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS关闭SELinux安全模块
- SpringBoot2更换Tomcat为Jetty,小型站点的福音
- CentOS6,CentOS7官方镜像安装Oracle11G
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果
- Red5直播服务器,属于Java语言的直播服务器
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- SpringBoot2整合Thymeleaf,官方推荐html解决方案
- CentOS8安装Docker,最新的服务器搭配容器使用
- CentOS7,CentOS8安装Elasticsearch6.8.6