MapReduce 按照Value值进行排序输出
文件输入:
A 1
B 5
C 4
E 1
D 3
W 9
P 7
Q 2
文件输出:
W 9
P 7
B 5
C 4
D 3
Q 2
E 1
A 1
代码如下:
package comparator; import java.io.IOException; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.IntWritable.Comparator; import org.apache.hadoop.io.Text; import org.apache.hadoop.io.WritableComparable; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.Reducer; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; public class comparator{ /** * @param args * @throws IOException * @throws IllegalArgumentException * @throws InterruptedException * @throws ClassNotFoundException */ public static class myComparator extends Comparator { @SuppressWarnings("rawtypes") public int compare( WritableComparable a,WritableComparable b){ return -super.compare(a, b); } public int compare(byte[] b1, int s1, int l1, byte[] b2, int s2, int l2) { return -super.compare(b1, s1, l1, b2, s2, l2); } } public static class Map extends Mapper<Object,Text,IntWritable,Text>{ public void map(Object key,Text value,Context context) throws NumberFormatException, IOException, InterruptedException{ String[] split = value.toString().split("\t"); context.write(new IntWritable(Integer.parseInt(split[1])),new Text(split[0]) ); } } public static class Reduce extends Reducer<IntWritable,Text,Text,IntWritable>{ public void reduce(IntWritable key,Iterable<Text>values,Context context) throws IOException, InterruptedException{ for (Text text : values) { context.write( text,key); } } } public static void main(String[] args) throws IllegalArgumentException, IOException, ClassNotFoundException, InterruptedException { // TODO Auto-generated method stub Job job = new Job(); job.setJarByClass(comparator.class); job.setNumReduceTasks(1); //设置reduce进程为1个,即output生成一个文件 job.setMapperClass(Map.class); job.setReducerClass(Reduce.class); job.setMapOutputKeyClass(IntWritable.class); job.setMapOutputValueClass(Text.class); job.setOutputKeyClass(Text.class); //为job的输出数据设置key类 job.setOutputValueClass(IntWritable.class); //为job的输出设置value类 job.setSortComparatorClass( myComparator.class); //自定义排序 FileInputFormat.addInputPath(job, new Path(args[0])); //设置输入文件的目录 FileOutputFormat.setOutputPath(job,new Path(args[1])); //设置输出文件的目录 System.exit(job.waitForCompletion(true)?0:1); //提交任务 } }

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
Hbase java 常见操作
import java.io.IOException; import java.util.ArrayList; import java.util.HashMap; import java.util.List; import java.util.Map; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.hbase.HBaseConfiguration; import org.apache.hadoop.hbase.HColumnDescriptor; import org.apache.hadoop.hbase.HTableDescriptor; import org.apache.hadoop.hbase.KeyValue; import org.apache.hadoop.hbase.client.Delete; import org.apache.hadoop.hbase.client.Get; import org.apache.hadoop.hbase.client.HBaseAdmin...
- 下一篇
hadoop集群多节点安装详解
经常使用工具自动构建大规模集群环境,小环境也有10几台的机器,虽然自动部署很省事,但自动构建的背后那些机器自动完成的工作让我们疏忽了,特别是要自己构建一个小集群用于了解搭建细节和原理还是很有帮助的,今天为复习和了解下hadoop各进程间协调运行的原理,搭建了一个3节点的机器,并记录自己的搭建过程。 一 搭建集群 基本环境配置 IPHost部署进程 192.168.0.110elephantnamenode datanode nodemanager 192.168.0.110tigernodemanager datanode 192.168.0.110horseresourcemanager datanode nodemanager jobhistoryserver 1.1安装CDH5 yum 源 下载cdh5包 Wget http://archive.cloudera.com/cdh5/redhat/6/x86_64/cdh/cloudera-cdh5.repo mv cloudera-cdh5.repo /etc/yum.repo.d 1.2在各节点安装对应组件 1.安装nam...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Linux系统CentOS6、CentOS7手动修改IP地址
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- Docker安装Oracle12C,快速搭建Oracle学习环境
- CentOS7设置SWAP分区,小内存服务器的救世主
- CentOS8安装Docker,最新的服务器搭配容器使用
- 设置Eclipse缩进为4个空格,增强代码规范
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- SpringBoot2全家桶,快速入门学习开发网站教程
- Jdk安装(Linux,MacOS,Windows),包含三大操作系统的最全安装
- MySQL8.0.19开启GTID主从同步CentOS8