2 weekend110的mapreduce介绍及wordcount + wordcount的编写和提交集群运行 + mr程序的本地运行模式
把我们的简单运算逻辑,很方便地扩展到海量数据的场景下,分布式运算。 Map作一些,数据的局部处理和打散工作。 Reduce作一些,数据的汇总工作。 这是之前的,weekend110的hdfs输入流之源码分析。现在,全部关闭断点。 //4个泛型中,前两个是指定mapper输入数据的类型,KEYIN是输入的key类型,VALUE是输入的value的类型 //map 和 reduce的数据输入输出是以key-value对的形式封装的 //默认情况下,框架传递给我们的mapper的输入数据中,key是要处理的文本中一行的起始偏移量,这一行的内容作为value //mapreduce框架每读一行数据就调用一次该方法 //具体业务逻辑就写在这个方法体中,而且我们业务要处理的数据已经被框架传递进来,在方法的参数中key-value //key是这一行数据的起始偏移量,value是这一行的文本内容 有这么多信息,可以封装到对象里,job对象, 如何批量换变量名快捷键是,alt + shift + r ...

