Hadoop之MapReduce输入(split)输出

Split分割
在执行mapreduce之前, 原始数据被分割成若干split,每个split作为一个map任务的输入
在map执行过程中split会被分解成一个个记录(key-value对),map会依次处理每一个记录。
(Key:偏移量,不是行数)

FileInputFormat:

FileInputFormat是所有以文件作为数据源的InputFormat实现的基类,FileInputFormat
保存作为job输入的所有文件,并实现了对输入文件计算splits的方法。至于获得记录的
方法是有不同的子类进行实现的;
1) FileInputFormat只划分比HDFS block大的文件,所以FileInputFormat划分的结果是
           这个文件或者是这个文件中的一部分.               
2) 如果一个文件的大小比block小,将不会被划分,这也是Hadoop处理大文件的效率要比
           处理很多小文件的效率高的原因。
3) 当Hadoop处理很多小文件(文件大小小于hdfs block大小)的时候,由于FileInputFormat
不会对小文件进行划分,所以每一个小文件都会被当做一个split并分配一个map任务,导致
效率底下。

例如:
一个1G的文件,会被划分成16个64MB的split,并分配16个map任务处理,而10000个
100kb的文件会被10000个map任务处理。

获得了输入文件后,FileInputFormat是怎样将他们划分成splits的呢?

input file -->split -->map task

计算SplitSize的函数很简单:

splitSize = max(minsize,min(maxSize,blockSize)) = 64M;
maxSize = mapred.max.split.size 默认最大值整数值
minSize = mapred.min.split.size 默认0

那么我们如何处理同一行垮Split问题呢?
首先map任务getSplit读入一个split-->recordReader一行一行读取数据,如果有一行数据在
两个split中,map读入第一个split后,会去读取留在另一个split中的半行; 然而另一个map
读入第二个split时,会自动跳过第一个换行符;


  //此方法每次只读取一行数据,key为偏移量,value为本行数据
public void map(Object key, Text value, Context context)
   throws IOException, InterruptedException {
        StringTokenizer itr = new StringTokenizer(value.toString());
        while (itr.hasMoreTokens()) {
        word.set(itr.nextToken());
        context.write(word, one);
   }
} 
          
分割成split(不支持的除外)比如:1G的文件切割成64M,放到一个map里面,如果不支持直接把1G
放到map里面
解释map方法中的(key偏移量-value对):
abcdefghigklmnopqrstuvwxyz        key = 0     value=abcdefghigklmnopqrstuvwxyz 
abcdefghigklmnopqrstuvwxyz        key = 26   value=abcdefghigklmnopqrstuvwxyz 
abcdefghigklmnopqrstuvwxyz        key = 52   value=abcdefghigklmnopqrstuvwxyz


转自: http://www.cnblogs.com/zhanghuijunjava/archive/2013/04/25/3036512.html

猜你喜欢

转载自forlan.iteye.com/blog/2360656