【转】[Hadoop源码解读]序列化源码浅析 6.InputBuffer和DataInputBuffer类       类似于JAVA.IO 的装饰器模式, InputBuffer输入缓冲和DataInputBuffer数据缓冲的实现封装于内部类Buffer,该类的功能只是提供一个空的缓冲区,用于存储数据。Buffer代码如下:      InputBuffer和DataInputBuffer的方法委托于内部类private Buffer buffer,例如InputBuffer部分代码:     DataInputBuffer 内置的Buffer代码如下     两个类封装的Buffer一样,而其方法也都委托依赖于buffer,只是InputBuffer和DataInputBuffer继承于不同的类,如下:DataInputBuffer: InputBuffer:   7.OutputBuffer和DataOutputBuffe       类似于上文的InputBuffer和DataInput

1.Writable接口
         Hadoop 并没有使用 JAVA 的序列化,而是引入了自己实的序列化系统, package org.apache.hadoop.io 这个包中定义了大量的可序列化对象,这些对象都实现了 Writable 接口, Writable 接口是序列化对象的一个通用接口.我们来看下Writable 接口的定义。
public interface Writable{
  void write(DataOutput out) throws IOException;
  void readFields(DataInput in) throws IOException;
}
     Writable接口抽象了两个序列化的方法WriteReadFields,分别对应了序列化和反序列化,参数DataOutPut java.io包内的IO类,Writable接口只是对象序列化的一个简单声明。

2.WriteCompareable接口
      WriteCompareable接口是Wirtable接口的二次封装,提供了compareTo(T o)方法,用于序列化对象的比较的比较。因为mapreduce中间有个基于key的排序阶段。
public interface WritableComparable<T> extends    Writable, Comparable<T> {
}
下面是io包简单的类图关系。
【转】[Hadoop源码解读]序列化源码浅析
6.InputBuffer和DataInputBuffer类       类似于JAVA.IO 的装饰器模式, InputBuffer输入缓冲和DataInputBuffer数据缓冲的实现封装于内部类Buffer,该类的功能只是提供一个空的缓冲区,用于存储数据。Buffer代码如下:
     InputBuffer和DataInputBuffer的方法委托于内部类private Buffer buffer,例如InputBuffer部分代码:
    DataInputBuffer 内置的Buffer代码如下
    两个类封装的Buffer一样,而其方法也都委托依赖于buffer,只是InputBuffer和DataInputBuffer继承于不同的类,如下:DataInputBuffer:
InputBuffer:
 
7.OutputBuffer和DataOutputBuffe       类似于上文的InputBuffer和DataInputBuffer,hadoop 的OutputBuffer和DataOutputBuffer的实现与之相似,同样是利用内部类的引用,而关键的代码在于内部类Buffer:
先是判断buf数组的length,倘若空间不足,则new newbuf[] 利用Sysytem的数组拷贝实现内容的复制。


3.RawComparator接口
     hadoop为序列化提供了优化,类型的比较对M/R而言至关重要,Key和Key的比较也是在排序阶段完成的,hadoop提供了原生的比较器接口RawComparator<T>用于序列化字节间的比较,该接口允许其实现直接比较数据流中的记录,无需反序列化为对象,RawComparator是一个原生的优化接口类,它只是简单的提供了用于数据流中简单的数据对比方法,从而提供优化:
public interface RawComparator<T> extends Comparator<T> {
    public int compare(byte[] b1, int s1, int l1, byte[] b2, int s2, int l2);
}
    该接口并非被多数的衍生类所实现,其直接的子类为WritableComparator,多数情况下是作为实现Writable接口的类的内置类,提供序列化字节的比较。下面是RawComparator接口内置类的实现类图:
【转】[Hadoop源码解读]序列化源码浅析
6.InputBuffer和DataInputBuffer类       类似于JAVA.IO 的装饰器模式, InputBuffer输入缓冲和DataInputBuffer数据缓冲的实现封装于内部类Buffer,该类的功能只是提供一个空的缓冲区,用于存储数据。Buffer代码如下:
     InputBuffer和DataInputBuffer的方法委托于内部类private Buffer buffer,例如InputBuffer部分代码:
    DataInputBuffer 内置的Buffer代码如下
    两个类封装的Buffer一样,而其方法也都委托依赖于buffer,只是InputBuffer和DataInputBuffer继承于不同的类,如下:DataInputBuffer:
InputBuffer:
 
7.OutputBuffer和DataOutputBuffe       类似于上文的InputBuffer和DataInputBuffer,hadoop 的OutputBuffer和DataOutputBuffer的实现与之相似,同样是利用内部类的引用,而关键的代码在于内部类Buffer:
先是判断buf数组的length,倘若空间不足,则new newbuf[] 利用Sysytem的数组拷贝实现内容的复制。
      首先,我们看 RawComparator的直接实现类WritableComparator:
【转】[Hadoop源码解读]序列化源码浅析
6.InputBuffer和DataInputBuffer类       类似于JAVA.IO 的装饰器模式, InputBuffer输入缓冲和DataInputBuffer数据缓冲的实现封装于内部类Buffer,该类的功能只是提供一个空的缓冲区,用于存储数据。Buffer代码如下:
     InputBuffer和DataInputBuffer的方法委托于内部类private Buffer buffer,例如InputBuffer部分代码:
    DataInputBuffer 内置的Buffer代码如下
    两个类封装的Buffer一样,而其方法也都委托依赖于buffer,只是InputBuffer和DataInputBuffer继承于不同的类,如下:DataInputBuffer:
InputBuffer:
 
7.OutputBuffer和DataOutputBuffe       类似于上文的InputBuffer和DataInputBuffer,hadoop 的OutputBuffer和DataOutputBuffer的实现与之相似,同样是利用内部类的引用,而关键的代码在于内部类Buffer:
先是判断buf数组的length,倘若空间不足,则new newbuf[] 利用Sysytem的数组拷贝实现内容的复制。

    WritableComparator类似于一个注册表,里面通过静态map记录了所有WritableComparator类的集合。Comparators成员用一张Hash表记录Key=Classvalue=WritableComprator的注册信息.

WritableComparator主要提供了两个功能

1.   提供了对原始compare()方法的一个默认实现

默认实现是 先反序列化为对像 再通过 对像比较(有开销的问题),所以一般都会被具体writeCompatable类的Comparator类覆盖以加快效率。

public int compare(byte[] b1, int s1, int l1, byte[] b2, int s2, int l2) {
    try {
      buffer.reset(b1, s1, l1);                   // parse key1
      key1.readFields(buffer);
     

      buffer.reset(b2, s2, l2);                   // parse key2
      key2.readFields(buffer);
 

    } catch (IOException e) {
        throw new RuntimeException(e);
    }
    return compare(key1, key2);                   // compare them
}

2.    充当RawComparable实例的工厂,以注册Writable的实现

例如,为了获取IntWritableComparator,可以直接调用其get方法。

4.WritableComparator
接下来捡关键代码来分析writableComparator类,该类是RawComparator接口的直接子类。

代码1registry 注册器

// registry 注册器:记载了WritableComparator类的集合

private static HashMap<ClassWritableComparator>comparators = new HashMap<Class, WritableComparator>();

----------------------------------------------------------------

代码2获取WritableComparator实例

说 明:hashMap作为容器类线程不安全,故需要synchronized同步,get方法根据key=Class返回对应的 WritableComparator,若返回的是空值NUll,则调用protected Constructor进行构造,而其两个protected的构造函数实则是调用了newKey()方法进行NewInstance

public static synchronized WritableComparator get(Class<? extends WritableComparable> c) {
   WritableComparator comparator = comparators.get(c);
   if (comparator == null)
     comparator = new WritableComparator(c, true);
   return comparator;
 }

----------------------------------------------------------------
代码3:WritableComparator构造方法

new WritableComparator(c, true)

WritableComparator的构造函数源码如下:
 
/* 
   * keyClass,key1,key2和buffer都是用于WritableComparator的构造函数
   
*/
  private final Class<? extends WritableComparable> keyClass;

  private final WritableComparable key1;  //WritableComparable接口

  private final WritableComparable key2;   

  private final DataInputBuffer buffer;      //输入缓冲流

protected WritableComparator(Class<? extends WritableComparable> keyClass,boolean createInstances) {

    this.keyClass = keyClass;
    if (createInstances) {
      key1 = newKey();
      key2 = newKey();
      buffer = new DataInputBuffer();
    } else {
      key1 = key2 = null;
      buffer = null;
    }
}
上述的keyClasskey1,key2,buffer是记录HashMap对应的key值,用于WritableComparator的构造函数,但由其构造函数中我们可以看出WritableComparator根据Boolean createInstance来判断是否实例化key1,key2buffer,key1,key2是用于接收比较的两个key。WritableComparator的构造函数里面通过newKey()的方法去实例化实现WritableComparable接口的一个对象,下面是newKey()的源码,通过hadoop自身的反射去实例化了一个WritableComparable接口对象。
public WritableComparable newKey() {
    return ReflectionUtils.newInstance(keyClass, null);
  }

----------------------------------------------------------------
代码4Compare()方法

(1).   public int compare(Object a, Object b)

(2).     public int compare(WritableComparable a, WritableComparable b)

(3).     public int compare(byte[] b1, int s1, int l1, byte[] b2, int s2, int l2)

    三个compare()重载方法中,compare(Object a, Object b)利用子类塑形为WritableComparable而调用了第2compare方法,而第2Compare()方法则调用了Writable.compaerTo();最后一个compare(byte[] b1, int s1, int l1, byte[] b2, int s2, int l2)方法源码如下:
public int compare(byte[] b1, int s1, int l1, byte[] b2, int s2, int l2) {
    try {
      buffer.reset(b1, s1, l1);                   // parse key1
      key1.readFields(buffer);
      buffer.reset(b2, s2, l2);                   // parse key2
      key2.readFields(buffer);
    } catch (IOException e) {
      throw new RuntimeException(e);
    }
    return compare(key1, key2);                   // compare them
  }

Compare方法的一个缺省实现方式,根据接口key1,ke2反序列化为对象再进行比较。

利用Buffer为桥接中介,把字节数组存储为buffer后,调用key1WritableComparable)的反序列化方法,再来比较key1,ke2,由此处可以看出,该compare方法是将要比较的二进制流反序列化为对象,再调用方法第2个重载方法进行比较。

----------------------------------------------------------------

代码5:方法define方法

    该方法用于注册WritebaleComparaor对象到注册表中,注意同时该方法也需要同步,代码如下:

public static synchronized void define(Class c, WritableComparator comparator) {
    comparators.put(c, comparator);
}

----------------------------------------------------------------
代码6余下诸如readInt的静态方法

    这些方法用于实现WritableComparable的各种实例,例如 IntWritable实例:内部类Comparator类需要根据自己的IntWritable类型重载WritableComparator里面的compare()方法,可以说WritableComparator里面的compare()方法只是提供了一个缺省的实现,而真正的compare()方法实现需要根据自己的类型如IntWritable进行重载,所以WritableComparator方法中的那些readInt..等方法只是底层的封装的一个实现,方便内部Comparator进行调用而已。

 下面我们着重看下BooleanWritable类的内置RawCompartor<T>的实现过程:

public static class Comparator extends WritableComparator {
    public Comparator() {//调用父类的Constructor初始化keyClass=BooleanWrite.class
      super(BooleanWritable.class);
    }

    //重写父类的序列化比较方法,用些类用到父类提供的缺省方法

    public int compare(byte[] b1, int s1, int l1, byte[] b2, int s2, int l2) {
      boolean a = (readInt(b1, s1) == 1) ? true : false;
      boolean b = (readInt(b2, s2) == 1) ? true : false;
      return ((a == b) ? 0 : (a == false) ? -1 : 1);
    }
  }

  //注册
  static {
    WritableComparator.define(BooleanWritable.classnew Comparator());
  }

总结:

        hadoop 类似于Java的类包,即提供了Comparable接口(对应于writableComparable接口)和Comparator类(对应于 RawComparator类)用于实现序列化的比较,在hadoop 的IO包中已经封装了JAVA的基本数据类型用于序列化和反序列化,一般自己写的类实现序列化和反序列化需要继承WritableComparable接 口并且内置一个Comparator(继承于WritableComparator)的格式来实现自己的对象。

5.WritableFactory接口
      作为工厂模式的WritableFactory,其抽象为一个接口,提供了具体的Writable对象创建实例的抽象方法newInstance(),代码如下:

 public interface WritableFactory {

  /** Return a new instance. */
  Writable newInstance();
}
      WritableFactories类类似于WritableComparator类利用HashMap注册记录着所有实现上述接口的 WritableFactory的集合,与之不同的是WritableFactories是一个单例模式,所有的方法都是静态的。
关键代码:
//提供了一个key=class,value=WritableFactory的注册表
   private static final HashMap<Class, WritableFactory> CLASS_TO_FACTORY = new HashMap<Class, WritableFactory>();

  public static Writable newInstance(Class<? extends Writable> c, Configuration conf) {

    WritableFactory factory = WritableFactories.getFactory(c);
    if (factory != null) {
//该方法的newInstanceof是调用了factory.newInstance()即你了实现的WritableFactory的newInstance()方法
      Writable result = factory.newInstance();
      
      if (result instanceof Configurable) {
        ((Configurable) result).setConf(conf);
      }
      return result;
   
    } else {
      return ReflectionUtils.newInstance(c, conf);
    }
}


private static class Buffer extends ByteArrayInputStream {
   public Buffer() {
     super(new byte[] {});
   }
 
   public void reset(byte[] input, int start, int length) {
     this.buf = input;
     this.count = start+length;
     this.mark = start;
     this.pos = start;
   }
 
   public int getPosition() { return pos; }
   public int getLength() { return count; }
 }

     InputBuffer和DataInputBuffer的方法委托于内部类private Buffer buffer,例如InputBuffer部分代码:

/** Returns the current position in the input. */
 public int getPosition() { return buffer.getPosition(); }

 /** Returns the length of the input. */

 public int getLength() { return buffer.getLength(); }

    DataInputBuffer 内置的Buffer代码如下

    private static class Buffer extends ByteArrayInputStream {
   public Buffer() {
     super(new byte[] {});
   }

   public void reset(byte[] input, int start, int length) {
     this.buf = input;
     this.count = start+length;
     this.mark = start;
     this.pos = start;
   }

   public byte[] getData() { return buf; }
   public int getPosition() { return pos; }
   public int getLength() { return count; }
}

    两个类封装的Buffer一样,而其方法也都委托依赖于buffer,只是InputBuffer和DataInputBuffer继承于不同的类,如下:

DataInputBuffer:

public class DataInputBuffer extends DataInputStream {
}


InputBuffer:

public class InputBuffer extends FilterInputStream {
}

 

7.OutputBuffer和DataOutputBuffe
       类似于上文的InputBuffer和DataInputBuffer,hadoop 的OutputBuffer和DataOutputBuffer的实现与之相似,同样是利用内部类的引用,而关键的代码在于内部类Buffer:

private static class Buffer extends ByteArrayOutputStream {
    public byte[] getData() { return buf; }
    public int getLength() { return count; }
    public void reset() { count = 0; }

    public void write(InputStream in, int len) throws IOException {
      int newcount = count + len;
      if (newcount > buf.length) {
        byte newbuf[] = new byte[Math.max(buf.length << 1, newcount)];
        System.arraycopy(buf, 0, newbuf, 0, count);
        buf = newbuf;
      }
      IOUtils.readFully(in, buf, count, len);
      count = newcount;
    }
}

先是判断buf数组的length,倘若空间不足,则new newbuf[] 利用Sysytem的数组拷贝实现内容的复制。