云存储的那些事(2)——数据分布算法CRUSH

在分布式系统中,数据最终还是要存储到物理设备上的,ceph的底层设备抽象角色是OSD,那么数据是如何被决定放在哪块OSD上的,答案就是CRUSH算法。

关键字:CRUSH、一致性hash、ceph数据分布

总体来说,数据存储分为2个阶段

  1,首先根据一般的hash算法,对数据x的hash数值进行PG数取模运算

    PG是ceph中由OSD再进一步抽象出来的资源池pool中的虚拟存储单元

    为什么要抽象出这一层呢,其实可以类比LVM的作用,即为了让一切资源都能够变得“不那么硬“,

    方便在故障发生时,系统扩容时,可以迅速的调整,并且对整体系统影响最小

    PG的存在让节点的增加和减少变为了逻辑层面的调整,对物理层的OSD起到了封装的作用

  2,确定了PG后,再根据monitor节点中的全局拓扑cluster map,结合数据规则(副本数),再次映射到具体的OSD节点上

    此时需要注意选择的OSD节点可能是多个,算法会保证不在同一个故障域

    故障域的大小可以是(从小到大级别):host-rack-row-root

下面照例总结一张图:

 云存储的那些事(2)——数据分布算法CRUSH