Redis字典实现、Hash键冲突及渐进式rehash详解

目录
  • redis字典实现
    • 哈希表节点结构
    • 哈希表结构
    • 字典
  • 哈希算法
    • 解决hash冲突
      • rehash
        • 渐进式hash

          本笔记参考《redis设计与实现》 p24~ 37

          redis字典实现

          哈希表节点结构

          typedef struct dictentry
          {
          	// 键
          	void *key;
          
          	// 值 : 可以是一个指针,或者是一个uint64/int64 的整数
          	union {
          		void *val;
          		uint64_t u64;
          		int64_t s64
          	} v;
          
          	// 指向下一个哈希表节点,形成链表 : 该指针可以将多个哈希值相同的键值对连接在一起,以此解决键冲突的问题。
          	struct dictentry *next;
          } dictentry;

          哈希表结构

          typedef struct dictht
          {
          	// 哈希表数据
          	dictentry **table;
          
          	// 哈希表集合大小
          	unsigned long size;
          
          	// 哈希表大小掩码,用于计算索引值
          	// 总是等于 size - 1
          	unsigned long sizemask;
          
          	// 哈希表已有节点数量
          	unsigned long used;
          } dictht;

          字典

          typedef struct dict 
          {
          	// 类型特定函数
          	dictype *type;
          
          	// 私有数据
          	void *privdata;
          
          	// 哈希表
          	dictht ht[2];
          
          	// rehash 索引
          	// 当rehash不在进行时, 值为-1
          	int rehashidx;
          } dict;

          type属性和privdata属性针对不同类型的键值对,为多态字典而设置。
          ht是包含两个项的数组,每个元素都是一个dictht哈希表,一般情况下字典之是哟个ht[0],ht[1]会在对ht[0]进行rehash的时候使用。
          rehashidx记录了rehash目前的进度,如果目前没有在进行rehash,值为-1。

          哈希算法

          • 使用字典设置的哈希函数,计算key的hashvalue

          hash = dict->type->hashfunction(key);

          • 使用哈希表的sizemask属性和哈希值,计算出索引值
          • 根据不同的情况,ht[x]可以是ht[0]或ht[1]

          index = hash & dict->ht[x].sizemask;

          redis使用的是murmurhash算法,优点是:输入的键是有规律的时候,算法仍然能给出很好的随机分布性,计算速度也快。

          解决hash冲突

          当有两个或以上的key分配到了hash table数组的同一个index上,称为发生了collision。
          redis采用链地址法解决冲突,每个hash table节点都有一个next指针,多个hash table节点可以用next指针构成一个单向链表。为了速度考虑,程序总是会将新节点插入到链表头位置。

          rehash

          随着操作不断执行,哈希表保存的key value对会逐渐增加和减少。哈希表有一个统计参数load factor,即负载因子,公式如下:

          # 负载因子 = 哈希表已经保存的节点数量 / 哈希表大小
          load_factor = ht[0].used / ht[0].size;

          为了维持负载因子在一个合理的范围,程序会对哈希表的大小进行相应的扩展或收缩,条件如下:

          1、服务器目前没有执行bgsave命令或者bgrewriteaof命令,并且哈希表的负载因子 >= 1

          2、服务器正在执行bgsave命令或者bgrewriteaof命令,且负载因子 >= 5

          • 在执行bgsave命令或者bgrewriteaof命令过程中,redis需要创建当前服务器进程的子进程,大多的os采用写时复制技术优化子进程的使用效率,所以子进程存在期间,**服务器会提高执行扩展操作的负载因子,避免在子进程存在期间进行哈希表的扩展操作,避免不必要的内存写入操作,最大限度节约内存。**当负载因子小于0.1时,程序自动对哈希表进行收缩操作。
          • 此时就会进行扩展收缩,规则如下:
          • 这里就是rehash(重新散列)操作了:
          • 1、为字典的ht[1]哈希表分配内存空间,空间大小取决于要执行的操作,以及ht[0]当前包含的键值对数量(ht[0].used)
          • 如果是扩展操作,ht[1]的大小为 >= ht[0].used * 2的 2的幂次方
          • 如果是收缩操作,ht[1]的大小为 >= ht[0].used 的 2的幂次方
          • 2、将保存在ht[0]中的所有键值对rehash到ht[1]上:即重新计算key的hashvalue以及indexvalue,然后将键值对放到ht[1]的指定位置
          • 3、当ht[0]包含的所有键值对都迁移到ht[1]之后,ht[0]变为空表,释放ht[0],将ht[1]置为ht[0],在ht[1]重新分配一个空白的哈希表,为下一次rehash做准备

          渐进式hash

          rehash的动作并不是一次性集中完成的,而是分多次渐进完成。
          如果哈希表中村的键值对数量很多,一次性将键值对全部rehash到ht[1]的计算量十分庞大,可能会导致服务器在一段时间内停止服务。
          渐进式rehash采取分而治之的方法,将rehash键值对所需要的计算工作分摊到每次对字典的crud操作上,从而避免了集中式rehash带来的庞大计算量。
          详细步骤如下:
          1、为ht[1]分配空间,让字典同时持有ht[0]和ht[1]两个哈希表
          2、在字典中维护一个索引计数器:rehashidx,将值设置为0,表示rehash工作正式开始。
          3、在rehash进行期间,每次对字典的crud操作,程序除了执行指定操作以外,顺带将ht[0]哈希表在rehashidx索引上的所有键值对rehash到ht[1]上,当rehash操作完成后,程序将rehashidx值++
          4、重复迭代操作执行后,ht[0]的数据全部rehash到ht[1]上,将rehashidx设为-1,表明rehash操作已经完成

          需要注意的地方
          在rehash的过程中,对于字典的删除、查找、更新操作会在两个哈希表上执行。如想要查找一个键,现在ht[0]中找,没有找到再去ht[1]
          对于insert操作来说,新添加到字典的键值对会一律保存到ht[1]中,不然还得多一次搬运。

          到此这篇关于redis字典实现、hash键冲突以及渐进式rehash的文章就介绍到这了,更多相关redis 渐进式rehash内容请搜索www.887551.com以前的文章或继续浏览下面的相关文章希望大家以后多多支持www.887551.com!

          (0)
          上一篇 2022年3月21日
          下一篇 2022年3月21日

          相关推荐