redis使用哨兵实现主从后,恢复故障的matser后,不会成为新master下的slave节点
各位大神,我通过哨兵实现主从后,进行测试时发现一个问题:
我启动了3个redis,3个哨兵,01的redis为主,02、03的redis为备节点。
当我将01主节点的redis手动关闭后,哨兵日志显示将master切换到02上了。03也变成了02的备节点。
但是当我手动将01的redis手动启动后,哨兵日志没有任何回显,使用info Relication命令查看02的redis的状态,发现slave个数还是一个,地址也只有03的地址。
使用infoinfo Relication命令查看01的redis状态,发现01的redis状态为master,slave节点为0.竟然没有变成slave状态。
现在相当于有两个master 一个slave。请问怎么解决master恢复后不变成从的问题
附上redis配置与sentinel配置
主redis的配置
daemonize yes
port 6379
bind 0.0.0.0
timeout 0
save 900 1
save 300 10
save 60 10000
requirepass 123456
logfile /DATA/redis1/log/redis.log
备redis的配置
daemonize yes
port 6380
bind 0.0.0.0
timeout 0
save 900 1
save 300 10
save 60 10000
requirepass 123456
logfile /DATA/redis2/log/redis.log
slaveof 10.221.149.136 6379
masterauth 123456
sentinel配置的配置
port 26380
daemonize yes
logfile /DATA/redis2/log/sentinel.log
sentinel monitor mymaster 10.221.149.136 6379 1
sentinel auth-pass mymaster 123456
sentinel down-after-milliseconds mymaster 3000
sentinel parallel-syncs mymaster 1
sentinel failover-timeout mymaster 10000
该问题已解决。是通过更换redis版本解决的
发生该问题的redis版本为2.6版本,更换到redis版本为3.0.3版本后,原来的master恢复故障后,终于变成了slave节点。
但是具体根本原因还是没有精确定位。
只是发现2.6版本的redis的sentinel文件没有自动填写如下信息
sentinel leader-epoch mymaster 16
sentinel known-slave mymaster 10.221.149.136 6379
sentinel known-sentinel mymaster 10.221.149.136 26380 5afeadac9fb8749af3ae4a29cd10e5c6fd460d07
sentinel current-epoch 16
你原来的master节点的配置文件中,需要添加 masterauth 123456 ,
当哨兵模式下完成故障转移后,原来的master编程slave,去连接新的master时,需要密码。
我隐约记得这个好像要重新连接一下redis,不然恢复不了,具体原因可以看看周阳老师讲解的redis哨兵模式,这个里面讲了这个案例。
https://download.csdn.net/download/qq_34872748/10909996
之前在视频里面看过这个案例
2。8以后是稳定版。。。