专栏
天翼云开发者社区

Redis实现分布式缓存

2022-06-30 18:34:29 12阅读

分布式缓存

在分布式缓存中常常使用redis的技术实现方案。

单节点redis存在的问题及解决方案

  • 数据丢失问题
    • 解决方案:实现redis持久化
  • 并发能力问题
    • 解决方案:搭建主从集群,实现读写分离
  • 故障恢复问题
    • 解决方案:利用Redis哨兵,实现健康检测和自动恢复
  • 存储能力问题
    • 解决方案:搭建分片集群,利用插槽机制实现动态扩容
  • Redis持久化

    RDB持久化

  • RDB全称Redis Database Backup file(Redis数据备份文件),也被叫做Redis数据快照。简单来说就是把内存中的所有数据都记录到磁盘中。当Redis实例故障重启后,从磁盘读取快照文件,恢复数据。

    快照文件称为RDB文件,默认是保存在当前运行目录

  •  
  • sava #由Redis主进程来执行RDB,会阻塞所有命令
  •  
  •  
  • bgsava #由子进程来执行RDB
  •  
  • bgsava开始时会fork主进程的到子进程,子进程共享主进程的内存数据。完成fork后读取内存数据并写入RDB文件

    fork采用copy-on-write技术:

  • 当主进程执行读操作时,访问共享内存;

  • 当主进程执行写操作时,则会拷贝一份数据,执行写操作

注意:关闭Redis时会自动执行一次RDB

那么是否只有关闭Redis时才会执行RDB呢?当然不是!

Redis内部有触发RDB机制,可以在redis.conf文件中找到格式如下:

# sava 时间(单位秒) key修改次数

sava 900 1 #900秒内如果有一个key被修改则执行bgsava

注意:如果是 sava ""则关闭RDB

RDB的其他配置也可以在redis.conf文件中设置

#是否压缩,建议不开启,压缩也会消耗cpu,磁盘资源相对便宜

rdbcompression yes

#RDB文件名称

dbfilename dump.rdb

 

#文件保存的目录

dir ./

建议:生产环境下的redis不要修改避免造成数据丢失

AOF持久化

AOF全称为Append Only File(追加文件)。Redis处理的每一个写命令都会记录在AOF文件,可以看做是命令日志文件。

AOF默认是关闭的,需要修改redis.conf配置文件来开启AOF:

#是否开启AOF功能,默认是no

appendsync yes

 

#AOF文件名称

appendfilename "appendonly.aof"

AOF的命令记录的频率也可以通过redis.conf文件来配

#表示每执行一次写命令,立即记录到AOF文件

appendsync always

 

#写命令执行完先放入缓冲区,然后每隔1秒将缓冲区数据写入到AOF文件,是默认方案

appendsync everysec

 

#写命令执行完先放入缓冲区,由系统决定何时将缓冲区内容写回磁盘

 

appendsync no

因为AOF是记录命令,所以AOF文件会比RDB文件大很多。而且AOF会记录对同一个key的多次写操作,但只有最后一次写操作才有意义。通过执行bgrewriteaof命令,可以让AOF文件执行重写功能,用最少的命令达到相同效果。

Redis也会在出发阈值时自动去重写AOF文件,阈值也可以在Redis.conf中配置

#AOF文件比上次文件增长超过多少百分比则触发重写

auto-aof-rewrite-percentage 100

#AOF文件体积超过多少就触发重写

 

auto-aof-rewrite-min-size 64mb

RDB与AOF对比

RDB和AOF各有自己的优缺点,如果对数据的安全要求比较高就使用AOF反之则使用RDB,在实际的开发中往往会二者结合使用。

Redis主从

单节点Redis的并发能力是有上限的,要进一步提高Redis的并发能力,就需要搭建主从集群,实现读写分离

数据同步

master如何判断slave是不是第一次来同步数据?这里会用到两个概念:

  • Replication Id:简称replid,是数据集的标记,id一致则说明是同一数据集。每一个master都有唯一的replid,slave则会继承master节点的replid
  • ffset:偏移量,随着记录在rep_baklog中的数据增多而逐渐增大。slave完成同时也会记录当前同步的offset。如果slave的offset小于master的offset,说明slave数据落后于master,需要更新,因此slave做数据同步,必须向master声明自己的replication id和offset

全量同步步骤

  • slave节点请求增量同步
  • master节点判断replid,发现不一致拒绝增量同步
  • master将完整内存数据生成RDB,发送RDB到slave
  • slave清空本地数据,加载master的RDB
  • master将RDB期间的命令记录到rep_baklog,并持续将log中的命令发送给slave
  • slave执行接收到命令,保持与master之间的同步

增量同步步骤

  • slave节点携带replid和offset请求增量同步
  • master节点判断replid和offset,replid一致,offset落后于maset回复continue
  • maset去repl_baklog中获取offset后的数据发送给slave
  • slave执行命令

注意:repl_baklog大小有上限,写满后会覆盖最早的数据。如果slave断开时间过久,导致尚未备份的数据被覆盖,则无法基于log做增量同步,只能再次全量同步

Redis主从数据同步优化

  • 在master中配置repl-diskless-sync yes启用无磁盘复制,避免全量同步时的磁盘io(会比较吃网络性能,带宽高的情况下使用)
  • Redis单节点上的内存占用不要太大,减少RDB导致的过多内存损耗
  • 适当提高repl-baklog的大小,发现slave宕机尽快实现故障恢复,尽可能避免全量同步
  • 限制一个master上的slave节点数量,如果slave节点实在太多可以采用主-从-主链式结构,减少master压力

Redis哨兵

在主从结构中slave宕机之后可以从master节点恢复数据,那么master节点宕机之后呢?

这里就需要使用redis的哨兵来进行故障恢复,节点选举,服务监控

  • 监控:Sentinel会不断检查你的master和slave是否按预期在工作
  • 自动故障恢复:如果master故障,Sentinel会将一个slave提升为master。当故障实例恢复后也以新的master为主
  • 通知:Sentinel充当Redis客户端的服务发现来源,当集群发生故障转移时,会将最新信息推送给Redis客户端

Sentinel基于心跳机制检测服务状态,每隔1秒向集群的每个实例发送ping命令:

  • 主观下线:如果某sentinel节点发现某实例未在规定时间响应,则认为该实例主观下线
  • 客观下线:若超过指定数量(quorum)的sentinel都认为该实例主观下线,则该实例客观下线。

quorun的值最好超过sentinel实例数量的一半

选举原则

一单发现master故障,sentinel需要在salve中选择一个新的master:

  • 首先判断slave节点与master节点断开时间长短,如果超过指定值(down-after-milliseconds*10)则会排除该slave节点
  • 然后判断slave节点的slave-priority值,越小优先级越高,如果是0则永远不参与选举
  • 如果slave-proity值一样,则判断slave节点的offset值,越大说明数据越新,优先级越高
  • 最后判断slave节点的运行id,越小优先级越高

故障迁移

当选中了其中一个slave为新的master后(例如slave1),故障迁移的步骤如下:

  • sentinel给备选的slave1节点发送slaveof no one命令,让该节点成为master
  • sentinel给所有其它slave发送slaveof 新master IP 命令,让这些slave成为新master的从节点,开始从新的master上同步数据
  • 最后,sentinel将故障节点标记为slave,当故障节点恢复后自动成为新的slave节点

RedisTemplate集成哨兵模式

依赖

<dependency>

            <groupId>org.springframework.boot</groupId>

            <artifactId>spring-boot-starter-data-redis</artifactId>

 

        </dependency>

配置

spring:

  redis:

    sentinel:

      master: mymaster

      nodes:

        - 127.0.0.1:27001

        - 127.0.0.1:27002

        - 127.0.0.1:27003

 

配置主从读写分离

@Bean

    public LettuceClientConfigurationBuilderCustomizer configurationBuilderCustomizer(){

        return configBuilder -> configBuilder.readFrom (ReadFrom.REPLICA_PREFERRED);

 

    }

ReadFrom读取策略

 

•MASTER:从主节点读取

 

•MASTER_PREFERRED:优先从master节点读取,master不可用才读取replica

 

•REPLICA:从slave(replica)节点读取

 

•REPLICA _PREFERRED:优先从slave(replica)节点读取,所有的slave都不可用才读取master

分片集群

主从和哨兵可以解决高可用,高并发读的问题,但是依然有两个问题没有解决:

  • 海量数据存储问题
  • 高并发写问题

使用分片集群可以解决上述问题

  • 集群中有多个master,每个master保存不同数据
  • 每个master都可以有多个slave节点
  • master之间通过ping监测彼此健康状态
  • 客户端请求可以访问集群任意节点,最终都会被转发到正确节点

————————————————

版权声明:本文为CSDN博主「许喜朝」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。

原文链接:https://blog.csdn.net/xu2414506319/article/details/123783617

 

  • 0
  • 0
  • 0
0 评论
0/1000
评论(0) 发表评论
天翼云文档找茬小助手

天翼云文档找茬小助手

41 篇文章 7 粉丝
关注

Redis实现分布式缓存

2022-06-30 18:34:29 12阅读

分布式缓存

在分布式缓存中常常使用redis的技术实现方案。

单节点redis存在的问题及解决方案

  • 数据丢失问题
    • 解决方案:实现redis持久化
  • 并发能力问题
    • 解决方案:搭建主从集群,实现读写分离
  • 故障恢复问题
    • 解决方案:利用Redis哨兵,实现健康检测和自动恢复
  • 存储能力问题
    • 解决方案:搭建分片集群,利用插槽机制实现动态扩容
  • Redis持久化

    RDB持久化

  • RDB全称Redis Database Backup file(Redis数据备份文件),也被叫做Redis数据快照。简单来说就是把内存中的所有数据都记录到磁盘中。当Redis实例故障重启后,从磁盘读取快照文件,恢复数据。

    快照文件称为RDB文件,默认是保存在当前运行目录

  •  
  • sava #由Redis主进程来执行RDB,会阻塞所有命令
  •  
  •  
  • bgsava #由子进程来执行RDB
  •  
  • bgsava开始时会fork主进程的到子进程,子进程共享主进程的内存数据。完成fork后读取内存数据并写入RDB文件

    fork采用copy-on-write技术:

  • 当主进程执行读操作时,访问共享内存;

  • 当主进程执行写操作时,则会拷贝一份数据,执行写操作

注意:关闭Redis时会自动执行一次RDB

那么是否只有关闭Redis时才会执行RDB呢?当然不是!

Redis内部有触发RDB机制,可以在redis.conf文件中找到格式如下:

# sava 时间(单位秒) key修改次数

sava 900 1 #900秒内如果有一个key被修改则执行bgsava

注意:如果是 sava ""则关闭RDB

RDB的其他配置也可以在redis.conf文件中设置

#是否压缩,建议不开启,压缩也会消耗cpu,磁盘资源相对便宜

rdbcompression yes

#RDB文件名称

dbfilename dump.rdb

 

#文件保存的目录

dir ./

建议:生产环境下的redis不要修改避免造成数据丢失

AOF持久化

AOF全称为Append Only File(追加文件)。Redis处理的每一个写命令都会记录在AOF文件,可以看做是命令日志文件。

AOF默认是关闭的,需要修改redis.conf配置文件来开启AOF:

#是否开启AOF功能,默认是no

appendsync yes

 

#AOF文件名称

appendfilename "appendonly.aof"

AOF的命令记录的频率也可以通过redis.conf文件来配

#表示每执行一次写命令,立即记录到AOF文件

appendsync always

 

#写命令执行完先放入缓冲区,然后每隔1秒将缓冲区数据写入到AOF文件,是默认方案

appendsync everysec

 

#写命令执行完先放入缓冲区,由系统决定何时将缓冲区内容写回磁盘

 

appendsync no

因为AOF是记录命令,所以AOF文件会比RDB文件大很多。而且AOF会记录对同一个key的多次写操作,但只有最后一次写操作才有意义。通过执行bgrewriteaof命令,可以让AOF文件执行重写功能,用最少的命令达到相同效果。

Redis也会在出发阈值时自动去重写AOF文件,阈值也可以在Redis.conf中配置

#AOF文件比上次文件增长超过多少百分比则触发重写

auto-aof-rewrite-percentage 100

#AOF文件体积超过多少就触发重写

 

auto-aof-rewrite-min-size 64mb

RDB与AOF对比

RDB和AOF各有自己的优缺点,如果对数据的安全要求比较高就使用AOF反之则使用RDB,在实际的开发中往往会二者结合使用。

Redis主从

单节点Redis的并发能力是有上限的,要进一步提高Redis的并发能力,就需要搭建主从集群,实现读写分离

数据同步

master如何判断slave是不是第一次来同步数据?这里会用到两个概念:

  • Replication Id:简称replid,是数据集的标记,id一致则说明是同一数据集。每一个master都有唯一的replid,slave则会继承master节点的replid
  • ffset:偏移量,随着记录在rep_baklog中的数据增多而逐渐增大。slave完成同时也会记录当前同步的offset。如果slave的offset小于master的offset,说明slave数据落后于master,需要更新,因此slave做数据同步,必须向master声明自己的replication id和offset

全量同步步骤

  • slave节点请求增量同步
  • master节点判断replid,发现不一致拒绝增量同步
  • master将完整内存数据生成RDB,发送RDB到slave
  • slave清空本地数据,加载master的RDB
  • master将RDB期间的命令记录到rep_baklog,并持续将log中的命令发送给slave
  • slave执行接收到命令,保持与master之间的同步

增量同步步骤

  • slave节点携带replid和offset请求增量同步
  • master节点判断replid和offset,replid一致,offset落后于maset回复continue
  • maset去repl_baklog中获取offset后的数据发送给slave
  • slave执行命令

注意:repl_baklog大小有上限,写满后会覆盖最早的数据。如果slave断开时间过久,导致尚未备份的数据被覆盖,则无法基于log做增量同步,只能再次全量同步

Redis主从数据同步优化

  • 在master中配置repl-diskless-sync yes启用无磁盘复制,避免全量同步时的磁盘io(会比较吃网络性能,带宽高的情况下使用)
  • Redis单节点上的内存占用不要太大,减少RDB导致的过多内存损耗
  • 适当提高repl-baklog的大小,发现slave宕机尽快实现故障恢复,尽可能避免全量同步
  • 限制一个master上的slave节点数量,如果slave节点实在太多可以采用主-从-主链式结构,减少master压力

Redis哨兵

在主从结构中slave宕机之后可以从master节点恢复数据,那么master节点宕机之后呢?

这里就需要使用redis的哨兵来进行故障恢复,节点选举,服务监控

  • 监控:Sentinel会不断检查你的master和slave是否按预期在工作
  • 自动故障恢复:如果master故障,Sentinel会将一个slave提升为master。当故障实例恢复后也以新的master为主
  • 通知:Sentinel充当Redis客户端的服务发现来源,当集群发生故障转移时,会将最新信息推送给Redis客户端

Sentinel基于心跳机制检测服务状态,每隔1秒向集群的每个实例发送ping命令:

  • 主观下线:如果某sentinel节点发现某实例未在规定时间响应,则认为该实例主观下线
  • 客观下线:若超过指定数量(quorum)的sentinel都认为该实例主观下线,则该实例客观下线。

quorun的值最好超过sentinel实例数量的一半

选举原则

一单发现master故障,sentinel需要在salve中选择一个新的master:

  • 首先判断slave节点与master节点断开时间长短,如果超过指定值(down-after-milliseconds*10)则会排除该slave节点
  • 然后判断slave节点的slave-priority值,越小优先级越高,如果是0则永远不参与选举
  • 如果slave-proity值一样,则判断slave节点的offset值,越大说明数据越新,优先级越高
  • 最后判断slave节点的运行id,越小优先级越高

故障迁移

当选中了其中一个slave为新的master后(例如slave1),故障迁移的步骤如下:

  • sentinel给备选的slave1节点发送slaveof no one命令,让该节点成为master
  • sentinel给所有其它slave发送slaveof 新master IP 命令,让这些slave成为新master的从节点,开始从新的master上同步数据
  • 最后,sentinel将故障节点标记为slave,当故障节点恢复后自动成为新的slave节点

RedisTemplate集成哨兵模式

依赖

<dependency>

            <groupId>org.springframework.boot</groupId>

            <artifactId>spring-boot-starter-data-redis</artifactId>

 

        </dependency>

配置

spring:

  redis:

    sentinel:

      master: mymaster

      nodes:

        - 127.0.0.1:27001

        - 127.0.0.1:27002

        - 127.0.0.1:27003

 

配置主从读写分离

@Bean

    public LettuceClientConfigurationBuilderCustomizer configurationBuilderCustomizer(){

        return configBuilder -> configBuilder.readFrom (ReadFrom.REPLICA_PREFERRED);

 

    }

ReadFrom读取策略

 

•MASTER:从主节点读取

 

•MASTER_PREFERRED:优先从master节点读取,master不可用才读取replica

 

•REPLICA:从slave(replica)节点读取

 

•REPLICA _PREFERRED:优先从slave(replica)节点读取,所有的slave都不可用才读取master

分片集群

主从和哨兵可以解决高可用,高并发读的问题,但是依然有两个问题没有解决:

  • 海量数据存储问题
  • 高并发写问题

使用分片集群可以解决上述问题

  • 集群中有多个master,每个master保存不同数据
  • 每个master都可以有多个slave节点
  • master之间通过ping监测彼此健康状态
  • 客户端请求可以访问集群任意节点,最终都会被转发到正确节点

————————————————

版权声明:本文为CSDN博主「许喜朝」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。

原文链接:https://blog.csdn.net/xu2414506319/article/details/123783617

 

文章来自专栏

云知识的搬运工

224 篇文章 7 订阅
0 评论
0/1000
评论(0) 发表评论
  • 0
    点赞
  • 0
    收藏
  • 0
    评论