爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      根据源码,模拟实现 RabbitMQ - 实现消息持久化,统一硬盘操作(3)

      首页 知识中心 云计算 文章详情页

      根据源码,模拟实现 RabbitMQ - 实现消息持久化,统一硬盘操作(3)

      2024-03-29 09:52:02 阅读次数:50

      rabbitmq,分布式

      一、实现消息持久化


      1.1、消息的存储设定

      1.1.1、存储方式

      传输的 Message 消息因该如何在硬盘上存储?我们应当考虑一下几点:

      1. 消息操作并不涉及到复杂的增删改查.
      2. 消息数量可能会非常多,数据库访问的效率不是很高.

      因此这里不使用数据库进行存储,而是把消息存储在文件中~

      1.1.2、存储格式约定

      消息是依附于队列的,因此存储的时候,就把消息按照 队列 维度展开.

      根据上一章我们讲到数据库的存储,因此我们已经有了 data 目录(meta.db 就在这个目录中),这里我们约定 —— 一个队列就是一个文件目录,每个对列的文件目录下有两个文件,来存储消息,例如下图:

      根据源码,模拟实现 RabbitMQ - 实现消息持久化,统一硬盘操作(3)

      1. 第一个文件 queue_data.txt:用来保存消息的内容;
      2. 第二个文件 queue_stat.txt:用来保存消息的统计信息;

      1.1.3、queue_data.txt 文件内容

      这里约定,queue_data.txt 文件中包含若干个消息,每个消息都以二进制的方式存储,每个消息由两个部分构成,

      1. 第一个部分约定占用 4 个字节,用来保存消息的长度(防止粘包问题).
      2. 第二个部分为具体的二进制消息数据(Message 对象序列化后的数据).

      如下图:

      根据源码,模拟实现 RabbitMQ - 实现消息持久化,统一硬盘操作(3)

       1.1.4、queue_stat.txt 文件内容

      使用这个文件,来保存消息的统计信息。

      这里只存一行文本格式的数据,并且只有两列:

      1. 第一列是 queue_data.txt 中总的消息数目.
      2. 第二列是 queue_data.txt 中的有效消息数目.

      这两者使用 \t 分割,形如:2000\t1500

      1.2、实现 MessageFileManager 类

      1.2.1、设计目录结构和文件格式

      定义一个内部类,表示队列的统计信息(优先考虑 static,和外类解耦合).

          static public class Stat {
              //对于这样的简单类定义成 public 就不用 get set 方法了,类似于 C 的结构体
              public int totalCount;
              public int validCount;
          }
      

      通过以下方法获取队列对应消息文件的路径,以及队列 数据/统计 文件的路径.

          /**
           * 用来获取指定队列对应的消息文件所在路径
           * @param queueName
           * @return
           */
          private String getQueueDir(String queueName) {
              return "./data/" + queueName;
          }
      
          /**
           * 用来获取该队列的消息数据文件路径
           * 此处使用 txt 文件,存储二进制数据,实际上不太合适,但也先这样吧~
           * 跟适合使用 .bin / .dat
           * @param queueName
           * @return
           */
          private String getQueueDataPath(String queueName) {
              return getQueueDir(queueName) + "/queue_data.txt";
          }
      
          /**
           * 用来获取该队列的消息统计文件路径
           * @param queueName
           * @return
           */
          private String getQueueStatPath(String queueName) {
              return getQueueDir(queueName) + "/queue_stat.txt";
          }
      

      通过以下方法实现队列 统计 文件的读写(便于后续创建文件时对 统计文件 的初始化).

          /**
           * 从文件中读取队列消息统计信息
           * @param queueName
           * @return
           */
          private Stat readStat(String queueName) {
              Stat stat = new Stat();
              try(InputStream inputStream = new FileInputStream(getQueueStatPath(queueName))) {
                  Scanner scanner = new Scanner(inputStream);
                  stat.totalCount = scanner.nextInt();
                  stat.validCount = scanner.nextInt();
                  return stat;
              } catch (IOException e) {
                  throw new RuntimeException(e);
              }
          }
      
          /**
           * 将队列消息统计信息写入文件
           * @param queueName
           * @param stat
           */
          private void writeStat(String queueName, Stat stat) {
              try(OutputStream outputStream = new FileOutputStream(getQueueStatPath(queueName))) {
                  PrintWriter printWriter = new PrintWriter(outputStream);
                  printWriter.write(stat.totalCount + "\t" + stat.validCount);
                  printWriter.flush();
              } catch (IOException e) {
                  throw new RuntimeException(e);
              }
          }
      

      通过以下方法来创建和销毁文件和目录

          /**
           * 创建队列对应的文件和目录
           * @param queueName
           */
          public void createQueueFiles(String queueName) throws IOException {
              //1.创建队列对应的消息目录
              File baseDir = new File(getQueueDir(queueName));
              if(!baseDir.exists()) {
                  //不存在,就创建这个目录
                  boolean ok = baseDir.mkdirs();
                  if (!ok) {
                      throw new IOException("创建目录失败!baseDir=" + baseDir.getAbsolutePath());
                  }
              }
              //2.创建队列数据文件
              File queueDataFile = new File(getQueueDataPath(queueName));
              if(!queueDataFile.exists()) {
                  boolean ok = queueDataFile.createNewFile();
                  if(!ok) {
                      throw new IOException("创建文件失败! queueDataFile=" + queueDataFile.getAbsolutePath());
                  }
              }
              //3.创建消息统计文件
              File queueStatFile = new File(getQueueStatPath(queueName));
              if(!queueStatFile.exists()) {
                  boolean ok = queueStatFile.createNewFile();
                  if(!ok) {
                      throw new IOException("创建文件失败! queueStatFile=" + queueStatFile.getAbsolutePath());
                  }
              }
              //4.给消息统计文件,设定初始值. 0\t0
              Stat stat = new Stat();
              stat.totalCount = 0;
              stat.validCount = 0;
              writeStat(queueName, stat);
          }
      
          /**
           * 删除队列的目录和文件
           * 此方法的用处:队列也是可以被删除的,队列删除之后,就需要调用此方法,删除对应的消息文件之类的
           * @param queueName
           * @throws IOException
           */
          public void destroyQueueFiles(String queueName) throws IOException {
              //先删除里面的文件,再删除目录
              File queueDataFile = new File(getQueueDataPath(queueName));
              boolean ok1 = queueDataFile.delete();
              File queueStatFile = new File(getQueueStatPath(queueName));
              boolean ok2 = queueStatFile.delete();
              File baseDir = new File(getQueueDir(queueName));
              boolean ok3 = baseDir.delete();
              if(!ok1 || !ok2 || !ok3) {
                  //任意一个失败,都算整体删除失败
                  throw new IOException("删除队列目录和文件失败! baseDir=" + baseDir.getAbsolutePath());
              }
          }
      

      1.2.2、实现消息的写入

      消息写入主要分为以下四步:

      1. 先检查当前文件是否存在
      2. 把 Message 对象进行序列化,转化成 二进制 字节数组
      3. 根据当前队列文件长度,计算出 Message 对象的 offsetBeg 和 offsetEnd
      4. 将 message 数据追加到文件末尾
      5. 更新消息统计文件内容
          /**
           * 检查队列的目录和文件是否存在
           * 如果后续有生产者 broker server 生产消息了,这个消息就需要被记录到文件上(持久化的前提是文件必须要存在)
           * @param queueName
           * @return
           */
          public boolean checkFilesExits(String queueName) {
              //数据文件和统计文件都判断存在
              File queueDataFile = new File(getQueueDataPath(queueName));
              if(!queueDataFile.exists()) {
                  return false;
              }
              File queueStatFile = new File(getQueueStatPath(queueName));
              if(!queueStatFile.exists()) {
                  return false;
              }
              return true;
          }
      
      
          /**
           * 将一个新的消息(message)放到队列文件中(queue)
           * @param queue
           * @param message
           */
          public void sendMessage(MSGQueue queue, Message message) throws MqException, IOException {
              //1.先检查当前文件是否存在
              if(!checkFilesExits(queue.getName())) {
                  throw new MqException("[MessageFileManager] 队列对应的文件不存在! queueName=" + queue.getName());
              }
              //2.把 Message 对象进行序列化,转化成 二进制 字节数组
              byte[] messageBinary = BinaryTool.toBytes(message);
              //3.根据当前队列文件长度,计算出 Message 对象的 offsetBeg 和 offsetEnd
              //将新的 Message 数据,写入到文件的末尾,那么此时 offsetBeg = 4 + 当前文件总长度 (4 个字节是我们约定好用来表示信息长度的)
              // offsetEnd = 当前文件总长度 + 4 + message 长度
      
              //这里为了避免写操作引发线程安全问题
              synchronized(queue) {
                  File queueDataFile = new File(getQueueDataPath(queue.getName()));
                  message.setOffsetBeg(queueDataFile.length() + 4);
                  message.setOffsetEnd(queueDataFile.length() + 4 + messageBinary.length);
                  //4.将 message 数据追加到文件末尾
                  try(OutputStream outputStream = new FileOutputStream(queueDataFile, true)) { //这里 true 表示追加到文件末尾
                      try(DataOutputStream dataOutputStream = new DataOutputStream(outputStream)) {
                          //这里用 writeInt 来写 message 长度是为了保证占 4 个字节(直接用 write 只会写一个字节)
                          dataOutputStream.writeInt(messageBinary.length);
                          //写入消息体
                          dataOutputStream.write(messageBinary);
                          dataOutputStream.flush();
                      }
                  }
                  //5.更新消息统计文件内容
                  Stat stat = readStat(queue.getName());
                  stat.validCount += 1;
                  stat.totalCount += 1;
                  writeStat(queue.getName(), stat);
              }
          }
      

      1.2.3、实现消息的删除(随机访问文件)

      这里的删除逻辑实际上就是把硬盘中存储的这个数据里面的 isValid 属性,设置成 0,然后再写入硬盘.

      1. 先把文件中这段数据读出来,还原回 Message 对象
      2. 把 isValid 改成 0
      3. 把上述数据重新写回到文件中
      4. 更新统计文件

      为什么这里采用这样的删除方式?

      新增消息可以直接把消息追加到文件末尾,而删除消息不好弄~  因为文件可以视为是一个 “顺序表” 的结构,因此如果直接删除中间的元素,就需要设计到 “顺序表搬运” 这样的操作,效率是非常低的.

      因此这里使用逻辑删除的方式比较合适~~

      • 当  isValid 为 1,表示有效消息.
      • 当 isValid 为 0 ,表示无效消息

      随着时间的推移文件可能会越来越大,并且可能存在大量的无效消息,针对这种情况,就需要对当前消息数据文件进行垃圾回收机制(后续会讲到).

          public void deleteMessage(MSGQueue queue, Message message) throws IOException, ClassNotFoundException {
              //读写文件注意线程安全问题
              synchronized(queue) {
                  try (RandomAccessFile randomAccessFile = new RandomAccessFile(getQueueDataPath(queue.getName()), "rw")) {
                      //1.先从文件中读出对应的 Message 数据
                      byte[] bufferSrc = new byte[(int) (message.getOffsetEnd() - message.getOffsetBeg())];
                      randomAccessFile.seek(message.getOffsetBeg());
                      randomAccessFile.read(bufferSrc); //类似于食堂打饭
                      //2.把当前读出来的二进制数据,反序列化成 Message 对象
                      Message diskMessage = (Message) BinaryTool.fromBytes(bufferSrc);
                      //3.把 isValid 设置成无效
                      diskMessage.setIsValid((byte) 0x0);
                      //此处不用把形参中的 message 的 isValid 设为 0,因为这个参数代表内存中管理的 Message 对象
                      //这个对象马上就会被从内存中删除
                      //4.重新写入文件
                      byte[] bufferDest = BinaryTool.toBytes(diskMessage);
                      //这里还需要将光标移动到最初这个消息的位置,因为 read 操作也会挪动光标
                      randomAccessFile.seek(message.getOffsetBeg());
                      randomAccessFile.write(bufferDest);
                      // 通过上述折腾,对于文件来说,只有一个字节发生改变了而已
                  }
                  //更新统计文件,消息无效了,消息个数就需要 -1
                  Stat stat = readStat(queue.getName());
                  if(stat.validCount > 0) {
                      stat.validCount -= 1;
                  }
                  writeStat(queue.getName(), stat);
              }
          }
      

      Ps:此处这个参数中的 message 对象,必须得包含有效的 offsetBeg 和 offsetEnd

      1.2.4、获取队列文件中所有有效消息

      读取文件中有效的(isValid = 1)消息内容加载到内存中(此方法准备在程序启动的时候进行调用,因此也不需要加锁)

      Ps:
      queueName 这里只用这一个参数就够了,不需要 MSGQueue 对象
      使用 LinkedList 主要是为了后续进行头删的操作

          public LinkedList<Message> loadAllMessageFromQueue(String queueName) throws IOException, MqException, ClassNotFoundException {
              LinkedList<Message> messages = new LinkedList<>();
              try (InputStream inputStream = new FileInputStream(getQueueDataPath(queueName))) {
                  try (DataInputStream dataInputStream = new DataInputStream(inputStream)) {
                      //记录当前光标位置
                      long currentOffset = 0;
                      while(true) {
                          //1.读取当前消息的长度
                          int messageSize = dataInputStream.readInt();
                          //2.按照长度获取消息内容
                          byte[] buffer = new byte[messageSize];
                          int actualSize = inputStream.read(buffer);
                          //比较理论和实际消息长度
                          if(messageSize != actualSize) {
                              //如果不匹配说明文件出问题了
                              throw new MqException("[MessageFileManager] 文件格式错误! queueName=" + queueName);
                          }
                          //3.把读到的二进制数据反序列化成 Message 对象
                          Message message = (Message) BinaryTool.fromBytes(buffer);
                          //4.判断这个消息是否是无效对象
                          if(message.getIsValid() != 0x1) {
                              //无效消息直接跳过
                              //虽然是无效数据,但是 offset 不要忘记更新
                              currentOffset += (4 + messageSize);
                              continue;
                          }
                          //5.有效数据就加入到链表中,加入前计算一下 offsetBeg 和 offsetEnd
                          //这个位置需要知道当前文件光标的位置,由于当下使用的 DataInputStream 不方便直接获取文件光标位置, 因此需要使用 currentOffset 手动记录一下
                          message.setOffsetBeg(currentOffset + 4);
                          message.setOffsetEnd(currentOffset + 4 + messageSize);
                          currentOffset += (4 + messageSize);
                          //6.最后加入到链表当中
                          messages.add(message);
                      }
                  } catch (EOFException e) {
                      //这个 catch 并非真的用来处理 ”异常“ ,而是 ”正常“ 业务逻辑,这是为了当消息读完了能得到一个反馈(有点顺水推舟的感觉)
                      //因为,当消息读取到文件末尾,readInt 就会引发异常(EOF异常)
                      System.out.println("[MessageFileManager] 恢复 Message 数据完成");
                  }
              }
              return messages;
          }
      

      1.2.5、GC 机制

      这里我们使用 复制算法 对消息数据文件中的垃圾进行回收.

      具体的,我们直接遍历原有的消息数据文件,把所有的有效数据拷贝到一个新的文件中,再把之前整个旧的文件都删除,然后将新文件的名字改为旧文件的名字.

      什么时候触发一次 GC ?

      复制算法比较合适的前提是,当前空间里,有效的数据不多,大部分是无效的数据(减少搬运数据的开销)

      因此这里我们约定:当总的消息数目超过 2000 ,并且有效消息的数目低于总消息数目的 50%,就触发一次 GC (避免 GC 太频繁,比如一共 4 个消息,其中 2 个消息无效了,就触发 GC).

      Ps:这里的两个数字都是自定义的,关注一定是 策略、思想、方法 ,而不是具体的数字.

       

          /**
           * 检查是否要针对队列的消息数据文件进行 GC
           * @param queueName
           * @return
           */
          public boolean checkGC(String queueName) {
              Stat stat = readStat(queueName);
              if(stat.totalCount > 2000 && (double)stat.validCount / (double)stat.totalCount < 0.5) {
                  return true;
              }
              return false;
          }
      
          /**
           * 获取新文件
           * @param queueName
           * @return
           */
          public String getQueueDataNewPath(String queueName) {
              return getQueueDir(queueName) + "/queue_data_new.txt";
          }
      
          /**
           * 执行真正的 gc 操作
           * 使用复制算法完成
           * 创建一个新的文件,名字叫做 queue_data_new.txt
           * 把之前消息数据文件中的有效消息都读出来,写道新的文件中
           * 删除旧的文件,再把新的文件改名回 queue_data.txt
           * 同时要记得更新消息统计文件
           * @param queue
           */
          public void gc(MSGQueue queue) throws MqException, IOException, ClassNotFoundException {
              //gc 意味着 "大洗牌" ,这个过程中其他线程不得干预
              synchronized(queue) {
                  //由于 gc 操作可能回比较耗时,此处统计一下执行耗时的时间
                  long gcBeg = System.currentTimeMillis();
      
                  //1.创建一个新文件
                  File queueDataNewFile = new File(getQueueDataNewPath(queue.getName()));
                  if(queueDataNewFile.exists()) {
                      //正常情况下,这个文件是不存在的,如果存在就是以外,说明上次 gc 了一半,中途发生了以外
                      throw new MqException("[MessageFileManager] gc 时发现该队列的 queue_data_new 已经存在! " +
                              "queueName=" + queue.getName());
                  }
                  boolean ok = queueDataNewFile.createNewFile();
                  if(!ok) {
                      throw new MqException("[MessageFileManager] 创建文件失败! queueDataNewFile=" +
                              queueDataNewFile.getName());
                  }
                  //2.从旧文件中读出所有的有效消息
                  LinkedList<Message> messages = loadAllMessageFromQueue(queue.getName());
                  //3.把有效消息写入新的文件
                  try(OutputStream outputStream = new FileOutputStream(queueDataNewFile)) {
                      try(DataOutputStream dataOutputStream = new DataOutputStream(outputStream)) {
                          for(Message message : messages) {
                              byte[] buffer = BinaryTool.toBytes(message);
                              //先写消息长度
                              dataOutputStream.writeInt(buffer.length);
                              //再写消息内容
                              dataOutputStream.write(buffer);
                          }
                      }
                  }
                  //4.删除旧文件
                  File queueDataOldFile = new File(getQueueDataPath(queue.getName()));
                  ok = queueDataOldFile.delete();
                  if(!ok) {
                      throw new MqException("[MessageFileManager] 删除旧的文件失败! queueDataOldFile=" + queueDataOldFile.getName());
                  }
                  //把 queue_data_new.txt 重命名成 queue_data.txt
                  ok = queueDataNewFile.renameTo(queueDataOldFile);
                  if(!ok) {
                      throw new MqException("[MessageFileManager] 文件重命名失败! queueDataNewFile=" + queueDataNewFile.getAbsolutePath() +
                              ", queueDataOldFile=" + queueDataOldFile.getAbsolutePath());
                  }
                  //5.跟新统计文件
                  Stat stat = readStat(queue.getName());
                  stat.totalCount = messages.size();
                  stat.validCount = messages.size();
                  writeStat(queue.getName(), stat);
      
                  long gcEnd = System.currentTimeMillis();
                  System.out.println("[MessageFileManager] gc 执行完毕!queueName=" +
                          queue.getName() + "time=" + (gcEnd - gcBeg) + "ms");
              }
          }
      

      1.2.6、GC 拓展

      当某个队列中,消息特别多,并且很多都是有效的消息,就会导致后续对这个文件操作的成本上升很多,例如文件大小是 10G,此时如果触发一次 GC ,整体的耗时就会非常高了.

      对于 RabbitMQ 来说,解决方案就是把一个大的文件拆分成若干个小文件.

      1. 文件拆分:当单个文件长度到达一定阈值以后,就会拆分成两个文件.(拆着拆着,就成了很多文件).
      2. 文件合并:每个单独的文件都会进行 GC ,如果 GC 之后发现文件变小了很多,就可能会和其他相邻的文件合并.

      具体实现思路:

      1. 需要专门的数据结构,来存储当前队列中有多少个数据文件,每个文件大小是多少,消息数目是多少,无效消息是多少.
      2. 设计策略,什么时候触发消息拆分,什么时候触发文件合并.

      Ps:这里可以先不给出具体实现,需要的可以私信我(前提是备注微信号).

      二、统一硬盘操作


      使用这个类来管理所有硬盘上的数据

      1. 数据库:交换机、绑定、队列
      2. 数据文件:消息

      上层逻辑需要操作硬盘,统一通过这个类来操作(上层代码不关心当前数据是存储再数据库还是文件中的),提高了代码的内聚,可维护性.

      public class DiskDataCenter {
      
          //这个实例用来管理数据库中的数据
          private DataBaseManager dataBaseManager = new DataBaseManager();
          //这个实例用来管理数据文件中的数据
          private MessageFileManager messageFileManager = new MessageFileManager();
      
          /**
           * 针对上面两个实例进行初始化
           */
          public void init() {
              dataBaseManager.init();
              // messageFileManager 中 init 是一个空方法,只是先列在这里,一旦后续需要扩展,就在这里进行初始化即可
              messageFileManager.init();
          }
      
          //封装交换机操作
          public void insertExchange(Exchange exchange) {
              dataBaseManager.insertExchange(exchange);
          }
      
          public void deleteExchange(String exchangeName) {
              dataBaseManager.deleteExchange(exchangeName);
          }
      
          public List<Exchange> selectAllExchanges() {
              return dataBaseManager.selectAllExchanges();
          }
      
          //封装队列操作
          public void insertQueue(MSGQueue queue) throws IOException {
              dataBaseManager.insertQueue(queue);
              //创建队列的同时,不仅需要把队列写入到数据库中,还需要创建出对应的目录和文件
              messageFileManager.createQueueFiles(queue.getName());
          }
      
          public void deleteQueue(String queueName) throws IOException {
              dataBaseManager.deleteQueue(queueName);
              //删除队列的同时,不仅需要把队列从数据库中删除,还需要把对应的文件和目录删除
              messageFileManager.destroyQueueFiles(queueName);
          }
      
          public List<MSGQueue> selectAllQueue() {
              return dataBaseManager.selectAllQueues();
          }
      
          //封装绑定操作
          public void insertBinding(Binding binding) {
              dataBaseManager.insertBinding(binding);
          }
      
          public void deleteBinding(Binding binding) {
              dataBaseManager.deleteBinding(binding);
          }
      
          public List<Binding> selectAllBindings() {
              return dataBaseManager.selectAllBindings();
          }
      
          //封装消息操作
          public void sendMessage(MSGQueue queue, Message message) throws IOException, MqException {
              messageFileManager.sendMessage(queue, message);
          }
      
          public void deleteMessage(MSGQueue queue, Message message) throws IOException, ClassNotFoundException, MqException {
              messageFileManager.deleteMessage(queue, message);
              //这里删除消息以后还需要看以下文件中是否有太多的无效文件需要进行清除
              if(messageFileManager.checkGC(queue.getName())) {
                  messageFileManager.gc(queue);
              }
          }
      
          public List<Message> selectAllMessagesFromQueue(String queueName) throws IOException, MqException, ClassNotFoundException {
              return messageFileManager.loadAllMessageFromQueue(queueName);
          }
      
      
      }
      

      Ps:这里对队列和消息的封装都是具有一定的逻辑的!

      队列:

      1. 创建队列的同时,不仅需要把队列写入到数据库中,还需要创建出对应的目录和文件
      2. 删除队列的同时,不仅需要把队列从数据库中删除,还需要把对应的文件和目录删除

       消息:

      1. 删除消息以后还需要看以下文件中是否有太多的无效文件需要进行清除(GC)
      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.csdn.net/CYK_byte/article/details/132380597,作者:陈亦康,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:利用“栈”快速计算——逆波兰表达式

      下一篇:Spring Cloud - 手写 Gateway 源码,实现自定义局部 FilterFactory

      相关文章

      2025-05-06 09:18:49

      【Linux 从基础到进阶】Ceph分布式存储系统搭建

      随着数据量的爆炸式增长,传统的存储解决方案逐渐暴露出扩展性差、成本高、管理复杂等问题。Ceph是一种高性能、可扩展的开源分布式存储系统,能够为对象存储、块存储和文件系统提供统一的存储平台。

      2025-05-06 09:18:49
      分布式 , 存储 , 高可用性
      2025-04-18 07:10:53

      LDAP基础理论

      分布式目录服务是一种用于存储和管理大量数据的系统,其中数据以层次结构的方式组织,并在多个服务器之间进行分布。它提供了一种集中式访问和管理数据的方法,使得用户可以通过网络连接到任何一个服务器来查询、添加、修改或删除存储在该目录中的信息。

      2025-04-18 07:10:53
      LDAP , 分布式 , 属性 , 服务器 , 用户 , 目录
      2025-04-15 09:24:56

      探秘Redis分布式锁:实战与注意事项

      Redis的Watch命令可以实现乐观锁,这是一种保护数据完整性的机制。在分布式环境中,当多个客户端并发地操作相同的键时,乐观锁有助于防止数据竞争和冲突。

      2025-04-15 09:24:56
      Redis , Redisson , 分布式 , 实例 , 客户端 , 获取
      2025-04-15 09:19:55

      分布式事务大揭秘:使用MQ实现最终一致性

      在单体应用中,事务的管理相对简单,可以通过数据库的事务机制来保证数据的一致性和完整性。然而,在分布式系统中,由于涉及到多个不同的服务和数据源,保证事务的一致性就变得复杂了。

      2025-04-15 09:19:55
      RocketMQ , 一致性 , 事务 , 分布式 , 发送 , 消息 , 系统
      2025-04-11 07:11:40

      java中常用的缓存框架

      java中常用的缓存框架

      2025-04-11 07:11:40
      API , Cache , Java , 分布式 , 缓存
      2025-03-28 07:42:50

      分布式存储技术

      分布式存储技术是一种数据存储技术,它通过网络将企业中每台机器上的磁盘空间利用起来,并将这些分散的存储资源构成一个虚拟的存储设备,实现数据的分散存储。

      2025-03-28 07:42:50
      分布式 , 存储 , 数据 , 节点 , 虚拟化
      2025-03-12 09:33:43

      【分布式理论13】分布式存储:数据存储难题与解决之道

      【分布式理论13】分布式存储:数据存储难题与解决之道

      2025-03-12 09:33:43
      RAID , 分布式 , 存储 , 数据 , 磁盘
      2025-03-12 09:32:22

      docker安装rabbitmq详解

      docker安装rabbitmq详解

      2025-03-12 09:32:22
      rabbitmq , 客户端 , 镜像
      2025-03-11 09:36:54

      【分布式理论12】事务协调者高可用:分布式选举算法

      【分布式理论12】事务协调者高可用:分布式选举算法

      2025-03-11 09:36:54
      分布式 , 算法 , 节点
      2025-03-06 09:15:52

      Spring Boot + Shiro 实现 Session 持久化实现思路及遗留问题

      Spring Boot + Shiro 实现 Session 持久化实现思路及遗留问题

      2025-03-06 09:15:52
      Session , 分布式 , 服务器 , 用户 , 登陆
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5242230

      查看更多

      最新文章

      【Linux 从基础到进阶】Ceph分布式存储系统搭建

      2025-05-06 09:18:49

      LDAP基础理论

      2025-04-18 07:10:53

      分布式事务大揭秘:使用MQ实现最终一致性

      2025-04-15 09:19:55

      分布式存储技术

      2025-03-28 07:42:50

      【分布式理论13】分布式存储:数据存储难题与解决之道

      2025-03-12 09:33:43

      【分布式理论12】事务协调者高可用:分布式选举算法

      2025-03-11 09:36:54

      查看更多

      热门文章

      Android移动设备远程接入ZooKeeper分布式集群

      2023-04-18 14:14:56

      分布式版本控制系统——git

      2023-06-13 08:29:57

      python学习——分布式进程

      2023-05-08 10:00:50

      Elasticsearch分布式架构原理(二)

      2023-06-01 06:30:49

      分布式系统常见的事务处理机制

      2023-05-23 01:22:38

      分布式-技术专区-Redis分布式锁原理实现

      2023-05-29 10:45:37

      查看更多

      热门标签

      系统 测试 用户 分布式 Java java 计算机 docker 代码 数据 服务器 数据库 源码 管理 python
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      NiFi FileFlow示例和NIFI模板示例

      Raft 算法详解(二)日志复制

      Paxos 算法详解(一)

      RabbitMQ - 死信、TTL原理、延迟队列安装和配置

      在Spring Boot中实现分布式缓存策略

      使用Spring Boot实现分布式事务

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号