爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      #私藏项目实操分享#【Redis核心原理专题】(1)「技术提升系列」分析探究如何实现LFU的热点键发现机制以及内部的Scan扫描技术的原理

      首页 知识中心 数据库 文章详情页

      #私藏项目实操分享#【Redis核心原理专题】(1)「技术提升系列」分析探究如何实现LFU的热点键发现机制以及内部的Scan扫描技术的原理

      2023-07-07 07:49:21 阅读次数:422

      sed,redis,数组

      前言介绍

      业务中存在访问热点是在所难免的,redis也会遇到这个问题,然而如何发现热点key一直困扰着许多用户,redis4.0为我们带来了许多新特性,其中便包括基于LFU的热点key发现机制。

      Least Frequently Used

      Least Frequently Used——简称LFU,意为最不经常使用,是redis4.0新增的一类内存逐出策略,从LFU的字面意思我们很容易联想到key的访问频率,但是4.0最初版本仅用来做内存逐出,对于访问频率并没有很好的记录,那么经过一番改造,redis于4.0.3版本开始正式支持基于LFU的热点key发现机制。

      LFU算法介绍

      Redis中每个对象都有24 bits空间来记录LRU/LFU信息:

      typedef struct redisObject {
          unsigned type:4;
          unsigned encoding:4;
          unsigned lru:LRU_BITS; /* LRU time (relative to global lru_clock) or
                                  * LFU data (least significant 8 bits frequency
                                  * and most significant 16 bits access time). */
          int refcount;
          void *ptr;
      } robj;
      

      当这24 bits用作LFU时,其被分为两部分:

      #私藏项目实操分享#【Redis核心原理专题】(1)「技术提升系列」分析探究如何实现LFU的热点键发现机制以及内部的Scan扫描技术的原理

      • 高16位用来记录访问时间(单位为分钟)LRU
      • 低8位用来记录访问频率,简称counter LFU

      counter:基于概率的对数计数器

      8 bits最大值也就是255,只用8位来记录访问频率够用吗?

      对于counter,redis用了一个trick的手段,counter并不是一个简单的线性计数器,而是用基于概率的对数计数器来实现,算法如下:

      uint8_t LFULogIncr(uint8_t counter) {
            if (counter == 255) return 255;
            double r = (double)rand()/RAND_MAX;
            double baseval = counter - LFU_INIT_VAL;
            if (baseval < 0) baseval = 0;
            double p = 1.0/(baseval*server.lfu_log_factor+1);
            if (r < p) counter++;
            return counter;
        }
      
      对应的概率分布计算公式为:
      1/((counter-LFU_INIT_VAL)*server.lfu_log_factor+1)
      

      其中LFU_INIT_VAL为5,我们看下概率分布图会有一个更直观的认识,以默认server.lfu_log_factor=10为例: #私藏项目实操分享#【Redis核心原理专题】(1)「技术提升系列」分析探究如何实现LFU的热点键发现机制以及内部的Scan扫描技术的原理

      从上图可以看到,counter越大,其增加的概率越小,8 bits也足够记录很高的访问频率,下表是不同概率因子server.lfu_log_factor与访问频率counter的对应关系:

      #私藏项目实操分享#【Redis核心原理专题】(1)「技术提升系列」分析探究如何实现LFU的热点键发现机制以及内部的Scan扫描技术的原理

      也就是说,默认server.lfu_log_factor为10的情况下,8 bits的counter可以表示1百万的访问频率。

      counter的衰减因子

      counter增长函数LFULogIncr中我们可以看到,随着key的访问量增长,counter最终都会收敛为255,这就带来一个问题,如果counter只增长不衰减就无法区分热点key。

      为了解决这个问题,redis提供了衰减因子server.lfu_decay_time,其单位为分钟,计算方法也很简单,如果一个key长时间没有访问那么它的计数器counter就要减少,减少的值由衰减因子来控制:

      unsigned long LFUDecrAndReturn(robj *o) {
          unsigned long ldt = o->lru >> 8;
          unsigned long counter = o->lru & 255;
          unsigned long num_periods = server.lfu_decay_time ? LFUTimeElapsed(ldt) / server.lfu_decay_time : 0;
          if (num_periods)
              counter = (num_periods > counter) ? 0 : counter - num_periods;
          return counter;
      }
      

      默认为1的情况下也就是N分钟内没有访问,counter就要减N。

      概率因子和衰减因子均可配置,推荐使用redis的默认值即可:

      lfu-log-factor 10
      lfu-decay-time 1
      

      热点key发现

      介绍完LFU算法,接下来就是我们关心的热点key发现机制。

      其核心就是在每次对key进行读写访问时,更新LFU的24 bits域代表的访问时间和counter,这样每个key就可以获得正确的LFU值:

      void updateLFU(robj *val) {
          unsigned long counter = LFUDecrAndReturn(val);
          counter = LFULogIncr(counter);
          val->lru = (LFUGetTimeInMinutes()<<8) | counter;
      }
      

      那么用户如何获取访问频率呢?redis提供了OBJECT FREQ子命令来获取LFU信息,但是要注意需要先把内存逐出策略设置为allkeys-lfu或者volatile-lfu,否则会返回错误:

      127.0.0.1:6379> config get maxmemory-policy
      1) "maxmemory-policy"
      2) "noeviction"
      127.0.0.1:6379> object freq counter:000000006889
      (error) ERR An LFU maxmemory policy is not selected, access frequency not tracked. Please note that when switching between policies at runtime LRU and LFU data will take some time to adjust.
      
      127.0.0.1:6379> config set maxmemory-policy allkeys-lfu
      OK
      127.0.0.1:6379> object freq counter:000000006889
      (integer) 3
      

      底层算法:使用scan命令遍历所有key,再通过OBJECT FREQ获取访问频率并排序,即可得到热点key。

      redis 4.0.3同时也提供了redis-cli的热点key发现功能,执行redis-cli时加上--hotkeys选项即可,示例如下:

      $./redis-cli --hotkeys
      
      # Scanning the entire keyspace to find hot keys as well as
      # average sizes per key type.  You can use -i 0.1 to sleep 0.1 sec
      # per 100 SCAN commands (not usually needed).
      
      [00.00%] Hot key 'counter:000000000002' found so far with counter 87
      [00.00%] Hot key 'key:000000000001' found so far with counter 254
      [00.00%] Hot key 'mylist' found so far with counter 107
      [00.00%] Hot key 'key:000000000000' found so far with counter 254
      [45.45%] Hot key 'counter:000000000001' found so far with counter 87
      [45.45%] Hot key 'key:000000000002' found so far with counter 254
      [45.45%] Hot key 'myset' found so far with counter 64
      [45.45%] Hot key 'counter:000000000000' found so far with counter 93
      
      -------- summary -------
      
      Sampled 22 keys in the keyspace!
      hot key found with counter: 254    keyname: key:000000000001
      hot key found with counter: 254    keyname: key:000000000000
      hot key found with counter: 254    keyname: key:000000000002
      hot key found with counter: 107    keyname: mylist
      hot key found with counter: 93    keyname: counter:000000000000
      hot key found with counter: 87    keyname: counter:000000000002
      hot key found with counter: 87    keyname: counter:000000000001
      hot key found with counter: 64    keyname: myset
      

      可以看到,排在前几位的即是热点key。


      Scan操作的介绍

      熟悉Redis的人都知道,它是单线程的。因此在使用一些时间复杂度为O(N)的命令时要非常谨慎。可能一不小心就会阻塞进程,导致Redis出现卡顿。

      • 有时,我们需要针对符合条件的一部分命令进行操作,比如删除以test_开头的key。那么怎么获取到这些key呢?在Redis2.8版本之前,我们可以使用keys命令按照正则匹配得到我们需要的key。但是这个命令有两个缺点:

      • 没有limit,我们只能一次性获取所有符合条件的key,如果结果有上百万条,那么等待你的就是“无穷无尽”的字符串输出。

      • keys命令是遍历算法,时间复杂度是O(N)。如我们刚才所说,这个命令非常容易导致Redis服务卡顿。因此,我们要尽量避免在生产环境使用该命令。

      在满足需求和存在造成Redis卡顿之间究竟要如何选择呢?面对这个两难的抉择,Redis在2.8版本给我们提供了解决办法——scan命令。

      Scan操作的优势

      相比于keys命令,scan命令有两个比较明显的优势:

      • scan命令的时间复杂度虽然也是O(N),但它是分次进行的,不会阻塞线程。

      • scan命令提供了limit参数,可以控制每次返回结果的最大条数。

      这两个优势就帮助我们解决了上面的难题,不过scan命令也并不是完美的,它返回的结果有可能重复,因此需要客户端去重。scan命令

      总结有下面几个特征:

      • 返回的结果可能会有重复,需要客户端去重复,这点非常重要;
      • 遍历的过程中如果有数据修改,改动后的数据能不能遍历到是不确定的;
      • 单次返回的结果是空的并不意味着遍历结束,而要看返回的游标值是否为零;

      scan命令使用示例

      // 第一个参数指定游标,第二个参数指定匹配模式,第三个参数指定返回数据的条数 // 注意: count参数是限定服务器单次遍历的字典槽位数量,而不是限制返回key的数量

      127.0.0.1:6379> scan 0 match key99* count 1000
      1) "13976"
      2)  1) "key9911"
          2) "key9974"
          3) "key9994"
          4) "key9910"
          5) "key9907"
          6) "key9989"
          7) "key9971"
          8) "key99"
          9) "key9966"
         10) "key992"
         11) "key9903"
         12) "key9905"
      127.0.0.1:6379> scan 13976 match key99* count 1000
      1) "1996"
      2)  1) "key9982"
          2) "key9997"
          3) "key9963"
          4) "key996"
          5) "key9912"
          6) "key9999"
          7) "key9921"
          8) "key994"
          9) "key9956"
         10) "key9919"
      127.0.0.1:6379> scan 1996 match key99* count 1000
      1) "12594"
      2) 1) "key9939"
         2) "key9941"
         3) "key9967"
         4) "key9938"
         5) "key9906"
         6) "key999"
         7) "key9909"
         8) "key9933"
         9) "key9992"
      ......
      127.0.0.1:6379> scan 11687 match key99* count 1000
      1) "0"
      2)  1) "key9969"
          2) "key998"
          3) "key9986"
          4) "key9968"
          5) "key9965"
          6) "key9990"
          7) "key9915"
          8) "key9928"
          9) "key9908"
         10) "key9929"
         11) "key9944"...
      

      主要从底层的结构和源码的角度来讨论scan是如何工作的。

      Redis的结构

      Redis使用了Hash表作为底层实现,原因不外乎高效且实现简单。说到Hash表,很多Java程序员第一反应就是HashMap。没错,Redis底层key的存储结构就是类似于HashMap那样数组+链表的结构。其中第一维的数组大小为2n(n>=0)。每次扩容数组长度扩大一倍。

      scan命令就是对这个一维数组进行遍历。每次返回的游标值也都是这个数组的索引。limit参数表示遍历多少个数组的元素,将这些元素下挂接的符合条件的结果都返回。因为每个元素下挂接的链表大小不同,所以每次返回的结果数量也就不同。

      SCAN的遍历顺序

      关于scan命令的遍历顺序,我们可以用一个小栗子来具体看一下。

      127.0.0.1:6379> keys *
      1) "db_number"
      2) "key1"
      3) "myKey"
      127.0.0.1:6379> scan 0 MATCH * COUNT 1
      1) "2"
      2) 1) "db_number"
      127.0.0.1:6379> scan 2 MATCH * COUNT 1
      1) "1"
      2) 1) "myKey"
      127.0.0.1:6379> scan 1 MATCH * COUNT 1
      1) "3"
      2) 1) "key1"
      127.0.0.1:6379> scan 3 MATCH * COUNT 1
      1) "0"
      2) (empty list or set)
      

      我们的Redis中有3个key,我们每次只遍历一个一维数组中的元素。如上所示,SCAN命令的遍历顺序是

      0->2->1->3
      

      这个顺序看起来有些奇怪。我们把它转换成二进制就好理解一些了。

      00->10->01->11

      我们发现每次这个序列是高位加1的。普通二进制的加法,是从右往左相加、进位。而这个序列是从左往右相加、进位的。这一点我们在redis的源码中也得到印证。

      在dict.c文件的dictScan函数中对游标进行了如下处理

      v = rev(v);
      v++;
      v = rev(v);
      

      意思是,将游标倒置,加一后,再倒置,也就是我们所说的“高位加1”的操作。

      这里大家可能会有疑问了,为什么要使用这样的顺序进行遍历,而不是用正常的0、1、2……这样的顺序呢,这是因为需要考虑遍历时发生字典扩容与缩容的情况(不得不佩服开发者考虑问题的全面性)。

      我们来看一下在SCAN遍历过程中,发生扩容时,遍历会如何进行。加入我们原始的数组有4个元素,也就是索引有两位,这时需要把它扩充成3位,并进行rehash。

      原来挂接在xx下的所有元素被分配到0xx和1xx下。在上图中,当我们即将遍历10时,dict进行了rehash,这时,scan命令会从010开始遍历,而000和100(原00下挂接的元素)不会再被重复遍历。

      再来看看缩容的情况。假设dict从3位缩容到2位,当即将遍历110时,dict发生了缩容,这时scan会遍历10。这时010下挂接的元素会被重复遍历,但010之前的元素都不会被重复遍历了。所以,缩容时还是可能会有些重复元素出现的。

      Redis的rehash

      rehash是一个比较复杂的过程,为了不阻塞Redis的进程,它采用了一种渐进式的rehash的机制。

      /* 字典 */
      typedef struct dict {
          // 类型特定函数
          dictType *type;
          // 私有数据
          void *privdata;
          // 哈希表
          dictht ht[2];
          // rehash 索引
          // 当 rehash 不在进行时,值为 -1
          int rehashidx; /* rehashing not in progress if rehashidx == -1 */
          // 目前正在运行的安全迭代器的数量
          int iterators; /* number of iterators currently running */
      } dict;
      

      在Redis的字典结构中,有两个hash表,一个新表,一个旧表。在rehash的过程中,redis将旧表中的元素逐步迁移到新表中,接下来我们看一下dict的rehash操作的源码。

      /* Performs N steps of incremental rehashing. Returns 1 if there are still
       * keys to move from the old to the new hash table, otherwise 0 is returned.
       *
       * Note that a rehashing step consists in moving a bucket (that may have more
       * than one key as we use chaining) from the old to the new hash table, however
       * since part of the hash table may be composed of empty spaces, it is not
       * guaranteed that this function will rehash even a single bucket, since it
       * will visit at max N*10 empty buckets in total, otherwise the amount of
       * work it does would be unbound and the function may block for a long time. */
      int dictRehash(dict *d, int n) {
          int empty_visits = n*10; /* Max number of empty buckets to visit. */
          if (!dictIsRehashing(d)) return 0;
      
          while(n-- && d->ht[0].used != 0) {
              dictEntry *de, *nextde;
      
              /* Note that rehashidx can't overflow as we are sure there are more
               * elements because ht[0].used != 0 */
              assert(d->ht[0].size > (unsigned long)d->rehashidx);
              while(d->ht[0].table[d->rehashidx] == NULL) {
                  d->rehashidx++;
                  if (--empty_visits == 0) return 1;
              }
              de = d->ht[0].table[d->rehashidx];
              /* Move all the keys in this bucket from the old to the new hash HT */
              while(de) {
                  uint64_t h;
      
                  nextde = de->next;
                  /* Get the index in the new hash table */
                  h = dictHashKey(d, de->key) & d->ht[1].sizemask;
                  de->next = d->ht[1].table[h];
                  d->ht[1].table[h] = de;
                  d->ht[0].used--;
                  d->ht[1].used++;
                  de = nextde;
              }
              d->ht[0].table[d->rehashidx] = NULL;
              d->rehashidx++;
          }
      
          /* Check if we already rehashed the whole table... */
          if (d->ht[0].used == 0) {
              zfree(d->ht[0].table);
              d->ht[0] = d->ht[1];
              _dictReset(&d->ht[1]);
              d->rehashidx = -1;
              return 0;
          }
      
          /* More to rehash... */
          return 1;
      }
      

      通过注释我们就能了解到,rehash的过程是以bucket为基本单位进行迁移的。所谓的bucket其实就是我们前面所提到的一维数组的元素。每次迁移一个列表。

      1. 首先判断一下是否在进行rehash,如果是,则继续进行;否则直接返回。
      2. 接着就是分n步开始进行渐进式rehash。同时还判断是否还有剩余元素,以保证安全性。
      3. 在进行rehash之前,首先判断要迁移的bucket是否越界。
      4. 然后跳过空的bucket,这里有一个empty_visits变量,表示最大可访问的空bucket的数量,这一变量主要是为了保证不过多的阻塞Redis。
      5. 接下来就是元素的迁移,将当前bucket的全部元素进行rehash,并且更新两张表中元素的数量。
      6. 每次迁移完一个bucket,需要将旧表中的bucket指向NULL。
      7. 最后判断一下是否全部迁移完成,如果是,则收回空间,重置rehash索引,否则告诉调用方,仍有数据未迁移。
      8. 由于Redis使用的是渐进式rehash机制,因此,scan命令在需要同时扫描新表和旧表,将结果返回客户端。
      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.51cto.com/alex4dream/4810302,作者:洛神灬殇,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:MySQL的SQL语句执行流程(简述)

      下一篇:时间序列分解和异常检测方法应用案例

      相关文章

      2025-05-19 09:04:14

      复杂度的OJ练习

      复杂度的OJ练习

      2025-05-19 09:04:14
      代码 , 复杂度 , 思路 , 数组 , 算法
      2025-05-16 09:15:24

      如何将一串数字用函数的方法倒过来(C语言)

      如何将一串数字用函数的方法倒过来(C语言)

      2025-05-16 09:15:24
      函数 , 数字 , 数组
      2025-05-16 09:15:24

      jQuery遍历对象、数组、集合

      jQuery遍历对象、数组、集合

      2025-05-16 09:15:24
      jQuery , 对象 , 数组 , 遍历 , 集合
      2025-05-16 09:15:17

      递归,搜索,回溯算法(3)之穷举,暴搜,深搜,回溯,剪枝

      递归,搜索,回溯算法(3)之穷举,暴搜,深搜,回溯,剪枝

      2025-05-16 09:15:17
      回溯 , 子集 , 数组 , 算法 , 递归
      2025-05-14 10:33:31

      计算机小白的成长历程——数组(1)

      计算机小白的成长历程——数组(1)

      2025-05-14 10:33:31
      strlen , 个数 , 元素 , 内存 , 十六进制 , 地址 , 数组
      2025-05-14 10:33:31

      计算机小白的成长历程——习题演练(函数篇)

      计算机小白的成长历程——习题演练(函数篇)

      2025-05-14 10:33:31
      函数 , 字符串 , 数组 , 知识点 , 编写 , 迭代 , 递归
      2025-05-14 10:02:48

      typescript 将数组清空

      在TypeScript或JavaScript开发中,数组是用于存储和管理一组数据的基础数据结构。当需要清空一个数组时,有多种方法可以实现,而选择合适的方法不仅影响代码的可读性,还会对性能产生一定的影响。不同场景下,选择适合的清空数组的方法至关重要。

      2025-05-14 10:02:48
      length , pop , 引用 , 数组 , 方法
      2025-05-13 09:50:28

      Java 两个小时以后

      最大正方形在一个由 '0' 和 '1' 组成的二维矩阵内,找到只包含 '1' 的最大正方形,并返回其面积。 

      2025-05-13 09:50:28
      length , matrix , nums , target , 数组
      2025-05-13 09:50:17

      java实现167. 两数之和 II - 输入有序数组

      给你一个下标从 1 开始的整数数组 numbers ,该数组已按 非递减顺序排列  ,请你从数组中找出满足相加之和等于目标数 target 的两个数。

      2025-05-13 09:50:17
      target , 两个 , 数组 , 整数
      2025-05-13 09:50:17

      java实现6. Z 字形变换

      将一个给定字符串 s 根据给定的行数 numRows ,以从上往下、从左到右进行 Z 字形排列。

      2025-05-13 09:50:17
      字符 , 字符串 , 数组
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5234417

      查看更多

      最新文章

      java实现3. 无重复字符的最长子串

      2025-05-13 09:50:17

      java实现6. Z 字形变换

      2025-05-13 09:50:17

      DS初阶:顺序表的实现

      2025-05-07 09:10:01

      【Redis】浅析 Redis 事务

      2025-04-22 09:27:37

      数据结构:顺序表的奥秘

      2025-04-15 09:18:39

      恕我直言你可能真的不会java第4篇:Stream管道流Map操作

      2025-04-09 09:14:24

      查看更多

      热门文章

      redis-数据操作-键命令

      2023-03-29 10:07:52

      Reids持久化

      2023-05-16 09:44:09

      k8s的operator-hub中的redis-operator的redis-cluster的CreateRedisLeaderService处理

      2022-11-08 07:33:08

      给redis cluster集群加上认证功能

      2023-05-19 05:52:11

      celery-02-安装与使用说明-for-redis

      2023-04-07 06:48:06

      redis主从同步,总是显示master_link_status:down的解决方法

      2023-06-07 07:31:08

      查看更多

      热门标签

      数据库 mysql 字符串 数据结构 MySQL 算法 redis oracle java sql python 数据 索引 SQL 查询
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      每日学习一个数据结构-堆

      【Redis】 事务和锁机制(图文结合,最详细)

      Redis主从复制与读写分离

      celery的初次使用

      使用 redis-shake 迁移 redis-cluster集群

      数据结构入门(第二天)

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号