活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      分布式关系型数据库_相关内容
      • 消息及异常输出
        本页介绍天翼云TeleDB数据库PL/pgsql的消息及异常输出。 RAISE NOTICE plaintext teledb CREATE OR REPLACE FUNCTION f28() RETURNS VOID AS teledb $$ teledb$ DECLARE teledb$ vint INTEGER : 1; teledb$ BEGIN teledb$ RAISE NOTICE 'vint %, 随机数 %',vint,random(); teledb$ END; teledb$ $$ teledb LANGUAGE plpgsql; CREATE FUNCTION teledb SELECT f28(); NOTICE: vint 1, 随机数 0.236714988015592 f28 (1 row) 使用raise notice向终端输出一个消息,也有可能写到日志中(需要调整日志的保存级别)。 RAISE EXCEPTION plaintext teledb CREATE OR REPLACE FUNCTION f28() RETURNS VOID AS teledb $$ teledb$ DECLARE teledb$ vint INTEGER : 1; teledb$ BEGIN teledb$ RAISE EXCEPTION '程序EXCEPTION '; teledb$ 下面的语句不会再执行 teledb$ RAISE NOTICE 'vint %, 随机数 %',vint,random(); teledb$ END; teledb$ $$ teledb LANGUAGE plpgsql; CREATE FUNCTION teledb SELECT f28(); ERROR: 程序EXCEPTION 如果在事务中执行这个函数,则事务会终止(abort)。 RAISE EXCEPTION自定义ERRCODE plaintext teledb CREATE OR REPLACE FUNCTION f28() RETURNS VOID AS teledb $$ teledb$ DECLARE teledb$ vint INTEGER : 1; teledb$ BEGIN teledb$ RAISE EXCEPTION ' 程序EXCEPTION ' USING ERRCODE '23505'; teledb$ END; teledb$ $$ teledb LANGUAGE plpgsql; CREATE FUNCTION teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.0.0版本产品文档
        开发手册
        PL:pgsql开发
        消息及异常输出
      • 返回值类型介绍
        本页介绍天翼云TeleDB数据库PL/pgsql函数的返回值类型。 没有返回值 plaintext teledb CREATE OR REPLACE FUNCTION f8() RETURNS void AS teledb $$ teledb$ BEGIN teledb$ RAISE NOTICE '不用返回值,函数体可以有或没有return语句'; teledb$ RETURN ;这一句可以有,也可以没有 teledb$ END; teledb$ $$ teledb LANGUAGE plpgsql; CREATE FUNCTION teledb select from f8(); NOTICE: 不用返回值,函数体可以有或没有return语句 f8 (1 row) 返回简单类型 plaintext teledb CREATE OR REPLACE FUNCTION f9() RETURNS TEXT AS $$ BEGIN RETURN 'teledb'; END; $$ LANGUAGE plpgsql; CREATE FUNCTION teledb SELECT FROM f9() t(axm); axm teledb (1 row) teledb CREATE OR REPLACE FUNCTION f9(OUT axm TEXT) RETURNS TEXT AS $$ BEGIN axm:'teledb'; END; $$ LANGUAGE plpgsql; CREATE FUNCTION teledb SELECT FROM f9(); axm teledb (1 row) 上面两个函数其实就是同一个函数,建立时如果不加OR REPLACE 则会提示已经存在。 plaintext teledb CREATE OR REPLACE FUNCTION f10() RETURNS TEXT[] AS $$ BEGIN RETURN ARRAY['teledb','pgxz']; END; $$ LANGUAGE plpgsql; CREATE FUNCTION teledb SELECT FROM f10(); f10 {teledb,pgxz} (1 row) 返回一个复合类型 plaintext teledb CREATE TYPE trec AS teledb ( teledb( id integer, teledb( mc text teledb( ); CREATE TYPE teledb CREATE OR REPLACE FUNCTION f11() RETURNS trec AS teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.0.0版本产品文档
        开发手册
        PL:pgsql开发
        返回值详细介绍
        返回值类型介绍
      • 开发相关规范
        本页介绍天翼云TeleDB数据库开发相关的规范。 1. 建议对DB object尤其是COLUMN加COMMENT,便于后续了解业务及维护 注释前后的数据表可读性对比,有注释的一看就明白。 plaintext teledb d+ toids; Table "public.toids" Column Type Collation Nullable Default Storage Stats target Descripti on +++++++ id integer not null plain name character varying extended birth timestamp(0) without time zone plain city character varying extended Indexes: "toidspkey" PRIMARY KEY, btree (id) Has OIDs: yes Distribute By: SHARD(id) Location Nodes: ALL DATANODES ^ teledb comment on column toids.name is '姓名'; COMMENT teledb comment on column toids.city is '居住城市'; COMMENT teledb d+ toids; Table "public.toids" Column Type Collation Nullable Default Storage Stats target Descripti on +++++++ id integer not null plain name character varying extended 姓名 birth timestamp(0) without time zone plain city character varying extended 居住城市 Indexes: "toidspkey" PRIMARY KEY, btree (id) Has OIDs: yes Distribute By: SHARD(id) Location Nodes: ALL DATANODES 2. 建议非必须时避免select ,只取所需字段,以减少包括不限于网络带宽消耗。 plaintext teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.1.0版本产品文档
        开发手册
        进阶开发
        开发规范
        开发相关规范
      • 消息及异常输出
        本页介绍天翼云TeleDB数据库PL/pgsql的消息及异常输出。 RAISE NOTICE plaintext teledb CREATE OR REPLACE FUNCTION f28() RETURNS VOID AS teledb $$ teledb$ DECLARE teledb$ vint INTEGER : 1; teledb$ BEGIN teledb$ RAISE NOTICE 'vint %, 随机数 %',vint,random(); teledb$ END; teledb$ $$ teledb LANGUAGE plpgsql; CREATE FUNCTION teledb SELECT f28(); NOTICE: vint 1, 随机数 0.236714988015592 f28 (1 row) 使用raise notice向终端输出一个消息,也有可能写到日志中(需要调整日志的保存级别)。 RAISE EXCEPTION plaintext teledb CREATE OR REPLACE FUNCTION f28() RETURNS VOID AS teledb $$ teledb$ DECLARE teledb$ vint INTEGER : 1; teledb$ BEGIN teledb$ RAISE EXCEPTION '程序EXCEPTION '; teledb$ 下面的语句不会再执行 teledb$ RAISE NOTICE 'vint %, 随机数 %',vint,random(); teledb$ END; teledb$ $$ teledb LANGUAGE plpgsql; CREATE FUNCTION teledb SELECT f28(); ERROR: 程序EXCEPTION 如果在事务中执行这个函数,则事务会终止(abort)。 RAISE EXCEPTION自定义ERRCODE plaintext teledb CREATE OR REPLACE FUNCTION f28() RETURNS VOID AS teledb $$ teledb$ DECLARE teledb$ vint INTEGER : 1; teledb$ BEGIN teledb$ RAISE EXCEPTION ' 程序EXCEPTION ' USING ERRCODE '23505'; teledb$ END; teledb$ $$ teledb LANGUAGE plpgsql; CREATE FUNCTION teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.1.0版本产品文档
        开发手册
        PL:pgsql开发
        消息及异常输出
      • 修改列存储表结构
        本页介绍天翼云TeleDB数据库修改列存储表结构的语法。 列存表修改表结构和行存表语法一致,使用ALTER TABLE 语句对指定表进行操作 ALTER TABLE tablename ; 其中, 操作包括:增加字段,删除字段,修改字段名,修改表名等。 增加字段 列存表修改表名和行存表语法一致,使用ADD COLUMN 语句增加字段。 teledb alter table t1 add column c1 int; ALTER TABLE teledb d+ t1 Table "public.t1" Column Type Collation Nullable Default Storage Stats target Description +++++++ a integer plain b integer plain c text extended c1 integer plain Distribute By: HASH(a) Location Nodes: ALL DATANODES 删除字段 列存表修改表名和行存表语法一致,使用DROP COLUMN 语句删除字段。 teledb alter table t1 drop column c1; ALTER TABLE teledb d+ t1 Table "public.t1" Column Type Collation Nullable Default Storage Stats target Description +++++++ a integer plain b integer plain c text extended Distribute By: HASH(a) Location Nodes: ALL DATANODES 修改字段名 列存表修改表名和行存表语法一致,使用RENAME COLUMN TO 语句增加字段。 teledb alter table t1 rename column c1 to c2; ALTER TABLE teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        列存储引擎
        基础使用介绍
        修改列存储表结构
      • 日期函数
        本页介绍天翼云TeleDB数据库Oracle语法中的日期函数。 NUMTODSINTERVAL numtodsinterval(,) x是一个数字、c是一个字符串,表明x的单位,这个函数把x转为interval day to second数据类型。 teledb select sysdate,sysdate+numtodsinterval(2,'hour') as res from dual; orclsysdate res + 20230824 10:49:53.417051 20230824 12:49:53.417051 (1 row) teledb DBTIMEZONE teledb select DBTIMEZONE from dual; dbtimezone 08:00:00 (1 row) teledb MONTHSBETWEEN teledb select monthsbetween(todate('20210331', 'yyyymmdd'), todate('20200131', 'yyyymmdd')) as months from dual; months 14 (1 row) teledb LASTDAY LASTDAY函数返回指定日期对应月份的最后一天。 teledb SELECT lastday('20200501') FROM dual; lastday 20200531 00:00:00+08 (1 row) teledb ADDMONTHS ADDMONTHS(x,y) x值为日期,y值为数量,用于计算某个日期向前或者向后y个月后的时间。 teledb select addmonths(sysdate,1) from dual; addmonths 20230924 11:08:17.194487 (1 row) teledb select addmonths(sysdate,1) from dual; addmonths 20230724 11:08:21.019573 (1 row) teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        Oracle 兼容语法
        兼容性函数
        日期函数
      • pg_audit_fga_conf
        本页介绍天翼云TeleDB数据库元数据pgauditfgaconf的内容。 存储细粒度审计相关管理和配置信息。 名称 类型 定义 auditorid Oid 编写配置用户id objectschema Oid 对象所在的模式的OID objectid Oid 要被审计的对象(表或视图)的OID policyname NameData 策略的唯一名称 auditcolumnids oidvector 需要审计的列的OID 列表 auditcolumns text 需要审计的列名 auditcondition pgnodetree 一个表示审计条件的行条件 auditconditionstr text 一个表示审计条件的行条件的字符串形式 handlerschema Oid 事件处理程序所在的模式的OID handlermodule Oid 事件处理程序的函数名 auditenable bool 如果为TRUE,则启用策略,默认值为 TRUE statementtypes NameData 适用此策略的SQL 语句类型,如 INSERT, UPDATE, DELETE, 或 SELECT auditcolumnopts bool 当查询引用了 auditcolumn 参数中指定的任何列时进行审计,还是只有当所有这些列都被引用时才进行审计。0 表示任意列,1 表示所有列
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        数据字典
        元数据表
        pg_audit_fga_conf
      • 开发相关规范
        本页介绍天翼云TeleDB数据库开发相关的规范。 1. 建议对DB object尤其是COLUMN加COMMENT,便于后续了解业务及维护注释前后的数据表可读性对比,有注释的一看就明白。 teledb d+ toids; Table "public.toids" Column Type Collation Nullable Default Storage Stats target Descripti on +++++++ id integer not null plain name character varying extended birth timestamp(0) without time zone plain city character varying extended Indexes: "toidspkey" PRIMARY KEY, btree (id) Has OIDs: yes Distribute By: SHARD(id) Location Nodes: ALL DATANODES ^ teledb comment on column toids.name is '姓名'; COMMENT teledb comment on column toids.city is '居住城市'; COMMENT teledb d+ toids; Table "public.toids" Column Type Collation Nullable Default Storage Stats target Descripti on +++++++ id integer not null plain name character varying extended 姓名 birth timestamp(0) without time zone plain city character varying extended 居住城市 Indexes: "toidspkey" PRIMARY KEY, btree (id) Has OIDs: yes Distribute By: SHARD(id) Location Nodes: ALL DATANODES 2. 建议非必须时避免select ,只取所需字段,以减少包括不限于网络带宽消耗。 teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        进阶开发
        开发规范
        开发相关规范
      • 参数数据类型
        本页介绍天翼云TeleDB数据库PL/pgsql函数的参数数据类型。 数据类型(可以有模式修饰),可以是基本类型,复合类型、域类型、游标、或者可以引用一个现有表类型、字段类型(建立时转换为对应的类型)、还可以是多态类型 anyelement、anyarray,也可以是各种数据类型的数组形式。 基本类型 teledb CREATE OR REPLACE FUNCTION f3 (aint integer,astr text) RETURNS VOID AS teledb $$ teledb$ BEGIN teledb$ RAISE NOTICE 'aint % ; astr %',aint,astr; teledb$ END; teledb$ $$ teledb LANGUAGE PLPGSQL; CREATE FUNCTION teledb SELECT FROM f3(1,'teledb'); NOTICE: aint 1 ; astr teledb f3 (1 row) teledb CREATE OR REPLACE FUNCTION f3 (aint integer[],astr text[]) RETURNS VOID AS teledb $$ teledb$ BEGIN teledb$ RAISE NOTICE 'aint % ; astr %',aint,astr; teledb$ END; teledb$ $$ teledb LANGUAGE PLPGSQL; CREATE FUNCTION teledb SELECT f3(ARRAY[1,2,3],ARRAY['teledb','pgxz']); NOTICE: aint {1,2,3} ; astr {teledb,pgxz} f3 (1 row) 复合类型 teledb CREATE TYPE tper AS teledb ( teledb( id integer, teledb( mc text teledb( ); CREATE TYPE teledb CREATE OR REPLACE FUNCTION f3 (arow public.tper) RETURNS VOID AS teledb $$ teledb$ BEGIN teledb$
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        PL:pgsql开发
        参数详细介绍
        参数数据类型
      • 订阅进度查看
        本节为您介绍数据库迁移工具订阅进度查看。 数据订阅任务启动后会自动跳转数据订阅实时进度查看界面,用户也可以点击任务列表任务名跳转至进度界面,进度界面提供查看当前任务的数据堆积量、读取量、推送量等信息。 堆积量 源库增量变更已经被工具读取到,但是还未推送到目标的数据量 读取量 源库增量变更已经被系统读取到的数据量 推送量 工具成功将源库增量推送到目标的数据量 变更读取时间 工具读取到源库增量的时间 最后推送时间 工具最近一次成功将源库增量推送到目标的时间 错误 工具最近一次推送到目标发生错误的异常信息
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据同步
        数据订阅
        订阅进度查看
      • 管控规则
        本文主要介绍如何在数据管理服务DMS实例列表中编辑实例绑定的管控规则。 前提条件 组织版本为企业版。 登录用户的角色为超级管理员、系统管理员、运维管理员或者实例Owner。 操作步骤 1. 用户以超级管理员身份登录DMS系统。 2. 在左侧菜单栏依次点击 数据资产 > 实例管理。 3. 在实例列表界面点击更多 ,点击管控规则,在弹窗中下拉选择要与当前实例绑定的规则集,然后输入托管的数据库账号和密码。 4. 点击测试连接 ,测试通过后,点击确定按钮。
        来自:
        帮助文档
        数据管理服务
        用户指南
        数据资产
        实例管理
        实例列表
        管控规则
      • 工具中心
        本节为您介绍云迁移服务工具中心。 云迁移服务CMS平台提供迁移管理工具中心功能,您可以根据任务需求,在左侧导航栏选择迁移管理点击【工具中心】按钮,跳转至 [ 工具中心 ] 界面,选择合适迁移工具。 工具中心提供服务器迁移服务(CMSSMS)、数据库迁移服务(CMSDMS)、数据迁移工具(CMSZMS)、服务器资源池间迁移工具(CMSCRS)及异构迁移工具异构迁移(ExaGear)、 异构迁移(DevKit),如图所示。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        云迁移服务模块
        迁移管理
        工具中心
      • 使用Query Tool执行SQL
        本文介绍如何通过pgAdmin使用Query Tool执行SQL。 前提 已经通过pgAdmin连接RDSPostgreSQL实例并添加至Servers。 执行SQL 1. 点开数据库Server连接,打开Database,在指定的database上右键选择Query Tool,右侧弹出SQL输入框。如图所示: 2. 在右侧Query框输入SQL语句,点击Execute,在下方显示执行结果。Messages为执行结果,Data Output为执行DQL语句输出。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        最佳实践
        pgAdmin基本操作使用指南
        使用Query Tool执行SQL
      • 修改Topic
        介绍分布式消息服务Kafka修改主题功能的操作内容。 场景描述 Kafka修改主题的场景描述如下: 数据分区调整:当数据负载不均衡或者需要重新分配数据分区时,可以通过修改主题来调整数据分区的数量和分布。管理员可以根据实际情况修改主题的配置,重新分配分区,以实现更好的负载均衡和性能优化。 副本分配策略调整:Kafka的主题可以配置多个副本以实现数据冗余和高可用性。当需要调整副本的分配策略时,可以修改主题的配置,更改副本的分布方式,以满足不同的需求,如提高数据的可靠性或者减少网络传输的开销。 数据保留策略变更:Kafka支持根据时间或者大小等条件来设置数据的保留策略。当需要修改主题的数据保留策略时,可以修改主题的配置,调整数据的保留时间或者保留的数据大小,以便根据实际需求来管理数据的存储和清理。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“Topic管理”后,选择指定的Topic点击其右侧“编辑”按钮。 (5)点击“编辑”后,在弹窗中修改具体参数,详见下表:Topic参数说明。 表:Topic参数说明 参数 参数说明 分区数 您可以设置Topic的分区数,分区数越大消费的并发度越大。该参数设置为1时,消费消息时会按照先入先出的顺序进行消费。取值范围:1100,默认值:6 分区容量 每个分区的数据量的最大值,超过这个值后前面生产的消息将会被删除,保证了数据不会无限上涨挤爆磁盘。 是否同步刷盘 同步刷盘即确保消息被写入磁盘才会被认定为生产成功,该参数可提高可靠性,但是会影响性能。 消息保留时长 当消息生存时间超过该时长后,将会被清理,可用于控制存储成本。 最小同步副本数 该参数使得消息必须写入设定值个数的副本后,才能被认定生产成功,该参数可提高可靠性,但是过大会影响性能,且必须不大于副本数。 批处理消息最大值 每个批次中最大允许的消息大小,这影响了每次请求中能包含的消息总量和大小。 消息时间戳类型 CreateTime: 这是消息被生产者发送到Kafka时的时间戳,它表示消息创建的实际时间;LogAppendTime: 这是消息被Kafka日志接收并写入到日志文件时的时间戳,它表示消息写入 Kafka 的实际时间。 描述 topic的描述字段,可用作标记和说明。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        修改Topic
      • 节点重启后消费者如何重连
        本文主要介绍节点重启后消费者如何重连分布式消息服务RabbitMQ。 本章节以Java中使用的RabbitMQ客户端amqpclient为例介绍节点重启后消费者如何重连。 amqpclient自带重连机制,但是自带的重连机制只会重试一次,一次连不上后就不会再执行了,这时如果消费者没有做额外的重试机制,那么这个消费者就彻底丧失的消费能力。 amqpclient在节点断连后,根据与通道建立的节点不同,产生不同的错误。 如果通道连接的是队列所在的节点,消费者就会收到一个shutdown信号,这时amqpclient的重连机制就会生效,尝试重新连接服务端。如果连上了,这个通道就会继续连接消费。如果连不上,就会执行channel.close方法,关闭这个通道。 如果通道连接的不是队列所在的节点,消费者不会触发关闭动作,而是由服务端发送的一个取消动作,这个动作对amqpclient来说并不是异常行为,所以日志上不会有明显的报错,但是连接最终还是会关闭。 amqpclient出现上面两种错误时,会分别回调handleShutdownSignal以及handleCancel方法,您可以通过重写这两种方法,在回调时执行重写的重连逻辑,就能在通道关闭后重新创建消费者的新通道继续消费。 以下提供一个简单的代码示例,此示例能够解决上面的两种错误,实现消费者的持续消费。 package rabbitmq; import com.rabbitmq.client.; import java.io.IOException; import java.nio.charset.StandardCharsets; import java.util.concurrent.TimeoutException; public class RabbitConsumer { public static void main(String... args) throws IOException, TimeoutException { ConnectionFactory factory new ConnectionFactory(); factory.setHost("100.00.000.000"); factory.setPort(5672); factory.setUsername("name"); factory.setPassword("password"); Connection connection factory.newConnection(); createNewConnection(connection); } public static void createNewConnection(Connection connection) { try { Thread.sleep(1000); Channel channel connection.createChannel(); channel.basicQos(64); channel.basicConsume("queue01", false, new CustomConsumer(channel, connection)); } catch (Exception e) { // e.printStackTrace(); createNewConnection(connection); } } static class CustomConsumer implements Consumer { private final Channel channel; private final Connection connection; public CustomConsumer(Channel channel, Connection connection) { channel channel; connection connection; } @Override public void handleConsumeOk(String consumerTag) { } @Override public void handleCancelOk(String consumerTag) { } @Override public void handleCancel(String consumerTag) throws IOException { System.out.println("handleCancel"); System.out.println(consumerTag); createNewConnection(connection); } @Override public void handleShutdownSignal(String consumerTag, ShutdownSignalException sig) { System.out.println("handleShutdownSignal"); System.out.println(consumerTag); System.out.println(sig.getReason()); createNewConnection(connection); } @Override public void handleRecoverOk(String consumerTag) { } @Override public void handleDelivery(String consumerTag, Envelope envelope, AMQP.BasicProperties properties, byte[] body) throws IOException { String message new String(body, StandardCharsets.UTF8); System.out.println(" [x] Received '" + message + "'"); channel.basicAck(envelope.getDeliveryTag(), false); } } }
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        最佳实践
        节点重启后消费者如何重连
      • 版本发布记录
        本节介绍了版本发布记录。 版本号说明 分布式缓存服务Redis的版本号格式为:a.b.c.d,版本号具体含义如下。 a: 主版本号,代表大版本。 b: 次版本号。 c: 修订版本号。 d: 补丁版本号。 更新级别说明 更新级别分为LOW、MEDIUM和HIGH,不同更新级别说明如下。 LOW:一般级别,新增日常功能的版本。 MEDIUM:推荐级别, 除了包含新增日常功能外,还包含功能模块的优化。 HIGH:重要级别,除了包含新增日常功能,功能模块优化外,还包含影响稳定性或安全性的问题修复的重要升级。 小版本发布记录 表 Redis 7内核版本发布记录 版本号 更新级别 发布日期 类型 说明 7.2.11.0 HIGH 2025.12 缺陷修复 修复安全漏洞CVE202546819、CVE202546818、CVE202546817、CVE202549844。 7.2.10.0 HIGH 202510 缺陷修复 修复安全漏洞CVE202548367、CVE202532023、CVE202527151。 7.2.9.0 HIGH 20258 缺陷修复 修复安全漏洞CVE202521605。 7.2.8.1 HIGH 20257 功能优化 增强稳定性。 7.2.8.0 HIGH 20256 缺陷修复 修复CVE202446981安全漏洞。 修复CVE202451741安全漏洞。 表 Redis 6内核版本发布记录 版本号 更新级别 发布日期 类型 说明 6.2.20.0 HIGH 202512 缺陷修复 修复安全漏洞CVE202546819、CVE202546818、CVE202546817、CVE202549844。 6.2.19.0 HIGH 202510 缺陷修复 修复安全漏洞CVE202548367、CVE202532023。 6.2.17.2 HIGH 20258 缺陷修复 修复安全漏洞CVE202521605。 6.2.17.1 HIGH 20257 功能优化 增强稳定性。 6.2.17.0 HIGH 20256 缺陷修复 修复CVE202446981安全漏洞。 表 Redis 5内核版本发布记录 版本号 更新级别 发布日期 类型 说明 5.0.14.10 HIGH 202512 缺陷修复 修复安全漏洞CVE202546819、CVE202546818、CVE202546817、CVE202549844。 5.0.14.9 HIGH 202510 缺陷修复 修复安全漏洞CVE202548367、CVE202532023。 5.0.14.8 MEDIUM 20259 缺陷修复 修复stream类型删除时有可能导致节点崩溃的问题。 5.0.14.7 HIGH 20258 缺陷修复 修复安全漏洞CVE202521605。 5.0.14.6 HIGH 20257 功能优化 增强稳定性。 表 Redis 4内核版本发布记录 版本号 更新级别 发布日期 类型 说明 4.0.14.27 HIGH 202512 缺陷修复 修复安全漏洞CVE202546819、CVE202546818、CVE202546817、CVE202549844。 4.0.14.26 HIGH 202510 缺陷修复 修复安全漏洞CVE202548367、CVE202532023。 4.0.14.25 HIGH 20258 缺陷修复 修复安全漏洞CVE202521605。 4.0.14.24 HIGH 20257 功能优化 增强稳定性。 4.0.14.23 HIGH 20256 缺陷修复 修复CVE202446981安全漏洞。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品简介
        版本发布记录
      • 修改参数模板描述
        本节介绍了如何修改云数据库GaussDB 的参数模板描述。 操作场景 参数模板创建成功后,用户可根据需要对自己创建的参数模板描述进行修改。 默认参数模板的描述不可修改。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在“参数模板管理”页面的“自定义”页签,选择一个用户创建的参数模板,单击“描述”列 。 步骤 3 输入新的描述信息,单击 ,提交修改,单击 ,取消修改。 修改成功后,新的新描述信息,可在参数模板列表的“描述”列查看。 参数模板的描述长度不能超过256字符,且不能包含>!<"&'特殊字符。
        来自:
        帮助文档
        云数据库GaussDB
        用户指南
        参数模板管理
        修改参数模板描述
      • 实例回收站
        本节主要介绍实例回收站。 GeminiDB Redis支持将退订后的包年包月实例和删除的按需实例,加入回收站管理。您可以在回收站中重建实例恢复数据。 使用须知 回收站策略机制默认开启,且不可关闭,默认保留天数为1天,该功能免费。 目前回收站允许加入100个实例,超过该配额的实例将无法添加至回收站中。 当实例存储空间满时,删除之后的实例不会放入回收站。 设置回收站策略 注意 修改回收站保留天数,仅对修改后新进入回收站的实例生效,对于修改前已经存在的实例,仍保持原来的回收策略,请您谨慎操作。 登录云数据库GeminiDB控制台。 在“回收站”页面,单击“回收站策略”,设置已删除实例保留天数,可设置范围为1~7天。单击“确定”,完成设置。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        重启实例
        实例回收站
      • MySQL数据库报错1461错误
        本文介绍MySQL数据库报错1461错误的解决方法。 场景描述 MySQL当用户大批量进行并发读写、sql插入或者进行数据迁移等需要SQL预编译的情况下,报如下缓存的预编译SQL数量超过默认最大值: mysqlstmtprepare failed! error(1461)Can't create more than maxpreparedstmtcount statements (current value: 16382) 故障分析 maxpreparedstmtcount参数限制了同一时间在mysqld上所有session中prepared语句的上限。它的取值范围为"01048576",默认为16382。 mysql对于超出maxpreparedstmtcount的prepare语句就会报1461的错误。 解决方案 适当调大maxpreparedstmtcount参数的取值,建议调整为"65535" 。 可以通过控制台修改参数模板,或提交工单咨询。
        来自:
        帮助文档
        关系数据库MySQL版
        故障排查
        性能资源类
        MySQL数据库报错1461错误
      • 保护Always on Availability Groups模式下的SQL Server
        本章节介绍如何保护Always on Availability Groups模式下的SQL Server。 当前云主机备份只支持单个虚拟机的一致性备份,对于集群数据库暂不支持,完整支持将在后续版本中推出。 在Always On模式下,SQL Server服务在主备节点上都是启动的,数据由主复制到备,主上拥有全部的数据。故在创建云主机备份时,只需要将主节点加入策略进行备份。在主备发生切换后,及时调整策略,确保始终对主节点进行备份。 由于SQL Server自身的机制,在恢复主时,可能会触发同步,使备节点上的数据也被覆盖,导致备份时刻之后新产生的数据丢失,所以建议只有在主备节点均不可用时才进行整机恢复,防止非预期的数据丢失。
        来自:
        帮助文档
        云服务备份
        最佳实践
        通过自定义脚本实现数据库备份
        保护Always on Availability Groups模式下的SQL Server
      • 环境准备
        本文主要介绍分布式消息服务RabbitMQ所需的环境准备。 创建RabbitMQ实例前,您需要提前准备相关依赖资源,包括虚拟私有云(Virtual Private Cloud,以下简称VPC)、子网和安全组,并配置安全组策略。每个RabbitMQ实例都部署在某个VPC中,并绑定具体的子网和安全组,通过这样的方式为RabbitMQ提供一个隔离的、用户自主配置和管理的虚拟网络环境以及安全保护策略,提升实例的安全性。 如果用户已有VPC,可重复使用,不需要多次创建。 创建VPC 1、登录管理控制台。 2、在管理控制台右上角单击,选择区域。 说明 此处请选择与您的应用服务相同的区域。 3、在管理控制台左上角单击,选择“网络 > 虚拟私有云”。 4、单击“创建虚拟私有云”,进入“创建虚拟私有云”界面。 5、根据界面提示创建虚拟私有云。如无特殊需求,界面参数均可保持默认。关于创建VPC的详细信息可以参考《虚拟私有云用户指南》。 创建虚拟私有云时,会同时创建子网,若需要额外创建子网,请参考6。如果不需要额外创建子网,请执行7。 6、在左侧导航栏,单击“子网”,进入“子网”界面。单击“创建子网”。根据界面提示创建子网。如无特殊需求,界面参数均可保持默认。 关于创建子网的详细信息可以参考《虚拟私有云用户指南》。 7、在左侧导航栏,选择“访问控制 > 安全组”,进入“安全组”界面。根据界面提示创建安全组。如无特殊需求,界面参数均可保持默认。 关于创建安全组的详细信息可以参考《虚拟私有云用户指南》。 使用RabbitMQ实例前,添加表1所示安全组规则,其他规则请根据实际需要添加。 说明 创建安全组后,系统默认添加入方向“允许安全组内的弹性云主机彼此通信”规则和出方向“放通全部流量”规则,此时使用内网通过同一个VPC访问RabbitMQ实例,无需添加表1的规则。 表1 安全组规则 方向 协议 端口 源地址 说明 入方向 TCP 5672 0.0.0.0/0 访问RabbitMQ实例(关闭SSL) 入方向 TCP 5671 0.0.0.0/0 访问RabbitMQ实例(开启SSL) 入方向 TCP 15672 0.0.0.0/0 访问Web界面UI地址(关闭SSL加密) 入方向 TCP 15671 0.0.0.0/0 访问Web界面UI地址(开启SSL加密)
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        环境准备
      • 分布式缓存服务DCS支持的事件列表
        分布式缓存服务DCS支持的事件列表 事件名称 事件ID 事件级别 事件说明 处理建议 事件影响 在线迁移发生全量重试 migrationFullResync 次要 在线迁移在重试时,因无法进行增量同步,而触发了全量同步。 确认是否发生反复的全量重试,需要检查到源端的网络连接是否正常,是否源端压力过大。如果反复全量重试,联系运维人员处理。 迁移任务与源实例发生中断,重新触发了全量同步,可能导致源实例CPU冲高。 Redis主从倒换 masterStandbyFailover 次要 Redis主节点异常,触发主从倒换机制,备节点升主。 检查原主节点状态,修复异常节点。 无。 Memcached主从倒换 memcachedMasterStandbyFailover 次要 Memcached主节点异常,触发主从倒换机制,备节点升主。 检查业务是否自愈。如果应用未恢复,需要重启应用进行恢复。 实例长连接会中断。 Redis节点状态异常 redisNodeStatusAbnormal 重要 Redis节点状态异常。 检查业务是否受影响,如果影响联系运维人员处理。 节点状态异常,主节点异常会自动主备切换。从节点异常,如果客户端直连从节点进行读写分离,读操作会出现异常。 Redis节点状态恢复正常 redisNodeStatusNormal 重要 Redis节点从异常恢复正常。 检查业务是否恢复。如果应用未重连,需要重启应用进行恢复。 异常恢复事件。 数据迁移同步失败 migrateSyncDataFail 重要 执行在线迁移任务时,迁移任务失败。 重新配置迁移任务重试迁移。如果仍然失败,联系运维人员处理。 数据迁移失败。 Memcached实例状态异常 memcachedInstanceStatusAbnormal 重要 Memcached节点状态异常。 检查业务是否受影响,如果影响联系运维人员处理。 Memcached实例状态异常,实例可能无法访问。 Memcached实例状态异常恢复 memcachedInstanceStatusNormal 重要 Memcached节点从异常恢复正常。 检查业务是否恢复。如果应用未重连,需要重启应用进行恢复。 异常恢复事件。 实例备份失败 instanceBackupFailure 重要 DCS实例备份失败,一般可能是由于访问OBS失败等原因导致。 手动备份进行重试。 自动备份失败。 实例节点异常重启 instanceNodeAbnormalRestart 重要 一般是由于DCS实例节点异常后重启导致。 检查业务是否自愈。如果应用未恢复,需要重启应用进行恢复。 实例长连接会中断。 终止超时lua脚本 scriptsStopped 提醒 一般是由于lua脚本运行时间过长,自动终止脚本运行。 优化lua脚本,防止执行超时。 lua脚本执行时间超长,被强制中断。lua脚本执行时间过长,会阻塞整个实例。 节点自动重启 nodeRestarted 提醒 一般是由于lua脚本运行时间过长,并且已执行写操作,自动重启节点终止脚本运行。 检查业务是否自愈。如果应用未恢复,需要重启应用进行恢复。 实例长连接会中断。
        来自:
        帮助文档
        云监控服务
        用户指南
        事件监控
        事件监控支持的事件说明
        分布式缓存服务DCS支持的事件列表
      • 记录什么到日志
        loghostname (boolean) 默认情况下,连接日志消息只显示连接主机的IP 地址。打开这个参数将导致也记录主机名。注意根据你的主机名解析设置,这可能会导致很微小的性能损失。这个参数只能在postgresql.conf文件中或在服务器命令行上设置。 loglineprefix (string) 这是一个printf风格的字符串,它在每个日志行的开头输出。%字符开始“转义序列”,它将被按照下文描述的替换成状态信息。未识别的转义被忽略。其他字符被直接复制到日志行。某些转义只被会话进程识别并且被主服务器进程等后台进程当作空。通过指定一个在%之后和该选项之前的数字可以让状态信息左对齐或右对齐。 负值将导致在右边用空格填充状态信息已达到最小宽度,而正值则在左边填充。填充对于日志文 件的人类可读性大有帮助。这个参数只能在postgresql.conf文件中或在服务器命令行上设置。 默认值是'%m [%p] ',它记录时间戳和进程ID。转义效果只限会话%a应用名是%u用户名是%d数据库名是%r远程主机名或 IP 地址,以及远程端口是%h远程主机名或 IP 地址是%p进程 ID否%t无毫秒的时间戳否%m带毫秒的时间戳否%n带毫秒的时间戳(作为 Unix 时间戳)否%i命令标签:会话当前命令的类型是%eSQLSTATE 错误代码否%c会话 ID:见下文否%l对每个会话或进程的日志行号,从 1 开始否%s进程开始的时间戳否%v虚拟事务 ID (backendID/localXID)否%x事务 ID (如果未分配则为 0)否%q不产生输出,但是告诉非会话进程在字符串的这一点停止;会话进程忽略否%%纯文字 %否%c转义打印一个准唯一的会话标识符,它由两个 4 字节的十六进制数(不带先导零)组成,以点号分隔。这些数字是进程启动时间和进程 ID,因此%c也可以被用作保存打印这些项的方式的空间。例如,要从pgstatactivity生成会话标识符,使用这个查询:SELECT tohex(trunc(EXTRACT(EPOCH FROM backendstart))::integer) '.' tohex(pid) FROM pgstatactivity;提示如果你为loglineprefix设置了非空值,你通常应该让它的最后一个字符为空格,这样用以提供和日志行的剩余部分的视觉区别。也可以使用标点符号。提示Syslog产生自己的时间戳和进程 ID 信息,因此如果你记录到syslog你可能不希望包括哪些转义。提示包含仅在会话(后端)上下文(如用户或数据库名称)中可用的信息时, %q转义非常有用。例如:loglineprefix '%m [%p] %q%u@%d/%a '
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        错误报告和日志相关参数
        记录什么到日志
      • 参数配置
        本文介绍Redis修改实例配置参数 分布式缓存Redis缓存实例创建后,支持在控制台修改实例配置参数。修改Redis实例的配置参数可以对Redis的行为和性能进行调优和优化,以满足特定的需求。 前提条件 只有当分布式缓存Redis缓存实例处于“运行中”状态,才能执行此操作。 操作步骤 1. 登录 Redis管理控制台。 2. 在管理控制台左上角选择实例所在的区域。 3. 在实例列表页,单击目标实例名称进入实例详情管理。 4. 左侧菜单点击实例配置>参数配置,打开参数配置界面。 5. 点击修改按钮, 修改参数后点击保存,即可生效。 6. 实例参数配置支持导入导出,点击导入按钮可导入csv格式的参数配置文件,点击导出按钮会将当前实例参数配置导出为文件。 注意 修改以上默认实例配置会修改整个集群的实例配置,一般情况下,按照系统默认值设置参数即可,不建议修改。如您希望了解Redis更详细的参数说明,可参考Redis官方文档。 参数说明 参数名称 取值范围 说明 appendfsync no,always,everysec 操作系统的fsync函数刷新缓冲区数据到磁盘。 Redis支持三种不同的调用fsync的方式: no:不调用fsync,由操作系统决定何时刷新数据到磁盘,性能最高。 always:每次写AOF文件都调用fsync,性能最差,但数据最安全。 everysec:每秒调用一次fsync。兼具数据安全和性能。 appendonly yes,no 指定是否在每次更新操作后进行日志记录(即持久化功能),Redis在默认情况下是异步的把数据写入磁盘,如果不开启,可能会在断电时导致一段时间内的数据丢失。 有以下取值供选择: yes: 开启。 no: 关闭。 hashmaxziplistentries 1~10000 当hash表中只有少量记录时,使用有利于节约内存的的数据结构来对hashes进行编码。 hashmaxziplistvalue 1~10000 当hash表中最大的取值不超过预设阈值时,使用有利于节约内存的的数据结构来对hashes进行编码。 latencymonitorthreshold 0~86400000 延时监控的采样时间阀值(最小值),单位为毫秒。 阀值设置为0:不做监控,也不采样; 阀值设置为大于0:将记录执行耗时大于阀值的操作。 可以通过LATENCY等命令获取统计数据和配置、执行采样监控 luatimelimit 100~60000 Lua脚本的最长执行时间,单位为毫秒。 maxclients 1000~50000 最大同时连接的客户端个数。 maxmemorypolicy volatilelru,allkeyslru,volatilelfu,allkeyslfu,volatilerandom,allkeysrandom,volatilettl,noeviction 在达到内存上限(maxmemory)时实例将如何选择要删除的内容。有8个取值供选择: volatilelru:根据LRU算法删除设置了过期时间的键值。 allkeyslru:根据LRU算法删除任一键值。 volatilerandom:删除设置了过期时间的随机键值。 allkeysrandom:删除一个随机键值。 volatilettl:删除即将过期的键值,即TTL值最小的键值。 noeviction:不删除任何键值,只是返回一个写错误。 volatilelfu: 根据LFU算法删除设置了过期时间的键值。 allkeyslfu: 根据LFU算法删除任一键值。 protomaxbulklen 1048576~536870912 Redis协议中的最大的请求大小,单位为字节。 listcompressdepth 0~65535 列表中两端不被压缩的节点个数,取值范围0~65535。 0:默认值,表示都不压缩。 1~65535:表示list两端各有1~65535个节点不压缩,中间的节点压缩。 replbacklogsize 16384~1073741824 用于增量同步的复制积压缓冲区大小(单位为字节)。这是一个用来在从节点断开连接时,存放从节点数据的缓冲区,当从节点重新连接时,如果丢失的数据少于缓冲区的大小,可以用缓冲区中的数据开始增量同步。 replbacklogttl 0~604800 从节点断开后,主节点释放复制积压缓冲区内存的秒数。值为0时表示永不释放复制积压缓冲区内存。 repltimeout 30~3600 主从同步超时时间,单位为秒 setmaxintsetentries 1~10000 当一个集合仅包含字符串且字符串为在64位有符号整数范围内的十进制整数时,使用有利于节约内存的的数据结构对集合进行编码。 slowloglogslowerthan 0~1000000 用于设置Redis慢查询日志的阈值,单位是微秒。 slowlogmaxlen 100~10000 慢查询记录的条数。注意慢查询记录会消耗额外的内存。可以通过执行SLOWLOG RESET命令清除慢查询记录。 timeout 0~7200 客户端空闲N秒(timeout参数的取值)后将关闭连接。当N0时,表示禁用该功能。 zsetmaxziplistentries 1~10000 有序集合中只有少量记录时,使用有利于节约内存的的数据结构对有序序列进行编码。 zsetmaxziplistvalue 1~10000 当有序集合中的最大取值不超过预设阈值时,使用有利于节约内存的的数据结构对有序集合进行编码。 isopenflashback yes,no 是否开启闪回 isopendangercmdswitch yes,no 危险命令开关 hz 1~500 设置Redis后台任务执行频率,例如清除过期键任务。取值范围为1~500,默认值为10,即每秒执行10次。 aoftimestampenabled yes,no aof记录时间戳开关 activedefrag yes,no 自动清理内存碎片开关 activedefragignorebytes 104857600~10737418240 内存碎片占用空间达到设定值的时候开始清理 activedefragthresholdlower 10~100 内存碎片率大于设定值的时候开始清理 activedefragcyclemin 1~25 内存碎片清理所占用CPU时间的比例不低于设定值(%) activedefragcyclemax 1~25 内存碎片清理所占用CPU时间的比例不高于设定值(%) autoaofrewriteminsize 67108864~34359738368 设置自动重写AOF文件的最小值。注,当前运行值随规格变化,可不用关注默认值。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例配置管理
        参数配置
      • 生产消费验证
        本文介绍分布式消息服务RocketMQ入门指引的生产消费验证内容。 背景信息 RocketMQ的生产消费验证是指在使用RocketMQ进行消息生产和消费时的验证过程。具体而言,验证包括以下几个方面: 生产者验证:RocketMQ提供了丰富的生产者API,开发人员可以使用这些API将消息发送到RocketMQ的消息队列中。在验证阶段,可以通过发送消息并检查返回结果来确保消息成功发送到Broker节点。此外,生产者还应该验证消息的顺序性、事务性以及可靠性等方面。 消费者验证:RocketMQ的消费者可以订阅特定的消息主题,从而消费这些主题下的消息。在验证阶段,消费者应该能够正确地从Broker节点拉取消息并进行消费处理。消费者还可以验证消息的顺序性、重试机制以及消息过滤等功能。 操作步骤 1、 天翼云官网点击控制中心,选择产品分布式消息服务RocketMQ。 2、 登录分布式消息服务RocketMQ控制台,点击右上角地域选择对应资源池。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入Topic管理菜单,点击【拨测】按钮,进行生产消费的拨测验证,验证开通的消息实例和主题。 1)生产测试拨测: 选择消息类型,默认普通消息。 填写需要产生的测试消息数量,以及每条消息的大小,默认每条消息1KB,建议不超过4MB(4096KB)。 选择已建的消息主题,若无选项,请新增主题,详见上文创建主题和订阅组。 点击【测试】按钮,按照已填写规格及数量产生测试消息数据,展示消息数据的信息,包括消息ID(messageID)、发送状态、主题名(topic名)、Broker名、队列ID。 拨测功能涉及消息发送状态码,以下是RocketMQ消息发送状态码及其说明: ✧ SENDOK(发送成功):表示消息成功发送到了消息服务器。 ✧ FLUSHDISKTIMEOUT(刷新磁盘超时):表示消息已经成功发送到消息服务器,但是刷新到磁盘上超时。这可能会导致消息服务器在宕机后,尚未持久化到磁盘上的数据丢失。 ✧ FLUSHSLAVETIMEOUT(刷新从服务器超时):表示消息已经成功发送到消息服务器,但是刷新到从服务器上超时。这可能会导致主从同步不一致。 ✧ SLAVENOTAVAILABLE(从服务器不可用):表示消息已经成功发送到消息服务器,但是从服务器不可用。这可能是由于网络故障或从服务器宕机引起的。 ✧ UNKNOWNERROR(未知错误):表示发送消息时遇到了未知的错误。一般情况下建议重试发送消息。 ✧ MESSAGESIZEEXCEEDED(消息大小超过限制):表示消息的大小超过了消息服务器的限制。需要检查消息的大小是否合适。 ✧ PRODUCETHROTTLE(消息生产被限流):表示消息生产者的频率超出了消息服务器的限制。这可能是由于消息发送频率过高引起的。 ✧ SERVICENOTAVAILABLE(服务不可用):表示消息服务器不可用。这可能是由于网络故障或者消息服务器宕机引起的。 请注意,以上状态码仅适用于RocketMQ消息发送阶段,并且不代表消息是否成功被消费者接收。同时,这些状态码也可能因版本变化而有所不同,建议查阅官方文档获取最新信息。 2)消费测试拨测: 选择消息顺序,下拉选择无序/有序,默认选项为无序。 RocketMQ是一种开源的分布式消息中间件,它支持有序消息和无序消息。 ✧ 有序消息是指消息的消费顺序与发送顺序完全一致。在某些业务场景下,消息的处理需要保证顺序性,例如订单的处理或者任务的执行。RocketMQ提供了有序消息的支持,通过指定消息的顺序属性或使用消息队列的分区机制,可以确保消息按照指定的顺序进行消费。 ✧ 无序消息则是指消息的消费顺序与发送顺序无关。无序消息的特点是高吞吐量和低延迟,适用于一些不要求严格顺序的业务场景,如日志收集等。 在RocketMQ中,有序消息和无序消息的实现方式略有不同。有序消息需要借助MessageQueue的分区机制和消费者端的顺序消息消费来实现。而无序消息则是通过消息的发送和接收的并发处理来实现的。 总的来说,RocketMQ既支持有序消息也支持无序消息,根据业务需求选择合适的消息类型来满足业务的要求。 选择消费方式,目前仅提供pull方式。值得注意的是,RocketMQ还提供了推送(push)方式的消费模式,其中消息队列服务器会主动将消息推送给消费者。但在当前仅限于pull方式的消费模式。 填写消费数量。 下拉选择选择已建的消息主题和订阅组,若无选项,请新增主题和订阅组,详见上文创建主题和订阅组。 点击【测试】按钮,按照已填写规格及数量产生消费数据,展示消息数据的信息,包括消息ID(messageID)、主题名称(topicName)、生成时间、存储时间、队列ID、消费状态。 拨测功能涉及消息消费状态码,RocketMQ消费状态码是指在消息消费过程中,对消费结果进行标识的状态码。以下是常见的RocketMQ消费状态码: ✧ CONSUMESUCCESS(消费成功):表示消息成功被消费。 ✧ RECONSUMELATER(稍后重试):表示消费失败,需要稍后再次进行消费。 ✧ CONSUMEFAILURE(消费失败):表示消息消费出现异常或失败。 ✧ SLAVENOTAVAILABLE(从节点不可用):表示消费者无法访问从节点来消费消息。 ✧ NOMATCHEDMESSAGE(无匹配的消息):表示当前没有匹配的消息需要消费。 ✧ OFFSETILLEGAL(偏移量非法):表示消费的偏移量参数不合法。 ✧ BROKERTIMEOUT(Broker超时):表示由于Broker超时导致消费失败。 5、 用户应用按照规范接入RocketMQ,发送、消费消息。 1)生产者示例API 以下适用于南京3、上海7、重庆2、乌鲁木齐27、保定、石家庄20、内蒙6、晋中、北京5节点。 ctgmq引擎版本,SDK下载方式详见环境准备其他工具章节。 package com.ctg.guide; import com.ctg.mq.api.CTGMQFactory; import com.ctg.mq.api.IMQProducer; import com.ctg.mq.api.PropertyKeyConst; import com.ctg.mq.api.bean.MQMessage; import com.ctg.mq.api.bean.MQSendResult; import com.ctg.mq.api.exception.MQException; import com.ctg.mq.api.exception.MQProducerException; import java.util.Properties; / Producer,发送消息 / public class Producer { public static void main(String[] args) throws InterruptedException, MQException { Properties properties new Properties(); properties.setProperty(PropertyKeyConst.ProducerGroupName, "producergroup"); properties.setProperty(PropertyKeyConst.NamesrvAddr, "10.50.208.1:9876;10.50.208.2:9876;10.50.208.3:9876"); properties.setProperty(PropertyKeyConst.NamesrvAuthID, "app4test"); properties.setProperty(PropertyKeyConst.NamesrvAuthPwd, ""); properties.setProperty(PropertyKeyConst.ClusterName, "defaultMQBrokerCluster"); properties.setProperty(PropertyKeyConst.TenantID, "defaultMQTenantID"); IMQProducer producer CTGMQFactory.createProducer(properties);//建议应用启动时创建 int connectResult producer.connect(); if(connectResult ! 0){ return; } for (int i 0; i mqResultList) { //mqResultList 默认为1,可通过批量消费数量设置 for(MQResult result : mqResultList) { //TODO System.out.println(result); } return ConsumerTopicStatus.CONSUMESUCCESS;//对消息批量确认(成功) //return ConsumerTopicStatus.RECONSUMELATER;//对消息批量确认(失败) } }); } } 以下适用于华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3节点。 rocketmq引擎版本,SDK下载方式详见环境准备其他工具章节。 importorg.apache.rocketmq.client.consumer.DefaultMQPushConsumer; importorg.apache.rocketmq.client.consumer.listener.ConsumeConcurrentlyStatus; importorg.apache.rocketmq.client.consumer.listener.MessageListenerConcurrently; importorg.apache.rocketmq.client.exception.MQClientException; publicclassPushConsumer{ public static void main(String[] args) throws Exception{ AclClientRPCHook rpcHook newAclClientRPCHook(newSessionCredentials(ACCESSKEY, SECRETKEY)); DefaultMQPushConsumer consumer new DefaultMQPushConsumer(rpcHook); consumer.setConsumerGroup("ConsumerGroupName"); // 填入元数据地址 consumer.setNamesrvAddr("XXX:xxx"); ; //如果需要开启SSL,请增加此行代码 consumer.subscribe("YOUR TOPIC",""); consumer.registerMessageListener((MessageListenerConcurrently)(msgs, context)>{ System.out.printf("%s Receive New Messages: %s %n",Thread.currentThread().getName(), msgs); returnConsumeConcurrentlyStatus.CONSUMESUCCESS; }); consumer.start(); System.out.printf("Consumer Started.%n"); } } 示例参数说明: Namesrv地址 Namesrv地址可从控制台查看,多个地址按分号分隔。 应用用户和密码 这个应用用户和密码就是控制台创建的应用用户和密码。 租户id和集群名 集群名和租户id可以从应用用户管理查询。 订阅组 消费组名需要在控制台提前创建好。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        快速入门
        生产消费验证
      • 查看集群服务配置
        本章节主要介绍翼MR Manager的集群服务配置的查看操作。 操作步骤 1. 登录翼MR管理控制台。 2. 单击“我的集群”,单击指定的集群名称,进入集群信息页面。 3. 单击“翼MR Manager”tab,单击“前往翼MR Manager”。 4. 进入到翼MR Manager以后,单击菜单“集群服务”,进入集群服务列表页面。 5. 选择指定集群服务,单击集群服务名称进入集群服务详情页面。 6. 单击“配置管理”tab,即可查看该集群服务的所有配置。如图所示: 7. 对于隐私配置项,默认将加密展示,点击文本框右侧查看按钮,输入配置主密码即可查看。如果当前集群开通后未设置过主密码,请参考用户手册的配置管理主密码设置,设置主密码后,进行查看。 说明运维变量配置 在服务的default分组下,以vars.yaml后缀结尾的配置文件,为运维变量配置文件。运维变量配置文件不是服务本身的配置文件,而是存放Manager运维操作变量的文件,每个运维变量的含义如下表。 组件 运维变量名 是否建议修改 含义说明 HDFS activenamenode 否 部署时使用,在这台机器上执行format操作。 HDFS kdcmaster 否 部署和扩容时使用,kerberos的master节点,用于创建keytab文件。 HDFS ldapGuestPassword 否 部署和扩容时使用,连接ldap的guest用户密码,此权限只能查看用户,不能创建用户。 HDFS ldapuri 否 部署和扩容时使用,配置ldap的连接地址。 HDFS dfsclusterId 否 部署时使用,ns的默认值。 HDFS pipelinejobretrytimes 是 流水线重试次数。 HDFS jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 YARN 无 共享HDFS运维变量。 ZooKeeper kerberosRealm 否 部署时使用,配置kerberos的realm的信息。 ZooKeeper kdcmaster 否 部署和扩容时使用,kerberos的master节点,用于创建keytab文件。 ZooKeeper zksuperuser 否 部署和扩容时使用,配置zk的超级用户。 ZooKeeper zksuperuserpasswd 否 部署和扩容时使用,配置超级用户的密码。 ZooKeeper componentuser 否 暂未使用。 ZooKeeper dataLogDir 否 部署时使用,需要通过ansbile创建目录。 ZooKeeper dataDir 否 部署时使用,需要通过ansbile创建目录。 Kerberos kerberosRealm 否 部署时使用,配置kerberos的realm的信息。 Kerberos kdcmaster 否 部署时使用,指定master节点,执行master节点的操作。 Kerberos kdcslave 否 部署时使用,指定slave节点,执行slave节点的操作。 Kerberos kerberosdatabasepasswd 否 部署时使用,配置kerberos的数据库密码。 Kerberos kerberosadminuser 否 部署时使用,配置kerberos的admin用户。 Kerberos kerberosadminpasswd 否 部署时使用,配置kerberos的admin用户密码。 OpenLDAP ldapmasterhostname 否 部署时使用,指定master节点,执行master节点的操作。 OpenLDAP ldapslavehostname 否 部署时使用,指定slave节点,执行slave节点的操作。 OpenLDAP olcRootDN 否 部署时使用,服务配置。 OpenLDAP olcSuffix 否 部署时使用,服务配置。 OpenLDAP ldapAdminPwd 否 部署时使用,admin用户的密码。 OpenLDAP ldapGuestPwd 否 部署时使用,guest用户的密码。 OpenLDAP ldapuri 否 部署时使用,ldap的连接信息。 OpenLDAP ldapBaseUgDN 否 部署时使用,服务配置。 OpenLDAP pipelinejobretrytimes 是 流水线重试次数。 OpenLDAP jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 HBase kdcmaster 否 部署和扩容时使用,kerberos的master节点,用于创建keytab文件。 HBase pipelinejobretrytimes 是 流水线重试次数。 HBase jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Spark kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Spark ldapmaster 否 部署时使用,ldap的master节点。 Spark eventlogdir 否 部署时使用,通过ansible创建目录。 Spark sparkhome 否 部署时使用,通过ansible创建目录。 Hive kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Hive ldapmaster 否 部署时使用,ldap的master节点。 Hive databasepass 否 部署时使用,hive使用的数据库密码,需要用户填写。 Kafka kdcmaster 否 部署和扩容时使用,kerberos的master节点,用于创建keytab文件。 Kafka kerberosrealm 否 kerberos的realm的信息。 Kafka logdirs 否 (目前不再使用,通过从配置文件中渲染来创建目录)部署和扩容时使用,通过ansible创建目录。 Kafka pipelinejobretrytimes 是 流水线重试次数。 Kafka jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Kyuubi kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Kyuubi ldapmaster 否 部署时使用,ldap的master节点。 Kyuubi kyuubilogdir 否 目录。部署时使用,通过ansible创建。 Kyuubi kyuubieventlogdir 否 目录。部署时使用,通过ansible创建。 Kyuubi kyuubiworkdir 否 目录。部署时使用,通过ansible创建。 Kyuubi adminuser 否 目录的属主。 Kyuubi usergroup 否 目录的属组。 Kyuubi pipelinejobretrytimes 是 流水线重试次数。 Kyuubi jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Flink kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Flink ldapmaster 否 部署时使用,ldap的master节点。 Flink logDir 否 目录。部署时使用,通过ansible创建。 Flink HistoryServerDir 否 目录。部署时使用,通过ansible创建。 Flink pipelinejobretrytimes 是 流水线重试次数。 Flink jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Elasticsearch CERTNODE 否 部署时使用,指定证书节点,在节点上执行生成证书的操作。 Elasticsearch ESDATADIRS 否 目录。部署时使用,通过ansible创建。 Elasticsearch ESDEFAULTPASSWORD 否 部署时使用。默认的密码,随机密码。 Doris FEDEFAULTLEADERHOSTNAME 否 部署和扩容时使用,指定leader节点,在上面执行leader的相关操作。 Doris FEDEFAULTPASSWORD 是 部署时随机生成的Doris组件root密码。节点扩容需要使用该密码,如用户已修改,需要设置正确的值,否则会影响扩容操作。 Doris FEHTTPPORT 否 服务端口,不推荐修改。 Doris FEQUERYPORT 否 服务端口,不推荐修改。 Doris FEEDITLOGPORT 否 服务端口,不推荐修改。 Doris BESTORAGEROOTPATH 否 服务端口,不推荐修改。 Doris BEHEARTBEATSERVICEPORT 否 服务端口,不推荐修改。 Doris BROKERIPCPORT 否 服务端口,不推荐修改。 Trino datadir 否 目录。部署和扩容时使用,通过ansible创建。 Trino kerberosrealm 否 kerberos的realm的信息。 Trino kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Trino ldapmaster 否 部署时使用,ldap的master节点。 Trino coordinator 否 部署和扩容时使用,指定主节点,在上面执行主节点的相关操作。 Trino uiuser 否 ui的用户。 Trino uipassword 否 ui的密码,部署时随机生成。 Trino serveruser 否 server的用户。 Trino serverpassword 否 server的密码,部署时随机生成。 Trino pipelinejobretrytimes 是 流水线重试次数。 Trino jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Ranger dbhost 否 外置数据库信息,需要用户填写。 Ranger dbname 否 外置数据库信息,需要用户填写。 Ranger dbuser 否 外置数据库信息,需要用户填写。 Ranger dbpassword 否 外置数据库信息,需要用户填写。 Ranger dbrootuser 否 部署时使用,ranger使用的外置数据库信息。 Ranger dbrootpassword 否 部署时使用,ranger使用的外置数据库信息。 Ranger rangerpassword 否 ranger admin用户密码。 Ranger SYNCLDAPBINDPASSWORD 否 部署时使用,ranger访问ldap的密码。 Ranger SYNCSOURCE 否 用户同步方式,ldap。 Ranger kerberosrealm 否 kerberos的realm的信息。 Ranger kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Ranger SYNCLDAPURL 否 ldap相关信息。 Ranger POLICYMGRURL 否 ranger admin url信息。 Ranger separatedbamode 否 是否单独执行DBA,默认true,表示需要提前创建ranger使用的数据库和用户,并授权,不推荐修改。 Ranger pipelinejobretrytimes 是 流水线重试次数。 Ranger jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Knox kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Logstash pipelinejobretrytimes 是 流水线重试次数。 Logstash jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 JeekeFS kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 KafkaUI kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 KafkaUI ldapGuestPassword 否 部署时使用,Openldap的guest用户密码。 Pushgateway PUSHGATEWAYPASSWORD 否 部署时使用,Pushgateway服务的密码。 Pushgateway PUSHGATEWYUSERNAME 否 部署时使用,Pushgateway服务的用户名。 TezUI pipelinejobretrytimes 是 流水线job最大重试次数。 TezUI jobretrybasedonpipelinetypes 否 基于的流水线类型。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        翼MR Manager操作指导
        集群服务
        查看集群服务配置
      • 新建汇总表
        本章节主要介绍新建汇总表。 汇总逻辑表是由一个特定的分析对象(如会员)及其相关的统计指标组成的。组成一个汇总逻辑表的统计指标都具有相同的统计粒度(如会员),汇总逻辑表面向用户提供了以统计粒度(如会员)为主题的所有统计数据(如会员主题集市)。 汇总表分为“手工创建”和“自动汇聚”,此处仅描述手工创建场景。 说明 如果在“数据架构 > 配置中心 > 功能配置”页面中开启了“模型设计业务流程步骤 > 创建数据开发作业”(默认为关闭),发布汇总表时,系统将在数据开发中自动创建一个数据开发作业,作业名称以“ 数据库名称表编码 ”开头。您可以进入“数据开发 > 作业开发”页面查看作业。该作业默认没有调度配置,需要您自行在数据开发模块中设置。 前提条件 在创建汇总表之前,请先确认您已完成维度、维度表、事实表和衍生指标/复合指标的新建、发布与审核。 新建汇总表并发布 1. 在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据架构”模块,进入数据架构页面。 2. 在数据架构控制台,单击左侧导航树中的“维度建模”,然后选择“汇总表”页签。 3. 在左侧主题目录中选中一个主题,然后单击“新建”按钮,开始创建汇总表。 4. 在“新建汇总表”页面,完成如下配置: a. 设置“基本配置”参数: 下表为基本配置参数说明 参数说明 说明 所属主题 单击“选择主题”,选择表所属的主题域分组、主题域和业务对象。 表名称 设置表名称。只能包含中文、英文字母、数字、左右括号、中划线和下划线,且以中文和英文字母开头。 表英文名称 设置表英文名称。只能包含英文字母、数字和下划线,且以英文字母开头。 统计维度 选择统计维度。在下拉列表中只会显示来源于衍生指标的统计维度。如果下拉列表中没有统计维度,请参考新建维度进行创建。 当汇总表完成新建后,“统计维度”指定的维度的所有维度属性,都将被自动添加到汇总表中,成为汇总表中的字段。您可以在完成汇总表的新建后,进入汇总表页面,单击汇总表名称查看详情中的表字段信息。 数据连接类型 请选择和维度表、事实表相同的数据连接类型。 数据连接 维度建模建议使用统一的数据连接。 数据库 选择数据库。 队列 DLI队列。该参数仅DLI连接类型有效。 Schema DWS或POSTGRESQL的模式。该参数在DWS或POSTGRESQL连接类型有效。 表类型 DWS连接类型的表支持以下表类型: DWSROW:行存表。行存储是指将表按行存储到硬盘分区上。 DWSCOLUMN:列存表。列存储是指将表按列存储到硬盘分区上。 MRSHIVE仅支持HIVETABLE类型。 DISTRIBUTE BY 该参数仅DWS连接类型有效。DWS表当前支持复制(Replication)和散列(Hash)两种分布策略。用户可选取多个字段。 REPLICATION方式:在每一个DN节点上存储一份全量表数据。这种存储方式的优点是每个DN上都有此表的全量数据,在join操作中可以避免数据重分布操作,从而减小网络开销;缺点是每个DN都保留了表的完整数据,造成数据的冗余。一般情况下只有较小的维度表才会定义为Replication表。 HASH方式:采用这种分布方式,需要为用户表指定一个分布列(distribute key)。当插入一条记录时,系统会根据分布列的值进行hash运算后,将数据存储在对应的DN中。对于Hash分布表,在读/写数据时可以利用各个节点的IO资源,大大提升表的读/写速度。一般情况下大表(1000000条记录以上)定义为Hash表。 资产责任人 在下拉框中选择资产责任人,可以手动输入名字或直接选择已有的责任人。 描述 描述信息。支持的长度为1~600个字符。 b. 在“时间分区”区域,输入字段编码以及选择数据类型。当表发布成功后,在往表里写数据时,将根据该时间分区字段进行分区。 c. 在“指标配置”区域,单击“添加”,可以添加一个或多个与所指定的“统计维度”相关联的衍生指标或复合指标。 5. 单击“发布”,并在弹出框中单击“确认提交”,提交审核。 6. 请联系审核人员审核汇总表,等待审核通过。 审核通过后,汇总表就会在数据库中自动创建。 7. 返回“维度建模 > 汇总表”页面,在列表中找到刚发布的汇总表,在“同步状态”一列中可以查看汇总表的同步状态。 − 如果同步状态均显示成功,则说明汇总表发布成功,汇总表在数据库中已创建成功。 − 如果同步状态中存在失败,可单击该汇总表所在行的“更多 > 发布历史”,然后在展开的页面中进入“发布日志”页签查看日志。请根据错误日志定位失败原因,问题解决后,您可以在汇总表页面勾选该汇总表,再单击列表上方的“更多 > 同步”尝试重新同步。如果问题仍未能解决,请联系技术支持人员协助处理。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        数据集市建设
        新建汇总表
      • 大Key/热Key分析
        类别 影响 大Key 造成规格变更失败。 Redis集群变更规格过程中会进行数据rebalance(节点间迁移数据),单个Key过大的时候会触发Redis内核对于单Key的迁移限制,造成数据迁移超时失败,Key越大失败的概率越高,大于512MB的Key可能会触发该问题。 大Key 造成数据迁移失败。 数据迁移过程中,如果一个大Key的元素过多,则会阻塞后续Key的迁移,后续Key的数据会放到迁移机的内存Buffer中,如果阻塞时间太久,则会导致迁移失败。 大Key 容易造成集群分片不均的情况。 各分片内存使用不均。例如某个分片占用内存较高甚至首先使用满,导致该分片Key被逐出,同时也会造成其他分片的资源浪费。 各分片的带宽使用不均。例如某个分片被频繁流控,其他分片则没有这种情况。 大Key 客户端执行命令的时延变大。 对大Key进行的慢操作会导致后续的命令被阻塞,从而导致一系列慢查询。 大Key 导致实例流控。 对大Key高频率的读会使得实例出方向带宽被打满,导致流控,产生大量命令超时或者慢查询,业务受损。 大Key 导致主备倒换。 对大Key执行危险的DEL操作可能会导致主节点长时间阻塞,从而导致主备倒换。 热Key 容易造成集群分片不均的情况。 造成热Key所在的分片有大量业务访问而同时其他的分片压力较低。这样不仅会容易产生单分片性能瓶颈,还会浪费其他分片的计算资源。 热Key 使得CPU冲高。 对热Key的大量操作可能会使得CPU冲高,如果表现在集群单分片中就可以明显地看到热Key所在的分片CPU使用率较高。这样会导致其他请求受到影响,产生慢查询,同时影响整体性能。业务量突增场景下甚至会导致主备切换。 热Key 易造成缓存击穿。 热Key的请求压力过大,超出Redis的承受能力易造成缓存击穿,即大量请求将被直接指向后端的数据库,导致数据库访问量激增甚至宕机,从而影响其他业务。
        来自:
        帮助文档
        分布式缓存服务Redis版
        常见问题
        大Key/热Key分析
      • Kafka消费者poll的优化
        运行结果 上面的示例代码中,消费者线程会循环调用 poll()方法来拉取消息,并对拉取到的消息进行处理。在处理消息时,示例代码只是简单地打印了消息的值。 因此,示例代码的响应结果将是每个消费者线程在拉取到消息时打印出消息的值。具体的响应结果将取决于你所消费的Kafka主题中的消息内容。 例如,假设你的Kafka主题中有以下两条消息: 1. Key: null, Value: "Hello, Kafka!" 2. Key: null, Value: "How are you?" 当消费者线程拉取到这两条消息时,它们将会打印如下的响应结果: Received message: Hello, Kafka! Received message: How are you? 请注意,示例代码中的打印语句只是简单地将消息值输出到控制台。在实际应用中,你可以根据需要对消息进行进一步的处理,比如将消息存储到数据库、执行业务逻辑等操作。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Kafka消费者poll的优化
      • 变更配置
        本节介绍了变更云数据库TaurusDB的变更配置。 规格变更 变更TaurusDB实例规格:您可以根据业务需求变更TaurusDB实例规格,变更后即刻按照变更后的实例规格的价格计费。 扩容存储空间:您可以根据业务需求增加您的存储空间,扩容后即刻按照新的存储空间计费。您需要注意的是存储空间只允许扩容,不能缩容。您每次扩容的最小容量为10GB。 变更计费 如需更改计费方式,请参考包周期实例转按需和按需实例转包周期章节进行计费方式转换。 支持单个包周期(包年/包月)实例转为按需实例,但需要包周期到期后按需计费才会生效。 支持单个按需实例转为包周期(包年/包月)实例,长期使用资源的推荐包周期计费,可享受优惠。
        来自:
        帮助文档
        云数据库TaurusDB
        计费说明
        变更配置
      • 高级配置
        本节为您介绍云迁移服务CMS中数据库迁移工具高级配置相关内容。 1. 在迁移对象过滤界面,点击”高级配置”, 可对要迁移的表进行高级配置。 2. 在高级配置页面,可点击”批量配置”按钮,对选择的表进行批量配置,也可以点击对应表后面的配置按钮,进行单表配置,详情如下: 3. 点击对应表后面的配置按钮,进行针对单表进行高级配置详情如下: 4. 可点击”批量配置”按钮,针对多表进行高级配置详情如下: 说明 该高级配置功能,主要是对表、字段进行映射数据过滤
        来自:
        帮助文档
        云迁移服务CMS
        最佳实践
        数据库全流程迁移演示
        高级配置
      • 只读节点简介
        本页介绍了文档数据库服务的副本集、集群版只读节点。 为了扩展副本集、集群版实例在读业务上的能力,为副本集、集群版规格实例类型扩展只读从节点,其具备单独的连接地址,方便为只读业务及帐号授权,缓解主节点压力。 特点 提升副本集、集群版实例的读能力。 规格、存储等均与副本集主节点、集群版shard节点保持一致。 增加只读节点后,数据自动同步。 限制 仅支持副本集实例、集群版实例扩展只读节点,都具有独立连接地址。 仅支持只读节点在0~5个内的增加,还不支持缩减只读节点。 仅提供读请求,副本集只读节点、集群版只读节点不参与投票选举主节点,不会被选举为主节点。 主节点和只读从之间的数据同步为异步,存在时延。
        来自:
        帮助文档
        文档数据库服务
        产品介绍
        实例说明
        只读节点简介
      • 1
      • ...
      • 225
      • 226
      • 227
      • 228
      • 229
      • ...
      • 289
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      训推服务

      模型推理服务

      应用托管

      科研助手

      一站式智算服务平台

      推荐文档

      产品变更

      产品功能

      恢复文件和文件夹备份

      变更实例的CPU和内存规格

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号