云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      对象存储(经典版)I型_相关内容
      • 截屏换封面
        响应参数 参数 是否必填 参数类型 说明 示例 下级对象 code 是 Integer 本次请求的结果码。 0 message 是 String 错误文本信息,创建成功时,为空字符串。 "" data 是 Object 返回数据。 data 表 data 参数 是否必填 参数类型 说明 示例 下级对象 coverUrl 是 String 新封面访问地址 请求示例 请求体body json { "videoId": "34c71dbaf2804f5ea05ff4daed837fef", "time": 0, "quality": 2, "width": 1024, "height": 768, "useDefaultWatermarkTemplate": true, "watermarkTemplate": 100000000003 } 响应示例 json { "code": 0, "message": "", "data":{ "coverUrl":" } } 状态码 Http 状态码 状态码信息 状态码描述 0 表示业务成功 表示业务成功 400 请求参数有误 请求参数有误 403 用户鉴权失败,用户无操作权限 用户鉴权失败,用户无操作权限 404 请求的资源不存在,输入错误的URL 请求的资源不存在,输入错误的URL 500 业务执行异常 业务执行异常
        来自:
        帮助文档
        云点播
        API参考
        API
        点播模式API
        截屏换封面
      • json应用
        本文为您介绍json应用的相关操作。 创建json 类型字段表 plaintext teledb create table tjson(id int,fjson json); CREATE TABLE 插入数据 plaintext teledb insert into tjson values(1,'{"col1":1,"col2":"teledb"}'); INSERT 0 1 teledb insert into tjson values(2,'{"col1":1,"col2":"teledb","col3":"pgxz"}'); INSERT 0 1 teledb select from tjson; id fjson + 1 {"col1":1,"col2":"teledb"} 2 {"col1":1,"col2":"teledb","col3":"pgxz"} (2 rows) 通过键获得json对象域 plaintext teledb select fjson >'col2' as col2 ,fjson > 'col3' as col3 from tjson; col2 col3 + "teledb" "teledb" "pgxz" (2 rows) 以文本形式获取对象值 plaintext teledb select fjson >>'col2' as col2 ,fjson >> 'col3' as col3 from tjson; col2 col3 + teledb teledb pgxz (2 rows) teledb select fjson >>'col2' as col2 ,fjson >> 'col3' as col3 from tjson where fjson >> 'col3' is not null; col2 col3 + teledb pgxz (1 row)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V2.0.0版本产品文档
        开发手册
        数据库基础开发
        json和jsonb使用
        json应用
      • 更新别名
        接口功能介绍 更新密钥别名 接口约束 请保证账户余额大于0 URI POST /v1/keyName/updateAlias 路径参数 无 Query参数 无 请求参数 请求头header参数 请参见请求消息头 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 cmkUuid 是 String 密钥唯一标识id 474e569e8814474a948bdbcf6d853eff aliasName 是 String 要更新的别名 abc 响应参数 参数 参数类型 说明 示例 下级对象 code String 返回码,取值范围: 200:成功 400:参数缺失或错误 401:用户验证错误 404:操作目标不可用 500:系统内部错误 200 errorCode String 错误码 KMS.0514 msg String 调用结果信息 更新别名成功 data Object 接口返回结果 null 请求示例 请求头header plaintext { "ContentType": "application/json", "requestDate": "20221101T154654Z", "ctyuneoprequestid": "89bf1559a96e4bc998fc394d169a42e4", "EopAuthorization":"91ef73a6329545c294be1d5c763bdf7e Headersctyuneoprequestid;eopdate Signature2mc3zggaqLEGTSVy2H8lWsFEm+BNJf0CrcomDSOxPfc", "regionId":"60a39fca876e11ea91cf0242ac110002" } 请求体body plaintext { "cmkUuid":"474e569e8814474a948bdbcf6d853eff", "aliasName":"ask" }
        来自:
        帮助文档
        密钥管理
        API参考(OpenAPI)
        API
        密钥管理接口
        别名管理
        更新别名
      • 配置Kafka之间的数据复制
        本节介绍如何配置Kafka之间的数据复制。 本章节介绍如何创建Kafka数据复制的Smart Connect任务,通过Smart Connect任务可以在两个Kafka实例之间,实现数据的单向或双向复制。 源Kafka实例中的数据会实时同步到目标Kafka实例中。 约束与限制 一个实例最多创建18个Smart Connect任务。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 Smart Connect任务创建成功后,不支持修改任务参数。 确保目标Kafka实例Topic的“批处理消息最大值”大于等于524288字节,否则会导致数据无法同步。如果目标Kafka实例没有创建Topic,在数据同步时会自动创建Topic,此Topic的“批处理消息最大值”和源Kafka实例Topic相同,此时需要确保源Kafka实例Topic的“批处理消息最大值”大于等于524288字节。修改“批处理消息最大值”的方法请参考修改Kafka Topic配置。 前提条件 已开启Smart Connect。 已创建Kafka实例,且实例状态为“运行中”。 配置Kafka间的数据复制 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、单击Kafka实例名称,进入实例详情页面。 5、在左侧导航栏单击“Smart Connect”,进入Smart Connect任务列表页面。 6、单击“创建Smart Connect任务”,进入“创建smart connect”页面。 7、在“connect任务名称”中,输入Smart Connect任务的名称,用于区分不同的Smart Connect任务。任务名称需要符合命名规则:长度为4~64个字符,只能由英文字母、数字、中划线、下划线组成。 8、在“预置类型”中,选择“Kafka数据复制”。 9、在“当前kafka”区域,设置实例别名。实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“推送”/“双向”时,当前Kafka实例的别名作为前缀添加到对端Kafka实例的Topic名称前,形成Topic新的名称。例如当前Kafka实例别名为A,对端Kafka实例的Topic名称为test,重命名后的Topic为A.test。 Kafka数据复制的Smart Connect任务创建成功后,当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 10、在“对端kafka”区域,设置以下参数。 表11 对端Kafka实例参数说明 参数 参数说明 实例别名 设置实例别名,实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“拉取”/“双向”时,对端Kafka实例的别名作为前缀添加到当前Kafka实例的Topic名称前,形成Topic新的名称。例如对端Kafka实例别名为B,当前Kafka实例的Topic名称为test01,重命名后的Topic为B.test01。 Kafka数据复制的Smart Connect任务创建成功后,如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 配置类型 支持以下两种配置类型: Kafka地址:输入Kafka实例的连接信息。对端Kafka实例和当前Kafka实例处于不同的VPC下时,请选择此配置类型。 实例名称:选择已创建的Kafka实例。对端Kafka实例和当前Kafka实例处于相同的VPC下时,建议选择此配置类型。 实例名称 “配置类型”为“实例名称”,且对端Kafka实例和当前Kafka实例处于相同的VPC下时,需要设置。 在下拉列表中,选择已创建的Kafka实例。 Kafka地址 “配置类型”为“Kafka地址”时,需要设置。 输入Kafka实例的连接地址和端口号。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 认证方式 支持以下认证方式: SASLSSL:表示实例已开启SASLSSL认证,客户端连接Kafka实例时采用SASL认证,数据通过SSL证书进行加密传输。 SASLPLAINTEXT:表示实例开启SASLPLAINTEXT认证,客户端连接Kafka实例时采用SASL认证,数据通过明文传输。 PLAINTEXT:表示实例未开启认证。 认证机制 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 SCRAMSHA512:采用哈希算法对用户名与密码生成凭证,进行身份校验的安全认证机制,比PLAIN机制安全性更高。 PLAIN:一种简单的用户名密码校验机制。 用户名 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的用户名,或者创建用户时设置的用户名。 密码 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的密码,或者创建用户时设置的密码。 Smart Connect任务创建成功后,如果您修改了对端实例的认证方式、认证机制或者密码,会导致同步任务失败。 您需要删除当前Smart Connect任务,然后重新创建新的Smart Connect任务。 11、在“规则配置”区域,设置以下参数。 表12 复制数据规则参数说明 参数 参数说明 同步方式 支持以下三种同步方式: 拉取:把对端Kafka实例数据复制到当前Kafka实例中。 推送:把当前Kafka实例数据复制到对端Kafka实例中。 双向:两端Kafka实例数据进行双向复制。 Topics 设置需要进行数据复制的Topic。 正则表达式:通过正则表达式匹配Topic。 输入/选择:输入Topic名称,如果需要输入多个Topic名称,先输入一个Topic名称,按“Enter”,然后再输入下一个,按“Enter”,依次输入。或者在下拉列表中,选择Topic。最多输入/选择20个Topic。 Topic名称以internal结尾时(例如:topic.internal),此Topic的数据不会被同步。 任务数 数据复制的任务数。默认值为2,建议保持默认值。 如果“同步方式”为“双向”,实际任务数设置的任务数2。 重命名 Topic 在目标Topic名称前添加源端Kafka实例的别名,形成目标Topic新的名称。例如源端实例别名为A,目标Topic名称为test,重命名后的目标Topic为A.test。 两端实例数据双向复制时,开启“重命名Topic”,防止循环复制。 添加来源header 目标Topic接收复制的消息,此消息header中包含消息来源。 两端实例数据双向复制时,默认开启“添加来源header”,防止循环复制。 同步消费进度 开启“同步消费进度”后,将消费者消费进度同步到目标Kafka实例。 开启“同步消费进度”后,您需要注意以下几点: 源端Kafka实例和目标端Kafka实例不能同时消费,否则会导致同步的消费进度异常。 同步消费进度的频率为每分钟一次,因此会导致目标端的消费进度可能会略小于源端,造成部分消息被重复消费,所以需要消费者客户端业务逻辑兼容重复消费的场景。 从源端同步的offset与目标端的offset并非一致关系,而是映射关系,如果消费进度由消费者客户端自行维护,消费者客户端从消费源端Kafka实例变为消费目标端Kafka实例后,不向目标端Kafka实例获取消费进度,可能会导致offset错误或消费进度重置。 副本数 在对端实例中自动创建Topic时,指定Topic的副本数,此参数值不能超过对端实例的代理数。 如果对端实例中设置了“default.replication.factor”,此参数的优先级高于“default.replication.factor”。 启动偏移量 支持两种偏移量: 最早:最小偏移量,即获取最早的数据。 最新:最大偏移量,即获取最新的数据。 压缩算法 复制消息所使用的压缩算法。 topic映射 通过Topic映射,您可以自定义目标端Topic名称。 最多新增20个Topic映射。不能同时设置“重命名Topic”和“topic映射”。 配置复制数据规则时需要注意以下几点: 创建双向数据复制任务时,为了防止循环复制,控制台限定必须开启“重命名Topic”或者“添加来源header”。如果您在两个实例间,对同一个Topic分别创建拉取和推送的任务,即形成双向数据复制,且两个任务都未开启“重命名Topic”和“添加来源header”,此时会导致数据循环复制。 如果创建两个或以上配置完全相同的任务,即重复创建任务,且任务已开启“同步消费进度”,此时会导致数据重复复制,且目标Topic消费进度异常。 12、(可选)在页面右下角单击“开始检测”,测试两端Kafka实例的连通性。 显示“连通性检测成功”时,表示两端Kafka实例可以正常连接。 13、单击“立即创建”,跳转到Smart Connect任务列表页面,页面右上角显示“创建xxx任务成功”。 Kafka数据复制的Smart Connect任务创建成功后,Kafka会自动创建以下Topic。 当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 如果Smart Connect任务开启了“同步消费进度”功能,“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“ 当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        配置Kafka之间的数据复制
      • 监控与报警
        操作步骤 1. 在云监控控制台左侧导航栏,点击“告警规则”,再点击右上角“创建告警规则”。 2. 选择监控对象和监控指标,填写规则信息,点击“确定”即可创建告警规则。 配置参数如下: 步骤类别 参数 参数说明 选择监控对象 规则类型 选择指标监控:对数据指标进行监控。 云服务 选择内网DNS监控。 维度 选择权威域名。 监控对象类型 选择具体实例或资源分组。 选择监控指标 选择类型 可以选择从模板导入或自定义创建。 模板 选择需要导入的模板。 监控指标 选择需要监控的数据指标。 策略 可以选择原始值、平均值、最大值、最小值。 聚合周期 选择数据聚合的周期。 出现次数 选择出现多少次触发通知。 发送通知 配置是否发送邮件通知用户,可以选择“是”或者“否”,推荐选择“是”。 选择告警联系组 配置发生告警通知的用户组。 重复告警 告警发生后,如果监控项未恢复正常,之后间隔多久再次发送告警。 触发场景 触发告警邮件的场景,可在告警及恢复时发送提醒信息。 通知周期 配置告警通知的周期时间。 通知时段 配置告警通知的时间段。 通知方式 配置告警通知的通知方式,支持邮箱及短信。 告警回调 填写接口URL,例如 规则信息 名称 填写该告警规则的名称。 企业项目 选择告警规则适用的企业项目。 描述 添加对该告警规则的描述。
        来自:
        帮助文档
        内网DNS
        用户指南
        监控与报警
      • 磁盘使用率高问题排查
        本文主要介绍磁盘使用率问题排查 使用文档数据库服务时,如果实例的磁盘使用率过高或完全被使用,将会导致实例不可⽤。 本章节帮助您分析解决DDS实例磁盘使用率高的问题。 查看磁盘使用情况 DDS目前提供如下两种方法用于查看实例磁盘的使用情况。 1. 通过DDS控制台查看磁盘使用情况。 您可以登录DDS控制台,单击目标实例名称,进入“基本信息”页面,在“存储空间”区域可以查看到当前实例的磁盘使用情况。 图 查看磁盘使用情况 2. 通过查看监控指标(磁盘利用率和磁盘使用量)判断实例磁盘的使用情况。 如何查看监控指标请参见查看监控指标。 图 查看磁盘使用情况 解决方案 1. 对于集群实例,可能是因为选择和设置的分片不合理导致数据分布不均衡,从而引起磁盘空间使用率高的情况。 此时,可以对数据库集合进行合适的分片,具体操作请参见设置数据分片以充分利用分片性能。 2. 随着业务数据的增加,原来申请的数据库磁盘容量不足。此时建议扩容磁盘空间,确保磁盘空间足够。 集群实例,请参见扩容集群实例的磁盘空间。 副本集实例,请参见扩容副本集实例的磁盘空间。 如果原有实例规格的磁盘已是最大的,请先升级规格。 集群实例,请参见变更集群实例的CPU和内存规格。 副本集实例,请参见变更副本集实例的CPU和内存规格。 3. 存在大量过期的数据文件占用磁盘空间,此时需要及时处理过期数据文件。例如:如果整个库不需要了,则可以执行dropDatabase命令进行删除,从而快速释放磁盘空间。 4. 后台数据处理机制原因。 因为无论是写入、更新或删除等操作(包括索引插入和删除等操作),在后台实际上都会转成写入。因为底层的存储引擎(WiredTiger和RocksDB),采用都是appendOnly机制。只有当存储引擎内部数据状态满足一定条件后,会触发内部的compaction操作,进行数据压缩,进而释放磁盘空间。 所以有时候会发现,磁盘占用量比实际数据量大,实际上这只是“看起来大”,并不会影响用户的使用。因为内部有些数据压缩,是延时操作,没有立即执行。随着数据的继续写入,会触发后台执行数据压缩清理空间。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        性能调优
        磁盘使用率高问题排查
      • 负载均衡移除标签
        参数 是否必填 参数类型 说明 示例 下级对象 regionID 是 String 区域ID elbID 是 String 负载均衡 ID lbxxxx labelID 是 String 标签ID aaaaaa
        来自:
        帮助文档
        弹性负载均衡 ELB
        API参考
        API
        2022-09-09
        新版
        负载均衡实例
        负载均衡移除标签
      • pg_cls_user
        本页介绍天翼云TeleDB数据库元数据pgclsuser的内容。 存储行列级安全访问策略的用户信息。 名称 类型 定义 polid int16 策略ID privilege int16 权限值 userid Oid 用户的OID maxreadlabel int16 最大读取标签ID maxwritelabel int16 最大写入标签ID minwritelabel int16 最小写入标签ID defaultreadlabel int16 默认读取标签ID defaultwritelabel int16 默认写入标签ID defaultrowlabel int16 默认行标签ID username NameData 用户名
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        数据字典
        元数据表
        pg_cls_user
      • 查询指定QoS策略
        名称 类型 描述 qosName String QoS策略名称。 IOPS Long 每秒能够进行读写操作次数的最大值。 说明 1表示不限制。 readIOPS Long 每秒能够进行读操作次数的最大值。 说明 1表示不限制。 writeIOPS Long 每秒能够进行写操作次数的最大值。 说明 1表示不限制。 Bps Long 每秒可传输数据量的最大值,单位是B/s。 说明 1表示不限制。 readBps Long 读带宽上限,单位是B/s。 说明 1表示不限制。 writeBps Long 写带宽上限,单位是B/s。 说明 1表示不限制。 IOPSBurst Long 使用Burst功能时,每秒能够进行读写操作次数的最大值。 说明 1表示不限制。 readIOPSBurst Long 使用Burst功能时,每秒能够进行读操作次数的最大值。 说明 1表示不限制。 writeIOPSBurst Long 使用Burst功能时,每秒能够进行写操作次数的最大值。 说明 1表示不限制。 BpsBurst Long 使用Burst功能时,每秒可传输的数据量最大值,单位是B/s。 说明 1表示不限制。 readBpsBurst Long 使用Burst功能时,读带宽上限,单位是B/s。 说明 1表示不限制。 writeBpsBurst Long 使用Burst功能时,写带宽上限,单位是B/s。 说明 1表示不限制。 IOPSBurstSecs Long 使用Burst功能时,按照Burst上限的能力进行读写操作所能持续的时间。单位是秒。 readIOPSBurstSecs Long 使用Burst功能时,按照Burst上限的能力进行读操作所能持续的时间。单位是秒。 writeIOPSBurstSecs Long 使用Burst功能时,按照Burst上限的能力进行写操作所能持续的时间。单位是秒。 BpsBurstSecs Long 使用Burst功能时,按照Burst上限的流量能力所能持续的时间。单位是秒。 readBpsBurstSecs Long 使用Burst功能时,按照Burst上限的读流量能力所能持续的时间。单位是秒。 writeBpsBurstSecs Long 使用Burst功能时,按照Burst上限的写流量能力所能持续的时间。单位是秒。 createTime Long QoS策略创建的时间。 reclaimPolicy String QoS策略的回收策略: Delete:解除QoS策略关联的所有对象或者删除QoS策略关联的所有对象,系统会触发删除QoS策略。 Retain:解除QoS策略关联的所有对象或者删除QoS策略关联的所有对象,QoS策略仍保留。 description String QoS策略的描述信息。
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        QoS策略
        查询指定QoS策略
      • 节点扩容
        本页介绍天翼云TeleDB数据库节点扩容。 操作场景 随着业务的增长,数据库在运行性能及存储上逐渐会达到瓶颈。此时,需要通过增加节点来提升集群的性能及存储能力。该任务用于指导对协调节点(CN)和数据节点(DN)进行扩容。协调节点和数据节点都是按组添加。每组数量与创建实例时选择的实例系列相关联。机器规格和原实例规格保持一致。用户可自定义新增节点所在服务器。 注意 主备节点所在服务器不能为同一台服务器。 增加节点前请检查所有表都已设置主键或设置表级别参数REPLICA IDENTITY为FULL,否则数据无法完成迁移导致新增节点失败。 扩容数据节点后请手动使用数据重平衡功能。 操作步骤 1. 以用户名和密码登录分布式数据库TeleDB控制台,在左侧导航单击实例列表,进入实例列表页面。 2. 在实例列表页面,单击目标实例所在行的详情,进入实例详情页面。 3. 单击右上角操作下拉框,单击节点扩容 ,出现节点扩容(协调、数据节点)对话框。 4. 进入节点扩容 对话框,根据以下内容填写基本信息,单击确定完成扩容。 扩容节点类型:可根据实际情况填写协调节点或数据节点。 说明 当扩容节点类型为协调节点,则下面出现节点名称。当扩容节点为数据节点,则下面出现节点组名称。 节点名称:默认不可更改。 节点组名称:默认不可更改。 节点规格:默认不可更改。 VIP:可选参数,可根据实际需求选择vip。 主节点节点信息:可选参数,可根据实际需求选择主节点ip。 备节点节点信息:可选参数,可根据实际需求选择备节点ip。 5. 弹出提示 对话框。可单击立即前往,在任务管理页面查看执行详情。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V4.0.0版本产品文档
        管理平台使用手册
        维护管理实例
        节点扩容
      • 节点扩容
        本页介绍天翼云TeleDB数据库节点扩容。 操作场景 随着业务的增长,数据库在运行性能及存储上逐渐会达到瓶颈。此时,需要通过增加节点来提升集群的性能及存储能力。该任务用于指导对协调节点(CN)和数据节点(DN)进行扩容。协调节点和数据节点都是按组添加。每组数量与创建实例时选择的实例系列相关联。机器规格和原实例规格保持一致。用户可自定义新增节点所在服务器。 注意 主备节点所在服务器不能为同一台服务器。 增加节点前请检查所有表都已设置主键或设置表级别参数REPLICA IDENTITY为FULL,否则数据无法完成迁移导致新增节点失败。 扩容数据节点后请手动使用数据重平衡功能。 操作步骤 1. 以用户名和密码登录分布式数据库TeleDB控制台,在左侧导航单击实例列表,进入实例列表页面。 2. 在实例列表页面,单击目标实例所在行的详情,进入实例详情页面。 3. 单击右上角操作下拉框,单击节点扩容 ,出现节点扩容(协调、数据节点)对话框。 4. 进入节点扩容 对话框,根据以下内容填写基本信息,单击确定完成扩容。 扩容节点类型:可根据实际情况填写协调节点或数据节点。 说明 当扩容节点类型为协调节点,则下面出现节点名称。当扩容节点为数据节点,则下面出现节点组名称。 节点名称:默认不可更改。 节点组名称:默认不可更改。 节点规格:默认不可更改。 VIP:可选参数,可根据实际需求选择vip。 主节点节点信息:可选参数,可根据实际需求选择主节点ip。 备节点节点信息:可选参数,可根据实际需求选择备节点ip。 5. 弹出提示 对话框。可单击立即前往,在任务管理页面查看执行详情。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.0.0版本产品文档
        管理平台使用手册
        维护管理实例
        节点扩容
      • 备份HBase元数据
        本章主要介绍翼MapReduce的备份HBase元数据功能。 操作场景 为了确保HBase元数据(主要包括tableinfo文件和HFile)安全,防止因HBase的系统表目录或者文件损坏导致HBase服务不可用,或者系统管理员需要对HBase系统表进行重大操作(如升级或迁移等)时,需要对HBase元数据进行备份,从而保证系统在出现异常或未达到预期结果时可以及时进行数据恢复,将对业务的影响降到最低。 系统管理员可以通过FusionInsight Manager创建备份HBase任务并备份元数据。支持创建任务自动或手动备份数据。 前提条件 如果数据要备份至远端HDFS中,需要准备一个用于备份数据的备集群,认证模式需要与主集群相同。其他备份方式不需要准备备集群。 如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 根据业务需要,规划备份的类型、周期和策略等规格,并检查主备管理节点“ 数据存放路径 /LocalBackup/”是否有充足的空间。 如果数据要备份至NAS中,需要提前部署好NAS服务端。 HBase的“fs.defaultFS”配置参数需要与Yarn、HDFS的配置保持一致。 如果HBase数据存储在本地HDFS,支持将HBase元数据备份到OBS。如果HBase数据存储在OBS,则不支持数据备份。 如果数据要备份至OBS中,需要当前集群已对接OBS,并具有访问OBS的权限。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        备份数据
        备份HBase元数据
      • 名词解释
        Queue A Message B key.a.b.c key.a.b. key.a..c Queue A Queue B Message C key.a.d.c key.a..c Queue B Binding 一套绑定规则,用于告诉 Exchange 消息应该被存储到哪个 Queue。它的作用是把 Exchange 和 Queue 按照路由规则绑定起来。 Routing Key Producer 在发送消息给 Exchange 时,需要指定一个 Routing key 来设定该消息的路由规则,而 Routing key 需要与 Exchange 类型及 Binding key 联合使用才能生效;一般情况下,Exchange 类型与 Binding key 提供配置好,Producer 在发送消息给 Exchange 时,可以通过指定 Routing key 来决定消息投放到哪个 Queue。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        产品简介
        名词解释
      • 修改云硬盘描述
        云硬盘支持修改描述,您可以参考以下操作步骤进行修改。 操作场景 创建云硬盘后,如果云硬盘描述需要更新或编辑,可以为云硬盘修改描述。 操作步骤 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域,此处我们选择华东1。 3. 单击“存储>云硬盘”,进入云硬盘主页面。 4. 在云硬盘列表中,找到待编辑描述的云硬盘,点击云硬盘所在行的“操作>更多>编辑描述”。 5. 在“编辑描述”弹窗中,对云硬盘描述进行编辑。 6. 确认无误后,点击“确定”按钮。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        修改云硬盘描述
      • 查看快照详情
        本文指导用户如何查看快照详情。 操作场景 当用户有查看快照详细信息的诉求时可参考本文。 操作步骤 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域,此处我们选择华东1。 3. 单击“存储>云硬盘”,进入云硬盘主页面。 4. 单击左侧导航栏中的“云硬盘快照”,进入云硬盘快照页面。 5. 单击需要查看详情信息的云硬盘快照名称,即可进入快照详情页面,查看其源云硬盘信息、快照来源、状态等详细信息。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        云硬盘快照
        查看快照详情
      • 产品定义
        混合云一体机(以下简称一体机)是天翼云基于多年研发积累和大规模业务实践验证,结合对市场用户云业务需求深入洞察,推出的软硬一体产品。其中硬件部分采用通用x86或国产服务器,软件集成天翼云平台,提供计算、存储、网络、监控、管理等全栈云服务,帮助企业从零构建云底座。 一体机是标准化交付产品,到货后110个工作日即可完成交付,无需经过冗长的项目沟通及采购流程。同时用户可自行指定一体机部署位置,安全可控,满足低延时、低成本的需求,非常适合承载边缘、灵活上云需求。
        来自:
        帮助文档
        混合云一体机
        产品简介
        产品定义
      • 资产访问授权
        批量导入资产访问授权规则 1. 使用“管理角色”账户登录云堡垒机(原生版)控制台。 2. 在左侧导航栏选择“授权管理 > 资产访问授权”,进入“资产访问授权”页面。 3. 单击“导入”,在弹出的对话框中下载导入模板。 4. 打开模板,配置相关内容。 参数 参数说明 取值样例 基本信息 授权规则名 自定义资产访问授权的规则名称。 Test 基本信息 启用状态 选择授权规则创建完成后的启用状态,可选择“启用”或“禁用”。 启用 登录名 登录名 (可选)填写需要配置访问授权的用户名,用户名请保持和系统中添加用户名保持一致。 登录名 用户组 (可选)填写需要配置访问授权的用户组,用户组请保持和系统中添加用户组名保持一致。 若您填写的用户和用户组存在重合部分,取两者最大的合集。 资产 资产 (可选)填写需要配置访问授权的资产,资产名称请保持和系统中添加的资产名保持一致。 资产 资产组 (可选)填写需要配置访问授权的资产,资产组名称请保持和系统中添加的资产名保持一致。 若您填写的资产和资产组存在重合,默认取最大的合集。 账号 资产账号 (可选)选择资产授权规则中允许使用的资产账号,添加资产账号请参见:资产账号章节。 root 协议 协议 选择该授权规则支持访问的协议,协议可填写:SSH、TELNET、SFTP、FTP、X11、RDP、数据库、VNC。 SSH 授权时间 授权生效日期 选择规则生效的日期,日期填写格式为yyyy/mm/dd。 20231001 授权时间 授权失效日期 选择规则失效的日期,日期填写格式为yyyy/mm/dd。 20241001 授权时间 授权生效时间 填写规则生效的时间段,时间段填写格式为00:00:00。 9:00:00 授权时间 授权失效时间 填写规则失效的时间段,时间段填写格式为00:00:00。 18:00:00 5. 填写完成后,保存文件并上传。
        来自:
        帮助文档
        云堡垒机(原生版)
        用户指南
        管理员手册
        授权管理
        资产访问授权
      • 导入参数
        本小节主要介绍RDSPostgreSQL实例的导入参数操作。 操作场景 您可以下载默认的参数模板文件,在本地填写您需要修改的部分参数后,通过文件方式批量导入内核参数到当前实例,参数校验后应用生效。 注意事项 导入实例的内核参数,需要连接实例,请确认当前实例状态处于“运行中”的正常状态。 需在参数模板下载界面下载导入模板文件,按照格式填写修改的内核参数。 请您导入参数前,确认修改内核参数是否正确,不合理的内核参数将导致实例运行风险。 可导入的参数名称请参考在“参数设置”界面的参数列表,不在参数列表内的内核参数不支持开放导入和修改。 参数导入文件一次性支持最大数量为300个。 操作步骤 Ⅱ类资源池操作步骤 1. 登录天翼云门户。 2. 点击控制中心,进入控制中心后,选择目标资源池。 3. 在产品列表页面中找到【数据库】→【关系数据库PostgreSQL版】,点击进入控制台。 4. 在左侧菜单中点击【PostgreSQL】→【实例管理】,点击进入产品实例管理页。 5. 在"实例管理"页面,选择实例列表第一列"实例名称/实例ID",点击指定的实例,进入并选择"参数设置"。 6. 在"参数设置"页面,点击"导入参数"按钮,在提示界面点击“下载导入模板”按钮下载模板文件。 7. 在本地确认修改的模板文件内容无误后,点击“点击上传”按钮上传文件。 8. 管理控制台解析上传文件内容后,返回校验结果,若不通过,请下载“明细”文件后按照提示修复。 9. 校验结果通过后,即可点击“确认”按钮进行参数导入和应用,其中部分参数涉及实例重启,请确认“重启”。 10. 等待管理控制台应用参数成功后,可以在“参看参数修改历史”界面查看参数生效结果。 注意 不同资源池因IaaS资源能力等原因,加载版本有所差异,详见
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        参数设置
        导入参数
      • 计费概述
        本文介绍云容器引擎Serverless版的计费概述。 计费组成 使用Serverless容器产生的费用集群管理费+其他云产品资源费用。 注意 使用的其他云产品资源费用,将按照各云产品的计费规则计费,由各云产品收取。 集群管理费 该产品的集群管理费为按需计费,集群管理费单价:0.65元/小时。 将根据您实际使用集群的时长计费,计费公式:集群管理费单价 购买时长。 云产品资源费用 如果您在使用过程中关联天翼云其他云产品资源,您需要为您使用的资源付费。 云产品名称 产品说明 计费说明 弹性容器实例ECI 用于部署Serverless容器引擎集群应用及插件,更多信息,请参见弹性容器实例产品定义 []( 虚拟私有云VPC 用于构建集群网络环境和路由规则,更多信息,请参见虚拟私有云产品定义 虚拟私有云计费说明 弹性负载均衡ELB 用于为集群创建负载均衡,更多信息,请参见弹性负载均衡产品定义 弹性负载均衡计费说明 容器镜像服务CRS 用于容器镜像的安全托管和全生命周期管理,更多信息,请参见容器镜像服务产品介绍 容器镜像服务计费说明 NAT网关 用于为集群开启公网访问和公网镜像拉取,更多信息,请参见NAT网关产品定义 NAT网关计费说明 弹性IP 用于云资源与公网通信,更多信息,请参见弹性IP产品定义 弹性IP计费说明
        来自:
        帮助文档
        云容器引擎 Serverless版
        计费说明
        计费概述
      • 域名归属权校验指南
        本节介绍了如何进行域名归属权校验。域名归属权校验是将域名接入DDoS高防(边缘云版)的必要操作。在控制台进行域名基本配置之后,会弹出域名归属权校验框,需根据其中返回内容完成以下步骤。 客户可根据如下方法一、方法二,任意选择一种方式进行操作验证即可。 方法一:DNS解析验证 示例为ctcdn.cn的解析配置 1. 客户需在自己的域名解析服务商,添加天翼云控制台返回的TXT记录值(如下记录值仅为示例)。 记录类型 主机记录 记录值 TXT dnsverify 202207060000002jar4fb2hc79iwjq5cdid87t7rci1sgp33exuyvez4kwonobxt 2. 域名解析操作完成后,等待(建议10分钟)DNS解析生效后即可进行解析验证。 解析命令:dig dnsverify.ctcdn.cn txt 3. 如解析出来的txt值和天翼云控制台返回的TXT记录值一致,则表示配置正确。确认配置正确后,可前往天翼云控制台,在新增域名界面点击验证,验证通过就可以正常操作新增域名。 方法二:文件验证 示例为ctcdn.cn的解析配置 1. 在您的源站根目录下,创建文件名为:dnsverify.txt的文件,文件内容为天翼云控制台返回的TXT记录值(如下记录值仅为示例)。 2. 文件在源站根目录下创建完成后,即可进行访问验证(示例为访问 )。 windows验证: linux验证: 3. 如访问展示的文件内容和天翼云控制台返回的TXT记录值一致,则表示配置正确。确认配置正确后,可前往天翼云控制台,在新增域名界面点击验证,验证通过就可以正常操作新增域名。
        来自:
        帮助文档
        DDoS高防(边缘云版)
        快速入门
        域名归属权校验指南
      • 如何防护CC攻击
        本文介绍Web应用防火墙(边缘云版)在CC攻击常见场景推荐的防护策略和配置。 CC攻击是一种恶意网络攻击,旨在通过向目标服务器发送大量的请求,超过其处理能力,从而使其无法正常工作或服务受到严重影响。以下是一些常见的CC攻击场景及WAF在不同场景下提供的具体防护策略和配置。 场景1:高频海量的虚假请求耗尽服务器资源 攻击者利用大量的虚假请求,不断向目标网站发送超过正常用户请求频率的请求,导致目标网站无法正常服务,这个最常见的一种CC攻击场景。您可以关注您的网站请求数趋势,如果请求QPS在某一时刻突然异常突增很多(比正常业务QPS突增超过10倍),就很有可能是受到了CC攻击。 针对超过正常请求频率的攻击,最直接有效的防护方式就是配置频率控制,通过限制指定URL的访问频率,拦截超过网站正常业务请求频率的攻击。如:配置登录接口的单IP访问频率达到每分钟50次时则进行拦截,具体配置操作请参考:设置客户端IP访问域名首页次数限制。 除此之外,您还可以通过开启CC防护功能对CC攻击进行防护,设置URL达到指定阈值后则进行挑战,通过CC防护策略来校验请求是否来自于真实浏览器(注意:该功能不适用于不能执行JS的环境,如API、Native App、Websocket等) 配置示例:以下配置在阈值请求达到每5秒5000次时,则会开启CC攻击防护。更多CC防护配置请参考:设置CC防护配置。
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        最佳实践
        如何防护CC攻击
      • 自动运维
        本章节为您介绍云堡垒机自动运维的相关内容。 云堡垒机具备自动运维功能,允许用户依照既定步骤自行执行命令和运维脚本,对多个目标进行自动化运维管理。除此之外,系统支持设定任务执行的周期和时间,实现自动化定期执行。同时,它还能够并行处理多种类型的任务步骤,大大提高了效率。 约束限制 仅支持对Linux主机(SSH、Telnet协议类型)资源执行自动运维任务。 暂不支持对Windows主机资源、数据库资源和应用资源执行自动运维任务。 管理员和运维角色都支持自动化运维功能 用户自动化运维可执行的命令和脚本受到命令权限的限制 新建自动运维策略 1.使用“管理角色”或“运维角色”账户登录云堡垒机(原生版)控制台。 2.在左侧导航栏选择“自动运维”,进入“自动运维”页面。 3.单击“新增”,开始新增自动运维策略。 4.在弹出的“新增自动运维策略”对话框中填写相关内容。 配置项 说明 任务名称 自定义运维策略名称。 描述 自定义运维策略的描述内容。 资产账号 单击“添加”选择需要自动化运维的设备及账号。 执行策略 选择运维策略 手动执行:保存运维策略后可手动执行该策略。 定期执行:选取执行时间,保存后在对应时间执行该策略。 周期执行:选取首次执行时间和执行周期(天),保存后在对应时间执行该策略。 执行方式 选择自动化运维的执行方式 执行命令:在“执行命令”参数框中填写需要执行的运维的命令。 执行脚本:上传可使用的.sh/.py脚本命令,若有相关脚本参数在“脚本参数”对话框中填写,多个参数使用英文逗号","分隔。 5.单击“确认”,弹出“验证用户身份”窗口。 6.在“验证用户身份”窗口输入资产账号的密码,完成输入后单击“提交”即可完成自动运维策略建立。
        来自:
        帮助文档
        云堡垒机(原生版)
        用户指南
        管理员手册
        自动运维
      • 创建和管理对等连接
        对象 值 本端VPC网段 示例:172.16.0.0/24 对端VPC网段 示例:10.0.0.0/8
        来自:
        帮助文档
        智能边缘云
        用户指南
        边缘网络
        对等连接
        创建和管理对等连接
      • 创建目标机
        本节为您介绍如何创建迁移任务所需的目标机。 用户根据CMS推荐的目标机配置,根据实际情况进行相应调整,确定配置后,创建CMSPE系统目标机。 1. 左侧导航栏单击“主机管理”,选择需要查看的迁移源单击“详情”,进入主机管理界面。 2. 单击“推荐目标机配置”页签,查看CMS推荐的目标机配置: 说明 存储容量修改建议:一般待迁移设备,CMS会给对应目标机的分区推荐与源机一致的分区配置。系统盘不建议缩容,若用户需要缩容存储盘,需要根据计算公式:当前硬盘容量 硬盘使用率 1.5【或一年冗余增长空间】进行缩容。 说明 Linux请选择对应版本云迁移专用镜像。 说明 规格可根据推荐进行修改、镜像要选择CMSPE镜像启动。
        来自:
        帮助文档
        云迁移服务CMS
        快速入门
        服务器迁移服务模块
        设置迁移目标机
        创建目标机
      • DRDS
        本节主要介绍DRDS 。 SQL 慢SQL 该模块提供指定时间段内的慢SQL分析功能。从用户、IP、SQL模板等进行多维统计,展示统计结果并支持指定排序,识别慢SQL的精准来源,方便用户快速优化业务。 查看慢日志 1、登录管理控制台。 单击管理控制台左上角的,选择区域和项目。 单击页面左上角的,选择“数据库 > 数据管理服务 DAS”,进入数据管理服务页面。 在左侧的导航栏中单击“DBA智能运维 > 实例列表”页签,进入DBA智能运维实例列表页面。 在实例列表页面右上角,按照引擎、实例名称或者实例IP筛选实例。 选择目标实例,单击“详情”,进入DBA智能运维总览页面。 单击“慢SQL”,进入慢日志页面。 选择需要查看的时间段,查看该时间段内慢日志趋势、慢日志统计和慢日志明细。 慢日志趋势 在慢日志趋势图中单击某个时间点,查看该时间点的慢日志。 慢日志明细 在慢SQL页面下方查看慢日志明细。慢日志明细提供了当前时间段的慢日志详情,包含执行时间、SQL语句、库名、客户端、用户、执行耗时、锁等待耗时、扫描行、返回行等信息。 单击导出,将慢日志明细导出到指定OBS进行存储。慢日志明细导出成功后,可以单击“查看导出列表”,查看慢日志明细导出记录,也可以通过下载将慢日志明细下载到本地进行查看。 说明 导出及查看导出列表功能仅支持付费实例使用,免费实例暂不支持。 慢日志统计 单击SQL模板操作列的“样本”,查看当前SQL模板的样本信息 。 在慢日志统计页面,单击“导出”将慢日志导出到指定的OBS进行存储。慢日志导出成功后,可以单击“查看导出列表”,查看慢日志导出记录,也可以通过下载将慢日志下载到本地进行查看。 说明 导出及查看导出列表功能仅支持付费实例使用,免费实例暂不支持。
        来自:
        帮助文档
        数据管理服务
        用户指南
        DBA智能运维
        DRDS
      • 业务数据不均衡最佳实践
        本文介绍Kafka业务数据不均衡最佳实践 方案概述 Kafka将Topic划分为多个分区,所有消息分布式存储在各个分区上。每个分区有一个或多个副本,分布在不同的Broker节点上,每个副本存储一份全量数据,副本之间的消息数据保持同步。Kafka的Topic、分区、副本和代理的关系如下图所示: 在实际业务过程中可能会遇到各节点间或分区之间业务数据不均衡的情况,业务数据不均衡会降低Kafka集群的性能,降低资源使用率。 业务数据不均衡原因: 业务中部分Topic的流量远大于其他Topic,会导致节点间的数据不均衡。 生产者发送消息时指定了分区,未指定的分区没有消息,会导致分区间的数据不均衡。 生产者发送消息时指定了消息Key,按照对应的Key发送消息至对应的分区,会导致分区间的数据不均衡。 系统重新实现了分区分配策略,但策略逻辑有问题,会导致分区间的数据不均衡。 Kafka扩容了Broker节点,新增的节点没有分配分区,会导致节点间的数据不均衡。 业务使用过程中随着集群状态的变化,多少会发生一些Leader副本的切换或迁移,会导致个别Broker节点上的数据更多,从而导致节点间的数据不均衡。 实施步骤 业务数据不均衡的处理措施: 优化业务中Topic的设计,对于数据量特别大的Topic,可对业务数据做进一步的细分,并分配到不同的Topic上。 生产者生产消息时,尽量把消息均衡发送到不同的分区上,确保分区间的数据均衡。 创建Topic时,使分区的Leader副本分散到各个Broker节点中,以保障整体的数据均衡。 Kafka提供了分区重平衡的功能,可以把分区的副本重新分配到不同的Broker节点上,解决节点间负载不均衡的问题。具体分区重平衡的操作请参考修改分区平衡。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        业务数据不均衡最佳实践
      • 实例运行快照
        本页介绍天翼云TeleDB数据库实例运行快照。 操作步骤 1. 以用户名和密码登录分布式数据库TeleDB控制台,在左侧导航树单击实例监控 ,进入实例监控页面。 2. 在实例监控页面,在当前实例下拉框选择目标实例,选择实例运行快照 页签。 3. 快照设置 1. 单击快照设置 ,弹出实例运行快照策略设置 对话框。 2. 在实例运行快照策略设置 对话框中,打开运行快照开启状态,输入快照开启时间和快照间隔时间,单击确定 完成设置。 4. 手动快照 单击手动快照可立即执行快照。 5. 查询快照列表 可通过设置起始时间和结束时间,单击查询 筛选已产生的快照列表。 6. 查看快照详情 单击对应快照记录的详情,可查看该快照的详细信息。 具体内容包括: 数据库状态:节点名称、IP、端口、角色、日志同步状态、运行状态。 数据库核心配置:synchronouscommit、maxpoolsize、autovaccum、maxconnection、workmem、walkeepsegments、vacuumdelta、sharedbuffers的参数值。 数据库连接分析:包括CN和DN的连接情况,如avgconn、avgconnactive、avgconnidle、avgconnlock等。 DataNode节点请求量统计:统计DN节点的增删改查请求量。 数据库检查点:节点的检查点情况,如checkpointstimed、checkpointsreq等。 存储情况分节点统计:节点的存储情况,如totalsize、totaltups。 慢查询TOP 50:慢查询的TOP 50情况。 错误日志情况:包括错误信息、级别。 buffer命中率分析:包括平均、最大和最小情况。 锁分析:最多展示等待时间最长50条。 节点CPU/内存利用率概况:节点CPU/内存利用率情况。 死锁详情:最多展示最近的50条。 回滚详情:最多展示最近的50条。 二阶段残留事务详情:二阶段残留事务详细信息。 7. 快照对比 1. 单击对应快照记录的快照对比,弹出快照对比对话框。 2. 在快照对比对话框,选择要对比的快照,单击确定可查看快照对比信息。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V3.0.0版本产品文档
        管理平台使用手册
        实例监控
        实例运行快照
      • 实例运行快照
        本页介绍天翼云TeleDB数据库实例运行快照。 操作步骤 1. 切换至TeleDB控制台,在左侧导航树单击实例监控 ,选择实例运行快照 页签。 2. 快照设置 1. 单击快照设置 ,弹出实例运行快照策略设置 对话框。 2. 在实例运行快照策略设置 对话框中,打开运行快照开启状态,输入快照开启时间和快照间隔时间,单击确定 完成设置。 3. 手动快照 单击手动快照可立即执行快照。 4. 查询快照列表 可通过设置起始时间和结束时间,单击查询 筛选已产生的快照列表。 5. 查看快照详情 单击对应快照记录的详情,可查看该快照的详细信息。 具体内容包括: 数据库状态:节点名称、IP、端口、角色、日志同步状态、运行状态。 数据库核心配置:synchronouscommit、maxpoolsize、autovaccum、maxconnection、workmem、walkeepsegments、vacuumdelta、sharedbuffers的参数值。 数据库连接分析:包括CN和DN的连接情况,如avgconn、avgconnactive、avgconnidle、avgconnlock等。 DataNode节点请求量统计:统计DN节点的增删改查请求量。 数据库检查点:节点的检查点情况,如checkpointstimed、checkpointsreq等。 存储情况分节点统计:节点的存储情况,如totalsize、totaltups。 慢查询TOP 50:慢查询的TOP 50情况。 错误日志情况:包括错误信息、级别。 buffer命中率分析:包括平均、最大和最小情况。 锁分析(最多展示等待时间最长50条)。 节点CPU/内存利用率概况。 死锁详情(最多展示最近的50条)。 回滚详情(最多展示最近的50条)。 二阶段残留事务详情。 6. 快照对比 1. 单击对应快照记录的快照对比,弹出快照对比对话框。 2. 在快照对比对话框,选择要对比的快照,单击确定可查看快照独臂信息。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.1.0版本产品文档
        管理平台使用手册
        控制台操作指南
        实例监控
        实例运行快照
      • 圆角矩形
        本文帮助您了解圆角矩形。 操作场景 ZOS支持设置图片为圆角矩形形式。您可以通过配置参数,将存储在ZOS内图片的4个角裁剪成圆角并且图片圆角外的区域以透明色或白色填充。 约束与限制 对于支持透明通道的图片(如PNG格式),裁剪后圆角外区域以透明色填充。对于不支持透明通道的图片(如JPG格式),裁剪后圆角外区域以白色填充。 原图的格式、大小和分辨率的通用限制请参考图片处理概述图片限制。 圆角矩形操作支持的地域请参见产品能力地图。 参数说明 操作符:roundedcorners 参数名称 参数用途 取值 是否必须 r 将图片裁剪成圆角时,指定的圆角半径 注意 当指定的圆角半径超过原图最短边长度的一半,会以最短边长度一半为半径进行裁剪 [1,4096] 是 示例 对图片进行圆角矩形裁剪,指定图片四个角的裁剪圆角半径为200 px,具体请求参数为: plaintext image/roundedcorners,r200
        来自:
        帮助文档
        对象存储 ZOS
        数据处理指南
        图片处理
        图片处理参数
        圆角矩形
      • 使用KMS用户主密钥在线加解密数据
        本文为您介绍如何使用KMS中的用户主密钥,快速实现少量数据的在线加解密。 KMS提供针对敏感信息的加密能力,适用于保护小型敏感数据(小于6KB),如口令、身份信息、证书、后台配置文件等。 通过密钥管理服务KMS的在线加密API,使用用户主密钥(CMK)直接加密敏感数据信息,而非直接将明文存储,确保敏感数据安全。 场景示意图 操作流程(以证书加密为例) 1. 通过KMS控制台或者调用CreateKey接口,创建一个用户主密钥(CMK)。 2. 调用KMS服务的Encrypt接口,将明文证书加密为密文证书。 3. 将密文证书部署在服务器上。 4. 当服务器启动需要使用证书时,调用KMS服务的Decrypt接口将密文证书解密为明文证书。 相关API 您可以调用以下KMS API,轻松完成对数据的加密或解密操作。 API名称 说明 createKey 创建用户主密钥(CMK)。 encrypt 指定CMK,直接输入明文数据,由KMS在线加密数据。 decrypt 解密由encrypt接口加密的数据,不需要指定CMK即可完成在线解密。 操作步骤 1. 通过密钥管理服务控制台创建用户主密钥CMK。 2. 通过OpenAPI在线加密接口,对敏感数据进行加密。 请求参数说明 参数 是否必填 参数位置 参数类型 说明 cmkUuid 是 body String 主密钥(CMK)的全局唯一标识符。 plaintext 是 body String 待加密明文(必须经过Base64编码)。 请求示例 plaintext { "plaintext": "SGVsbG8gd29ybGQ", "cmkUuid": "241ede22626146179caf10d89990516c" } 成功返回 plaintext { "code": 200, "result": { "ciphertextBlob": "MDA2NE1qUXhaV1JsTWpJdE5qSTJNUzAwTmpFM0xUbGpZV1l0TVRCa09EazVPVEExTVRaakpqUTVaV00zTm1RM0xXTmpOR010TkRBd1pTMDVaakU1TFdZNU1EQXhOVGczWVdVd1pnPT3oCYiGAy7mNTLitIlJaQ92", "cmkUuid": "241ede22626146179caf10d89990516c", "keyVersionId": "49ec76d7cc4c400e9f19f9001587ae0f" }, "statusCode": 200, "success": 1 } 返回参数说明 参数 说明 ciphertextBlob 数据被指定CMK的主版本加密后的密文。 cmkUuid CMK的全局唯一标识符。如果请求中的Cmkuuid参数使用的是CMK的别名,在响应中会返回别名对应的CMK标志符。 keyVersionId 用于加密明文的密钥版本标志符,是指定CMK的主版本。 3. 将加密后的数据存储。 根据业务的应用场景,将密文进行存储。 4. 通过OpenAPI解密接口,对密文数据进行解密。 请求参数说明 参数 是否必填 参数位置 参数类型 说明 ciphertextBlob 是 body String 主密钥(CMK)加密的数据密钥的密文。 成功返回 plaintext { "statusCode": 800, "returnObj": { "code": 200, "result": { "cmkUuid": "8bca8f33d42a448a866ba064f44b29b7", "keyVersionId": "73670b284eea4260b497ae0334cc0c85", "plaintext": "sc7280+klUSln3Y9FHdfKGUT+6kPrcIMW41uZQeXxGU" }, "statusCode": 200, "success": 1 } } 返回参数说明 参数 说明 cmkUuid CMK的全局唯一标识符。如果请求中的Cmkuuid参数使用的是CMK的别名,在响应中会返回别名对应的CMK标志符。 keyVersionId 密钥版本ID。主密钥版本的全局唯一标识符。 plaintext 解密后的明文经过Base64编码的后的值。
        来自:
        帮助文档
        密钥管理
        最佳实践
        使用KMS用户主密钥在线加解密数据
      • 查询频率控制策略
        参数 类型 是否必传 名称及描述 results 对象 是 响应码,返回数据 mod String 是 总开关; 1、ON:开启 2、CLOSE:关闭 total int 是 总数
        来自:
        帮助文档
        安全加速(文档停止维护)
        API参考
        API
        域名管理
        查询频率控制策略
      • 创建Topic
        本文主要介绍 创建Topic。 Topic,即消息主题。创建Kafka实例成功后,如果没有开启“Kafka自动创建Topic”,需要手动创建Topic,然后才能进行生产消息和消费消息。如果实例开启了“Kafka自动创建Topic”,则该操作为可选。 “Kafka自动创建Topic”表示在生产或消费一个未创建的Topic时,会自动创建此Topic,此Topic的默认参数值如下:分区数为3,副本数为3,老化时间为72小时,不开启同步复制和同步落盘。如果在“配置参数”中修改“log.retention.hours”、“default.replication.factor”或“num.partitions”的参数值,此后自动创建的Topic参数值为修改后的参数值。例如:“num.partitions”修改为“5”,自动创建的Topic参数值如下:分区数为5,副本数为3,老化时间为72小时,不开启同步复制和同步落盘。 Kafka实例对Topic的总分区数设置了上限, 当Topic的总分区数达到上限后,用户就无法继续创建Topic 。不同规格配置的Topic总分区数不同,具体请参考Kafka产品规格说明。 本文主要介绍手动创建Topic的操作,有以下几种方式,您可以根据实际情况选择任意一种方式: 方式1:在控制台创建 方式2:在Kafka Manager创建 方式3:在Kafka客户端上创建 说明 实例节点出现故障的情况下,单副本Topic查询消息时可能会报“内部服务错误”,因此不建议使用单副本Topic。 方式1:在控制台创建 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 选择“Topic管理”页签,单击“创建Topic”。 弹出“创建Topic”对话框。 图 创建Topic 步骤 6 填写Topic名称和配置信息。 表 Topic参数说明 参考 说明 Topic名称 系统为您自动生成了Topic名称,您可以根据需要修改。 创建Topic后不能修改名称。 分区数 您可以设置Topic的分区数,分区数越大消费的并发度越大。 该参数设置为1时,消费消息时会按照先入先出的顺序进行消费。 取值范围:1~200 默认值:3 副本数 您可以为每个Topic设置副本的数量,Kafka会自动在每个副本上备份数据,当其中一个Broker故障时数据依然是可用的,副本数越大可靠性越高。 该参数设置为1时,表示只有一份数据。 默认值:3 说明 实例节点出现故障的情况下,单副本Topic查询消息时可能会报“内部服务错误”,因此不建议使用单副本Topic。 老化时间(小时) 消息的最长保留时间,消费者必须在此时间结束前消费消息,否则消息将被删除。删除的消息,无法被消费。 取值范围:1~720 默认值:72 同步复制 指后端收到生产消息请求并复制给所有副本后,才返回客户端。 开启同步复制后,需要在客户端配置acksall或者1,否则无效。 当副本数为1时,不能选择同步复制功能。 同步落盘 同步落盘是指生产的每条消息都会立即写入磁盘。 开启:生产的每条消息都会立即写入磁盘,可靠性更高。 关闭:生产的消息存在内存中,不会立即写入磁盘。 消息时间戳类型 定义消息中的时间戳类型,取值如下: CreateTime:生产者创建消息的时间。 LogAppendTime:broker将消息写入日志的时间。 批处理消息最大值 Kafka允许的最大批处理大小,如果启用消息压缩,则表示压缩后的最大批处理大小。 如果增加“max.message.bytes”的值,且存在消费者版本早于0.10.2,此时消费者的“fetch size”值也必须增加,以便消费者可以获取增加后的批处理大小。 描述 Topic的描述信息。 步骤 7 配置完成后,单击“确定”,完成创建Topic。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        创建Topic
      • 1
      • ...
      • 284
      • 285
      • 286
      • 287
      • 288
      • ...
      • 406
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      AI Store

      公共算力服务

      一站式智算服务平台

      智算一体机

      推荐文档

      用户登陆

      删除手动备份

      操作类

      查看云间高速

      创建阈值规则

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号