云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      分布式消息服务MQTT_相关内容
      • 与其他服务的关系
        专属云(计算独享型) 该服务为专属云Kafka开通前必选服务,在开通了专属云计算独享后,才能在控制台中节点选择此专属云标识的环境,再进入控制台的分布式消息服务,来操作专属云Kafka的开通。 专属云(存储独享型) 该服务为专属云Kafka开通时的可选服务,在进如专属云Kafka的开通过程中,队列实例规格必须在专属云计算独享型,而队列存储的部分支持选择公有云的云盘承载,也可选择已经购买的专属云存储独享型,可根据需求灵活选择。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        产品简介
        与其他服务的关系
      • 必须配置的监控告警
        操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 在Kafka实例名称后,单击。 进入云监控该实例的监控指标页面。 步骤 5 在实例监控指标页面中,找到需要创建告警的指标项,鼠标移动到指标区域,然后单击指标右上角的,创建告警规则,跳转到创建告警规则页面。 步骤 6 在告警规则页面,设置告警信息。 创建告警规则操作,请查看《云监控服务用户指南》的“创建告警规则和告警通知”章节。 1. 设置告警名称和告警的描述。 2. 设置告警策略和告警级别。 如下图所示,在进行指标监控时,如果连续3个周期,磁盘容量使用率原始值超过85%,则产生告警,如果未及时处理,则产生告警通知。 图设置告警策略和告警级别 3. 设置“发送通知”开关。当开启时,设置告警生效时间、产生告警时通知的对象以及触发的条件。 4. 单击“立即创建”,等待创建告警规则成功。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        监控
        必须配置的监控告警
      • 设置RabbitMQ告警规则
        操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择RabbitMQ实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”>“分布式消息服务”>“RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤 4 通过以下任意一种方法,查看监控数据。 在RabbitMQ实例名称后,单击“查看监控数据”。跳转到云监控页面,查看实例、节点和队列的监控数据,数据更新周期为1分钟。 单击RabbitMQ实例名称,进入实例详情页。在左侧导航栏单击“监控”,进入监控页面,查看实例、节点和队列的监控数据,数据更新周期为1分钟。 步骤 5 在实例监控指标页面中,找到需要创建告警的指标项,鼠标移动到指标区域,然后单击指标右上角的,进入“创建告警规则”页面。 步骤 6 在告警规则页面,设置告警信息。 创建告警规则操作,请查看《云监控服务用户指南》的创建告警规则和告警通知。 1. 设置告警名称和告警的描述。 2. 设置告警策略和告警级别。 例如,在进行指标监控时,如果连续3个周期,连接数原始值超过设置的值,则产生告警,如果未及时处理,则每一天发送一次告警通知。 3. 设置“发送通知”开关。当开启时,设置告警生效时间、产生告警时通知的对象以及触发的条件。 4. 单击“立即创建”,等待创建告警规则成功。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        监控
        设置RabbitMQ告警规则
      • 计费模式
        本文主要介绍 计费模式。 分布式消息服务Kafka支持按需和包周期两种付费模式。 包年包月 Kafka当前支持包年、包月的计费方式。 且按天翼云的包年订购优惠策略享受相关的一次性包年订购优惠。 按需 Kafka当前支持按需的计费方式,按小时计费。 具体价格,请详见产品价格。
        来自:
        帮助文档
        分布式消息服务Kafka
        计费说明
        计费模式
      • .net
        消费消息 plaintext using System; using System.Collections.Immutable; using System.Drawing; using Rabbit.Common.Data.Trades; using Rabbit.Common.Display; using RabbitMQ.Client; using RabbitMQ.Client.Events; namespace Rabbit.Example4.Consumer { internal sealed class Program { private static void Main() { var connectionFactory new ConnectionFactory { HostName "YOUR HOST IP", UserName "YOUR USER", Password "YOUR PASSWORD", Port 5672 }; using var connection connectionFactory.CreateConnection(); using var channel connection.CreateModel(); const string ExchangeName "dotnetexchange"; const string QueueName "dotnetqueue"; channel.ExchangeDeclare( exchange: ExchangeName, type: ExchangeType.Direct, durable: false, autoDelete: false, arguments: ImmutableDictionary .Empty); var queue channel.QueueDeclare( queue: QueueName, durable: false, exclusive: false, autoDelete: false, arguments: ImmutableDictionary .Empty); channel.QueueBind( queue: queue.QueueName, exchange: ExchangeName, routingKey: QueueName); var consumer new EventingBasicConsumer(channel); consumer.Received + (sender, eventArgs) > { var messageBody eventArgs.Body.ToArray(); var trade Trade.FromBytes(messageBody); DisplayInfo .For(trade) .SetExchange(eventArgs.Exchange) .SetQueue(queue.QueueName) .SetRoutingKey(eventArgs.RoutingKey) .SetVirtualHost(connectionFactory.VirtualHost) .Display(Color.Yellow); channel.BasicAck(eventArgs.DeliveryTag, multiple: false); }; channel.BasicConsume( queue: queue.QueueName, autoAck: false, consumer: consumer); Console.ReadLine(); } } } ssl生产消息 plaintext using System.Collections.Generic; using System.Collections.Immutable; using System.Drawing; using System.Threading.Tasks; using Rabbit.Common.Data.Trades; using Rabbit.Common.Display; using RabbitMQ.Client; namespace Rabbit.dotnet.Producer { internal sealed class Program { private static async Task Main() { var connectionFactory new ConnectionFactory { HostName "YOUR HOST IP", UserName "YOUR USERNAME", Password "YOUR PASSWORD", Port 5671 }; connectionFactory.AuthMechanisms new List () { new ExternalMechanismFactory() }; connectionFactory.Ssl.CertPath @"D:tmphzmqtest0520rabbitmqsslclientclientrabbitmqkey.p12"; // Ssl.CertPassphrase为固定参数,无需修改 connectionFactory.Ssl.CertPassphrase "YOUR PASSPHRASE"; connectionFactory.Ssl.Enabled true; connectionFactory.Ssl.CertificateValidationCallback (, , , ) > { return true; }; using var connection connectionFactory.CreateConnection(); using var channel connection.CreateModel(); const string ExchangeName "dotnetexchange"; const string QueueName "dotnetqueue"; channel.ExchangeDeclare( exchange: ExchangeName, type: ExchangeType.Direct, durable: false, autoDelete: false, arguments: ImmutableDictionary .Empty); var queue channel.QueueDeclare( queue: QueueName, durable: false, exclusive: false, autoDelete: false, arguments: ImmutableDictionary .Empty); channel.QueueBind( queue: queue.QueueName, exchange: ExchangeName, routingKey: QueueName, arguments: ImmutableDictionary .Empty); while (true) { var trade TradeData.GetFakeTrade(); string routingKey QueueName; channel.BasicPublish( exchange: ExchangeName, routingKey: routingKey, body: trade.ToBytes() ); DisplayInfo .For(trade) .SetExchange(ExchangeName) .SetRoutingKey(routingKey) .SetVirtualHost(connectionFactory.VirtualHost) .Display(Color.Cyan); await Task.Delay(millisecondsDelay: 1000); } } } }
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        开发指南
        .net
      • 产品定义
        事件总线EventBridge是天翼云提供的一款Serverless事件总线服务,支持事件在总线中路由、过滤与转换,支持天翼云服务与自定义应用以标准化、中心化的方式接入,兼容CloudEvents 1.0协议,助力分布式事件驱动架构的快速构建。 核心概念 事件总线EventBridge涉及的核心概念如下: 事件:事件源状态变化的数据记录。 事件源:事件的来源,负责生产事件。 事件目标:事件的处理终端,负责消费事件。 事件总线:事件的中转站,负责事件的中间转储。 事件规则:用于匹配特定类型的事件。当事件成功匹配时,事件会被路由到与事件规则关联的事件目标。 事件总线总体架构 事件总线EventBridge的总体架构如下图所示: 事件源:事件的来源,将天翼云服务、自定义应用、SaaS应用等应用程序产生的事件消息投递至事件总线。 事件总线:存储接收到的事件消息,并根据事件规则将事件消息路由到事件目标。 事件目标:消费事件消息。 应用场景 事件总线EventBridge的典型应用场景如下: 构建事件驱动型架构:借助事件总线EventBridge,您无需了解事件源,就可以直接筛选并发布事件。 函数计算触发器:事件总线提供了统一的事件源接入方式,为函数计算服务提供SaaS应用事件或云服务事件的标准化接入。 应用事件流转:应用产生的事件可以通过事件总线触发其它相关联的应用,从而实现事件在应用与应用之间的流转。
        来自:
        帮助文档
        事件总线
        产品简介
        产品定义
      • 应用场景
        优势 多源数据分析免搬迁:关系型数据库RDS中存放车辆和车主基本信息,表格存储中存放实时的车辆位置和健康状态信息,数据仓库DWS中存放周期性统计的指标。通过DLI无需数据搬迁,对多数据源进行联邦分析。 数据分级存储:车企需要保留全量历史数据支撑审计类等业务,低频进行访问。温冷数据存放在低成本的对象存储服务OBS上,高频访问的热数据存放在数据引擎(DWS)中,降低整体存储成本。 告警快速敏捷触发服务器弹性伸缩:对CPU、内存、硬盘空间和带宽无特殊要求。 建议搭配以下服务使用: CDM、OBS、DWS。 大数据ETL处理 运营商大数据分析 运营商数据体量在PB~EB级,其数据种类多,有结构化的基站信息数据,非结构化的消息通信数据,同时对数据的时效性有很高的要求,DLI服务提供批处理、流处理等多模引擎,打破数据孤岛进行统一的数据分析。 优势 大数据ETL:具备TB~EB级运营商数据治理能力,能快速将海量运营商数据做ETL处理,为分布式批处理计算提供分布式数据集。 高吞吐低时延:采用Apache Flink的Dataflow模型,高性能计算资源,从用户自建的Kafka、MRSKafka、DMSKafka消费数据,单CU每秒吞吐1千~2万条消息。 建议搭配以下服务使用: OBS、DataArts Studio。
        来自:
        帮助文档
        数据湖探索
        产品简介
        应用场景
      • 消息中心
        本节介绍如何查看防护容器的下线通知和删除服务通知。 消息中心页面提供防护容器的下线通知和删除服务通知,以便用户及时恢复防护容器。 查看消息 1. 登录容器安全卫士控制台。 2. 在左侧导航栏,选择“消息中心”,进入消息中心页面。 3. 支持查看“服务信息”和“删除服务”类消息。 标记已读 在消息中心页面,阅读消息后,可以勾选多条消息后,单击“标记已读”,在弹出的对话框中,可以选择“全部标记已读”或只对当前选择项标记已读,选择完成后,单击“确认”。
        来自:
        帮助文档
        容器安全卫士
        用户指南
        消息中心
      • 查询证书列表
        枚举参数 参数名 certType 枚举值 类型 说明 CLIENTCA String 客户端CA证书 SERVER String 服务端证书 参数名 encryptor 枚举值 类型 说明 RSA String RSA 请求示例 请求url 请求头header { "regionId":"bb9fdb42056f11eda1610242ac110002" } 请求体body 无 响应示例 { "statusCode":800, "returnObj": { "pageNum": 1, "pageSize": 10, "totalCount": 100, "result": [ { "certId": "123", "certName": "myCert", "remark": "test", "validFrom": "20250101 00:00:00", "validEnd": "20280101 00:00:00", "uploadTime": "20240101 00:00:00", "sn": "123", "certType": "SERVER", "encryptor": "RSA", "subject": "lollipop.inc" } ] } } 状态码 请参考 状态码 错误码 请参考 错误码
        来自:
        帮助文档
        分布式消息服务MQTT
        API参考
        API
        2022-04-13
        查询证书列表
      • 配置Kafka实例的公网访问
        关闭IPv4公网访问(支持修改明文/密文接入) 1. 登录管理控制台。 2. 在管理控制台左上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 3. 在管理控制台左上角单击,选择“应用中间件 > 分布式消息服务Kafka”,进入分布式消息服务Kafka专享版页面。 4. 单击Kafka实例的名称,进入实例的“基本信息”页面。 5. 关闭公网访问前,需要先关闭公网访问中的“明文接入”和“密文接入”。然后在“公网访问”后,单击,弹出确认关闭对话框。 6. 单击“确认”,跳转到“后台任务管理”页面。当任务状态显示为“成功”时,表示成功关闭公网访问。 关闭公网访问后,需要设置对应的安全组规则,才能成功通过内网连接Kafka。 表4 Kafka实例安全组规则(内网访问) 方向 协议 类型 端口 源地址 说明 入方向 TCP IPv4 9092 0.0.0.0/0 使用内网通过同一个VPC访问Kafka实例(明文接入)。 入方向 TCP IPv4 9093 0.0.0.0/0 使用内网通过同一个VPC访问Kafka实例(密文接入)。 说明 创建安全组后,系统默认添加入方向“允许安全组内的弹性云主机彼此通信”规则和出方向“放通全部流量”规则,此时使用内网通过同一个VPC访问Kafka实例,无需添加表4的规则。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        连接Kafka实例
        配置Kafka实例的公网访问
      • 【优惠】正式开放2年7折,3年5折包年折扣
        面向长期稳定客户,我们特别推出了更加优惠的包年订阅选项,旨在通过深度折扣,帮助客户显著降低资源单位成本,优化整体支出。 自2024年11月9日起订购和续订分布式消息服务RocketMQ产品更长包周期即可享受2年7折,3年5折优惠。 注意 本次包年优惠适用于新资费产品范围,具体支持资源池请参阅
        来自:
        帮助文档
        分布式消息服务RocketMQ
        服务公告
        2024年
        【优惠】正式开放2年7折,3年5折包年折扣
      • 购买类
        本节介绍了分布式消息服务RabbitMQ产品常见购买类问题。 到期后如何续费? 在集群列表中点击“续费”,进入购买时长页面,购买成功续费成功。 产品订购时可选资源池节点不一致? 已上线资源池节点的剩余容量达到一定比例后,为确保老客户权益,将不再面向新客户开放,产品订购时的可选资源节点范围以实际为准。 收费依据有哪些? 根据规格和磁盘容量收费。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        常见问题
        购买类
      • 入门指引
        本文主要介绍入门指引。 本文将为您介绍分布式消息服务Kafka入门的基本流程,主要包括控制台创建Kafka专享版实例、使用弹性云主机连接实例的操作,帮助您快速上手Kafka。 您还可以通过API方式创建Kafka实例、在业务代码中连接Kafka实例。 操作流程 图Kafka使用流程 1. 环境准备 Kafka实例运行于虚拟私有云中,在创建实例前需要确保有可用的虚拟私有云。 Kafka实例创建后,您需要在弹性云主机中下载和安装Kafka开源客户端,然后才能进行生产消息和消费消息。 2. 创建Kafka实例 在创建实例时,您可以选择是否开启SASL访问,开启后,数据加密传输,安全性更高。同时,SASL开关只能在创建实例时设置,实例创建成功后,不支持修改。 3. (可选)创建Topic Kafka实例创建成功后,如果没有开启“Kafka自动创建Topic”,需要手动创建Topic,然后才能进行生产消息和消费消息。 4. 连接实例 针对实例是否开启SASL开关,在连接时是否需要下载证书,区分以下两种场景: 未使用SASL:包含内网访问和公网访问。 使用SASL:包含内网访问和公网访问。 5. 配置告警 配置Kafka实例监控告警策略,监控实际业务运行状态。 说明 关于Kafka的相关概念,请参考
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        入门指引
      • 应用场景
        本节介绍分布式缓存服务Redis版产品的应用场景 电商类应用场景 在电商类场景中,分布式缓存服务Redis版广泛用于商品展示、购物推荐、在线选号以及在大型促销秒杀活动中的库存、计数控制等 热门商品展示:秒杀活动通常会吸引大量用户的访问,商品信息的读取是非常频繁的操作。为了减轻数据库负载和提高响应速度,可以使用Redis将热门商品的信息缓存起来。这样,用户每次请求秒杀商品时,可以先从Redis中获取商品信息,而不必每次都查询数据库,可以显著提升电商网站的性能和响应速度。 库存控制:秒杀活动对商品的库存有严格的限制,需要保证商品数量的准确性和并发访问的安全性。Redis提供了原子性操作和分布式锁的支持,可以使用Redis的原子减操作来实现商品库存的扣减,同时可以使用Redis的分布式锁来保护库存操作的并发安全性。可参考最佳实践:秒杀库存控制 异步处理订单:秒杀活动结束后,会有大量的订单需要处理。为了提高系统的并发能力和响应速度,可以使用Redis作为消息队列,将订单信息存储在Redis的列表中。然后通过多个消费者进程或线程从Redis中获取订单消息进行处理,实现订单的异步处理和解耦。 游戏类应用场景 分布式缓存服务Redis版是游戏中重要的组件,一般用于玩家数据的缓存和持久化。 缓存玩家数据:分布式缓存服务Redis版可以用作玩家数据的缓存存储,包括玩家的角色信息、道具装备、技能等业务数据。通过将玩家数据存储在Redis中,可以提高数据的读取速度,并减轻数据库的负载。这对于需要频繁读取玩家数据的游戏来说尤为重要。 排行榜数据存储:在一个在线游戏中,我们需要实时统计玩家的得分,并展示排行榜,以便玩家之间进行竞争和比较。可使用分布式缓存服务Redis版的有序集合数据结构存储用户排行榜,利用Redis提供的排序功能快速获取排名信息。可参考最佳实践:排行榜功能 状态管理和计数器:Redis的计数器和键值存储特性可以用于游戏中的状态管理和计数功能。例如,可以使用Redis的计数器记录游戏中的击杀数、经验值等,以及管理玩家的在线状态,同时可以使用Redis的键值存储功能存储和读取游戏中的各种状态信息。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品介绍
        应用场景
      • 集群信息
        场景描述 RocketMQ集群信息是指描述RocketMQ集群的配置和状态的信息。它包括集群的名称、角色、节点信息、主题信息等。通过集群信息,可以管理和监控RocketMQ集群的运行情况,包括节点的状态、消息的发送和消费情况,以及负载均衡等。集群信息对于配置、监控和管理RocketMQ集群非常重要,能够确保集群的正常运行和高可用性。 配置管理:集群信息可以用于管理RocketMQ集群的配置,包括节点的IP地址、端口号、角色(如Master、Slave)、存储路径等。通过集群信息,可以方便地查看集群配置,协助保障集群的正常运行。 监控和管理:集群信息可以用于监控RocketMQ集群的状态和健康状况。通过集群信息,可以查看集群的运行状态、消息的发送和消费情况,以及节点的负载情况等。这对于集群的管理和故障排查非常重要。 负载均衡:集群信息可以用于实现RocketMQ的负载均衡。通过集群信息,可以根据节点的负载情况,动态地调整消息的分布和消费的负载,保证集群的高可用性和性能。 容灾和高可用性:集群信息可以用于实现RocketMQ的容灾和高可用性。通过配置主备节点和多副本模式,可以保证消息的可靠传递和数据的一致性。集群信息可以用于监控主备节点的状态,并在主节点故障时自动切换到备节点,保证集群的高可用性。 集群列表 分布式消息服务RocketMQ集群信息界面展示如下图: 以下适用于南京3、上海7、重庆2、乌鲁木齐27、保定、石家庄20、内蒙6、晋中、北京5 节点。 列表展示该集群每个broker的统计指标概况: 其中关键指标 昨天生产总数为前一天24小时内生产消息总数 昨天消费总数为前一天24小时内消费消息总数 今日生产总数为当前生产消息总量减去当天点集群内的生产消息总数 今日消费总数为当前消费消息总量减去当天点集群内的消费消息总数 以下适用于华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3 节点。 列表展示该集群每个broker的统计指标概况: 其中关键指标 生产TPS(1min),即生产TPS(每分钟事务数),是指RocketMQ消息生产者在一分钟内发送的消息数量。TPS是衡量系统性能的重要指标之一,它反映了系统处理能力的强弱。对于RocketMQ来说,生产TPS代表了消息生产者的发送速度和系统的处理能力。较高的生产TPS意味着系统能够处理更多的消息请求,具有更高的吞吐量。监控和优化生产TPS可以帮助提高系统的性能和可扩展性。 消费TPS(1min),即消费TPS(每分钟事务数),是指RocketMQ消息消费者在一分钟内成功消费的消息数量。消费TPS反映了系统消费消息的速度和处理能力。较高的消费TPS表示系统能够高效地处理大量的消息,具有更高的吞吐量。监控和优化消费TPS可以帮助提高系统的消费能力和性能。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        实例管理
        集群信息
      • Kafka磁盘选择超高IO还是高IO?
        本节介绍分布式消息服务Kafka磁盘类型 选择Kafka磁盘类型主要取决于应用的需求和预算。通常,对于Kafka来说,高IO磁盘是更常见的选择,因为它提供了更好的性能和吞吐量。 高IO磁盘具有更快的随机读写速度和更低的访问延迟。这对于Kafka来说非常重要,因为Kafka的性能和吞吐量受限于磁盘的读写速度。高IO磁盘适用于需要处理大量读写操作的场景,例如高频率的消息传递和数据写入。它可以提供更快的消息处理和更低的延迟,从而提高系统的响应性能。 超高IO磁盘也是一个可选的方案,它提供了更高的随机读写速度和更低的延迟,相对于传统的高IO磁盘来说性能更好。超高IO磁盘适用于对性能要求非常高的场景,例如大规模的实时数据处理和高吞吐量的消息队列。它可以提供更高的IOPS(每秒输入/输出操作数)和更低的延迟,从而支持更快的数据处理和更高的系统吞吐量。 综上所述,对于Kafka来说,一般情况下选择高IO磁盘是比较常见的选择,因为它提供了良好的性能和吞吐量。但如果预算允许,超高IO磁盘可以提供更高的性能和吞吐量,适用于对性能要求非常高的场景。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        计费与购买类
        Kafka磁盘选择超高IO还是高IO?
      • 配置作业消息通知
        本章节主要介绍如何配置作业消息通知。 MRS联合消息通知服务(SMN),采用主题订阅模型,提供一对多的消息订阅以及通知功能,能够实现一站式集成多种推送通知方式(短信和邮件通知)。通过配置作业消息通知可以实现您在作业执行成功或作业执行失败时能立即接收到通知。 操作步骤 1.登录管理控制台。 2.单击“服务列表”选择“管理与监管 > 消息通知服务”,进入消息通知服务页面。 3.创建主题并向主题中添加订阅,具体请参考配置消息通知。 4.进入MRS管理控制台,单击集群名称进入集群详情页面。 5.选择“告警管理 > 消息订阅规则 > 添加消息订阅规则”。 6.配置向订阅者发送作业执行结果消息的规则。 消息订阅规则参数说明 参数 说明 规则名称 用户自定义发送订阅消息的规则名称,只能包含数字、英文字符、中划线和下划线。 提醒通知 选择开启,将向订阅者发送对应订阅消息。 主题名称 选择已创建的主题,也可以单击“创建主题”重新创建。 消息类型 选择“事件”。 订阅规则 1. 单击“提示”前的。 2. 单击“Manager”前的。 3. 勾选“作业执行成功”和“作业执行失败”。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        配置作业消息通知
      • 【通知】云原生引擎调整为白名单特性
        分布式消息服务Kafka引擎类型云原生引擎调整为白名单特性,更多了解请查看快速入门创建实例引擎类型说明。 调整时间 2024年7月5日 影响范围 所有区域 调整影响 新用户默认不开放云原生引擎订购开通,如需要该特性,请联系技术支持开通后使用。 已购买云原生引擎实例的用户,原实例仍可正常使用,续费、扩容等操作不受影响。
        来自:
        帮助文档
        分布式消息服务Kafka
        服务公告
        2024年
        【通知】云原生引擎调整为白名单特性
      • 【通知】产品订购、续订包周期2年和3年选项调整为白名单特性
        尊敬的天翼云客户,分布式消息服务RocketMQ自2025年12月27日起,订购和续订2年、3年选项默认不开放,调整为白名单特性。 调整时间 2025年12月27日 影响范围 所有区域 调整影响 新订购和续订的实例默认不开放2年、3年选项,您可以选择1年包年选项,如仍需要23年包周期选项,请联系技术支持开通后使用。 已购买2年、3年且还在服务期间的实例仍可继续正常使用不受影响。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        服务公告
        2025年
        【通知】产品订购、续订包周期2年和3年选项调整为白名单特性
      • 【通知】产品订购、续订包周期2年和3年选项调整为白名单特性
        尊敬的天翼云客户,分布式消息服务Kafka自2025年12月27日起,订购和续订2年、3年选项默认不开放,调整为白名单特性。 调整时间 2025年12月27日 影响范围 所有区域 调整影响 新订购和续订的实例默认不开放2年、3年选项,您可以选择1年包年选项,如仍需要23年包周期选项,请联系技术支持开通后使用。 已购买2年、3年且还在服务期间的实例仍可继续正常使用不受影响。
        来自:
        帮助文档
        分布式消息服务Kafka
        服务公告
        2025年
        【通知】产品订购、续订包周期2年和3年选项调整为白名单特性
      • (可选)步骤三:创建Topic
        本文主要介绍步骤三:创建Topic。 Topic,即消息主题。创建Kafka实例成功后,如果没有开启“Kafka自动创建Topic”,需要手动创建Topic,然后才能进行生产消息和消费消息。如果实例开启了“Kafka自动创建Topic”,则该操作为可选,在进行生产时,会自动创建一个Topic,此Topic的默认参数值如下:分区数为3,副本数为3,老化时间为72小时,不开启同步复制和同步落盘。 本文主要介绍手动创建Topic的操作,有以下三种方式,您可以根据实际情况选择任意一种方式: 方式1:在控制台创建 方式2:在Kafka Manager创建 方式3:在Kafka客户端上创建 方式1:在控制台创建 步骤 1 登录分布式消息服务Kafka控制台,选择Kafka实例所在的区域。 步骤 2 在“Kafka专享版”页面,单击Kafka实例的名称,进入实例详情页面。 步骤 3 在“Topic管理”页签,单击“创建Topic”,弹出“创建Topic”对话框。 步骤 4 填写Topic名称和配置信息,单击“确定”,完成创建Topic。 方式2:在Kafka Manager创建 登录Kafka Manager后,在页面顶部选择“Topic > Create”,然后按照界面参数填写即可。 注意 Topic名称开头包含特殊字符,例如下划线“”、 号“ ”时,监控数据无法展示。 方式3:在Kafka客户端上创建 仅在Kafka客户端版本为2.2以上 时,支持通过kafkatopics.sh创建Topic,以及管理Topic的各类参数。 注意 Topic名称开头包含特殊字符,例如下划线“”、
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        (可选)步骤三:创建Topic
      • 修改分区平衡
        分区平衡前的准备工作 在不影响业务的前提下,适当调小Topic老化时间并等待消息老化,减少迁移数据,加快迁移速度,分区平衡任务结束后可重新调整为初始值。 确保分区平衡的目标Broker磁盘容量充足。如果目标Broker磁盘剩余容量接近分区平衡迁移到该Broker上的数据量,为了给目标Broker上的消息生产预留存储空间,应先进行磁盘扩容,再进行分区平衡。 自动平衡 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏单击“Topic管理”,进入Topic列表页面。 步骤 6 通过以下任意一种方法,修改分区平衡。 勾选Topic名称左侧的方框,可选一个或多个,单击信息栏左上侧的“一键平衡 > 自动平衡”。 在待修改分区平衡的Topic所在行,单击“更多 > 一键平衡 > 自动平衡”。 步骤 7 设置自动平衡参数。 在“Brokers列表”区域,勾选目标Broker的名称,Topic分区的副本即将迁移至目标Broker上。 在“Topic列表”区域,输入Topic需要自动平衡的副本数,副本数须小于等于Broker的数量。 在“带宽限制”中,输入带宽大小,默认值为“1”,表示不限制带宽。如果实例负载较低,建议不设置带宽限制。如果需要设置带宽限制,建议该参数值不小于待分区平衡Topic的总生产带宽 待分区平衡Topic的最大副本数。带宽限制值的估算方法,请参考带宽限制值估算方法。 图设置自动平衡参数 步骤 7 单击“确定”,自动跳转到Topic列表页面。 在Topic列表页面左上方单击“查看变更任务”,进入“后台任务管理”页面,查看分区平衡任务的状态。当“状态”为“成功”时,表示分区平衡完成。 说明 分区平衡任务启动后,不能删除正在进行分区平衡的Topic,否则会导致分区平衡任务无法结束。 分区平衡任务启动后,无法修改Topic的分区数。 分区平衡任务启动后,无法手动停止任务,需要等到任务完成。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        修改分区平衡
      • 【通知】CTGMQ引擎调整为白名单特性
        分布式消息服务RocketMQ引擎类型CTGMQ引擎调整为白名单特性,更多了解请查看快速入门创建RocketMQ实例引擎类型说明。 调整时间 2024年7月5日 影响范围 所有区域 调整影响 新用户默认不开放CTGMQ引擎订购开通,如需要该特性,请联系技术支持开通后使用。 已购买CTGMQ引擎实例的用户,原实例仍可正常使用,续费、扩容等操作不受影响。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        服务公告
        2024年
        【通知】CTGMQ引擎调整为白名单特性
      • 【优惠】正式开放2年7折,3年5折包年折扣
        面向长期稳定客户,我们特别推出了更加优惠的包年订阅选项,旨在通过深度折扣,帮助客户显著降低资源单位成本,优化整体支出。 自2024年11月9日起订购和续订分布式消息服务Kafka产品更长包周期即可享受2年7折,3年5折优惠。 注意 本次包年优惠适用于新资费产品范围,具体支持资源池请参阅
        来自:
        帮助文档
        分布式消息服务Kafka
        服务公告
        2024年
        【优惠】正式开放2年7折,3年5折包年折扣
      • 约束与限制
        DLI数据源约束 使用CDM服务迁移数据到DLI时,当前用户需拥有OBS的读取权限。 Oracle数据源约束 不支持Oracle实时增量数据同步。 分布式缓存服务(DCS )和Redis数据源约束 1. 由于分布式缓存服务(DCS)限制了获取所有Key的命令,CDM无法支持DCS作为源端,但可以作为迁移目的端,第三方云的Redis服务也无法支持作为源端。如果是用户在本地数据中心或ECS上自行搭建的Redis支持作为源端或目的端。 2. 仅支持Hash和String两种数据格式。 文档数据库服务(DDS )和MongoDB数据源约束 从MongoDB、DDS迁移数据时,CDM会读取集合的首行数据作为字段列表样例,如果首行数据未包含该集合的所有字段,用户需要自己手工添加字段。 云搜索服务和Elasticsearch数据源约束 1. CDM支持自动创建索引和类型,索引和类型名称只能全部小写,不能有大写。 2. 索引下的字段类型创建后不能修改,只能创建新字段。如果一定要修改字段类型,需要创建新索引或到Kibana上用Elasticsearch命令删除当前索引重新创建(数据也会删除)。 3. CDM自动创建的索引,字段类型为date时,要求数据格式为“yyyyMMdd HH:mm:ss.SSS Z”,即“20180808 08:08:08.888 +08:00”。迁移数据到云搜索服务时如果date字段的原始数据不满足格式要求,可以通过CDM的表达式转换功能转换为上述格式。 Kafka数据源约束 消息体中的数据是一条类似CSV格式的记录,可以支持多种分隔符。不支持二进制格式或其他格式的消息内容解析。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        约束与限制
      • 计费项
        本文主要介绍计费项。 计费说明 分布式消息服务Kafka的计费项由实例费用和存储空间费用组成。 表 分布式消息服务Kafka计费项 计费项 计费项说明 适用的计费模式 计费公式 实例费用 计费因子:代理规格和代理数量 包年/包月、按需计费 实例规格单价 购买时长 实例规格单价请参考产品价格。 存储空间费用 计费因子:云硬盘类型、容量 包年/包月、按需计费 存储规格单价 购买时长 存储规格单价请参考产品价格。 Smart Connect Smart Connect用于异构系统间的数据同步,开启Smart Connect后,设置Smart Connect任务可以实现Kafka实例和其他云服务(如OBS)之间的数据同步,或者两个Kafka实例之间的数据同步。 包年/包月、按需计费 开启Smart Connect后,实例会另外创建2个同规格、用于Smart Connect的代理,并收取相应的代理费用。例如:规格为kafka.4u8g.cluster的实例,会另外创建2个规格为kafka.4u8g的代理,用于Smart Connect,所以需要收取相应代理费用。 计费示例 计费场景 假如某用户于2023/03/18 15:30:00在“广州4”区域购买了一个按需计费的Kafka实例,规格配置如下: 规格:kafka.2u4g.cluster3 总存储空间:高I/O 300GB 用了一段时间后,用户发现Kafka实例当前规格无法满足业务需要,于2023/03/20 9:00:00升配为kafka.4u8g.cluster3。因为该Kafka实例打算长期使用下去,于2023/03/20 10:30:00将Kafka实例转为包年/包月计费,购买时长为1个月。那么在3~4月份,该Kafka实例总共产生多少费用呢?
        来自:
        帮助文档
        分布式消息服务Kafka
        计费说明
        计费项
      • 编辑用户
        本章节介绍了如何编辑分布式消息服务RocketMQ实例的用户。 操作场景 用户创建成功后,您可以根据业务需要修改以下用户信息:IP白名单、管理员、默认Topic权限、默认消费组权限和密钥。 操作步骤 1. 登录分布式消息服务RocketMQ控制台。 2. 单击RocketMQ实例的名称,进入实例详情页面。 3. 在左侧导航栏,单击“用户管理”,进入“用户管理”页面。 4. 在待修改的用户所在行,单击“编辑”,弹出“编辑用户”对话框。 5. 根据业务需要,修改如表1所示信息。 表1 用户参数说明 参数 说明 IP白名单 如果请求的来源IP为IP白名单中的地址,不需要校验用户密钥是否正确,且具有所有Topic和消费组的发布+订阅权限。IP白名单可以配置为具体的IP地址,也可以配置为网段。如:192.168.1.2,192.168.2.3或者192. . . 管理员 开启管理员时,具有所有Topic和消费组的发布+订阅权限。 默认Topic权限 默认的Topic权限。 如果为指定Topic设置特殊权限,特殊权限会覆盖默认权限,此Topic的实际权限为特殊权限。例如:默认权限为订阅,指定Topic的特殊权限为发布+订阅,则此Topic实际权限为发布+订阅。 默认消费组权限 默认的消费组权限。 如果为指定消费组设置特殊权限,特殊权限会覆盖默认权限,此消费组的实际权限为特殊权限。例如:默认权限为订阅,指定消费组的权限为发布+订阅,则此消费组实际权限为发布+订阅。 密钥 设置用户的密钥。 6. 单击“确定”,完成用户的修改。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        用户管理
        编辑用户
      • 【通知】通用型主机规格调整为白名单特性
        分布式消息服务RocketMQ主机类型通用型规格调整为白名单特性,更多了解请查看计费模式产品规格相关说明。 调整时间 2024年6月25日 影响范围 所有区域 调整影响 新用户默认不开放主机类型通用型规格订购开通,如需要该特性,请联系技术支持开通后使用。 已购买主机类型通用型规格实例的用户,原实例仍可正常使用,续费、扩容等操作不受影响。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        服务公告
        2024年
        【通知】通用型主机规格调整为白名单特性
      • 【通知】通用型主机规格调整为白名单特性
        分布式消息服务Kafka主机类型通用型规格调整为白名单特性,更多了解请查看计费项产品规格说明。 调整时间 2024年6月25日 影响范围 所有区域 调整影响 新用户默认不开放主机类型通用型规格订购开通,如需要该特性,请联系技术支持开通后使用。 已购买主机类型通用型规格实例的用户,原实例仍可正常使用,续费、扩容等操作不受影响。
        来自:
        帮助文档
        分布式消息服务Kafka
        服务公告
        2024年
        【通知】通用型主机规格调整为白名单特性
      • 【通知】通用型主机规格调整为白名单特性
        分布式消息服务RabbitMQ主机类型通用型规格调整为白名单特性,更多了解请查看计费项产品规格说明。 调整时间 2024年6月25日 影响范围 所有区域 调整影响 新用户默认不开放主机类型通用型规格订购开通,如需要该特性,请联系技术支持开通后使用。 已购买主机类型通用型规格实例的用户,原实例仍可正常使用,续费、扩容等操作不受影响。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        服务公告
        2024年
        【通知】通用型主机规格调整为白名单特性
      • 创建消息通知主题
        本章节主要介绍创建消息通知主题。 操作场景 确定创建消息通知主题后,您可在消息通知服务的“主题管理”页面中,对对应的主题“添加订阅”,选择不同方式(例如短信或者邮件等)进行订阅;订阅成功后,若作业失败,则系统将会自动发送消息到您指定的订阅终端。 操作步骤 1.在“资源管理 > 队列管理”页面,单击左上角“创建消息通知主题”。 2.选择队列,单击“确定”。 说明 选择队列时,可以选择单个队列,也可以选择所有队列。 如果单个队列和所有队列的终端不一致,当选择了单个队列,同时选择了所有队列进行订阅时,在所有队列的消息通知中将不包含该队列的消息。 创建消息通知主题后,只有在订阅队列上创建的Spark作业失败时才会收到消息通知。 3.单击“主题管理”,跳转至消息通知服务“主题管理”页面。 4.在对应主题的“操作”栏中,单击“添加订阅”,选择“协议”,确定订阅方式。 5.通过单击邮件中的链接确认后,将收到“订阅成功”的信息。 6.在消息通知服务的“订阅”页面,对应的订阅状态为“已确认”,表示订阅成功。
        来自:
        帮助文档
        数据湖探索
        用户指南
        队列管理
        创建消息通知主题
      • 创建流控
        本文主要介绍 创建流控。 操作场景 本章节指导您在控制台对用户/客户端/Topic进行流量控制,控制生产/消费消息的上限速率。 用户/客户端的流控作用范围是整个broker,Topic的流控作用范围是指定Topic。 操作影响 当流控值达到上限后,会导致生产/消费的时延增大。 设置的流控值较小且生产者速率较大时,可能会造成生产超时、消息丢失,导致部分消息生产失败。 初始生产/消费的流量较大,如果设置一个较小的流控值,会导致生产/消费的时延增大、部分消息生产失败。建议逐次减半设置流控值,待生产/消费稳定后继续减半设置,直到设置为目标流控值。例如初始生产流量100MB/s,可先设置生产流控为50MB/s,待稳定后再修改为25MB/s,直到目标流控值。 前提条件 如果需要对用户进行流量控制,请在创建Kafka实例时,开启SASLSSL功能。然后在控制台的“用户管理”页面,获取用户名。 如果需要对指定客户端进行流量控制,请在客户端配置中获取client ID。 如果需要对指定Topic进行流量控制,请在控制台的“Topic管理”页面,获取Topic名称。 创建用户/客户端流控 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏单击“流控管理 > 流控列表”,进入流控列表页面。 步骤 6 在页面顶端单击“User/Client”,进入“User/Client”页签。 步骤 7 在页面左上角单击“创建流控”,弹出“创建流控”对话框。 步骤 8 设置流控参数。 表 流控参数说明 参数名称 说明 用户名 输入指定用户名,对此用户进行流控。如果需要对所有用户进行流控,在“用户名”后,单击“选择默认”。流控创建完后,无法修改“用户名”。 客户端ID 输入指定客户端ID,对此客户端进行流控。如果需要对所有客户端进行流控,在“客户端ID”后,单击“选择默认”。流控创建完后,无法修改“客户端ID”。 生产上限速率 设置生产上限速率,单位为MB/s。为空时,表示不设置速率。 消费上限速率 设置消费上限速率,单位为MB/s。为空时,表示不设置速率。 说明 未开启SASL的实例,在“创建流控”对话框中,不显示“用户名”。 “用户名”和“客户端ID”不可同时为空。 “生产上限速率”和“消费上限速率”不可同时为空。 步骤 9 单击“确定”,跳转到“后台任务管理”页面,当流控任务的“状态”为“成功”时,表示流控创建成功。 进入“流控管理 > 流控列表”页面,在“User/Client”页签中,单击页面右上角的“仅设置了用户名”/“仅设置了客户端ID”/“设置了用户名和客户端ID”,输入新创建的流控名称,单击,查看新创建的流控。 图 查看新创建的流控
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        流控管理
        创建流控
      • 1
      • ...
      • 15
      • 16
      • 17
      • 18
      • 19
      • ...
      • 531
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      镜像服务 IMS

      AI Store

      应用托管

      智算一体机

      人脸检测

      人脸实名认证

      人脸属性识别

      推荐文档

      常见问题

      云课堂 第十三课:如何远程管理天翼云RDS数据库

      连接列表

      配置老化周期

      退订

      iOS客户端需求

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号