活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      安全生产_相关内容
      • Kafka相关概念
        本文主要介绍 Kafka相关概念。 云服务平台使用Kafka作为消息引擎,以下概念基于Kafka进行描述。 Topic 消息主题。消息的生产与消费,围绕消息主题进行生产、消费以及其他消息管理操作。 Topic也是消息队列的一种发布与订阅消息模型。生产者向消息主题发布消息,多个消费者订阅该消息主题的消息,生产者与消费者彼此并无直接关系。 生产者(Producer) 向Topic(消息主题)发布消息的一方。发布消息的最终目的在于将消息内容传递给其他系统/模块,使对方按照约定处理该消息。 消费者(Consumer) 从Topic(消息主题)订阅消息的一方。订阅消息最终目的在于处理消息内容,如日志集成场景中,监控告警平台(消费者)从主题订阅日志消息,识别出告警日志并发送告警消息/邮件。 代理(Broker) 即Kafka集群架构设计中的单个Kafka进程,一个Kafka进程对应一台服务器,因此手册中描述的代理,还包括对应的存储、带宽等服务器资源。 分区(Partition) 为了实现水平扩展与高可用,Kafka将Topic划分为多个分区,消息被分布式存储在分区中。 副本(Replica) 消息的备份存储。为了确保消息可靠,Kafka创建Topic时,每个分区会分别从代理中选择1个或多个,对消息进行冗余存储。 Topic的所有消息分布式存储在各个分区上,分区在每个副本存储一份全量数据,副本之间的消息数据保持同步,任何一个副本不可用,数据都不会丢失。 每个分区都随机挑选一个副本作为Leader,该分区所有消息的生产与消费都在Leader副本上完成,消息从Leader副本复制到其他副本(Follower)。 Kafka的主题和分区属于逻辑概念,副本与代理属于物理概念。下图通过消息的生产与消费流向,解释了Kafka的分区、代理与主题间的关系。 图 Kafka消息流
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        Kafka相关概念
      • 实例问题
        Kafka实例的超高IO和高IO如何选择? 高IO:平均时延13ms,最大带宽150MB/s(读+写)。 超高IO:平均时延1ms,最大带宽350MB/s(读+写)。 建议选择超高IO,云硬盘服务端压力大场景,都不能达到最大带宽,但是超高IO可达到的带宽比高IO高很多。 如何选择Kafka实例存储容量阈值策略? 支持以下两种策略: 生产受限策略 该策略场景下一旦磁盘使用达到容量阈值95%,会导致后续生产失败,但保留了当前磁盘中的数据,直至数据自然老化(Kafka原有的老化机制,数据默认保留3天)。该场景适用于对数据不能丢的业务场景,但是会导致生产业务失败。 自动删除策略 该策略场景下磁盘使用到达容量阈值95%后,依旧可以正常生产和消费消息,但是会删除最早的10%的消息,以保证磁盘容量充足。该场景优先保障业务不中断,数据可能会丢失。 以上两种策略的需要基于业务对数据和业务的可靠性来进行选择,只能作为极端场景下的一个种处理方式。 建议业务购买时保证有充足的磁盘容量,避免磁盘的使用达到容量阈值 。 Kafka服务端支持版本是多少? Kafka 1.1.0、2.7和3.x版本。 如果您想要创建Kafka实例,具体步骤请参考购买Kafka实例。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        实例问题
      • 使用云原生网关实现蓝绿、金丝雀发布及AB实验
        本章节介绍使用云原生网关实现蓝绿、金丝雀发布及AB实验的最佳实践 概述 蓝绿部署(BlueGreen Deployment)和金丝雀部署(Canary Deployment)是部署中常用的两种策略,用于在生产环境中引入新版本的应用程序或服务。这两种部署策略旨在降低风险并确保新版本的稳定性,同时允许逐步发布或回滚变更。 蓝绿部署中存在两个完全独立的生产环境(通常称为蓝环境和绿环境)被用于部署不同版本的应用程序。最初,蓝环境是当前正在运行的稳定版本,而绿环境是新版本的部署目标。一旦绿环境成功部署并通过测试,可以将流量切换到绿环境,并将蓝环境作为备份或回滚选项保留。这种方式可以确保在生产环境中保持稳定,并在需要时快速回滚到之前的版本。 金丝雀部署是一种逐步发布新版本的策略。在金丝雀部署中,新版本的应用程序或服务仅在一小部分用户或服务器上进行部署,这些用户或服务器被称为金丝雀群体。通过监控金丝雀群体的性能和稳定性,可以评估新版本的表现,并在没有负面影响的情况下逐步扩大金丝雀群体的规模,直到最终将新版本部署到整个生产环境。如果金丝雀部署中发现了问题或负面影响,可以快速回滚到之前的版本,以避免对所有用户造成影响。
        来自:
        帮助文档
        微服务引擎
        最佳实践
        使用云原生网关实现蓝绿、金丝雀发布及AB实验
      • 连接已开启SSL的RocketMQ实例
        本章节介绍了如何连接已开启SSL的分布式消息服务RocketMQ实例。 实例开启SSL时,数据使用加密传输,安全性更高。本文主要介绍在命令行模式下使用SSL连接RocketMQ实例的操作,其中包含VPC内和公网环境下两种连接场景。 在使用SSL连接的场景下,通过VPC内访问和通过公网环境访问,仅涉及连接IP和端口不一致,其他操作步骤是一样的,VPC内访问的连接端口为8100,公网环境下访问的连接端口为8200。 文中仅介绍公网环境下的连接示例,在VPC内连接时,替换为相应的连接地址即可。 前提条件 已创建RocketMQ实例,并记录实例详情中的“元数据连接地址”(VPC内访问)/“元数据公网连接地址”(公网访问)。 已配置安全组。 已创建Topic。 已创建弹性云服务器,并且弹性云服务器的VPC、子网、安全组与RocketMQ实例的VPC、子网、安全组保持一致。 已安装Java Development Kit 1.8.111或以上版本,并完成环境变量配置。 命令行模式连接实例 1. 下载“rocketmqtutorial”示例软件包。 wget 2. 解压“rocketmqtutorial”。 unzip rocketmqtutorial.zip 3. 进入“rocketmqtutorial/bin”目录。 cd rocketmqtutorial/bin 4. 运行生产普通消息示例。 sh mqadmin sendMessage n "{连接地址}" t {Topic名称} p "hello rocketmq" 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin sendMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest p "hello rocketmq" 使用Ctrl+C命令退出。 5. 运行消费普通消息示例。 sh mqadmin consumeMessage n "{连接地址}" t {Topic名称} 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin consumeMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest 如需停止消费使用Ctrl+C命令退出。 6. 运行生产带消息轨迹的消息示例。 sh mqadmin sendMessage n "{连接地址}" t {Topic名称} p "hello rocketmq" m true 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin sendMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest p "hello rocketmq" m true 使用Ctrl+C命令退出。 7. 运行消费消息示例,并发送消息轨迹。 sh mqadmin consumeMessage n "{连接地址}" t {Topic名称} m true 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin consumeMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest m true 使用Ctrl+C命令退出。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        连接实例
        连接已开启SSL的RocketMQ实例
      • 连接未开启SSL的RocketMQ实例
        本章节介绍了如何连接未开启SSL的分布式消息服务RocketMQ实例。 实例开启SSL时,数据使用加密传输,安全性更高。本文主要介绍在命令行模式下使用SSL连接RocketMQ实例的操作,其中包含VPC内和公网环境下两种连接场景。 在使用SSL连接的场景下,通过VPC内访问和通过公网环境访问,仅涉及连接IP和端口不一致,其他操作步骤是一样的,VPC内访问的连接端口为8100,公网环境下访问的连接端口为8200。 文中仅介绍公网环境下的连接示例,在VPC内连接时,替换为相应的连接地址即可。 前提条件 已创建RocketMQ实例,并记录实例详情中的“元数据连接地址”(VPC内访问)/“元数据公网连接地址”(公网访问)。 已配置安全组。 已创建Topic。 已创建弹性云服务器,并且弹性云服务器的VPC、子网、安全组与RocketMQ实例的VPC、子网、安全组保持一致。 已安装Java Development Kit 1.8.111或以上版本,并完成环境变量配置。 命令行模式连接实例 1. 下载“rocketmqtutorial.zip”示例软件包。 wget 2. 解压“rocketmqtutorial”。 unzip rocketmqtutorial.zip 3. 进入“rocketmqtutorial/bin”目录。 cd rocketmqtutorial/bin 4. 运行生产普通消息示例。 sh mqadmin sendMessage n "{连接地址}" t {Topic名称} p "hello rocketmq" 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin sendMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest p "hello rocketmq" 使用Ctrl+C命令退出。 5. 运行消费普通消息示例。 sh mqadmin consumeMessage n "{连接地址}" t {Topic名称} 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin consumeMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest 如需停止消费使用Ctrl+C命令退出。 6. 运行生产带消息轨迹的消息示例。 sh mqadmin sendMessage n "{连接地址}" t {Topic名称} p "hello rocketmq" m true 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin sendMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest p "hello rocketmq" m true 使用Ctrl+C命令退出。 7. 运行消费消息示例,并发送消息轨迹。 sh mqadmin consumeMessage n "{连接地址}" t {Topic名称} m true 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin consumeMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest m true 使用Ctrl+C命令退出。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        连接实例
        连接未开启SSL的RocketMQ实例
      • 防止个人敏感数据在开发测试中被泄露操作指导
        敏感数据是指泄漏后可能会给社会或个人带来严重危害的数据。 敏感数据举例: 个人:家庭住址、工作单位、银行卡号、身份证号码 企业或组织:财务信息、客户资料、技术资料、重大决策等公司核心信息。 天翼云数据安全中心(Data Security Center,简称DSC)为您提供静态数据脱敏功能:能够根据脱敏规则对大批量数据进行统一变形转换处理。静态脱敏的应用场景多为:开发测试、数据分享、数据研究。可以将生产环境中的敏感数据交付至开发、测试或者外发环境。 为何敏感数据会泄露 内部原因 员工(包括在职员工、待离职员工、合作伙伴、外包人员)盗窃数据 重要笔记本电脑和移动设备的丢失或失窃 敏感数据越权访问和存储 企业员工打印、外和复制敏感数据 意外传输敏感数据 外部原因 基础措施不可控,避免数据存储系统存在安全漏洞 配置不当导致的外部攻击 敏感数据越权访问和存储 场景 场景假设:“rsddsctest”数据库中“dscyunxiaoke”表中存储了银行员工信息。 处理方案:当前需要对敏感数据进行敏感数据识别并完成脱敏,可选择识别规则组“银行金融领域模板”,该模板为预置模板,能识别出敏感数据并生成识别结果数据报告,再对识别出的敏感数据进行“Hash脱敏”中的SHA256算法进行脱敏处理,以此来达到保护敏感数据得目的。
        来自:
        帮助文档
        数据安全中心
        最佳实践
        防止个人敏感数据在开发测试中被泄露操作指导
      • 容灾管理
        本章节主要介绍容灾管理。 启动容灾 1.登录DWS 管理控制台。 2.在左侧导航栏中,单击“容灾管理”。 3.在容灾列表中,在指定容灾所在行的“操作”列,单击 “启动” 按钮。 4.在弹出框单击“确定”。 此时容灾的“容灾状态”显示为“启动中”,启动需要时间请耐心等待。启动成功后“容灾状态”显示为“运行中”。 说明 容灾状态为“未启动”、“启动失败”和“已停止”时可以执行启动容灾操作。 启动容灾后,生产集群和灾备集群将无法进行恢复、扩容、升级、重启、节点替换等操作,此外,灾备集群将无法进行备份操作,请谨慎操作。 停止容灾 1.登录DWS 管理控制台。 2.在左侧导航栏中,单击“容灾管理”。 3.在容灾列表中,在指定容灾所在行的“操作”列,单击 “停止” 按钮。 4.在弹出框单击“确定”。 此时容灾的“容灾状态”显示为“停止中”,停止需要时间请耐心等待。停止成功后“容灾状态”显示为“已停止”。 说明 容灾状态为“运行中”和“停止失败”时可以执行停止容灾操作。 停止后,将无法进行数据同步,请谨慎操作。 灾备切换 1.登录DWS 管理控制台。 2.在左侧导航栏中,单击“容灾管理”。 3.在容灾列表中,在指定容灾所在行的“操作”列,单击 “灾备切换” 按钮。 此时容灾的“容灾状态”显示为“灾备切换中”,灾备切换需要时间请耐心等待。 4.在弹出框单击“确定”。 切换成功后“容灾状态”更新为切换前的状态,如:切换前容灾状态为“运行中”,切换后还是“运行中”。 说明 容灾状态为“运行中”和“异常”时可以执行灾备切换操作。 灾备切换需要一定时间,在此期间,原生产集群将可不用。 不同场景下进行灾备切换,RPO说明如下: 生产集群在“可用”的状态下,RPO0。 生产集群在“不可用”的状态下,无法保证RPO0,但数据至少可恢复到生产集群“最近容灾成功时间”,详情请参见 查看容灾信息。
        来自:
        帮助文档
        数据仓库服务
        用户指南
        集群高可用
        集群容灾
        容灾管理
      • 备份功能简介
        备份方案 说明 使用场景 自动备份 DRDS会根据您配置的备份策略帮助您自动完成数据备份,DRDS的备份策略同步其所关联的MySQL实例的备份策略。 自动备份通常应用于以下场景: 数据备份和恢复:在生产系统中使用DRDS自动备份功能可以轻松备份所有数据,并在数据丢失或出现故障时快速恢复数据。 性能和安全:在系统中使用DRDS自动备份功能可以帮助数据库管理员决定何时进行备份,并且可以按时调度任务。这样可以避免在系统高峰期间执行备份操作,造成性能问题。 手动备份 您可以根据业务需要开启手动备份。 手动备份通常应用于以下场景: 应急备份:DRDS手动备份可以在需要时立即备份所有数据,并在紧急情况下恢复。这对于快速回滚到过往版本的数据库非常有用,从而修复由数据损坏、恶意活动导致的问题。 需要进行定时备份的服务器:在一些服务器中,如果由于备份文件大小太大或者检测到性能问题导致自动备份不可行的情况下,手动备份可以作为一种替代方法。通过管理员手动设置时间表,公司可以安排定期手动备份以保护其数据。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        备份与恢复
        备份
        备份功能简介
      • 重置消费位置
        操作步骤 1、 天翼云官网点击控制中心,选择产品分布式消息服务RocketMQ。 2、 登录分布式消息服务RocketMQ控制台,点击右上角地域选择对应资源池。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入Topic管理菜单,点击【重置消费】按钮,弹出窗口选择消费组名称。 5、 选择重置时间点,点击确定即可重置消费位置。 注意:当将消费时间重置到历史时间T1,则T1之前生产的消息,都变成已消费,T1之后生产的消息,都变成未消费;将消费时间重置到未来时间T2,则存量的所有消息都变成已消费。 备注: 重置时间:是指消息生产的时间 不选时间:所有消息都变成未消费 未来时间:所有消息都变成已消费 某时间点:该时间之前变成已消费,改时间之后未消费 v1消费模式必须关闭消费客户端
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        Topic管理
        重置消费位置
      • 注册
        本文为您介绍注册的操作流程。 操作场景 在完成故障恢复后,可以对生产中心恢复出来的云主机进行注册操作,将恢复出的生产云主机加入当前保护组,为正向复制操作做准备。 前提条件 受保护的服务器状态为“故障恢复完成”。 操作步骤 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域。 3. 在存储产品中选择“云容灾”,进入云容灾页面。 4. 在云容灾页面,单击“云上容灾”,进入保护组板块展示页面。 5. 在保护组板块展示页面,找到目标保护组,单击目标保护组板块,进入保护组页面。 6. 在保护组页面,在“受保护的服务器”页签,找到目标主机名,在操作列选择“更多>故障切换>注册”。 7. 在弹窗中,确认信息无误后单击“确定”,服务器状态变为“注册中”。 8. 待云主机状态变为“已初始化”,说明注册完成。 此时,受保护的服务器变为生产中心的云主机。
        来自:
        帮助文档
        云容灾 CDR
        用户指南
        故障恢复
        注册
      • 查看示例代码
        本文主要介绍查看示例代码。 本章节指导您在控制台查看Java、Go和Python生产消费消息的示例代码。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 选择“Topic管理”页签,显示已创建的Topic详情。 步骤 6 单击“查看示例代码”,弹出“生产消费示例代码”对话框。 查看Java、Go和Python生产消费消息的示例代码。示例代码区分是否开启SASLSSL认证,“接入类型”为“PLAINTEXT”时,表示未开启SASLSSL认证。“接入类型”为“SASLSSL”时,表示已开启SASLSSL认证。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        查看示例代码
      • API管理
        概述 云原生网关的API管理集中控制API的路由、流量和安全。用户可以配置API路由规则、请求处理、认证授权等功能,确保高效、安全的访问。 操作步骤 1. 登录微服务引擎MSE云原生网关管理控制台,选择资源池。 2. 在左侧导航栏,选择云原生网关 > 网关列表,进入对应网关实例的控制台。 3. 在左侧导航栏,选择API托管 > API列表。 创建API API的创建过程分为四个步骤: 1、基本信息 分组:API所属的分组,创建后不可修改。 API名称:可填写API的业务含义。 安全认证:选择API的安全认证方式,开启应用授权后,只有授权的应用才能访问该API。 防重放攻击:开启后,请求头必须包含xcatimestamp和xcanonce参数。 2、定义API请求 请求路径(Path):API的访问路径。如果分组设置了BasePath,API的最终访问路径将为BasePath+Path。创建后不可修改。 请求方法(HTTP Method):指定API的请求方式。创建后不可修改。 入参请求模式:支持三种模式,入参映射(过滤未知参数)、入参映射(透传未知参数)、入参透传。 入参定义:支持在query、header、path中定义参数。如果在path中定义了参数,必须确保该参数包含在Path中。 3、定义后端服务 后端服务:负责处理请求的后端服务。 后端请求路径(Path):网关转发请求到后端服务的路径。如果在Path中定义了参数,后端请求路径中必须包含相应参数。 请求方法(HTTP Method):指定请求后端服务的方式。 后端超时:设置请求后端服务的超时时间。 后端服务参数配置:将请求的入参与后端服务的入参一一对应,支持修改请求参数名。 常量参数:可以添加常量参数,并透传到后端服务。 系统参数配置:支持添加系统参数,并透传到后端服务。 4、定义返回结果 这里设置的API返回结果,仅用于生产文档,不会对API的请求、响应产生影响。
        来自:
        帮助文档
        微服务引擎
        用户指南
        云原生网关
        API托管
        API管理
        API管理
      • 功能特性
        本文为您介绍云容灾的功能特性。 在使用云容灾之前,建议您先了解故障切换、RPO、RTO等基本概念,以便更好地使用云容灾的功能。更多信息,请参见术语解释。 云主机跨可用区容灾 当出现机房级故障(如电力故障、网络故障、空调故障等)时,生产中心故障导致业务中断,云容灾服务可提供云主机跨可用区秒级RPO、分钟级RTO的容灾保护。通过简单的配置,即可在容灾中心拉起容灾云主机,迅速接管业务。 容灾演练 在不影响业务的情况下,通过模拟真实的容灾恢复场景,确保在生产中心发生故障时能够顺畅地进行故障切换,且容灾中心云主机能够正常拉起、接管业务。 故障切换 定期的容灾演练保障了业务可以随时在云上拉起。当生产中心发生重大故障,通过故障切换操作可以在云上迅速恢复业务。
        来自:
        帮助文档
        云容灾 CDR
        产品简介
        功能特性
      • 容灾互斥案例
        本章节主要介绍容灾互斥案例。 案例一:容灾状态下如何进行集群扩容? 1.登录DWS 管理控制台。 2.在左侧导航栏中,单击“集群管理”。 3.在集群列表中,若需要容灾扩容的集群“任务信息”为“容灾未启动”,执行步骤5和步骤7。 4.若需要容灾扩容的集群“任务信息”不是“容灾未启动”时,则需要删除容灾,请参见容灾管理中的“删除容灾”。 5.在生产、灾备集群所在行的“操作”列,选择“更多>扩容”,确认节点规格后执行扩容操作。 6.创建容灾,请参见创建容灾 7.启动容灾,请参见容灾管理中的“启动容灾”。 说明 扩容后的生产集群和灾备集群需逻辑同构,即:扩容后生产、灾备集群的DN数量保持一致。
        来自:
        帮助文档
        数据仓库服务
        用户指南
        集群高可用
        集群容灾
        容灾互斥案例
      • 消息堆积对业务的影响及解决办法
        本文主要介绍消息堆积对业务的影响及解决办法。 消息堆积对业务的影响 过量的消息堆积可能会引起内存或磁盘告警,从而造成所有connection阻塞,进而影响到其他队列的使用,导致整体服务质量的下降。 消息堆积产生的原因 1. 一般来说消息堆积是由于生产消息的速率远大于消费消息的速率所导致的。比如某个时间段消费端处理消息异常缓慢,发送一条消息只要3秒钟,而消费一条消息需要1分钟,每分钟发送20个消息,只有一个消息被消费端处理,这样队列中就会产生大量的消息堆积。 2. 消费者出现异常,生产者一直在发送消息,但是消费者不能消费,造成消息积压。 3. 消费者没有出现异常,但是消费者与队列间的订阅可能出现了异常,也会导致消息无法被消费从而造成堆积的情况。 4. 消费者正常,与队列间的订阅也正常,但是消费端的代码本身逻辑耗费时间长导致了消费能力降低,这时候就会出现1中的情况从而导致消息堆积。 解决消息堆积的办法 1. 生产速率较快,消费速率较慢 :您可以通过以下方法解决。 增加消费者数量提高消费速率。 采用生产者确认的发送模式,并监控生产端消息生产速度和时长,当消息生产时长有明显增加时进行流控措施。 2. 消费者异常 :建议排查消费者逻辑是不是有问题,优化程序。 3. 消费者与队列间的订阅异常 :建议排查队列和消费者之间的订阅是否正常。 4. 消费端的代码本身逻辑耗费时间长 :建议给消息设置过期时间,设置方法如下: 在生产消息时,设置消息过期时间。消息过期时间以expiration值体现。 在properties中设置expiration值,单位为毫秒(ms)。 AMQP.BasicProperties properties new AMQP.BasicProperties().builder() .deliveryMode(2) .contentEncoding("UTF8") .expiration("10000") .build(); String message "hello rabbitmq"; channel.basicPublish(exchange, routingKey, properties, message.getBytes(StandardCharsets.UTF8)); 在Web界面中设置expiration值,单位为毫秒(ms)。 登录Web界面,在“Exchanges”页签,单击Exchange名称,进入Exchange详情页。在“Publish message”区域,设置expiration值,如下图所示。 设置队列过期时间。队列过期时间以xmessagettl值体现。从消息进入队列开始计算,超过了配置的队列过期时间,消息会自动被删除。 在客户端代码中设置xmessagettl值,单位为毫秒(ms)。 Map arguments new HashMap (); arguments.put("xmessagettl", 10000); channel.queueDeclare(queueName, true, false, false, arguments); 在Web界面新建队列时,设置xmessagettl值,单位为毫秒(ms)。 登录Web界面,在“Exchanges”页签,新建队列时,设置xmessagettl值,如下图所示。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        常见问题
        复杂操作问题
        消息堆积对业务的影响及解决办法
      • 翼MR产品支持Hive元数据库使用内置MySQL类型吗?
        本章节主要介绍翼MapReduce集群组件使用规则。 当前,翼MR产品不支持Hive元数据库使用内置MySQL类型。内置MySQL不具备生产运行所需要的高可用、高安全性,且该方式缺乏有效的技术保障能力,客户需要为此承担不必要的业务风险。 在翼MR集群开通的流程中,基于上述产品考量,不开放相关选配功能,默认推荐客户预先开通好天翼云成熟的数据库产品关系数据库MySQL版(CTRDS MySQL)作为Hive服务的元数据库。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        产品咨询类
        翼MR产品支持Hive元数据库使用内置MySQL类型吗?
      • 性能测试概述
        本页主要介绍关系数据库MySQL版的性能概述以及指标说明。 性能概述 天翼云关系数据库MySQL版是一款基于云计算平台的在线关系型数据库服务,完全兼容MySQL 5.7、MySQL 8.0,提供单机、主备、一主两备、只读四种实例类型,提供备份、恢复、扩容、监控等数据库服务。 具有即开即用、稳定可靠、安全运行、弹性伸缩等特点,您仅需要简单的几步配置,就可在分钟级获得可用的生产数据库。天翼云关系数据库MySQL版不断优化RDS的各项参数,不断提升服务质量,保证产品的高稳定、高可靠和高可用性。 指标说明 实例性能测试的指标包括: 每秒执行事务数TPS(Transactions Per Second) 数据库每秒执行的事务数,以COMMIT成功次数为准。 SysBench标准OLTP读写混合场景中一个事务包含18个读写SQL。 SysBench标准OLTP只读场景中一个事务包含14个读SQL(10条主键点查询、4条范围查询)。 SysBench标准OLTP只写场景中一个事务包含4个写SQL(2条UPDATE、1条DETELE、1条INSERT)。 每秒执行请求数QPS(Queries Per Second) 数据库每秒执行的SQL数,包含INSERT、SELECT、UPDATE、DETELE、COMMIT等。
        来自:
        帮助文档
        关系数据库MySQL版
        性能白皮书
        性能测试概述
      • 修改Topic
        参数 参数说明 分区数 您可以设置Topic的分区数,分区数越大消费的并发度越大。该参数设置为1时,消费消息时会按照先入先出的顺序进行消费。取值范围:1100,默认值:6 分区容量 每个分区的数据量的最大值,超过这个值后前面生产的消息将会被删除,保证了数据不会无限上涨挤爆磁盘。 是否同步刷盘 同步刷盘即确保消息被写入磁盘才会被认定为生产成功,该参数可提高可靠性,但是会影响性能。 消息保留时长 当消息生存时间超过该时长后,将会被清理,可用于控制存储成本。 最小同步副本数 该参数使得消息必须写入设定值个数的副本后,才能被认定生产成功,该参数可提高可靠性,但是过大会影响性能,且必须不大于副本数。 批处理消息最大值 每个批次中最大允许的消息大小,这影响了每次请求中能包含的消息总量和大小。 消息时间戳类型 CreateTime: 这是消息被生产者发送到Kafka时的时间戳,它表示消息创建的实际时间;LogAppendTime: 这是消息被Kafka日志接收并写入到日志文件时的时间戳,它表示消息写入 Kafka 的实际时间。 描述 topic的描述字段,可用作标记和说明。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        修改Topic
      • 功能特性
        审计分析 对实时动态分析的日志进行归并处理和监测,可及时发现高危安全事件,如用户违规行为、数据泄露、攻击利用和主机通信异常。 关联分析策略是系统中的核心功能之一,主要关注各类日志之间的逻辑关联关系。它不仅支持以预定义规则进行事件关联,还能基于状态、时序和归并等方式发现关联。 系统可审计以下不同类型日志或事件(需结合相关设备,如防火墙和IPS等):网络攻击、有害代码、漏洞、用户访问存取、系统运行、设备故障、配置状态、网络连接和数据库操作等。 关联事件的结果将在关联事件中显示,如果符合关联策略,将以告警形式在实时监控模块呈现给用户。用户可以对告警进行处理,以确保及时应对潜在的安全问题。 数据展示 提供可视化的总体概览,通过仪表板可以直观地展示日志数据的统计和分析结果,帮助用户快速了解系统的运行状态和问题。用户可以自定义展示安全事件以及各类审计分析信息,提供实时的审计分析可视化界面。 全局监视仪表板,可展示不同设备类型、不同安全区域的实时日志流曲线、统计图,以及网络整体运行态势、待处理告警信息等。 风险报表 用户可以根据自己的需求,自由选择需要包含在报表中的指标和数据,以便更好地满足特定的业务需求。系统还提供了对预置报表模板的选择和预览功能。用户可以浏览系统中已经存在的报表模板,并选择其中的一个进行生产。这有助于用户快速生成符合自己需求的报表,节省了手动设计和生成报表的时间和工作量。 在报表中,系统以柱状图、曲线图和饼状图的方式统计安全报警和原始日志情况。这种可视化的报表展示方式使得数据更加直观易懂,用户可以更轻松地分析和理解报表中的信息。报表格式方面,系统支持PDF、Word等文件格式的导出。用户可以根据需要选择合适的文件格式,以便将报表分享给其他人或保存到本地进行进一步分析。 此外,系统还支持周期性生成报表并通过邮件推送给用户。用户可以设置报表的生成周期,例如每天、每周或每月定期生成报表,并通过电子邮件将其发送给用户。这样,用户可以及时获得最新的安全报警和日志信息,以便及时采取相应的措施。
        来自:
        帮助文档
        日志审计(原生版)
        产品介绍
        功能特性
      • 方案概述
        本章主要介绍方案概述 背景信息 HE2E DevOps实施框架,是一套可操作可落地的敏捷开发方法论,如下图所示。 HE2E DevOps实施框架 规划和设计 步骤①和②是业务(或者是客户)与技术之间进行产品规划,梳理产品整体脉络,以及进行产品规划实施设计,并控制需求粒度与拆分的过程。 软件开发的本质是为了解决问题,提供用户价值的,而不仅是为了提供功能。影响地图就是用来鉴别用户需求是什么,深层的根因是什么。 用户故事就是目标和需求的载体,以用户的场景来讲故事,便于在客户、业务与开发之间进行信息的传递。在这个过程中,独立的需求条目的堆积,很容易导致只能看到各个需求条目,不能从整个解决方案思考需求。用户故事以用户使用的场景为主线,将大的阶段点,及其细分的活动,以树状的结构进行梳理和展现,既可以看到独立的需求条目,又能够看到整体需求场景。 计划和跟踪、迭代开发 步骤③~⑩是Scrum框架过程,是主要的管理实践。 Scrum定义了一个相对完整的敏捷过程管理的框架。在软件开发生产线中,将Scrum的框架与团队日常的开发活动,很好的融合起来。主要的过程产物包括产品故事列表、迭代故事列表、潜在可交付的产品增量、以及过程中产生的问题列表;核心的团队活动包括Sprint计划会议、团队每日站会、Sprint演示会议、Sprint回顾会议等会议、以及团队的日常更新。 同时,将Kanban方法与Scrum框架进行了结合,团队借鉴Kanban方法中的精益思想,可视化价值流,发现并解决阻塞与瓶颈,加速价值流交付,并加快反馈回路,持续进行改进。 持续交付 从步骤⑪开始,进入到工程实践,也就是通常说的CI/CD过程。 持续交付以代码配置管理为基础,除了传统意义的代码资产安全与管控、多人并行开发、版本与基线管理外,也体现了团队的协作与沟通。 代码检查(即静态扫描)、自动化的构建、各阶段的自动化测试、以及相应的自动化部署过程,都被有机的串联在流水线上。 除了代码检查、构建、测试、部署等动态的阶段与活动,还有制品管理,以及各级的环境管理,包括开发环境、测试环境、准生产环境,以及生产环境。 持续交付流水线就是将整个持续交付中,都有哪些阶段,分别运行在什么环境,每个阶段执行什么活动,准入与准出的质量门禁,以及每个阶段的输入与输出的制品进行管理。
        来自:
        帮助文档
        软件开发生产线CodeArts
        最佳实践
        HE2E DevOps实践
        方案概述
      • 变更实例规格
        变更配置类型 影响 磁盘扩容 磁盘扩容不会影响业务。 代理数量扩容 1.代理数量扩容不会影响原来的代理,业务也不受影响(如果实例已配置分区自动重平衡,会触发重平衡,客户端会触发重连)。 2.新创建的Topic才会分布在新代理上,原有Topic还分布在原有代理上。通过 规格扩容缩容 1.若Topic为单副本,扩容/缩容期间会出现无法对该Topic生产消息或消费消息,会造成业务中断。 2.若Topic为多副本,代理会滚动重启,代理滚动重启造成分区Leader切换,会发生秒级连接闪断,Leader切换时长一般为1分钟以内。建议您在业务低峰期扩容/缩容,并且再生产客户端配置重试机制,方法如下: (1).生产客户端为Kafka开源客户端时,检查是否配置retries和retry.backoff.ms参数。建议参数值分别配置为:retries10,retry.backoff.ms1000。 (2).生产客户端为Flink客户端时,检查是否配置重启策略,配置重启策略可以参考如下代码。 StreamExecutionEnvironment env StreamExecutionEnvironment.getExecutionEnvironment(); env.setRestartStrategy(RestartStrategies.fixedDelayRestart(10, Time.seconds(20)));
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        变更实例规格
      • 使用DNAT访问Kafka实例
        步骤四:在Kafka控制台绑定弹性公网IP地址 步骤 1 在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 步骤 2 单击Kafka实例名称,进入实例详情页面。 步骤 3 在“基本信息”页面的“高级配置”区域,单击“修改”。 步骤 4 将“advertised.listeners IP/域名”改为DNAT规则中的弹性公网IP,内网连接地址和弹性公网IP的对应关系与添加DNAT规则中记录的对应关系保持一致,单击“保存”。 图修改advertised.listeners IP(使用DNAT访问) 步骤五:验证接口连通性 参考连接未开启SASL的Kafka实例或者连接已开启SASL的Kafka实例,测试是否可以生产和消费消息。 测试接口连通性时,注意以下几点: 连接Kafka实例的地址为“advertised.listeners IP:9011”,以上图为例,连接Kafka实例的地址为“124.xxx.xxx.167:9011,124.xxx.xxx.174:9011,124.xxx.xxx.57:9011”。 在Kafka实例安全组的入方向规则中放通9011端口。 连接Kafka实例的客户端已开启公网访问功能。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        连接Kafka实例
        使用DNAT访问Kafka实例
      • 重保护
        操作场景 切回完成后,数据不会自动同步(生产站点到容灾站点),保护实例处于停止保护状态,如需开始数据同步,需要进行重保护操作。 前提条件 待重保护的生产站点服务器已完成预配置,如果还未进行预配置,请参考文档下载附录配置生产站点服务器进行配置。 保护实例状态为“切回完成”或者“重保护失败”。 操作步骤 1. 登录管理控制台。 2. 单击服务列表,选择“存储 > 存储容灾服务”。进入“存储容灾服务”页面。 3. 在“异步复制”页面,单击待重保护的保护实例所在站点复制对的保护实例数。进入对应站点复制对的保护组页面。 4. 在左侧导航选择相应的保护组。进入保护组详情页面。 5. 在保护实例列表中,单击待重保护的保护实例所在行操作列的“更多 > 重保护”。 6. 进入重保护页面,勾选待重保护的保护实例,单击“提交”开始重保护。 7. 保护实例状态变为“重保护中”,等待操作完成。 8. 操作完成后,保护实例状态更改为“同步中”,并显示剩余待同步数据量以及预估剩余时间。 说明 切回成功后,原容灾站点服务器将自动删除。
        来自:
        帮助文档
        存储容灾服务
        用户指南
        管理保护组
        重保护
      • 查询消息
        本文主要介绍查询消息。 操作场景 您可以查看指定Topic不同分区的偏移量、消息大小、创建时间以及消息正文。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例名称,进入实例详情页面。 步骤 5 选择“消息查询”页签,在消息页签页面,设置查询的Topic名称、分区以及查询方式。 如果未设置具体分区,查询结果显示Topic所有分区的消息。 查询方式支持以下两种方式: 按创建时间查询:即按生产该消息的时间。 按偏移量查询:即记录消息的位置。 说明 当Topic中的数据量比较大时,单副本Topic查询消息可能会报“内部服务错误”,建议根据数据量适当减小查询时间范围。 步骤 6 单击“搜索”,查询消息。 查询结果如下: 图 查询Topic消息 消息的参数说明如下: Topic名称:消息所在的Topic名称。 分区:消息所在的分区。 偏移量:消息在分区中的位置。 消息大小:消息存入磁盘的大小,单位为B。 创建时间:消息的创建时间。创建时间由生产客户端在生产消息时通过CreateTime指定的,如果生产消息时没有设置此参数,创建时间会默认为1970。 步骤 7 单击“查看消息正文”,弹出“查看消息正文”对话框,查看消息的内容,包括Topic名称、分区、偏移量、创建时间和消息正文。 步骤 8 (可选)如果需要恢复默认设置,单击“重置”。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消息管理
        查询消息
      • 修改同步复制和同步落盘
        本文主要介绍修改同步复制和同步落盘。 同步复制指后端收到生产消息请求并复制给所有副本后,才返回客户端。 同步落盘指生产的每条消息都会立即写入磁盘。 开启:生产的每条消息都会立即写入磁盘,可靠性更高。 关闭:生产的消息存在内存中,不会立即写入磁盘。 本章节指导您在控制台修改同步复制和同步落盘。 说明 修改同步复制/同步落盘,不会重启实例。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 选择“Topic管理”页签,显示已创建的Topic详情。 步骤 6 通过以下任意一种方法,修改同步复制和同步落盘。 勾选Topic名称左侧的方框,可选一个或多个,单击信息栏左上侧的“编辑Topic”。 在待修改同步复制和同步落盘的Topic所在行,单击“编辑”。 步骤 7 在“编辑Topic”对话框中,开启或关闭同步复制和同步落盘,单击“确定”。 开启:单击。 关闭:单击。 说明 当副本数为1时,不能开启同步复制功能。 开启同步复制后,需要在客户端配置acksall或者1,否则无效。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        修改同步复制和同步落盘
      • 产品定义
        开源对比 相较于开源自建Kafka,分布式消息服务Kafka在低成本运维、分区规模、消息查询、ACL访问控制、可视化配置、运维监控、集群巡检、稳定可靠、安全保证、简单易用等方面更具优势。更多信息请参见开源对比。 产品优势 分布式消息服务Kafka具备高可用性、高安全性、可靠性、全托管等优势,使其成为大规模数据处理和实时流处理的理想选择。更多信息请参见产品优势。 功能特性 分布式消息服务Kafka的功能特性主要体现在以下几个方面: 消息能力 广播消息:在同一个消费组内对所有消费者投递相同消息。 消息回溯:支持根据时间重置消费进度。 消息数据自动删除功能:在磁盘满后,在保护期外的数据,能自动删除,保证服务可用性。 自动故障切换功能:生产消费自动负载均衡,消息节点故障时自动主备切换,保证服务的连续性。 队列能力 高吞吐,消息多副本异步复制。 高可靠,消息多副本同步复制。 可视化管理 应用用户管理:多个应用可调用同一个消息服务,通过应用用户,对消息服务下的应用接入权限进行管理。 主题管理:支持对实例下的主题进行管理,执行创建删除等操作。 消费组管理:支持对实例下的消费组进行管理。 Broker监控:提供Broker详细信息以及多维度的监控指标查看。 Topic监控:提供Topic详细信息以及多维度的监控指标查看。
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        产品定义
      • 使用类
        数据库专家服务对行业有限制吗? 数据库专家服务没有行业限制。 我们的专家团队深耕数据库领域,拥有电信、政务、物联网、新能源、医疗等不同行业的丰富经验,能帮助用户解决各种数据库问题,给用户提供业内优秀的解决方案和经验。 数据库专家服务仅限于使用云数据库的用户吗? 数据库专家服务不限于使用云数据库的用户。 不管您是否使用云数据库,我们都可以为您提供服务,使用云服务器自建数据库、私有云环境自建数据库等各类场景均适用。 实施数据库专家服务会影响到生产业务吗? 大多数服务不会影响生产业务,实施服务前我们会和您充分沟通可能的各类风险。 如果在实施数据库专家服务的过程中确实会影响到生产业务,专家团队会在实施服务前为您提供相应的建议和解决方案。 数据库专家服务完成后,会留下哪些技术资料? 我们会在知识转移的过程中向用户提供不涉及版权的工具和双方约定的相关文档、资料。 例如:安装部署报告、健康巡检报告、性能分析报告、数据库架构设计文档、数据库上云方案、升级扩容方案、迁移方案、数据备份恢复方案、容灾方案等等。
        来自:
        帮助文档
        数据库专家服务
        常见问题
        使用类
      • 重保护
        操作场景 切回完成后,数据不会自动同步(生产站点到容灾站点),保护实例处于停止保护状态,如需开始数据同步,需要进行重保护操作。 前提条件 需要待重保护的生产站点服务器已完成预配置;如果还未进行预配置,请参考配置生产站点服务器进行配置。 保护实例状态为“切回完成”或者“重保护失败”。 操作步骤 1. 登录管理控制台。 2. 单击服务列表,选择“存储 > 存储容灾服务 SDRS”。进入“存储容灾服务”页面。 3. 在“异步复制”页面,单击待重保护的保护实例所在站点复制对的保护实例数。进入对应站点复制对的保护组页面。 4. 在左侧导航选择相应的保护组。进入保护组详情页面。 5. 在保护实例列表中,单击待重保护的保护实例所在行操作列的“更多 > 重保护”。 6. 进入重保护页面,单击“提交”开始重保护。 7. 保护实例状态变为“重保护中”,等待操作完成。 8. 操作完成后,保护实例状态更改为“同步中”,并显示剩余待同步数据量以及预估剩余时间。 说明 切回成功后,原容灾站点服务器将自动删除。
        来自:
        帮助文档
        存储容灾服务
        用户指南
        管理保护实例
        重保护
      • 实例规格
        产品规格 云主机规格详情,请您参考产品规格。 关系数据库MySQL版目前共有四种系列,分别是单机、主备、一主两备和只读,其系列规格明细见表4。 不同的系列规格,适用于不同的使用场景,主要分为开发测试场景和线上生产场景: 开发测试场景提供小规格数据库实例,仅用于个人学习或者非生产环境下的功能验证使用。如果在小规格场景下运行大量生产业务数据,可能会导致实例异常等问题。 线上生产场景则提供多种规格实例,以满足不同大小的生产业务正常运行;所以推荐用户按场景按需选取对应的实例系列规格。 不同场景下的一些常用的实例系列规格推荐如下: 表3 推荐使用场景 推荐使用场景 规格 vCPU(个) 内存(GB) 开发测试 单机 2 4 开发测试 主备 2 4 开发测试 一主两备 2 4 开发测试 只读 2 4 线上生产 主备 8 16 线上生产 主备 16 32 线上生产 一主两备 8 16 线上生产 一主两备 16 32 线上生产 只读 4 8 表4 关系数据库MySQL版实例规格 说明 不同资源池以及不同性能类型的规格不尽相同,可能存在售罄情况,具体的资源池和可用区下可购买规格以实际界面展示为准。 规格 vCPU(个) 内存(GB) 支持的数据库版本 单机 2 4 MySQL 5.7、8.0 单机 2 8 MySQL 5.7、8.0 单机 2 16 MySQL 5.7、8.0 单机 4 8 MySQL 5.7、8.0 单机 4 16 MySQL 5.7、8.0 单机 4 32 MySQL 5.7、8.0 单机 8 16 MySQL 5.7、8.0 单机 8 32 MySQL 5.7、8.0 单机 8 64 MySQL 5.7、8.0 单机 16 32 MySQL 5.7、8.0 单机 16 64 MySQL 5.7、8.0 单机 16 128 MySQL 5.7、8.0 单机 32 64 MySQL 5.7、8.0 单机 32 128 MySQL 5.7、8.0 单机 32 256 MySQL 5.7、8.0 单机 64 128 MySQL 5.7、8.0 单机 64 256 MySQL 5.7、8.0 单机 64 512 MySQL 5.7、8.0 单机 96 192 MySQL 5.7、8.0 单机 96 384 MySQL 5.7、8.0 单机 96 768 MySQL 5.7、8.0 单机 128 256 MySQL 5.7、8.0 单机 128 512 MySQL 5.7、8.0 单机 128 1024 MySQL 5.7、8.0 主备 2 4 MySQL 5.7、8.0 主备 2 8 MySQL 5.7、8.0 主备 2 16 MySQL 5.7、8.0 主备 4 8 MySQL 5.7、8.0 主备 4 16 MySQL 5.7、8.0 主备 4 32 MySQL 5.7、8.0 主备 8 16 MySQL 5.7、8.0 主备 8 32 MySQL 5.7、8.0 主备 8 64 MySQL 5.7、8.0 主备 16 32 MySQL 5.7、8.0 主备 16 64 MySQL 5.7、8.0 主备 16 128 MySQL 5.7、8.0 主备 32 64 MySQL 5.7、8.0 主备 32 128 MySQL 5.7、8.0 主备 32 256 MySQL 5.7、8.0 主备 64 128 MySQL 5.7、8.0 主备 64 256 MySQL 5.7、8.0 主备 64 512 MySQL 5.7、8.0 主备 96 192 MySQL 5.7、8.0 主备 96 384 MySQL 5.7、8.0 主备 96 768 MySQL 5.7、8.0 主备 128 256 MySQL 5.7、8.0 主备 128 512 MySQL 5.7、8.0 主备 128 1024 MySQL 5.7、8.0 一主两备 2 4 MySQL 5.7、8.0 一主两备 2 8 MySQL 5.7、8.0 一主两备 2 16 MySQL 5.7、8.0 一主两备 4 8 MySQL 5.7、8.0 一主两备 4 16 MySQL 5.7、8.0 一主两备 4 32 MySQL 5.7、8.0 一主两备 8 16 MySQL 5.7、8.0 一主两备 8 32 MySQL 5.7、8.0 一主两备 8 64 MySQL 5.7、8.0 一主两备 16 32 MySQL 5.7、8.0 一主两备 16 64 MySQL 5.7、8.0 一主两备 16 128 MySQL 5.7、8.0 一主两备 32 64 MySQL 5.7、8.0 一主两备 32 128 MySQL 5.7、8.0 一主两备 32 256 MySQL 5.7、8.0 一主两备 64 128 MySQL 5.7、8.0 一主两备 64 256 MySQL 5.7、8.0 一主两备 64 512 MySQL 5.7、8.0 一主两备 96 192 MySQL 5.7、8.0 一主两备 96 384 MySQL 5.7、8.0 一主两备 96 768 MySQL 5.7、8.0 一主两备 128 256 MySQL 5.7、8.0 一主两备 128 512 MySQL 5.7、8.0 一主两备 128 1024 MySQL 5.7、8.0 只读 2 4 MySQL 5.7、8.0 只读 2 8 MySQL 5.7、8.0 只读 2 16 MySQL 5.7、8.0 只读 4 8 MySQL 5.7、8.0 只读 4 16 MySQL 5.7、8.0 只读 4 32 MySQL 5.7、8.0 只读 8 16 MySQL 5.7、8.0 只读 8 32 MySQL 5.7、8.0 只读 8 64 MySQL 5.7、8.0 只读 16 32 MySQL 5.7、8.0 只读 16 64 MySQL 5.7、8.0 只读 16 128 MySQL 5.7、8.0 只读 32 64 MySQL 5.7、8.0 只读 32 128 MySQL 5.7、8.0 只读 32 256 MySQL 5.7、8.0 只读 64 128 MySQL 5.7、8.0 只读 64 256 MySQL 5.7、8.0 只读 64 512 MySQL 5.7、8.0 只读 96 192 MySQL 5.7、8.0 只读 96 384 MySQL 5.7、8.0 只读 96 768 MySQL 5.7、8.0 只读 128 256 MySQL 5.7、8.0 只读 128 512 MySQL 5.7、8.0 只读 128 1024 MySQL 5.7、8.0
        来自:
        帮助文档
        关系数据库MySQL版
        产品简介
        实例说明
        实例规格
      • 查看流控监控
        参数 说明 统计方式 设置流控的统计方式。 前n个:统计带宽使用量排名前 x 个的用户/客户端/Topic, x 由您自行输入 带宽速率:统计带宽速率大于 x MB/s的用户/客户端/Topic, x 由您自行输入 带宽使用量:统计带宽使用量超过 x %的用户/客户端/Topic, x 由您自行输入 统计类型 设置流控的统计类型。 生产:统计生产消息的流控 消费:统计消费消息的流控 统计维度 设置流控的统计维度。 User/Client:统计用户/客户端的流控 Topic:统计Topic的流控
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        流控管理
        查看流控监控
      • 准备工作
        您在使用云应用引擎托管应用之前,需要完成一些准备工作,包括开通服务、创建VPC和创建命名空间。VPC为您构建隔离的网络环境,命名空间为您构建隔离的资源环境。 创建VPC VPC为您的应用提供了完全隔离的网络环境,处于同一VPC的应用可以互相访问,从网络层面提高应用的安全性。 创建命名空间 在多环境场景下,您应使用命名空间为应用的服务调用和应用配置建立逻辑隔离的运行时单元。通过将开发、测试、生产等环境分别置于独立的命名空间中,可以实现应用的封闭式管理,从而提升安全性,并支持批量启停全部服务,优化运维效率。
        来自:
      • 惰性队列
        本文主要介绍分布式消息服务RabbitMQ的惰性队列。 使用场景 默认情况下,RabbitMQ生产者生产的消息存储在内存中,当需要释放内存时,会将内存中的消息换页至磁盘中。换页操作会消耗较长的时间,且换页过程中队列无法处理消息。 如果生产速度过快(例如执行批处理任务),或者消费者由于各种原因(例如消费者下线、宕机)长时间内无法消费消息,导致消息大量堆积,使得内存使用率过高,换页频繁,可能会影响其他队列的消息收发。这种场景下,建议您启用惰性队列。 惰性队列(Lazy Queue)会尽可能的将消息存入磁盘中,在消费者消费到相应的消息时才会被加载到内存中,这样可以减少内存的消耗,但是会增加I/O的使用,影响单个队列的吞吐量。惰性队列的一个重要的设计目标是能够支持更长的队列,即支持更多的消息存储/消息堆积。 在以下情况下,推荐使用惰性队列: 队列可能会产生消息堆积 队列对性能(吞吐量)的要求不是非常高,例如TPS 1万以下的场景 希望队列有稳定的生产消费性能,不受内存影响而波动 处于以下情况时,无需使用惰性队列: RabbitMQ需要高性能的场景 队列总是很短(即队列中没有消息堆积) 设置了最大长度策略 更多关于惰性队列的说明,请参考Lazy Queues。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        高级特性
        惰性队列
      • 1
      • ...
      • 4
      • 5
      • 6
      • 7
      • 8
      • ...
      • 225
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      AI Store

      公共算力服务

      应用托管

      推荐文档

      修改实例安全组

      复制

      天翼云域名的优势

      主机新手使用指南

      消费者(Push)

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号