云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      消息队列RocketMQ版_相关内容
      • 定时触发器
        参数 操作 示例 触发器类型 选择 定时触发器。 定时触发器 名称 填写自定义的触发器名称。 MyTrigger 版本或别名 默认值为 LATEST ,支持选择任意函数版本或函数别名。 LATEST 触发方式 根据需要选择触发方式: 时间间隔 :触发器每隔n分钟触发一次函数执行。 指定时间 :选择时区,并指定日期、星期和时间,触发器在某时区的指定时间触发一次函数执行。 自定义 :支持秒级配置,使用6段式Cron表达式,兼容Quartz的表达式。 /5 触发消息 支持发送自定义消息。该消息内容将会作为触发函数的Event结构体的 data字段。 hello, trigger
        来自:
        帮助文档
        函数计算
        用户指南
        事件触发
        定时触发器
      • 创建告警规则
        参数 参数说明 发送通知 配置是否发送邮件、短信、HTTP和HTTPS通知用户。 生效时间 该告警规则仅在生效时间内发送通知消息。 如生效时间为08:0020:00,则该告警规则仅在08:0020:00发送通知消息。 触发条件 可以选择“出现告警”、“恢复正常”两种状态,作为触发告警通知的条件。
        来自:
        帮助文档
        NAT网关
        用户指南
        监控管理
        创建告警规则
      • 支持的监控指标
        本页介绍了天翼云关系数据库MySQL版支持的监控指标。 关系数据库MySQL版支持的监控指标如下。 注意 关系数据库MySQL版实例中的Agent只用于监控实例运行的指标、状态,不会收集除监控指标外的其它数据。 功能说明 本文定义了关系数据库MySQL版上报云监控的监控指标的命名空间,监控指标列表和维度定义。用户可以通过云监控提供的API接口来检索关系型数据库产生的监控指标和告警信息。 监控指标频率目前支持15秒、60秒、300秒,默认监控频率为30秒。 注意 部分监控指标支持设置为10秒,详细信息,请参见设置监控频率 实例监控指标 关系数据库MySQL版实例性能监控指标,如下表所示。 指标名称 指标含义 取值范围 CPU使用率(系统空间) 该指标用于统计测量对象的CPU使用率(系统空间占用),以比率为单位。 0100% CPU使用率(用户空间) 该指标用于统计测量对象的CPU使用率(用户空间占用),以比率为单位。 0100% CPU使用率(等待I/O) 该指标用于统计CPU在等待磁盘I/O请求完成时处于空闲状态的时间百分比。 0100% CPU总使用率 该指标用于统计测量对象的CPU总使用率,以比率为单位。 0100% MySQL CPU使用率 该指标用于统计MySQL进程的CPU使用率。 0100% 内存使用率 该指标用于统计测量对象的内存使用率,以比率为单位。 0100% MySQL服务进程占用的内存使用率 该指标用于统计MySQL服务进程占用的内存使用率。以比率为单位。 0100% 实例总空间使用量 该指标用于统计实例的空间占用情况,以GB为单位。 ≥ 0 GB 备份空间使用量 该指标用于统计云硬盘实例备份空间的使用情况,以GB为单位。 ≥ 0 GB 磁盘读速率(数据盘) 该指标用于统计当前实例数据盘,单位时间内系统处理的磁盘读速率(平均值)。 ≥ 0 kb/s 磁盘写速率(数据盘) 该指标用于统计当前实例数据盘,单位时间内系统处理的磁盘写速率(平均值)。 ≥ 0 kb/s 磁盘读速率(系统盘) 该指标用于统计当前实例系统盘,单位时间内系统处理的磁盘读速率(平均值)。 ≥ 0 kb/s 磁盘写速率(系统盘) 该指标用于统计当前实例系统盘,单位时间内系统处理的磁盘写速率(平均值)。 ≥ 0 kb/s 数据盘读次数 该指标用于统计数据盘,单位时间内系统处理的I/O读扇区请求数量(平均值)。 ≥ 0 counts 数据盘写次数 该指标用于统计数据盘,单位时间内系统处理的I/O写扇区请求数量(平均值)。 ≥ 0 counts 系统盘读次数 该指标用于统计系统盘,单位时间内系统处理的I/O读扇区请求数量(平均值)。 ≥ 0 counts 系统盘写次数 该指标用于统计系统盘,单位时间内系统处理的I/O写扇区请求数量(平均值)。 ≥ 0 counts 磁盘使用率(数据盘) 该指标用于统计数据盘的磁盘使用率,以比率为单位。 0100% 磁盘使用率(系统盘) 该指标用于统计系统盘的磁盘使用率,以比率为单位。 0100% 磁盘平均队列长度(数据盘) 该指标用于统计数据盘平均队列长度。以s为单位。 ≥0s 磁盘平均队列长度(系统盘) 该指标用于统计系统盘平均队列长度。以s为单位。 ≥0s IO操作等待时间(数据盘) 该指标用于统计数据盘IO操作等待时间。 ≥0 ms IO操作等待时间(系统盘) 该指标用于统计系统盘IO操作等待时间。 ≥0 ms 网络接收字节数 该指标用于统计平均每秒从测量对象的所有网络适配器输入的流量,以千字节为单位。 ≥ 0 kb/s 网络发送字节数 该指标用于统计平均每秒从测量对象的所有网络适配器输出的流量,以千字节为单位。 ≥ 0 kb/s 数据库总连接数 该指标用于统计试图连接到MySQL服务器的总连接数,以个为单位。 ≥ 0 counts 当前活跃连接数 该指标用于统计当前打开的连接的数量,以个为单位。 ≥ 0 counts 执行次数(select) 该指标用于统计平均每秒select语句执行次数 ≥ 0 counts 执行次数(insert) 该指标用于统计平均每秒insert语句执行次数 ≥ 0 counts 执行次数(update) 该指标用于统计平均每秒update语句执行次数 ≥ 0 counts 执行次数(delete) 该指标用于统计平均每秒delete语句执行次数 ≥ 0 counts QPS 该指标用于统计SQL语句查询次数,含存储过程,以次/秒为单位。 ≥ 0 queries/s TPS 该指标用于统计事务执行次数,含提交的和回退的,以次/秒为单位。 ≥ 0 transactions/s 缓冲池利用率 该指标用于统计空闲的页与InnoDB缓存中缓冲池页面总数的比例,以比率为单位。 0100% 缓冲池命中率 该指标用于统计读命中与读请求数比例,以比率为单位。 0100% 缓冲池脏块率 该指标用于统计InnoDB缓存中脏数据与InnoDB缓存中使用的页比例,以比率为单位。 0100% InnoDB读取吞吐量 该指标用于统计Innodb平均每秒读字节数,以字节/秒为单位。 ≥ 0 bytes/s InnoDB写入吞吐量 该指标用于统计Innodb平均每秒写字节数,以字节/秒为单位。 ≥ 0 bytes/s InnoDB文件读取频率 该指标用于统计Innodb平均每秒从文件中读的次数,以次/秒为单位。 ≥ 0 counts/s InnoDB文件写入频率 该指标用于统计Innodb平均每秒向文件中写的次数,以次/秒为单位。 ≥ 0 counts/s InnoDB日志写请求频率 该指标用于统计平均每秒的日志写请求数,以次/秒为单位。 ≥ 0 counts/s InnoDB日志物理写频率 该指标用于统计平均每秒向日志文件的物理写次数,以次/秒为单位。 ≥ 0 counts/s InnoDB日志fsync()写频率 该指标用于统计平均每秒向日志文件完成的fsync()写数量,以次/秒为单位。 ≥ 0 counts/s 临时表创建数量 该指标用于统计在硬盘上创建的临时表数量,以个为单位。 ≥ 0 counts Insert语句执行频率 该指标用于统计平均每秒Insert语句执行次数,以次/秒为单位。 ≥ 0 queries/s Delete语句执行频率 该指标用于统计平均每秒Delete语句执行次数,以次/秒为单位。 ≥ 0 queries/s Select语句执行频率 该指标用于统计平均每秒Select语句执行次数。 ≥ 0 queries/s Update语句执行频率 该指标用于统计平均每秒Update语句执行次数,以次/秒为单位。 ≥ 0 queries/s 行删除速率 该指标用于统计平均每秒从InnoDB表删除的行数,以行/秒为单位。 ≥ 0 rows/s 行插入速率 该指标用于统计平均每秒向InnoDB表插入的行数,以行/秒为单位。 ≥ 0 rows/s 行读取速率 该指标用于统计平均每秒从InnoDB表读取的行数,以行/秒为单位。 ≥ 0 rows/s 行更新速率 该指标用于统计平均每秒向InnoDB表更新的行数,以行/秒为单位。 ≥ 0 rows/s 历史行锁平均等待时间 该指标用于统计innodb历史行锁平均等待时间。 > 0ms 当前行锁等待数 该指标用于统计innodb当前行锁等待数,以个为单位。表示当前正在等待行锁的事务个数。 ≥ 0 counts 长事务个数统计 该指标用于统计长事务的个数 ≥ 0 counts 连接使用率 该指标用于统计当前已用的MySQL连接数占总连接数的百分比。 0100% 主从复制延迟 该指标用于统计多节点实例,主从复制延迟时间,以s为单位。 ≥0 s 每秒DDL次数 该指标用于统计对象每秒钟ddl次数 ≥ 0 counts 平均每秒InsertSelect语句执行次数 该指标用于统计对象平均每秒InsertSelect语句执行次数 ≥ 0 counts 平均每秒ReplaceSelect语句执行次数 该指标用于统计对象平均每秒ReplaceSelect语句执行次数 ≥ 0 counts 平均每秒replace语句执行次数 该指标用于统计对象平均每秒replace语句执行次数 ≥ 0 counts Innodb打开文件数 该指标用于统计对象Innodb打开文件数 ≥ 0 counts 打开表数 该指标用于统计对象打开表数 ≥ 0 counts 打开的文件数 该指标用于统计对象打开的文件数 ≥ 0 counts 执行全表搜索查询的数量 该指标用于统计对象执行全表搜索查询的数量 ≥ 0 counts InnoDB 平均每秒fsync操作次数 该指标用于统计对象InnoDB 平均每秒fsync操作次数 ≥ 0 counts InnoDB每秒写入redo log日志量(B) 该指标用于统计对象InnoDB每秒写入redo log日志量(B) ≥0 B mdl锁阻塞的连接数 该指标用于统计对象mdl锁阻塞的连接数 ≥ 0 counts relay log使用量 该指标用于统计对象relay log使用量 ≥0 MB redo log使用量 该指标用于统计对象redo log使用量 ≥0 MB 系统数据库数据量 该指标用于统计系统数据库数据量 ≥0 MB 用户数据库数据量 该指标用于统计对象用户数据库数据量 ≥0 MB 临时文件数据量 该指标用于统计对象临时文件数据量 ≥0 MB undo log使用量 该指标用于统计对象undo log使用量 ≥0 MB binlog使用量 该指标用于统计对象binlog使用量 ≥0 MB slow log使用量 该指标用于统计对象slow log使用量 ≥0 MB 平均每秒从所有客户端接收到的字节数 该指标用于统计对象平均每秒从所有客户端接收到的字节数 ≥0 KB 平均每秒发送给所有客户端的字节数 该指标用于统计对象平均每秒发送给所有客户端的字节数 ≥0 KB 当前全部会话 该指标用于统计当前全部会话 ≥ 0 counts 当前活跃会话 该指标用于统计当前活跃会话 ≥ 0 counts InnoDB Buffer Pool 刷Page请求数量 该指标用于统计对象InnoDB Buffer Pool 刷Page请求数量 ≥ 0 counts InnoDB 表总等待row locks次数 该指标用于统计对象InnoDB 表总等待row locks次数 ≥ 0 counts 从系统启动到现在锁定的总时间 该指标用于统计对象从系统启动到现在锁定的总时间 ≥0 ms InnoDB 表每秒等待row locks时间 该指标用于统计对象InnoDB 表每秒等待row locks时间 ≥0 ms InnoDB 表每秒等待row locks次数 该指标用于统计对象InnoDB 表每秒等待row locks次数 ≥ 0 counts InnoDB 表平均等待row locks时间 该指标用于统计对象InnoDB 表平均等待row locks时间 ≥0 ms 监控行锁个数 该指标用于统计对象监控行锁个数 ≥ 0 counts 读取源二进制日志的I/O线程是否正在运行 该指标用于统计对象读取源二进制日志的I/O线程是否正在运行 ≥ 0 counts 执行中继日志中事件的SQL线程是否正在运行 该指标用于统计对象执行中继日志中事件的SQL线程是否正在运行 ≥ 0 counts MySQL读写次数 该指标用于统计对象MySQL读写次数 ≥ 0 counts IOPS使用率 该指标用于统计对象IOPS使用率 0100% 慢查询 该指标用于统计对象的慢查询数量 ≥ 0 counts 等待表锁次数 该指标用于统计对象的等待表锁次数(dml级) ≥ 0 counts
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        监控与告警
        支持的监控指标
      • 概述
        事件总线类触发器是一类基于天翼云默认事件总线的能力,以总线为事件源,通过规则配置的触发器。该类型触发器不直接与其他云产品通信,只会订阅总线消息,总线基于规则分发消息发送到函数实例,事件传递机制如下:
        来自:
        帮助文档
        函数计算
        用户指南
        事件触发
        事件总线类触发器
        概述
      • 告警设置
        注意事项 针对部分告警(比如存储空间或者备份空间满)默认推送给对应的租户,如果租户下面有多个用户,那么这些用户都会收到对应的告警信息。 如果某个用户不希望收到告警,则需要使用这个用户的账号登录天翼云官网进入“数据库管理平台”的 消息中心消息订阅,取掉告警信息栏关于邮件、短信、企业微信和钉钉等。
        来自:
        帮助文档
        分布式融合数据库HTAP
        用户指南
        告警服务
        告警设置
      • 恢复Hive业务数据
        操作步骤 1.在FusionInsight Manager,选择“运维 > 备份恢复 > 备份管理”。 2.在任务列表指定任务的“操作”列,选择“更多 > 查询历史”,打开备份任务执行历史记录。 在弹出的窗口中,在指定一次执行成功记录的“备份路径”列,单击“查看”,打开此次任务执行的备份路径信息,查找以下信息: “备份对象”表示备份的数据源。 “备份路径”表示备份文件保存的完整路径。 选择正确的项目,在“备份路径”手工选中备份文件的完整路径并复制。 3.在FusionInsight Manager,选择“运维 > 备份恢复 > 恢复管理”。 4.单击“创建”。 5.在“任务名称”填写恢复任务的名称。 6.在“恢复对象”选择待操作的集群。 7.在“恢复配置”,勾选“Hive”。 8.在“Hive”的“路径类型”,选择一个备份目录的类型。 备份目录支持以下类型: “RemoteHDFS”:表示将备份文件保存在备集群的HDFS目录。选择此参数值,还需要配置以下参数: “源端NameService名称”:填写备份数据集群的NameService名称。可以输入集群内置的远端集群的NameService名称:haclusterX,haclusterX1,haclusterX2,haclusterX3,haclusterX4;也可输入其他已配置的远端集群NameService名称。 “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “源端NameNode IP地址”:填写备集群NameNode业务平面IP地址,支持主节点或备节点。 “源端路径”:填写备集群保存备份数据的完整HDFS路径。例如,“ 备份路径/备份任务名数据源任务创建时间 ”。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。 “恢复点列表”:单击“刷新”,然后选择一个备集群上已备份的Hive备份文件集。 “目标NameService名称”:选择备份目录对应的目标NameService名称。默认值为“hacluster”。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “NFS”:表示备份文件通过NFS协议保存在NAS中。选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “源端路径”:填写备份文件在NAS服务器中保存的完整路径。例如,“ 备份路径/备份任务名数据源任务创建时间 ”。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。 “恢复点列表”:单击“刷新”,然后选择一个备集群上已备份的Hive备份文件集。 “目标NameService名称”:选择备份目录对应的目标NameService名称。默认值为“hacluster”。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “CIFS”:表示备份文件通过CIFS协议保存在NAS中。选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “端口号”:填写CIFS协议连接NAS服务器使用的端口号,默认值为“445”。 “用户名”:填写配置CIFS协议时设置的用户名。 “密码”:填写配置CIFS协议时设置的密码。 “源端路径”:填写备份文件在NAS服务器中保存的完整路径。例如,“ 备份路径/备份任务名数据源任务创建时间 ”。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。 “恢复点列表”:单击“刷新”,然后选择一个备集群上已备份的Hive备份文件集。 “目标NameService名称”:选择备份目录对应的目标NameService名称。默认值为“hacluster”。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “SFTP”:表示备份文件通过SFTP协议保存到服务器中。 选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写备份数据的服务器IP地址。 “端口号”:填写SFTP协议连接备份服务器使用的端口号,默认值为“22”。 “用户名”:填写使用SFTP协议连接服务器时的用户名。 “密码”:填写使用SFTP协议连接服务器时的密码。 “源端路径”:填写备份文件在备份服务器中保存的完整路径。例如,“ 备份路径/备份任务名数据源任务创建时间 ”。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。 “恢复点列表”:单击“刷新”,然后选择一个备集群上已备份的HDFS目录。 “目标NameService名称”:选择备份目录对应的目标NameService名称。默认值为“hacluster”。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“1”。 9.在“数据配置”的“数据选择”中,根据业务需要勾选一个或多个需要恢复的已备份数据,并分别在“目标数据库”和“目标路径”列,指定备份数据恢复后的数据库和文件保存位置。 配置约束: 支持恢复到原数据库,但数据表保存在一个与目的端路径不同的新路径。 如果恢复Hive的索引表,请同时选择恢复索引表对应的Hive数据表。 如果为了防止影响当前数据,选择了新的恢复目录,那么新目录需要手动授予HDFS权限,使对备份表拥有权限的用户可以访问此目录。 支持恢复到其他数据库。如果恢复到其他数据库,那么此数据库对应在HDFS中的目录,需要手动授予HDFS权限,使对备份表拥有权限的用户可以访问此目录。 10.“强制覆盖”选择“true”,表示存在同名数据表时强制恢复备份的所有数据,如果数据表中存在备份后新增加的数据,那恢复后将丢失这些数据。选择“false”表示存在同名表时不执行恢复任务。 11.单击“校验”查看恢复任务的配置是否正确。 如果队列名称不正确,校验失败。 如果不存在指定的恢复目录,校验失败。 如果不满足强制覆盖的条件,校验失败。 12.单击“确定”保存。 13.在恢复任务列表已创建任务的“操作”列,单击“执行”,开始执行恢复任务。 恢复成功后进度显示为绿色。 恢复成功后此恢复任务不支持再次执行。 如果恢复任务在第一次执行时由于某些原因未执行成功,在排除错误原因后单击“重试”,重试恢复任务。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        恢复数据
        恢复Hive业务数据
      • 不使用SSL证书连接
        本文主要介绍不使用SSL证书连接RabbitMQ实例。 RabbitMQ实例兼容开源协议,请参考RabbitMQ官网提供的不同语言的连接和使用向导:< 介绍VPC内访问与使用RabbitMQ方法,假设RabbitMQ客户端部署在弹性云主机上。 前提条件 参考创建实例章节创建RabbitMQ实例,并记录创建时输入的用户名和密码。 创建完成后,单击实例名称,查看并记录实例详情中的“连接地址”。 已创建弹性云主机,并且弹性云主机的VPC、子网、安全组与RabbitMQ实例的VPC、子网、安全组保持一致。 已完成JDK安装及环境变量配置。 命令模式连接实例 以下操作命令以Linux系统为例进行说明: 1、下载RabbitMQTutorial.zip示例工程代码。 2、解压RabbitMQTutorial.zip压缩包。 $ unzip RabbitMQTutorial.zip 3、进入RabbitMQTutorial目录,该目录下包含预编译好的jar文件。 $ cd RabbitMQTutorial 4、运行生产消息示例。 $ java cp .:rabbitmqtutorial.jar Send host port user password 其中,host表示RabbitMQ实例的连接地址,port为RabbitMQ实例的监听端口(默认为5672),user表示RabbitMQ用户名,password表示用户名对应的密码。 图1 运行生产消息示例 使用Ctrl+C命令退出。 5、运行消费消息示例。 $ java cp .:rabbitmqtutorial.jar Recv host port user password 其中,host表示RabbitMQ实例的连接地址,port为RabbitMQ实例的监听端口(默认为5672),user表示RabbitMQ用户名,password表示用户名对应的密码。 图2 运行消费消息示例 如需停止消费使用Ctrl+C命令退出。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        快速入门
        步骤三:连接实例生产消费消息
        不使用SSL证书连接
      • 服务条款
        产品服务协议请查看: 天翼云分布式消息服务协议
        来自:
        帮助文档
        分布式消息服务RocketMQ
        相关协议
        服务条款
      • 通知外送
        配置项 说明 名称 日志外送接口的名称。必须为中文字符、字母、数字、“”、“.”或“”,长度不超过 64 字符。 Kafka节点地址 Kafka服务器的IP(域名)及端口号。例如:192.168.0.1:9200。 Kafka主题 消息投放到Kafka服务器的主题。 Kafka分区 消息投放到的Kafka服务器的分区。Kafka服务器通过主题(topic)、分区(partition)和消费组(consumergroup)三个概念灵活适应各种消息场合,通过提升硬件资源利用率提高系统吞吐量。 以上Kafka相关配置与服务器端保持一致即可。 审计日志模板 设置发送审计日志的模板,具体字段请依据填写说明编辑。 操作日志模板 设置发送操作日志的模板,具体字段请依据填写说明编辑。 告警日志模板 设置发送告警日志的模板,具体字段请依据填写说明编辑。 流量控制日志模板 设置发送流量控制日志的模板,具体字段请依据填写说明编辑。
        来自:
        帮助文档
        数据安全专区
        用户指南
        API安全网关操作指导
        通知外送
      • 事件通知
        事件通知消息结构 事件通知消息结构如下: { "Records": [ { "eventVersion": "", // 版本号 "eventSource": "", // 消息源,固定为"ctyun:s3" "awsRegion": "", // 事件所在的region "eventTime": "", // 事件时间,格式为ISO8601,示例:20230613 02:20:19.032936Z "eventName": "", // 触发事件通知的事件名 "userIdentity": { "principalId": "" // 触发事件的用户ID }, "requestParameters": { "sourceIPAddress": "" // 请求的源IP }, "responseElements": { "xamzrequestid": "", // 请求对应的requestid "xamzid2": "" // 帮助定位问题的特殊符号 }, "s3": { "s3SchemaVersion": "1.0", "configurationId": "", // 事件匹配的事件通知规则的名称 "bucket": { "name": "examplebkt", // 桶名 "ownerIdentity": { "principalId": "" // 桶拥有者的帐号ID }, "arn": "arn:aws:s3:::examplebkt", // 桶的ARN "id": "" // 桶id }, "object": { "key": "object", // 对象名 "size": 779, // 对象大小 "etag": "", // 对象ETag "versionId": "", // 对象版本Id "sequencer": "", // 确定某个特定对象事件顺序的标识 "metadata": [ { "key": "xamzmetaa", // 用户自定义元数据 "val": "2" } ], } }, "eventId": "" // 事件ID } ] } ‍使用方式 操作途径 使用方式 控制台 可参考:事件通知。
        来自:
        帮助文档
        媒体存储
        用户指南
        数据监控
        事件通知
      • 计费项
        本节主要介绍分布式消息服务Kafka的计费项 分布式消息服务Kafka的计费项由实例费用和存储费用组成,具体费用详情可参考产品资费。 计费项 计费项说明 使用的计费模式 计费公式 实例费用 计费因子:代理规格和代理数量 包年/包月、按需计费 实例规格单价 代理数量 购买时长 存储空间费用 计费因子:云硬盘类型、容量大小 包年/包月、按需计费 云硬盘规格单价 单个代理存储大小 代理数量 购买时长
        来自:
        帮助文档
        分布式消息服务Kafka
        计费说明
        计费项
      • 产品使用限制
        限制项 配额值 提升配额方式 集群总数 5 提交工单 一个集群节点总数 500 提交工单 一个队列节点总数 99 提交工单 一次最多扩容的节点数 5 无
        来自:
        帮助文档
        弹性高性能计算 E-HPC
        产品介绍
        产品使用限制
      • 文件加密服务
        执行结果 当AI云电脑在天翼AI云电脑(政企版)控制台完成翼加密配置后,则可以在AI云电脑内的“翼加密客户端”进行文件脱密申请&审批,具体操作如下: 文件脱密申请 用户可以根据需要,在自己的加密AI云电脑,针对加密文件发起脱密申请。脱密申请一次最多15个文件,上传的单个文件最大支持200M,大于200M文件会被自动剔除。 注:如果需要脱密大于200M的文件,请联系租户的加密管理员申请脱密。 步骤一:选择需要脱密的文件 选择文件发起脱密申请的方式有3种: (1)批量选择需要脱密外发的加密文件,点击鼠标右键,在右键菜单中点击“使用翼加密申请文件脱密”。 (2)双击桌面的“翼加密”客户端快捷方式,打开客户端首页,在首页点击“新脱密申请”按钮进行文件脱密申请。 (3)在脱密申请页,点击“选取文件”选择需要申请脱密的文件。 步骤二:选择脱密方式 脱密方式包括脱密邮件和脱密下载两种: (1)脱密邮件: 审批通过后,会将脱密文件通过邮件发送给收件人。下载链接6天后将失效,收到邮件后需及时下载脱密文件。 (2)脱密下载: 审批通过后,可在客户端下载脱密文件。下载链接6天后将失效,需及时下载。脱密文件通过客户端脱密下载到加密AI云电脑内,在再次编辑保存之前将保持脱密状态。用户可以直接通过IM软件、邮箱或者OA等办公软件进行上传或外发。 步骤三:脱密申请提交、流转及结果反馈 提交的脱密申请,在未被审批之前,申请人可以随时撤回并重新编辑,再次提交。 脱密申请审批完成后,审批的结果会通过消息提醒申请人: (1)若审批不通过,申请人可以根据审批意见修改脱密申请重新提交。 (2)如通过脱密邮件的申请,收件人邮箱将收到由“翼加密”官方发送的脱密文件;如未收到,可尝试点击“重新发送”; (3)如通过脱密下载的申请,可在相应记录的右侧操作栏点击“脱密下载”,或点开申请详情页逐个或全部下载。 步骤四:下载邮件内的脱密文件(脱密邮件) 脱密外发收件人邮箱中将收到由“翼加密”官方发送的脱密文件,点击下载即可下载脱密后文件。自审批通过之日起算,7天后下载链接将失效,请及时下载。 脱密审批 有脱密申请审批权限的用户,客户端首页会有脱密审批入口。并且,当审批人接收到新的脱密申请时,右下角消息中心将会弹出提示。审批人点击消息可以快速打开脱密审批详情页进行审批处理。 审批人打开打开审批详情页,可下载查看申请脱密的文件,进行脱密审批。
        来自:
        帮助文档
        天翼云电脑(政企版)
        最佳实践
        文件加密服务
      • 术语解释
        Hudi Hudi是数据湖的文件组织层,对Parquet格式文件进行管理提供数据湖能力,支持多种计算引擎,提供IUD接口,在 HDFS的数据集上提供了插入更新和增量拉取的流原语。 资源池 ModelArts提供的大规模计算集群,可应用于模型开发、训练和部署。支持公共资源池和专属资源池两种,分别为共享资源池和独享资源池。ModelArts默认提供公共资源池。专属资源池需单独购买,专属使用,不与其他用户共享。 Hue Hue是一组WEB应用,用于和MRS大数据组件进行交互,能够帮助用户浏览HDFS,进行Hive查询,启动MapReduce任务等,它承载了与所有MRS大数据组件交互的应用。 Kafka Kafka是一个分布式的、分区的、多副本的消息发布订阅系统,它提供了类似于JMS的特性,但在设计上完全不同,它具有消息持久化、高吞吐、分布式、多客户端支持、实时等特性,适用于离线和在线的消息消费,如常规的消息收集、网站活性跟踪、聚合统计系统运营数据(监控数据)、日志收集等大量数据的互联网服务的数据收集场景。 Spark Spark是一个开源的,并行数据处理框架,能够帮助用户简单的开发快速,统一的大数据应用,对数据进行离线处理,流式处理,交互式分析等等。
        来自:
        帮助文档
        翼MapReduce
        产品简介
        术语解释
      • 监控告警类
        本章节主要介绍操作类问题中有关监控告警的问题。 在MRS流式集群中,Kafka Topic的监控是否支持发送告警? 暂不支持Kafka Topic监控发送邮件和短信告警。 用户可以在集群Manager界面查看组件相关告警信息。 产生“ALM18022 Yarn队列资源不足”告警时,正在运行的资源队列可以在哪查看? Yarn资源队列可以登录Manager界面,选择“集群 > 服务 > Yarn ResourceManager(主)”,登录Yarn的原生页面进行查看。 具体的告警处理方法可查看该告警的联机帮助文档进行处理。 HBase操作请求次数指标中的多级图表统计如何理解? 以“RegionServer级别操作请求次数”监控项为例: 1.登录FusionInsight Manager,选择“集群 > 服务 > HBase > 资源”,在该界面即可查看“RegionServer级别操作请求次数”图表,选中“all”,则显示当前集群所有RegionServer的所有操作请求次数总和排Top10的值,统计时间间隔为5分钟。 2.单击表格中某一统计点,即可进入二级图表,表示该时刻前5分钟内统计的所有RegionServer的操作请求数。 3.再单击某一个操作统计柱状图即可进入三级图表,表示该时间段内各个Region相应操作的分布情况。 4.单击某个Region名称,进入该Region在12小时内每5分钟做的操作数统计分布图,可查看具体的操作在该时间段内执行的次数。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        操作类
        监控告警类
      • 逆向数据库(维度建模)
        参数名称 说明 所属主题 单击“选择主题”按钮选择所属的主题信息。 数据连接类型 选择维度建模的逆向数据库。 数据连接 选择所需要的数据连接。 如需从其他数据源逆向数据库到关系模型中,需要先在DataArts Studio管理中心创建一个数据连接,以便连接数据源。创建数据连接的操作,请参见 数据库 选择数据库。 队列 仅限DLI连接类型,需选择DLI队列。 Schema DWS或POSTGRESQL的模式。该参数在DWS或POSTGRESQL连接类型有效。 更新已有表 在导入时,只有创建或更新操作,不会删除已有的表。 不更新 :如果表已存在,将直接跳过,不更新。 更新 :如果表已存在,更新已有的表信息。如果表处于“已发布”状态,表更新后,您需要重新发布表,才能使更新后的表生效。 数据表 选择“全部”时,将数据库中的所有的表都导入。 选择“部分”时,请选择需要导入的表。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        通用操作
        逆向数据库(维度建模)
      • 个人数据保护机制
        类型 收集方式 是否可以修改 是否必须 邮箱 服务器开启双因子认证后,HSS定时获取对应消息通知服务主题订阅的邮箱 否 是 手机号 服务器开启双因子认证后,HSS定时获取对应消息通知服务主题订阅的手机号 否 是 登录位置信息 服务器开启防护后,登录云服务器时,HSS记录的用户登录位置信息。 否 是
        来自:
        帮助文档
        企业主机安全
        产品介绍
        个人数据保护机制
      • 产品规格
        本章节主要介绍数据湖探索(DLI)的产品规格。 队列管理可订购产品规格 16CUs、64CUs、256CUs、512CUs。 弹性资源池可订购产品规格 CU范围输入值必须在64到32000之间。
        来自:
        帮助文档
        数据湖探索
        计费说明
        产品规格
      • 连接未开启SSL的RabbitMQ实例
        本章节主要介绍如何连接未开启SSL的RabbitMQ实例。 RabbitMQ实例兼容开源协议,请参考RabbitMQ官网提供的不同语言的连接和使用向导:< 介绍VPC内访问与使用RabbitMQ方法,假设RabbitMQ客户端部署在弹性云主机上。 前提条件 参考创建实例章节创建RabbitMQ实例,并记录创建时输入的用户名和密码。 建完成后,单击实例名称,查看并记录实例详情中的“连接地址”。 已创建弹性云主机,并且弹性云主机的VPC、子网、安全组与RabbitMQ实例的VPC、子网、安全组保持一致。 已完成JDK安装及环境变量配置。 命令行模式连接实例 以下操作命令以Linux系统为例进行说明: 1、下载RabbitMQTutorial.zip示例工程代码。 2、解压RabbitMQTutorial.zip压缩包。 $ unzip RabbitMQTutorial.zip 3、进入RabbitMQTutorial目录,该目录下包含预编译好的jar文件。 $ cd RabbitMQTutorial 4、运行生产消息示例。 $ java cp .:rabbitmqtutorial.jar Send host port user password 其中,host表示RabbitMQ实例的连接地址,port为RabbitMQ实例的监听端口(默认为5672),user表示RabbitMQ用户名,password表示用户名对应的密码。 图1 运行生产消息示例 使用Ctrl+C命令退出。 5、运行消费消息示例。 $ java cp .:rabbitmqtutorial.jar Recv host port user password 其中,host表示RabbitMQ实例的连接地址,port为RabbitMQ实例的监听端口(默认为5672),user表示RabbitMQ用户名,password表示用户名对应的密码。 图2 运行消费消息示例 如需停止消费使用Ctrl+C命令退出。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        连接实例
        连接未开启SSL的RabbitMQ实例
      • 删除租户
        本章节主要介绍翼MapReduce的删除租户操作。 操作场景 根据业务需求,对于当前不再使用的租户,管理员可以通过FusionInsight Manager删除租户,释放租户占用的资源。 前提条件 已添加租户。 检查待删除的租户是否存在子租户,如果存在,需要先删除全部子租户,否则无法删除当前租户。 待删除租户的角色,不能与任何一个用户或者用户组存在关联关系。 操作步骤 1. 登录FusionInsight Manager,单击“租户资源”。 2. 在左侧租户列表,选择待删除的租户,单击。 说明 根据业务需求,需要保留租户已有的数据时请同时勾选“保留该租户资源的数据。”,否则将自动删除租户对应的存储空间。 3. 单击“确定”,删除租户。 保存配置需要等待一段时间,租户成功删除。租户对应的角色、存储空间将删除。 说明 租户删除后,Yarn中对应的租户任务队列不会被删除。同时Yarn角色管理中,此租户任务队列不再显示。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        使用Superior调度器的租户业务
        管理租户
        删除租户
      • 数据保护技术
        介绍分布式消息服务Kafka的数据保护技术 天翼云分布式消息服务Kafka通过多种数据保护手段和措施,保障您在Kafka实例上的数据的安全性。 容灾 根据数据和服务的不同可靠性需求,您有多种选择。您可以选择在一个可用区(即单个机房)内部署Kafka实例,或者选择跨多个可用区(即同城灾备)进行部署。目前跨可用区在华东1、华南2支持跨可用区部署。具体请参考容灾策略。 副本冗余 通过配置适当数量的副本和分布在不同的节点上,Kafka可以提供高可用性和数据冗余,以保护数据免受节点故障的影响。同时,副本机制还可以提高读取性能,因为客户端可以从就近的副本中读取数据,而不必从远程节点获取数据。 数据持久化 Kafka中数据的持久化是通过将消息写入磁盘上的日志文件来实现的。这种设计使得Kafka能够提供高吞吐量和持久性,即使在发生故障或重启时也能够保留数据。此外,Kafka还提供了数据复制和故障转移机制,以确保数据的可用性和可靠性。
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        安全
        数据保护技术
      • 配置Kafka之间的数据复制
        本节介绍如何配置Kafka之间的数据复制。 本章节介绍如何创建Kafka数据复制的Smart Connect任务,通过Smart Connect任务可以在两个Kafka实例之间,实现数据的单向或双向复制。 源Kafka实例中的数据会实时同步到目标Kafka实例中。 约束与限制 一个实例最多创建18个Smart Connect任务。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 Smart Connect任务创建成功后,不支持修改任务参数。 确保目标Kafka实例Topic的“批处理消息最大值”大于等于524288字节,否则会导致数据无法同步。如果目标Kafka实例没有创建Topic,在数据同步时会自动创建Topic,此Topic的“批处理消息最大值”和源Kafka实例Topic相同,此时需要确保源Kafka实例Topic的“批处理消息最大值”大于等于524288字节。修改“批处理消息最大值”的方法请参考修改Kafka Topic配置。 前提条件 已开启Smart Connect。 已创建Kafka实例,且实例状态为“运行中”。 配置Kafka间的数据复制 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、单击Kafka实例名称,进入实例详情页面。 5、在左侧导航栏单击“Smart Connect”,进入Smart Connect任务列表页面。 6、单击“创建Smart Connect任务”,进入“创建smart connect”页面。 7、在“connect任务名称”中,输入Smart Connect任务的名称,用于区分不同的Smart Connect任务。任务名称需要符合命名规则:长度为4~64个字符,只能由英文字母、数字、中划线、下划线组成。 8、在“预置类型”中,选择“Kafka数据复制”。 9、在“当前kafka”区域,设置实例别名。实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“推送”/“双向”时,当前Kafka实例的别名作为前缀添加到对端Kafka实例的Topic名称前,形成Topic新的名称。例如当前Kafka实例别名为A,对端Kafka实例的Topic名称为test,重命名后的Topic为A.test。 Kafka数据复制的Smart Connect任务创建成功后,当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 10、在“对端kafka”区域,设置以下参数。 表11 对端Kafka实例参数说明 参数 参数说明 实例别名 设置实例别名,实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“拉取”/“双向”时,对端Kafka实例的别名作为前缀添加到当前Kafka实例的Topic名称前,形成Topic新的名称。例如对端Kafka实例别名为B,当前Kafka实例的Topic名称为test01,重命名后的Topic为B.test01。 Kafka数据复制的Smart Connect任务创建成功后,如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 配置类型 支持以下两种配置类型: Kafka地址:输入Kafka实例的连接信息。对端Kafka实例和当前Kafka实例处于不同的VPC下时,请选择此配置类型。 实例名称:选择已创建的Kafka实例。对端Kafka实例和当前Kafka实例处于相同的VPC下时,建议选择此配置类型。 实例名称 “配置类型”为“实例名称”,且对端Kafka实例和当前Kafka实例处于相同的VPC下时,需要设置。 在下拉列表中,选择已创建的Kafka实例。 Kafka地址 “配置类型”为“Kafka地址”时,需要设置。 输入Kafka实例的连接地址和端口号。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 认证方式 支持以下认证方式: SASLSSL:表示实例已开启SASLSSL认证,客户端连接Kafka实例时采用SASL认证,数据通过SSL证书进行加密传输。 SASLPLAINTEXT:表示实例开启SASLPLAINTEXT认证,客户端连接Kafka实例时采用SASL认证,数据通过明文传输。 PLAINTEXT:表示实例未开启认证。 认证机制 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 SCRAMSHA512:采用哈希算法对用户名与密码生成凭证,进行身份校验的安全认证机制,比PLAIN机制安全性更高。 PLAIN:一种简单的用户名密码校验机制。 用户名 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的用户名,或者创建用户时设置的用户名。 密码 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的密码,或者创建用户时设置的密码。 Smart Connect任务创建成功后,如果您修改了对端实例的认证方式、认证机制或者密码,会导致同步任务失败。 您需要删除当前Smart Connect任务,然后重新创建新的Smart Connect任务。 11、在“规则配置”区域,设置以下参数。 表12 复制数据规则参数说明 参数 参数说明 同步方式 支持以下三种同步方式: 拉取:把对端Kafka实例数据复制到当前Kafka实例中。 推送:把当前Kafka实例数据复制到对端Kafka实例中。 双向:两端Kafka实例数据进行双向复制。 Topics 设置需要进行数据复制的Topic。 正则表达式:通过正则表达式匹配Topic。 输入/选择:输入Topic名称,如果需要输入多个Topic名称,先输入一个Topic名称,按“Enter”,然后再输入下一个,按“Enter”,依次输入。或者在下拉列表中,选择Topic。最多输入/选择20个Topic。 Topic名称以internal结尾时(例如:topic.internal),此Topic的数据不会被同步。 任务数 数据复制的任务数。默认值为2,建议保持默认值。 如果“同步方式”为“双向”,实际任务数设置的任务数2。 重命名 Topic 在目标Topic名称前添加源端Kafka实例的别名,形成目标Topic新的名称。例如源端实例别名为A,目标Topic名称为test,重命名后的目标Topic为A.test。 两端实例数据双向复制时,开启“重命名Topic”,防止循环复制。 添加来源header 目标Topic接收复制的消息,此消息header中包含消息来源。 两端实例数据双向复制时,默认开启“添加来源header”,防止循环复制。 同步消费进度 开启“同步消费进度”后,将消费者消费进度同步到目标Kafka实例。 开启“同步消费进度”后,您需要注意以下几点: 源端Kafka实例和目标端Kafka实例不能同时消费,否则会导致同步的消费进度异常。 同步消费进度的频率为每分钟一次,因此会导致目标端的消费进度可能会略小于源端,造成部分消息被重复消费,所以需要消费者客户端业务逻辑兼容重复消费的场景。 从源端同步的offset与目标端的offset并非一致关系,而是映射关系,如果消费进度由消费者客户端自行维护,消费者客户端从消费源端Kafka实例变为消费目标端Kafka实例后,不向目标端Kafka实例获取消费进度,可能会导致offset错误或消费进度重置。 副本数 在对端实例中自动创建Topic时,指定Topic的副本数,此参数值不能超过对端实例的代理数。 如果对端实例中设置了“default.replication.factor”,此参数的优先级高于“default.replication.factor”。 启动偏移量 支持两种偏移量: 最早:最小偏移量,即获取最早的数据。 最新:最大偏移量,即获取最新的数据。 压缩算法 复制消息所使用的压缩算法。 topic映射 通过Topic映射,您可以自定义目标端Topic名称。 最多新增20个Topic映射。不能同时设置“重命名Topic”和“topic映射”。 配置复制数据规则时需要注意以下几点: 创建双向数据复制任务时,为了防止循环复制,控制台限定必须开启“重命名Topic”或者“添加来源header”。如果您在两个实例间,对同一个Topic分别创建拉取和推送的任务,即形成双向数据复制,且两个任务都未开启“重命名Topic”和“添加来源header”,此时会导致数据循环复制。 如果创建两个或以上配置完全相同的任务,即重复创建任务,且任务已开启“同步消费进度”,此时会导致数据重复复制,且目标Topic消费进度异常。 12、(可选)在页面右下角单击“开始检测”,测试两端Kafka实例的连通性。 显示“连通性检测成功”时,表示两端Kafka实例可以正常连接。 13、单击“立即创建”,跳转到Smart Connect任务列表页面,页面右上角显示“创建xxx任务成功”。 Kafka数据复制的Smart Connect任务创建成功后,Kafka会自动创建以下Topic。 当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 如果Smart Connect任务开启了“同步消费进度”功能,“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“ 当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        配置Kafka之间的数据复制
      • 针对DDos攻击设置告警通知
        本节介绍针对DDos攻击设置告警通知的最佳实践。 用户可以开启DDoS攻击告警通知,当公网IP受到DDoS攻击时用户会收到提醒消息。 前提条件 登录账号已购买公网IP。 操作步骤 1. 登录管理控制台。 2. 在产品服务列表中,选择“安全 > AntiDDoS流量清洗”,进入“AntiDDoS流量清洗”控制台。 3. 选择“告警通知”页签,设置告警通知。 告警通知参数说明: 参数 说明 告警通知开关 开启或关闭告警通知,说明如下: :开启状态。 :关闭状态。 消息通知主题 可以选择使用已有的主题,或者单击“查看消息通知主题”创建新的主题。 4. 将告警通知状态参数置为开启状态。 5. 单击“确定”,开启告警通知。
        来自:
        帮助文档
        Anti-DDoS流量清洗
        最佳实践
        针对DDos攻击设置告警通知
      • 设置告警规则
        本文主要介绍如何设置告警规则。 操作场景 RDSPostgreSQL产品支持设置告警规则,用户可自定义监控目标与通知策略,以便及时了解数据库服务运行状况,从而起到预警作用。 约束限制 仅RDSPostgreSQLⅡ类资源池支持设置告警规则。 设置告警规则的步骤 1. 登录天翼云门户。 2. 点击控制中心,进入控制中心后,选择目标资源池。 3. 在产品列表页面中找到【数据库】→【关系数据库PostgreSQL版】,点击进入控制台。 4. 在左侧菜单中点击【监控中心】→【告警设置】→“新建策略”进行告警规则的设置。 5. 完成告警规则参数填写后,点击保存,并开启告警规则。 告警规则参数解释 参数名 参数解释 策略名称 告警策略的名称,一个告警策略可以包含多个告警规则。 资源池 告警策略对应的资源池。 备注 告警策略的备注信息。 告警对象 可选择天翼云数据库组件,并选择对应的告警实例。例如可以选择“实例PostgreSQL”,然后点击“选择实例”选择对应的实例到告警规则中。 模板类型 支持手动创建告警规则,用户也可在“告警中心”>“告警模板”中创建模板然后通过应用已有模板创建告警规则。 阈值告警 支持选择实例CPU使用率、内存使用率、磁盘使用率、TPS、QPS、wal日志空间等监控指标。 事件告警 支持选择实例状态、agent进程状态、备份程序状态、集群状态指标。 沉默周期 指告警发生后如果未恢复正常,间隔多久重复发送一次告警通知。 告警级别 支持选择紧急、告警、普通三种告警级别。 告警方式 支持选择邮箱、短信和企业微信,支持同时选择多种告警方式进行告警。填写后将额外推送告警消息至指定的告警方式。 告警联系人 选择后会将告警信息推送至联系人绑定的邮箱和短信。 告警联系组 选择后会将告警信息推送至该组内的联系人。 注意 不同资源池因IaaS资源能力等原因,加载版本有所差异,详见
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        安全监控
        监控指标与告警
        设置告警规则
      • 查看客户端连接地址
        本章节主要介绍如何查看客户端连接地址。 分布式消息服务RabbitMQ支持通过Web界面查看客户端连接地址。 说明 客户端处于连接RabbitMQ实例时,才可以查看客户端连接地址。 操作步骤 步骤 1 登录RabbitMQ Web界面。 步骤 2 在导航栏单击“Connections”,进入“Connections”页面。 步骤 3 查看客户端连接地址,如图1所示。 图1 客户端连接地址 同一个客户端可以作为生产者生产消息,也可以作为消费者消费消息,连接IP地址是相同的,如图1,此时我们无法区分哪个是生产者IP地址,哪个是消费者IP地址。如果想要直观体现生产者/消费者IP地址,您可以在客户端中设置“clientProperties”参数,通过此参数来标明生产者/消费者IP地址,示例如下。 //配置客户端连接参数 HashMap clientProperties new HashMap<>(); clientProperties.put("connectionname", "producer"); connectionFactory.setClientProperties(clientProperties); //创建连接 Connection connection connectionFactory.newConnection(); 设置“clientProperties”参数后,连接地址显示如图2所示。 图2 客户端连接地址(分区生产者/消费者IP地址)
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        连接实例
        查看客户端连接地址
      • 【优惠】分布式消息服务MQTT新增包年优惠和产品资费价格下调
        为了让更多客户享受到分布式消息MQTT产品服务,我们致力于为客户提供更具竞争力的价格,并持续提升服务质量。 分布式消息服务MQTT自9月25日起开始启用新资费计价,老资费通用型同规格对比新费用降幅达78%84%。 实例规格参数 实例价格费用明细 降幅 实例规格参数 调整前 调整后 降幅 实例规格参数 单价(元/节点/月) 总费用(元/月) 单价(元/节点/月) 总费用(元/月) 降幅 s7.xlarge.4,4vCPUs 16GiB,3节点 4548 13644 720 2160 84% s7.2xlarge.4,8vCPUs 32GiB,3节点 8288 24864 1620 4860 80% s7.4xlarge.4,16vCPUs 64GiB,3节点 14976 44928 3240 9720 78% 同时新增包年折扣优惠,即日起订购分布式消息服务MQTT产品享受1年83折 优惠,11月将陆续开放2年7折,3年5折优惠选项,具体开放时间敬请关注产品公告。 此外,为保障更优的性能,11月计划上架Intel计算增强型规格,原通用型规格将调整为白名单特性,原老客户实例续订不受影响,新用户和新实例订购推荐开通计算增强型规格产品。
        来自:
        帮助文档
        分布式消息服务MQTT
        服务公告
        2024年
        【优惠】分布式消息服务MQTT新增包年优惠和产品资费价格下调
      • 安全认证原理和认证机制
        本章节主要介绍安全认证原理和认证机制。 功能 开启了 Kerberos认证的安全模式集群,进行应用开发时需要进行安全认证。 Kerberos这一名词来源于希腊神话“三个头的狗——地狱之门守护者”,后来沿用作为安全认证的概念,使用Kerberos的系统在设计上采用“客户端/服务器”结构与AES等加密技术,并且能够进行相互认证(即客户端和服务器端均可对对方进行身份认证)。可以用于防止窃听、防止replay攻击、保护数据完整性等场合,是一种应用对称密钥体制进行密钥管理的系统。 结构 Kerberos的原理架构如下图所示,各模块的说明如下图所示。 原理架构 模块说明 模块 说明 Application Client 应用客户端,通常是需要提交任务(或者作业)的应用程序。 Application Server 应用服务端,通常是应用客户端需要访问的应用程序。 Kerberos 提供安全认证的服务。 KerberosAdmin 提供认证用户管理的进程。 KerberosServer 提供认证票据分发的进程。 步骤原理说明: 应用客户端(Application Client)可以是集群内某个服务,也可以是客户二次开发的一个应用程序,应用程序可以向应用服务提交任务或者作业。 1. 应用程序在提交任务或者作业前,需要向Kerberos服务申请TGT(TicketGranting Ticket),用于建立和Kerberos服务器的安全会话。 2. Kerberos服务在收到TGT请求后,会解析其中的参数来生成对应的TGT,使用客户端指定的用户名的密钥进行加密响应消息。 3. 应用客户端收到TGT响应消息后,解析获取TGT,此时,再由应用客户端(通常是rpc底层)向Kerberos服务获取应用服务端的ST(Server Ticket)。 4. Kerberos服务在收到ST请求后,校验其中的TGT合法后,生成对应的应用服务的ST,再使用应用服务密钥将响应消息进行加密处理。 5. 应用客户端收到ST响应消息后,将ST打包到发给应用服务的消息里面传输给对应的应用服务端(Application Server)。 6. 应用服务端收到请求后,使用本端应用服务对应的密钥解析其中的ST,并校验成功后,本次请求合法通过。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        安全性说明
        安全认证原理和认证机制
      • 产生数字签名
        参数 是否必填 参数类型 说明 示例 下级对象 cmkUuid 是 String 密钥唯一标识id 474e569e8814474a948bdbcf6d853eff keyVersionId 是 String 密钥版本id db4e73dedef547029dbb6387f05ae0d8 algorithm 是 String 签名算法,取值范围: RSAPSSSHA256 SM2 RSAPSSSHA256 digest 是 String 消息摘要,使用algorithm中对应的哈希算法,对原始消息生成摘要 说明:需进行Base64编码 mkmscsninfnenfck
        来自:
        帮助文档
        密钥管理
        API参考(OpenAPI)
        API
        密钥管理接口
        密码运算
        产生数字签名
      • Spark作业管理概述
        参数 参数说明 作业ID 所提交Spark作业的ID,由系统默认生成。 名称 所提交Spark作业的名称。 队列 所提交Spark作业所在的队列。 用户名 执行Spark作业的用户名称。 状态 作业的状态信息,包括如下。 启动中:正在启动 运行中:正在执行任务 已失败:session已退出 已成功:session运行成功 恢复中:正在恢复任务 创建时间 每个作业的创建时间,可按创建时间顺序或倒序显示作业列表。 最后修改时间 作业运行完成的时间。 操作 编辑:可修改当前作业配置,重新执行作业。 SparkUI:单击后,将跳转至Spark任务运行情况界面。 说明 状态为“启动中”的作业不能查看SparkUI界面。 目前DLI配置SparkUI只展示最新的100条作业信息。 终止作业:终止启动中和运行中的作业。 重新执行:重新运行该作业。 归档日志:将作业日志保存到系统创建的DLI临时数据桶中。 提交日志:查看提交作业的日志。 Driver日志:查看运行作业的日志。
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业管理
        Spark作业管理
        Spark作业管理概述
      • 增强型跨源连接权限管理
        本章节主要介绍增强型跨源连接权限管理。 操作场景 增强型跨源支持项目级授权,授权后,项目内的用户具备该增强型跨源连接的操作权。可查看该增强型跨源连接、可将创建的弹性资源池与该增强型跨源连接绑定、可自定义路由等操作。以此实现增强型跨源连接的跨项目应用。本节操作介绍对增强型跨源连接授权或回收权限的操作步骤。 说明 如果被授权的项目属于相同区域(region)的不同用户,则需使用被授权项目所属的用户帐号进行登录。 如果被授权的项目属于相同区域(region)的同一用户,则需使用当前帐号切换到对应的项目下。 应用示例 项目B需要访问项目A上的数据源,对应操作如下。 对于项目A: a.使用项目A对应的帐号登录DLI服务。 b.通过对应数据源的VPC信息在DLI服务中创建增强型跨源连接“ds”。 c.将增强型跨源连接“ds”授权给项目B。 对于项目B: a.使用项目B对应的帐号登录DLI服务。 b.对增强型跨源连接“ds”进行绑定队列操作。 c.(可选)设置主机信息,创建路由。 通过上述操作项目A的增强型跨源连接与项目B的队列创建了对等连接和路由,即可在项目B的队列上创建作业访问项目A的数据源。 操作步骤 1. 登录DLI管理控制台。 2. 在左侧导航栏中,选择“跨源管理 > 增强型跨源 ”。 3. 选择待操作的增强型跨源连接,单击操作列的“更多 > 权限管理”。 授权: a.在权限管理页面,权限设置选择“授权”。 b.输入项目ID。 c.单击“确定”,授予该项目弹性资源池的操作权限。 回收权限: a.在权限管理页面,权限设置选择“回收”。 b.输入项目ID。 c.单击“确定”,回收指定项目的弹性资源池操作权。
        来自:
        帮助文档
        数据湖探索
        用户指南
        增强型跨源连接
        增强型跨源连接权限管理
      • 产品定义
        事件总线EventBridge是天翼云提供的一款Serverless事件总线服务,支持事件在总线中路由、过滤与转换,支持天翼云服务与自定义应用以标准化、中心化的方式接入,兼容CloudEvents 1.0协议,助力分布式事件驱动架构的快速构建。 核心概念 事件总线EventBridge涉及的核心概念如下: 事件:事件源状态变化的数据记录。 事件源:事件的来源,负责生产事件。 事件目标:事件的处理终端,负责消费事件。 事件总线:事件的中转站,负责事件的中间转储。 事件规则:用于匹配特定类型的事件。当事件成功匹配时,事件会被路由到与事件规则关联的事件目标。 事件总线总体架构 事件总线EventBridge的总体架构如下图所示: 事件源:事件的来源,将天翼云服务、自定义应用、SaaS应用等应用程序产生的事件消息投递至事件总线。 事件总线:存储接收到的事件消息,并根据事件规则将事件消息路由到事件目标。 事件目标:消费事件消息。 应用场景 事件总线EventBridge的典型应用场景如下: 构建事件驱动型架构:借助事件总线EventBridge,您无需了解事件源,就可以直接筛选并发布事件。 函数计算触发器:事件总线提供了统一的事件源接入方式,为函数计算服务提供SaaS应用事件或云服务事件的标准化接入。 应用事件流转:应用产生的事件可以通过事件总线触发其它相关联的应用,从而实现事件在应用与应用之间的流转。
        来自:
        帮助文档
        事件总线
        产品简介
        产品定义
      • 将Oracle同步到Kafka
        参数 描述 Topic 选择目标端需要同步到的Topic。 投送到kafka的数据格式 选择Oracle投送到kafka的数据格式。 Avro:可以显示Avro二进制编码,高效获取数据。 Json:为Json消息格式。详细格式可参考Kafka消息格式。 同步对象 同步对象支持表级同步,您可以根据业务场景选择对应的数据进行同步。 选择对象的时候支持搜索,以便您快速选择需要的数据库对象。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        自建到自建
        将Oracle同步到Kafka
      • 1
      • ...
      • 28
      • 29
      • 30
      • 31
      • 32
      • ...
      • 241
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      镜像服务 IMS

      轻量型云主机

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      AI Store

      公共算力服务

      推荐文档

      创建只读实例

      迁移

      设置告警规则

      故障辅助定界

      篡改防护

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号