云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      消息服务MNS_相关内容
      • 定时触发器
        定时触发器 定时触发器能够依照您预设的确切时刻或周期性指令,自动启动函数的运行,这为您提供了一种灵活的方式来安排任务的执行,特别适合那些需要按计划重复执行任务的场景。 使用场景 定时触发器非常灵活,适用于各种时间相关的场景,例如: 周期性任务,例如每周五发送运维报表。 定时任务,例如设定在指定日期时间开启游戏活动。 触发消息格式 触发消息: javascript { "msg": "hello world!" } 对应触发时的工作流输入: plaintext { "msg": "hello world!" } 操作步骤 1. 登录工作流控制台,点击目标工作流,进入工作流详情详情。 2. 在配置选项卡中,选择左边的 工作流调度 选项卡。 3. 点击 创建工作流调度 ,在弹出的右抽屉中选择 定时触发器,配置参数解释如下表。 配置项 参数说明 示例 名称 工作流调度的名称 timeTicker 触发方式 根据需要选择触发方式: 时间间隔:触发器每隔n分钟触发一次函数执行。 指定时间:选择时区,并指定日期、星期和时间,触发器在某时区的指定时间触发一次函数执行。 自定义:支持秒级配置,使用6段式Cron表达式,兼容Quartz的表达式。 /5 触发消息 该消息内容将会作为工作流的输入,必须为JSON字段。 { "msg" : "hello world!" }
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        控制台操作
        工作流调度
        定时触发器
      • 配置Kafka之间的数据复制
        本节介绍如何配置Kafka之间的数据复制。 本章节介绍如何创建Kafka数据复制的Smart Connect任务,通过Smart Connect任务可以在两个Kafka实例之间,实现数据的单向或双向复制。 源Kafka实例中的数据会实时同步到目标Kafka实例中。 约束与限制 一个实例最多创建18个Smart Connect任务。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 Smart Connect任务创建成功后,不支持修改任务参数。 确保目标Kafka实例Topic的“批处理消息最大值”大于等于524288字节,否则会导致数据无法同步。如果目标Kafka实例没有创建Topic,在数据同步时会自动创建Topic,此Topic的“批处理消息最大值”和源Kafka实例Topic相同,此时需要确保源Kafka实例Topic的“批处理消息最大值”大于等于524288字节。修改“批处理消息最大值”的方法请参考修改Kafka Topic配置。 前提条件 已开启Smart Connect。 已创建Kafka实例,且实例状态为“运行中”。 配置Kafka间的数据复制 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、单击Kafka实例名称,进入实例详情页面。 5、在左侧导航栏单击“Smart Connect”,进入Smart Connect任务列表页面。 6、单击“创建Smart Connect任务”,进入“创建smart connect”页面。 7、在“connect任务名称”中,输入Smart Connect任务的名称,用于区分不同的Smart Connect任务。任务名称需要符合命名规则:长度为4~64个字符,只能由英文字母、数字、中划线、下划线组成。 8、在“预置类型”中,选择“Kafka数据复制”。 9、在“当前kafka”区域,设置实例别名。实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“推送”/“双向”时,当前Kafka实例的别名作为前缀添加到对端Kafka实例的Topic名称前,形成Topic新的名称。例如当前Kafka实例别名为A,对端Kafka实例的Topic名称为test,重命名后的Topic为A.test。 Kafka数据复制的Smart Connect任务创建成功后,当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 10、在“对端kafka”区域,设置以下参数。 表11 对端Kafka实例参数说明 参数 参数说明 实例别名 设置实例别名,实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“拉取”/“双向”时,对端Kafka实例的别名作为前缀添加到当前Kafka实例的Topic名称前,形成Topic新的名称。例如对端Kafka实例别名为B,当前Kafka实例的Topic名称为test01,重命名后的Topic为B.test01。 Kafka数据复制的Smart Connect任务创建成功后,如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 配置类型 支持以下两种配置类型: Kafka地址:输入Kafka实例的连接信息。对端Kafka实例和当前Kafka实例处于不同的VPC下时,请选择此配置类型。 实例名称:选择已创建的Kafka实例。对端Kafka实例和当前Kafka实例处于相同的VPC下时,建议选择此配置类型。 实例名称 “配置类型”为“实例名称”,且对端Kafka实例和当前Kafka实例处于相同的VPC下时,需要设置。 在下拉列表中,选择已创建的Kafka实例。 Kafka地址 “配置类型”为“Kafka地址”时,需要设置。 输入Kafka实例的连接地址和端口号。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 认证方式 支持以下认证方式: SASLSSL:表示实例已开启SASLSSL认证,客户端连接Kafka实例时采用SASL认证,数据通过SSL证书进行加密传输。 SASLPLAINTEXT:表示实例开启SASLPLAINTEXT认证,客户端连接Kafka实例时采用SASL认证,数据通过明文传输。 PLAINTEXT:表示实例未开启认证。 认证机制 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 SCRAMSHA512:采用哈希算法对用户名与密码生成凭证,进行身份校验的安全认证机制,比PLAIN机制安全性更高。 PLAIN:一种简单的用户名密码校验机制。 用户名 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的用户名,或者创建用户时设置的用户名。 密码 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的密码,或者创建用户时设置的密码。 Smart Connect任务创建成功后,如果您修改了对端实例的认证方式、认证机制或者密码,会导致同步任务失败。 您需要删除当前Smart Connect任务,然后重新创建新的Smart Connect任务。 11、在“规则配置”区域,设置以下参数。 表12 复制数据规则参数说明 参数 参数说明 同步方式 支持以下三种同步方式: 拉取:把对端Kafka实例数据复制到当前Kafka实例中。 推送:把当前Kafka实例数据复制到对端Kafka实例中。 双向:两端Kafka实例数据进行双向复制。 Topics 设置需要进行数据复制的Topic。 正则表达式:通过正则表达式匹配Topic。 输入/选择:输入Topic名称,如果需要输入多个Topic名称,先输入一个Topic名称,按“Enter”,然后再输入下一个,按“Enter”,依次输入。或者在下拉列表中,选择Topic。最多输入/选择20个Topic。 Topic名称以internal结尾时(例如:topic.internal),此Topic的数据不会被同步。 任务数 数据复制的任务数。默认值为2,建议保持默认值。 如果“同步方式”为“双向”,实际任务数设置的任务数2。 重命名 Topic 在目标Topic名称前添加源端Kafka实例的别名,形成目标Topic新的名称。例如源端实例别名为A,目标Topic名称为test,重命名后的目标Topic为A.test。 两端实例数据双向复制时,开启“重命名Topic”,防止循环复制。 添加来源header 目标Topic接收复制的消息,此消息header中包含消息来源。 两端实例数据双向复制时,默认开启“添加来源header”,防止循环复制。 同步消费进度 开启“同步消费进度”后,将消费者消费进度同步到目标Kafka实例。 开启“同步消费进度”后,您需要注意以下几点: 源端Kafka实例和目标端Kafka实例不能同时消费,否则会导致同步的消费进度异常。 同步消费进度的频率为每分钟一次,因此会导致目标端的消费进度可能会略小于源端,造成部分消息被重复消费,所以需要消费者客户端业务逻辑兼容重复消费的场景。 从源端同步的offset与目标端的offset并非一致关系,而是映射关系,如果消费进度由消费者客户端自行维护,消费者客户端从消费源端Kafka实例变为消费目标端Kafka实例后,不向目标端Kafka实例获取消费进度,可能会导致offset错误或消费进度重置。 副本数 在对端实例中自动创建Topic时,指定Topic的副本数,此参数值不能超过对端实例的代理数。 如果对端实例中设置了“default.replication.factor”,此参数的优先级高于“default.replication.factor”。 启动偏移量 支持两种偏移量: 最早:最小偏移量,即获取最早的数据。 最新:最大偏移量,即获取最新的数据。 压缩算法 复制消息所使用的压缩算法。 topic映射 通过Topic映射,您可以自定义目标端Topic名称。 最多新增20个Topic映射。不能同时设置“重命名Topic”和“topic映射”。 配置复制数据规则时需要注意以下几点: 创建双向数据复制任务时,为了防止循环复制,控制台限定必须开启“重命名Topic”或者“添加来源header”。如果您在两个实例间,对同一个Topic分别创建拉取和推送的任务,即形成双向数据复制,且两个任务都未开启“重命名Topic”和“添加来源header”,此时会导致数据循环复制。 如果创建两个或以上配置完全相同的任务,即重复创建任务,且任务已开启“同步消费进度”,此时会导致数据重复复制,且目标Topic消费进度异常。 12、(可选)在页面右下角单击“开始检测”,测试两端Kafka实例的连通性。 显示“连通性检测成功”时,表示两端Kafka实例可以正常连接。 13、单击“立即创建”,跳转到Smart Connect任务列表页面,页面右上角显示“创建xxx任务成功”。 Kafka数据复制的Smart Connect任务创建成功后,Kafka会自动创建以下Topic。 当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 如果Smart Connect任务开启了“同步消费进度”功能,“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“ 当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        配置Kafka之间的数据复制
      • 删除多个对象
        参数 是否必填 参数类型 说明 示例 下级对象 Delete 是 Array of Objects 保存DeleteMultipleObjects请求信息 Delete Quiet 否 Boolean 是否使用简单响应模式请求批量删除。如果为true,则响应中不返回消息体。如果为false,则响应中的消息体包含全部删除对象的结果。不填默认是false false
        来自:
        帮助文档
        媒体存储
        API参考
        API(原生接口)
        关于对象的操作
        基础操作
        删除多个对象
      • 删除多个对象
        参数 是否必填 参数类型 说明 示例 下级对象 Delete 是 Array of Objects 保存DeleteMultipleObjects请求信息。 Delete Quiet 否 Boolean 是否使用简单响应模式请求批量删除。如果为true,则响应中不返回消息体。 如果为false,则响应中的消息体包含全部删除对象的结果。 不填默认是false。 false
        来自:
        帮助文档
        媒体存储
        API参考
        API(OpenAPI)
        关于对象的操作
        基础操作
        删除多个对象
      • 查设备轨迹
        本文为您介绍分布式消息服务MQTT的API设备客户端查设备轨迹。 GET URI参数说明: 参数名 参数类型 是否必填 参数描述 prodInstId String 是 实例Id clientId String 是 设备ID startTime String 是 起始时间,时间格式"yyyyMMddHHmmss" endTime String 是 截止时间,时间格式"yyyyMMddHHmmss"时间段不支持跨天,如果 startTime小于endTime当天起始时间,则以endTime那天起始时间为准查询 返回参数说明 参数名 参数类型 参数描述 returnObj Object 返回对象 returnObj.clientId String 设备ID returnObj.action String 动作connect、disconnect returnObj.time String 时间 yyyyMMdd HH:mm:ss message String 描述状态 statusCode Integer 800成功 其他失败 返回示例:成功 {"returnObj": [{“clientId”:"aaa","action":"connect","time":"20220911 11:22:33},{“clientId”:"aaax","action":"disconnect","time":"20220911 11:22:33}]"message": "success","statusCode": "800"} 返回示例:失败 {"returnObj": null,"message": "error","statusCode": "900"}
        来自:
        帮助文档
        分布式消息服务MQTT
        API参考
        API
        设备客户端
        查设备轨迹
      • 应用场景
        本章节主要介绍翼MapReduce服务在不同场景下的应用。 大数据在人们的生活中无处不在,在金融、交通、互联网、医疗、能源和政府部门等行业均可以使用翼MR服务进行大数据处理。 批量数据处理场景 HDFS集群负责存储海量日志数据。 YARN集群负责调度离线平台上运行的所有任务。 Hive、Spark、Trino等主流计算框架从数据加工、数据挖掘到数据分析,快速获取数据洞察力。 分析后的数据回写进HDFS集群,为上层数据可视化等产品提供数据支撑。 离线数据分析场景 将海量数据通过导入或者外表等形式引入到OLAP分析引擎里,例如,Trino提供高效、实时和灵活的数据分析能力。 满足用户画像、人群圈选、位置服务、BI报表和业务分析等一系列的业务场景。 流式数据处理场景 基于Flink流式计算框架,对各类业务日志或者消息等实时数据进行分析处理。 相应分析结果同步进HDFS集群存储服务中。 在线查询场景 基于Web和移动应用程序等生成的PB级别的结构化、半结构化或非结构化数据进行在线分析。 方便客户的Web应用或者数据可视化产品获取分析结果进行实时展示。
        来自:
        帮助文档
        翼MapReduce
        产品介绍
        应用场景
      • 必须配置的监控告警
        操作步骤 1. 登录分布式消息服务RocketMQ控制台。 2. 单击左侧RocketMQ专享版,进入实例列表页面。 3.在RocketMQ实例名称后,单击。 进入云监控该实例的监控指标页面。 4.在实例监控指标页面中,找到需要创建告警的指标项,鼠标移动到指标区域,然后单击指标右上角的,创建告警规则。 跳转到创建告警规则页面。 5.在告警规则页面,设置告警信息。 创建告警规则操作,请查看云监控服务的用户指南“创建告警规则”。 a. 设置告警名称和告警的描述。 b. 设置告警策略和告警级别。 如下图所示,在进行指标监控时,如果连续3个周期,磁盘容量使用率原始值超过85%,则产生告警,如果未及时处理,则产生告警通知。 图1 设置告警策略和告警级别 c. 设置“发送通知”开关。当开启时,设置告警生效时间、产生告警时通知的对象以及触发的条件。 d. 单击“立即创建”,等待创建告警规则成功。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        监控
        必须配置的监控告警
      • 步骤五:配置必须的监控告警
        操作步骤 步骤 1 登录分布式消息服务Kafka控制台,选择Kafka实例所在的区域。 步骤 2 在Kafka实例名称后,单击,进入云监控该实例的监控指标页面。 步骤 3 在实例监控指标页面中,找到需要创建告警的指标项,鼠标移动到指标区域,然后单击指标右上角的,创建告警规则,跳转到创建告警规则页面。 步骤 4 在告警规则页面,设置告警信息。 创建告警规则操作,请查看《云监控服务用户指南》的“创建告警规则和告警通知”章节。 1. 设置告警名称和告警的描述。 2. 设置告警策略和告警级别。 如下图所示,在进行指标监控时,如果连续3个周期,磁盘容量使用率原始值超过85%,则产生告警,如果未及时处理,则产生告警通知。 图设置告警策略和告警级别 3. 设置“发送通知”开关。当开启时,设置告警生效时间、产生告警时通知的对象以及触发的条件。 4. 单击“立即创建”,等待创建告警规则成功。
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        步骤五:配置必须的监控告警
      • 步骤二:创建Kafka实例
        本文主要介绍 步骤二:创建Kafka实例。 前提条件 在创建Kafka实例前,需要保证存在可使用的虚拟私有云。创建方法,请参考《虚拟私有云 用户指南》的“创建虚拟私有云和子网”。 如果您已有虚拟私有云,可重复使用,不需要多次创建。 操作步骤 步骤 1 登录分布式消息服务Kafka控制台,单击页面右上方的“购买Kafka实例”。 步骤 2 选择计费模式。 步骤 3 在“区域”下拉列表中,选择靠近您应用程序的区域,可降低网络延时、提高访问速度。 步骤 4 在“项目”下拉列表中,选择项目。 步骤 5 在“可用区”区域,根据实际情况选择1个或者3个及以上可用区。 步骤 6 设置“实例名称”和“企业项目”。 步骤 7 设置实例信息。 1. 版本:Kafka的版本号,支持1.1.0、2.3.0和2.7,根据实际情况选择,推荐使用2.7。 Kafka实例创建后,版本号不支持修改 。 2. CPU架构:支持“x86计算”,保持默认值即可。 3. 在“代理规格”中,请根据业务需求选择相应的代理规格。在“代理数量”中,选择代理个数。 单个代理最大分区数代理个数实例分区数上限。当所有Topic的总分区数大于实例分区数上限时,创建Topic失败。 4. 在“存储空间”区域,您根据实际需要选择存储Kafka数据的磁盘类型和总磁盘大小。 Kafka实例创建后,磁盘类型不支持修改 。 存储空间包含所有副本存储空间总和,建议根据业务消息体积以及副本数量选择存储空间大小。假设业务存储数据保留天数内磁盘大小为100GB,则磁盘容量最少为100GB副本数 + 预留磁盘大小100GB。 创建实例时会进行磁盘格式化,磁盘格式化会导致实际可用磁盘为总磁盘的93%~95%。 5. 在“容量阈值策略”区域,设置磁盘使用达到容量阈值后的消息处理策略,容量阈值为95%。 自动删除:可以正常生产和消费消息,但是会删除最早的10%的消息,以保证磁盘容量充足。该场景优先保障业务不中断,数据存在丢失的风险。 生产受限:无法继续生产消息,但可以继续消费消息。该场景适用于对数据不能丢的业务场景,但是会导致生产业务失败。 图 创建Kafka实例 步骤 8 设置实例网络环境信息。 1. 在“虚拟私有云”下拉列表,选择已经创建好的虚拟私有云和子网。 说明 虚拟私有云和子网在Kafka实例创建完成后,不支持修改。 2. 在“安全组”下拉列表,可以选择已经创建好的安全组。 安全组是一组对Kafka实例的访问规则的集合。您可以单击右侧的“管理安全组”,跳转到网络控制台的“安全组”页面,查看或创建安全组。 步骤 9 设置登录Kafka Manager的用户名和密码。创建实例后,Kafka Manager用户名无法修改。 Kafka Manager是开源的Kafka集群管理工具,实例创建成功后,实例详情页面会展示Kafka Manager登录地址,您可登录Kafka Manager页面,查看Kafka集群的监控、代理等信息。 步骤 10 设置实例购买时长。 当选择了“包年/包月”付费模式时,页面才显示“购买时长”参数,您需要根据业务需要选择。 步骤 11 单击“更多配置”,设置更多相关信息。 1. 设置“公网访问”。 “公网访问”默认为关闭状态,根据业务需求选择是否开启。开启公网访问后,还需要为每个代理设置对应的IPv4弹性IP地址。 图 设置公网访问开关 2. 设置“Kafka SASLSSL”。 客户端连接Kafka实例时,是否开启SSL认证。开启Kafka SASLSSL,则数据加密传输,安全性更高。 “Kafka SASLSSL”默认为关闭状态,您可以选择是否开启。 Kafka实例创建后,Kafka SASLSSL开关不支持修改 ,请慎重选择。如果创建后需要修改,需要重新创建实例。 开启Kafka SASLSSL后,您可以选择是否开启“SASL PLAIN 机制”。未开启“SASL PLAIN 机制”时,使用SCRAMSHA512机制传输数据,开启“SASL PLAIN 机制”后,同时支持SCRAMSHA512机制和PLAIN机制,根据实际情况选择其中任意一种配置连接。Kafka实例创建后,SASL PLAIN机制开关不支持修改。 什么是SCRAMSHA512机制和PLAIN机制? SCRAMSHA512机制:采用哈希算法对用户名与密码生成凭证,进行身份校验的安全认证机制,比PLAIN机制安全性更高。 PLAIN机制:一种简单的用户名密码校验机制。 开启Kafka SASLSSL后,您需要设置连接Kafka实例的用户名和密码。 3. 设置“Kafka自动创建Topic”。 “Kafka自动创建Topic”默认为关闭状态,您可以选择是否开启。 开启“Kafka自动创建Topic”表示生产或消费一个未创建的Topic时,系统会自动创建此Topic,此Topic的默认参数值如下:分区数为3,副本数为3,老化时间为72小时,不开启同步复制和同步落盘。 如果在“配置参数”中修改“log.retention.hours”、“default.replication.factor”或“num.partitions”的参数值,此后自动创建的Topic参数值为修改后的参数值。例如:“num.partitions”修改为“5”,自动创建的Topic参数值如下:分区数为5,副本数为3,老化时间为72小时,不开启同步复制和同步落盘。 4. 设置“标签”。 标签用于标识云资源,当您拥有相同类型的许多云资源时,可以使用标签按各种维度(例如用途、所有者或环境)对云资源进行分类。 如果您已经预定义了标签,在“标签键”和“标签值”中选择已经定义的标签键值对。另外,您可以单击“查看预定义标签”,跳转到标签管理服务页面,查看已经预定义的标签,或者创建新的标签。 您也可以直接在“标签键”和“标签值”中设置标签。 当前每个Kafka实例最多支持设置20个不同标签,标签的命名规格,请参考管理实例标签。 5. 设置实例的描述信息。 步骤 12 填写完上述信息后,单击“立即购买”,进入规格确认页面。 步骤 13 确认实例信息无误后,提交请求。 步骤 14 单击“返回Kafka专享版”,查看Kafka实例是否创建成功。 创建实例大约需要3到15分钟,此时实例的“状态”为“创建中”。 当实例的“状态”变为“运行中”时,说明实例创建成功。 如果创建实例失败,在信息栏的“创建失败任务”中查看创建失败的实例。请删除创建失败的实例,然后重新创建。如果重新创建仍然失败,请联系客服。 说明 创建失败的实例,不会占用其他资源。
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        步骤二:创建Kafka实例
      • 将Oracle同步到Kafka
        参数 描述 Topic 选择目标端需要同步到的Topic。 投送到kafka的数据格式 选择Oracle投送到kafka的数据格式。 Avro:可以显示Avro二进制编码,高效获取数据。 Json:为Json消息格式。详细格式可参考Kafka消息格式。 同步对象 同步对象支持表级同步,您可以根据业务场景选择对应的数据进行同步。 选择对象的时候支持搜索,以便您快速选择需要的数据库对象。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        自建到自建
        将Oracle同步到Kafka
      • sidecar内存持续升高有什么解决办法?
        原因 说明 网格配置 默认情况下网格中的配置和服务发现信息会全量同步到所有sidecar,当网格中的配置增多或者pod数量增多时,将导致sidecar代理的内存升高。 动态请求消耗的内存 Envoy中会为请求申请buffer用于缓存请求及应答信息,当请求量和消息比较大的时候会增加内存消耗。 可观测指标发散 当指标的tag较多时将会在内存中产生较多副本,增加内存消耗。 HTTP2流量控制相关 sidecar实现HTTP2编解码中有流级别及连接级别的缓存字节数限制,默认为256MB,当sidecar处理能力不足将导致数据在内存中累积。
        来自:
        帮助文档
        应用服务网格
        常见问题
        操作类
        sidecar内存持续升高有什么解决办法?
      • 功能特性
        安全管理 基于网络隔离、安全组规则以及一系列安全加固项,实现租户隔离和访问权限控制,保护系统和用户的隐私及数据安全。 支持SSL安全网络连接、用户权限管理、密码管理等功能,保证数据库在网络层、管理层、应用层和系统层的安全性。 监控与审计 监控集群 DWS 与云监控服务集成,使您能够对集群中的计算节点和数据库进行实时监控。详情请参见《数据仓库服务用户指南》中“监控集群”章节。 事件通知 DWS 与消息通知服务对接,使您能够查看触发的各类事件。详情请参见《数据仓库服务用户指南》中的“事件通知”。 告警管理 告警管理包含查看告警规则、告警规则配置与告警信息订阅功能。其中,告警规则可以提供过去一周的告警信息统计与告警信息明细,方便用户自行查看租户下的告警。该特性除了以默认值的形式提供一套DWS告警最佳实践外,还允许用户根据自己的业务特点,个性化修改告警阈值。详情请参见《数据仓库服务用户指南》中“告警管理”章节。 审计日志 DWS 与云审计服务集成,使您能够对所有的管理控制台操作及API调用进行审计。 DWS 数据库还会记录所有的SQL操作,包括连接尝试、查询和数据库的变动。详情请参见《数据仓库服务用户指南》中“设置数据库审计日志”章节。
        来自:
        帮助文档
        数据仓库服务
        产品简介
        功能特性
      • 支持天翼云APP产品控制台的云产品
        本文介绍天已支持翼云APP产品控制台的云产品。 天翼云支持在天翼云APP对云产品进行管理。 天翼云APP产品控制台支持的云产品 1、弹性云主机(一类节点) 2、天翼云电脑(政企版)(一类节点) 3、分布式消息服务Kafka(一类节点) 4、分布式缓存服务Redis版(一类节点) 5、云容器引擎(一类节点) 6、关系数据库MySQL版(一类节点 II 类型资源池) 7、媒体存储(通用) 8、对象存储(经典版)I型(一类节点) 9、备案(通用) 更多产品管理控制台正在接入中,敬请期待,如对产品控制台有任何建议,欢迎提交建议与反馈
        来自:
        帮助文档
        天翼云APP
        管理控制台
        支持天翼云APP产品控制台的云产品
      • 队列管理概述
        专属队列 专属队列是指队列对应的资源为专属资源,空闲时不释放,即无论是否使用均保留资源的队列类型。专属队列可以保证提交作业时资源一定存在。 队列弹性扩缩容 DLI提供了队列弹性扩缩容的功能。用户在创建指定规格队列后,可根据需要进行弹性扩缩容。 根据业务情况,手动更改队列规格。具体操作请参考队列弹性扩缩容。 说明 新创建的队列需要运行作业后才可进行扩缩容。 队列弹性扩缩容定时任务 DLI提供了队列弹性扩缩容定时任务的功能。用户在创建队列后,可根据需要进行弹性扩缩容定时任务。 根据业务情况,设置队列自动扩缩容的时间,由系统定时触发队列扩缩容。具体操作请参考弹性扩缩容定时任务。 说明 新创建的队列需要运行作业后才可进行扩缩容。 队列自动扩缩容 Flink作业使用队列,DLI可根据作业大小自动触发扩缩容,用户无需进行操作。 说明 新创建的队列需要运行作业后才可进行扩缩容。 队列管理页面 队列管理主要包括如下功能: 队列权限管理 创建队列 删除队列 修改队列网段 队列弹性扩缩容 弹性扩缩容定时任务 测试地址连通性 创建消息通知主题 说明 DLI作业执行失败需要通过SMN发送通知消息,因此需要获得访问和使用SMN(消息通知服务)的SMN Administrator权限。 队列管理页面显示用户创建所有的队列和服务预置的default队列。队列列表默认按创建时间排列,创建时间最近的队列显示在最前端。 队列管理参数 参数 参数说明 名称 队列的名称。 类型 队列的类型。 SQL队列 通用队列 Spark队列(兼容老版本) 规格 队列大小,单位:CUs。 CUs是队列的计价单位。1CUs1Core 4GMem。不同规格的队列对应的计算能力不一样,规格越高计算能力越好。 实际CUs 当前队列实际大小值。 弹性扩缩容 定时扩缩容的目标CU值,或当前规格CU值的最大值和最小值。 用户名 队列所有者。 描述 创建队列时,对队列的描述。如果无描述,则显示“”。 操作 删除:删除所选队列。如果队列中有正在提交或者正在运行的作业,将不支持删除操作。 权限管理:查看队列对应的用户权限信息以及对其他用户授权。 更多 − 重启:强制重启队列。 说明 只有SQL队列有“重启”操作。 − 弹性扩缩容:可以根据需要选择“扩容”或“缩容”,目标值大小必须为16CU的整数倍。 − 弹性扩缩容定时任务:可以根据业务周期或使用情况,在不同的时间或周期内设置不同的队列大小,系统将定时自动进行“扩容”或“缩容”。目标值大小必须为16CU的整数倍。 − 修改网段:使用DLI增强型跨源时,DLI队列网段与数据源网段不能重合,可根据需要进行修改。 − 测试地址连通性:测试队列到指定地址是否可达,支持域名和ip,可指定端口。
        来自:
        帮助文档
        数据湖探索
        用户指南
        队列管理
        队列管理概述
      • 开发事件函数示例
        步骤三:本地验证 1. 启动docker容器 docker run u 1003:1003 p 8000:8000 customcontainereventexample:latest 2. 打开一个新的命令行窗口,向开放的8000端口发送消息,访问模板代码中指定的/init路径 curl XPOST H 'ContentType: application/json' localhost:8000/init 按照模块代码中返回 Hello init 3. 打开一个新的命令行窗口,向开放的8000端口发送消息,访问模板代码中指定的/invoke路径 curl XPOST H 'ContentType: application/json' d '{"message":"HelloWorld"}' localhost:8000/invoke 按照模块代码中返回 Hello invoke 4. 在容器启动端口可以看到 Listening on receive {} receive { message: 'HelloWorld' } 或者使用docker logs命令获取容器的日志 步骤四:上传镜像 1. 登录容器镜像服务控制台,在左侧导航栏选择“我的镜像”。 2. 单击右上角的“客户端上传”或“页面上传”。 3. 根据指示上传镜像。 4. 上传成功后,在“我的镜像”界面可查看。 步骤五:创建函数 1. 登录函数工作流控制台,在左侧的导航栏选择“函数 > 函数列表”。 2. 单击右上方的“创建函数”,进入“创建函数”页面,使用容器镜像部署函数。 3. 填写基本信息。 函数类型:选择“事件函数” 函数名称:输入“customcontainerevent” 容器镜像:选择上一步上传到SWR的镜像。 现有委托:使用包含SWR Admin权限的委托。 4. 完成后单击“创建函数”。 5. 在函数详情页“设置 > 高级设置”,开启“初始化函数”,即调用init接口进行初始化。
        来自:
        帮助文档
        函数工作流
        快速入门
        使用容器镜像部署函数
        开发事件函数示例
      • 事件通知
        事件通知消息结构 事件通知消息结构如下: { "Records": [ { "eventVersion": "", // 版本号 "eventSource": "", // 消息源,固定为"ctyun:s3" "awsRegion": "", // 事件所在的region "eventTime": "", // 事件时间,格式为ISO8601,示例:20230613 02:20:19.032936Z "eventName": "", // 触发事件通知的事件名 "userIdentity": { "principalId": "" // 触发事件的用户ID }, "requestParameters": { "sourceIPAddress": "" // 请求的源IP }, "responseElements": { "xamzrequestid": "", // 请求对应的requestid "xamzid2": "" // 帮助定位问题的特殊符号 }, "s3": { "s3SchemaVersion": "1.0", "configurationId": "", // 事件匹配的事件通知规则的名称 "bucket": { "name": "examplebkt", // 桶名 "ownerIdentity": { "principalId": "" // 桶拥有者的帐号ID }, "arn": "arn:aws:s3:::examplebkt", // 桶的ARN "id": "" // 桶id }, "object": { "key": "object", // 对象名 "size": 779, // 对象大小 "etag": "", // 对象ETag "versionId": "", // 对象版本Id "sequencer": "", // 确定某个特定对象事件顺序的标识 "metadata": [ { "key": "xamzmetaa", // 用户自定义元数据 "val": "2" } ], } }, "eventId": "" // 事件ID } ] } ‍使用方式 操作途径 使用方式 控制台 可参考:事件通知。
        来自:
        帮助文档
        媒体存储
        用户指南
        数据监控
        事件通知
      • Netty内存
        指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 内存(memory,内存指标。) directMemoryUsage 已使用直接内存 已使用直接内存 INT AVG 内存(memory,内存指标。) maxDirectMemory 最大直接内存 最大直接内存 INT MAX 异常(exception ,异常。) causeType 类名 类名 ENUM LAST 异常(exception ,异常。) exceptionType 异常类型 异常类型 ENUM LAST 异常(exception ,异常。) count 次数 次数 INT SUM 异常(exception ,异常。) message 异常消息 异常消息 STRING LAST 异常(exception ,异常。) stackTrace 异常堆栈 异常堆栈 CLOB LAST
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        基础监控
        Netty内存
      • Java
        使用Maven方式引入依赖 com.rabbitmq amqpclient 5.7.0 生产消息 import com.rabbitmq.client.Channel; import com.rabbitmq.client.Connection; import com.rabbitmq.client.ConnectionFactory; import java.io.IOException; import java.nio.charset.StandardCharsets; import java.util.concurrent.TimeUnit; import java.util.concurrent.TimeoutException; public class RabbitmqProducer { // private final static String EXCHANGENAME "exchangeTest"; private final static String QUEUENAME "helloMQ"; // private final static String ROUTINGKEY "test"; public static void main(String[] args) throws IOException, TimeoutException, InterruptedException { // 创建连接工厂 ConnectionFactory factory new ConnectionFactory(); // 设置主机ip factory.setHost("127.0.0.1"); // 设置amqp的tcp端口号 factory.setPort(5672); // 设置用户名密码 factory.setUsername("YOUR USERNAME"); factory.setPassword("YOUR PASSWORD"); // 设置Vhost,需要在控制台先创建 factory.setVirtualHost("/"); // 基于网络环境合理设置超时时间 factory.setConnectionTimeout(30 1000); factory.setHandshakeTimeout(30 1000); factory.setShutdownTimeout(0); // 创建一个连接 Connection connection factory.newConnection(); // 创建一个频道 Channel channel connection.createChannel(); // 指定一个队列 channel.queueDeclare(QUEUENAME, false, false, false, null); for (int i 0; i < 100; i++) { // 发送的消息 String message "Hello rabbitMQ!" + i; // 往队列中发送一条消息,使用默认的交换器 channel.basicPublish("", QUEUENAME, null, message.getBytes(StandardCharsets.UTF8)); System.out.println(" Sent message: '" + message + "'"); TimeUnit.MILLISECONDS.sleep(100); } //关闭频道和连接 channel.close(); connection.close(); } }
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        开发指南
        Java
      • 入侵总览
        本小节介绍服务器安全卫士的入侵总览。 功能介绍 展示入侵检测功能总体的数据概览信息,支持各项操作来展示不同的统计视图信息。 具体操作 1.筛选:右上角提供两个维度的数据筛选,业务组和时间区间; 业务组:可勾选Linux下的业务组,根据选择的业务组信息筛选统计信息重新生成各视图; 时间区间:提供三个时间区间进行选择:24小时、7天和30天,选择后根据选择的时间区间筛选统计信息重新生成各视图; 2.入侵事件分布模块:可点选图例开启/关闭功能在环形图中是否显示; 3.实时监控模块:点击“查看更多”按钮,跳转至消息中心,默认选择入侵检测tab,可查看所有入侵的通知消息事件; 4.查找主机:点击右上角“查找主机”按钮,弹出窗口展示当前全部主机的信息,点击各主机的“查看”按钮将新开Web选项卡并进入该主机的单台主机详情页中。
        来自:
        帮助文档
        服务器安全卫士
        入侵检测
        入侵总览
      • 大模型接入
        参数名 是否必选 参数类型 说明 默认值 role 是 str 聊天角色,user或者assistant content 是 str 消息内容 type 是 str "text":文本, "image"图片, "browserresult" :互联网检索 ref 否 ChatMessageRef 文件(图片)内容,支持多模态的模型可以使用该字段,带上该字段的消息示例格式 { "role":"user", "content":"图里有什么", "ref":{ "type":"image", "image":[{"url":"", "filesize":60994} ] } }
        来自:
        帮助文档
        天翼云电脑(政企版)
        云智助手
        生态接入
        大模型接入
      • 实例类
        本章节介绍了有关分布式消息服务RocketMQ实例类的常见问题及解答。 是否兼容RocketMQ? 兼容开源RocketMQ版本能力,推荐使用4.8.0及更新的版本。 当前实例可靠性是怎么保障的? 数据存储按照一主两备的方式保证可靠性,还支持实例跨AZ部署。 RocketMQ实例兼容开源RocketMQ哪个版本? RocketMQ实例兼容开源RocketMQ 4.8.0和5.x,客户端推荐使用4.9.5及更新的版本。 为什么不能选择2个可用区? 如果您需要提高RocketMQ集群实例的可靠性,在创建实例时,建议选择3个或以上的可用区,不支持选择2个可用区。原因如下:使用2个可用区的实例,如果其中一个可用区故障,可能会导致实例不可用。 RocketMQ实例的SSL开关是否支持修改? 不支持动态修改,即如果实例创建时没有选择开启,创建完成之后,不支持修改,建议在实例创建时将开关打开。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        常见问题
        实例类
      • API使用说明
        天翼云OpenAPI门户提供了产品的API 文档、API调试、SDK中心等。 关于用户如何使用分布式消息服务Kafka产品API的详细介绍,请参见使用API(默认Ⅱ类资源池接口)。您可以在OpenAPI门户可以了解到具体的调用前必知、API概览、如何调用API以及具体的API的接口详细说明。 说明 Ⅱ类资源池版本:适用于 华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3、芜湖4、乌鲁木齐7 资源池,详情请参照 Ⅰ类资源池版本:适用于 芜湖2、上海7、贵州3、昆明2、重庆2、乌鲁木齐27、保定、石家庄20、内蒙6、北京5 资源池,详情请参照
        来自:
        帮助文档
        分布式消息服务Kafka
        API参考
        API使用说明
      • 【产品公告】关于SSL证书有效期政策变更的重要通知
        天翼云应对方案 为保障您的服务连续性,我们将采取以下措施: 服务承诺不变,在2026年3月15日之前购买SSL证书服务权益不受影响: 在2026年3月15日前购买且在2026年3月15日后签发的证书,签发多张连续有效期的证书(如:1年期内签发2张 有效期最长为199天的证书),确保您在购买的有效期内证书可用。 请注意查收证书到期提醒邮件,您也可以登录证书管理控制台,进入“信息管理 > 消息管理”配置短信提醒。 您需要配合的操作: 手动验证域名的证书:域名验证频率将提高(约6个月验证一次),您需及时验证域名。 天翼云上资源部署的证书:请开启自动续费+证书托管服务,新证书签发后,系统将自动更新替换您部署在云上资源的旧证书。 服务器上部署的证书:证书替换频率将提高(约6个月替换一次),您需及时下载新证书并部署替换旧证书。 如您有任何问题,可随时通过工单或者服务热线(4008109889)与我们联系。
        来自:
        帮助文档
        证书管理服务
        产品公告
        【产品公告】关于SSL证书有效期政策变更的重要通知
      • 配置委托
        节点名称 系统权限 权限描述 CDM Job DAYU Administrator 数据治理中心服务的所有执行权限。 Import GES GES Administrator 图引擎服务的所有执行权限。该角色有依赖,需要在同项目中勾选依赖的角色:Tenant Guest、Server Administrator。 MRS Presto SQL、MRS Spark、MRS Spark Python、MRS Flink Job、 MRS MapReduce MRS Spark SQL、MRS Hive SQL(通过MRS API方式连接MRS集群的) MRS Administrator KMS Administrator MRS Administrator:MapReduce服务的所有执行权限。该角色有依赖,需要在同项目中勾选依赖的角色:Tenant Guest、Server Administrator。 KMS Administrator:数据加密服务加密密钥的管理员权限。 MRS Spark SQL、MRS Hive SQL、MRS Kafka、Kafka Client(通过代理方式连接集群) DAYU Administrator KMS Administrator DAYU Administrator:数据治理中心服务的所有执行权限。 KMS Administrator:数据加密服务加密密钥的管理员权限。 DLI Flink Job、DLI SQL、DLI Spark DLI Service Admin 数据湖探索的所有执行权限。 DWS SQL、Shell、RDS SQL(通过代理方式连接数据源) DAYU Administrator KMS Administrator DAYU Administrator:数据治理中心服务的所有执行权限。 KMS Administrator:数据加密服务加密密钥的管理员权限。 CSS DAYU Administrator Elasticsearch Administrator DAYU Administrator:数据治理中心服务的所有执行权限。 Elasticsearch Administrator:云搜索服务的所有执行权限。该角色有依赖,需要在同项目中勾选依赖的角色:Tenant Guest、Server Administrator。 Create OBS、Delete OBS、OBS Manager OBS OperateAccess 查看桶、上传对象、获取对象、删除对象、获取对象ACL等对象基本操作权限 SMN SMN Administrator 消息通知服务的所有执行权限。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        配置管理
        配置
        配置委托
      • 使用SSL证书连接
        本文主要介绍使用SSL证书连接。 创建实例时开启SASLSSL访问,则数据加密传输,安全性更高。 DMS的RabbitMQ实例兼容开源协议,请参考RabbitMQ官网提供的不同语言的连接和使用向导:< 本节以DMS提供的demo为例,介绍VPC内访问与使用RabbitMQ的方法,假设RabbitMQ客户端部署在弹性云主机上。 前提条件 参考创建RabbitMQ实例章节创建RabbitMQ示例,并记录创建时输入的用户名和密码。 创建完成后,单击实例名称,查看并记录实例详情中的“连接地址”。 已创建弹性云主机,并且弹性云主机的VPC、子网、安全组与RabbitMQ实例的VPC、子网、安全组保持一致。 已完成JDK安装及环境变量配置,具体操作请参考准备环境。 命令行模式连接实例 以下操作命令以Linux系统为例进行说明。 1、下载RabbitMQTutorialSSL.zip示例工程代码。 2、解压RabbitMQTutorialSSL.zip压缩包。 $ unzip RabbitMQTutorialSSL.zip 3、进入RabbitMQTutorialSSL目录,该目录下包含预编译好的jar文件。 $ cd RabbitMQTutorialSSL 4、运行生产消息示例。 $ java cp .:rabbitmqtutorialsll.jar Send host port user password 其中,host表示RabbitMQ实例的连接地址,port为RabbitMQ实例的监听端口(默认为5671),user表示RabbitMQ用户名,password表示用户名对应的密码。 图1 生产消息示例 使用Ctrl+C命令退出。 5、运行消费消息示例。 $ java cp .:rabbitmqtutorialsll.jar Recv host port user password 其中,host表示RabbitMQ实例的连接地址,port为RabbitMQ实例的监听端口(默认为5671),user表示RabbitMQ用户名,password表示用户名对应的密码。 图2 消费消息示例 如需停止消费使用Ctrl+C命令退出。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        快速入门
        步骤三:连接实例生产消费消息
        使用SSL证书连接
      • 某交投能源充电桩项目
        本节介绍了云容器引擎的最佳实践:某交投能源充电桩项目。 项目背景 “十四五”以来,某市国资委按照市委市政府决策部署,主动抓抢国家碳达峰、碳中和战略发展机遇,积极谋划布局新能源产业,大力推进“交投能源”充电桩项目建设,提升企业核心竞争力,推动国有企业高质量发展。 该市交投集团抓抢发展机遇,迅速推动全市充电桩一张网建设,拟通过微信小程序入口向市民提供充电服务。该市交投集团通过招标选定某数字能源股份有限公司作为充电方案供应商,并选择天翼云作为该服务平台的云资源服务提供商。 解决方案 容器引擎部署应用服务:采用天翼云容器引擎部署平台应用服务,结合消息队列、分布式缓存等服务和数据库系统组成整体系统。 数据库服务部署核心业务:采用TeleDB for MySQL主备版存储核心业务数据,采用文档数据库存储日志等相关信息。云通信提供短信验证、短信通知等服务。 客户痛点 因客户上线需求紧急,平台软件厂商前期将业务临时部署在友商云上。部署在天翼云上的业务经测试后,需要将业务割接至天翼云。为保障割接万无一致,使用天翼云DTS进行实时同步,保障了割接顺利进行。 该省市公司与云公司组建专业支撑团队,割接时现场支撑保障业务顺利割接。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        最佳实践
        客户案例
        某交投能源充电桩项目
      • 监控与报警
        操作场景 内网DNS服务监控支持查看用户私网域名请求量。您可以通过云监控依据细颗粒度的监控指标获得有关内网DNS的各种监控数据信息, 也可以通过设置适当的报警阈值和报警策略,及时发现并处理潜在的问题。 使用须知 云监控服务不需要开通,会在您使用内网DNS服务后自动启动。 注意 内网DNS监控当前仅部分资源池支持,具体支持资源池以控制台展示为准。 查看内网DNS监控 通过云监控服务中心查看 1. 登录云监控服务控制台。 2. 单击控制中心左上角的,选择地域。 3. 在左侧导航栏,单击“云服务监控>内网DNS监控”。 4. 单击“权威域名”然后在操作列单击“查看监控图表”。 创建阈值报警规则 您可以在云监控控制台创建告警规则对指标进行监控。当资源的监控指标达到告警条件,云监控将向您发送告警消息,报告异常监控数据,帮助您及时掌握异常状态并处理,保证业务顺畅进行。 云监控提供了自定义创建告警模板的功能,您可以选择在默认模板推荐的监控指标上进行修改,或自定义添加告警指标完成自定义告警模板的添加。
        来自:
        帮助文档
        内网DNS
        用户指南
        监控与报警
      • 管理诊断日报
        参数项 说明 订阅方式 选择“主题订阅”或者“输入邮箱”。 主题 主题是消息发布订阅通知的特定事件类型。它作为发送消息和订阅通知的信道,为发布者和订阅者提供一个可以相互交流的通道。 邮箱 订阅方式选择“输入邮箱”时需要配置邮箱参数。 发起诊断并且诊断结果异常时,才会向指定邮箱发送邮件。最多支持输入15个邮箱,邮箱之间以“;”分隔。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        问题诊断和SQL分析
        问题诊断
        管理诊断日报
      • CSS
        参数 是否必选 说明 节点名称 是 节点名称,可以包含中文、英文字母、数字、“”、“”、“/”、“<”、“>”等各类特殊字符,长度为1~128个字符。 CloudSearch集群 是 选择CloudSearch集群,该集群已在CloudSearch服务中创建好。目前仅支持使用5.5.1版本的集群。 CDM集群名称 是 选择CDM集群。CDM集群提供代理,转发相关请求。如果下拉框中未提供CDM集群,请访问CDM管理控制台创建集群。 请求类型 是 支持以下请求类型: GET POST PUT HEAD DELETE 请求参数 否 请求参数。假设用户需要查询dlfsearch索引中dlfdata映射类型的信息,请求参数可填写为: /dlfsearch/dlfdata/search 请求体 否 Json格式的请求消息体。 CloudSearch输出路径 否 选择输出数据的存储路径。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        节点参考
        CSS
      • 设置告警规则
        本节介绍了如何创建云数据库TaurusDB实例的告警规则。 操作场景 通过设置TaurusDB告警规则,用户可自定义监控目标与通知策略,及时了解TaurusDB运行状况,从而起到预警作用。 设置TaurusDB的告警规则,包括设置告警规则名称、服务、维度、监控对象、监控指标、告警阈值、监控周期和是否发送通知等参数。 创建实例告警规则 步骤 1 登录管理控制台。 步骤 2 选择“管理与部署 > 云监控服务”,进入“云监控服务”信息页面。 步骤 3 在左侧导航栏选择“云服务监控 > 云数据库TaurusDB”。 步骤 4 选择目标实例,单击实例名称左侧的,选择操作列的“创建告警规则”。 图 创建实例告警规则 步骤 5 在“创建告警规则”页面,配置相关参数。 1. 配置告警规则的基本信息。 表 配置规则信息 参数 参数说明 名称 系统会随机产生一个名称,用户也可以进行修改。取值样例:alarmb6al 描述 告警规则描述(此参数非必填项)。 2. 配置告警内容参数。 表 配置告警内容参数 参数 参数说明 触发规则 根据需要可选择关联模板、导入已有模板或自定义创建。 选择“关联模板”后,所关联模板内容修改后,该告警规则中所包含策略也会跟随修改。 选择“自定义创建”后,可根据实际需求配置告警策略及告警级别。 模板 选择需要导入的模板。您可以选择系统预置的默认告警模板,或者选择自定义模板。 告警策略 触发告警规则的告警策略。告警规则内最多可添加50条告警策略,若其中一条告警策略达到条件都会触发告警。 3. 配置告警通知参数。 表 配置告警通知 参数 参数说明 发送通知 配置是否发送邮件、短信、HTTP和HTTPS通知用户。 通知方式 根据需要可选择通知组或主题订阅两种方式。 通知组 需要发送告警通知的通知组。 通知对象 需要发送告警通知的对象,可选择“云帐号联系人”或主题。 云帐号联系人:注册帐号时的手机和邮箱。 主题:创建主题后,您需要单击主题列表操作栏的添加订阅按钮,添加通知方式。 生效时间 该告警规则仅在生效时间内发送通知消息。如生效时间为08:0020:00,则该告警规则仅在08:0020:00发送通知消息。 触发条件 可以选择“出现告警”、“恢复正常”两种状态,作为触发告警通知的条件。 4. 配置归属企业项目和标签。 表 配置规则信息 参数 参数说明 归属企业项目信息 告警规则所属的企业项目。只有拥有该企业项目权限的用户才可以查看和管理该告警规则。 标签 使用标签可以方便识别和管理您拥有的数据库服务资源。 步骤 6 单击“立即创建”,告警规则创建完成。
        来自:
        帮助文档
        云数据库TaurusDB
        用户指南
        监控指标与告警
        设置告警规则
      • 查看一分钟发布消息量
        接口功能介绍 查看一分钟发布消息量 接口约束 无 URI GET /v3/api/getPubTpm 路径参数 无 Query参数 参数 是否必填 参数类型 说明 示例 下级对象 prodInstId 是 String 实例ID 445d30ce3d5d40a2a79dc444a8c83859 请求参数 请求头header参数 参数 是否必填 参数类型 说明 示例 下级对象 regionId 是 String 资源池编码 bb9fdb42056f11eda1610242ac110002 华东1 请求体body参数 无 响应参数 参数 参数类型 说明 示例 下级对象 message String 错误信息 statusCode String 800成功 其他失败 returnObj Object 返回数据 returnObj error String 错误码 表 returnObj 参数 参数类型 说明 示例 下级对象 prodInstId String 实例ID tpm Integer 一分钟生产消息量 枚举参数 无 请求示例 请求url 请求头header { "regionId":"bb9fdb42056f11eda1610242ac110002" } 请求体body 无
        来自:
        帮助文档
        分布式消息服务MQTT
        API参考
        API
        2022-04-13
        查看一分钟发布消息量
      • SSL接入性能优化
        本文主要介绍消息队列 Kafka 通过SSL接入的最佳实践,从而帮助您更好的使用该产品。 文中的最佳实践基于消息队列 Kafka 的 Java 客户端;对于其它语言的客户端,其基本概念与思想是通用的,但实现细节可能有差异,仅供参考。 背景 云消息队列 Kafka 版实例如果选择SASLSSL接入时,可能会出现性能较差的情况。可以通过在客户端指定密码套件的方式,手动选择性能和安全性都较高的套件进行TLS通讯。 SSL握手时客户端发送Hello Client 并带上客户端支持的密码套件,服务端收到握手请求后,获取客户端带来的密码套件和服务端支持的密码套件取交集。密码套件加载顺序受客户端jdk版本影响,不同jdk版本,密码套件顺序不一样,可能会导致性能和安全性等无法保证。因此为了保证性能,SSL连接时客户端可以指定密码套件。 推荐的性能和安全性较高的密码套件 TLSECDHERSAWITHAES256GCMSHA384 TLSECDHERSAWITHAES128GCMSHA256 步骤 1.先按照SASLSSL协议接入Kafka,SASLSSL接入可参考文档 SASLSSL接入点接入 2.在此基础上增加 ssl.cipher.suites 配置 客户端关键参数 java Properties props new Properties(); props.put(ProducerConfig.BOOTSTRAPSERVERSCONFIG, BROKERADDR); props.put(ProducerConfig.VALUESERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(ProducerConfig.KEYSERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(CommonClientConfigs.SECURITYPROTOCOLCONFIG, "SASLSSL"); props.put("sasl.mechanism", "SCRAMSHA512"); props.put(SaslConfigs.SASLJAASCONFIG, "org.apache.kafka.common.security.scram.ScramLoginModule required username"testuser" password"f6eca4dbc78df78d63fba980e448185f";");//注:上面的密码f6eca4dbc78df78d63fba980e448185f,为用户管理里面创建用户时填入的密码进行md5的结果,md5取32位小写 props.put("ssl.truststore.location","/kafka/client.truststore.jks"); props.put("ssl.truststore.password","sJses2tin1@23"); props.put("ssl.endpoint.identification.algorithm",""); props.put("ssl.cipher.suites","TLSECDHERSAWITHAES256GCMSHA384,TLSECDHERSAWITHAES128GCMSHA256");//密码套件支持多个,用半角逗号分开
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        SSL接入性能优化
      • 1
      • ...
      • 25
      • 26
      • 27
      • 28
      • 29
      • ...
      • 489
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      模型推理服务

      科研助手

      一站式智算服务平台

      人脸检测

      人脸实名认证

      推荐文档

      常见问题

      函数编程模型

      重置

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号