活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      微消息队列MQTT版_相关内容
      • 计费项
        本节主要介绍分布式消息服务Kafka的计费项 分布式消息服务Kafka的计费项由实例费用和存储费用组成,具体费用详情可参考产品资费。 计费项 计费项说明 使用的计费模式 计费公式 实例费用 计费因子:代理规格和代理数量 包年/包月、按需计费 实例规格单价 代理数量 购买时长 存储空间费用 计费因子:云硬盘类型、容量大小 包年/包月、按需计费 云硬盘规格单价 单个代理存储大小 代理数量 购买时长
        来自:
        帮助文档
        分布式消息服务Kafka
        计费说明
        计费项
      • 连接未开启SSL的RabbitMQ实例
        本章节主要介绍如何连接未开启SSL的RabbitMQ实例。 RabbitMQ实例兼容开源协议,请参考RabbitMQ官网提供的不同语言的连接和使用向导:< 介绍VPC内访问与使用RabbitMQ方法,假设RabbitMQ客户端部署在弹性云主机上。 前提条件 参考创建实例章节创建RabbitMQ实例,并记录创建时输入的用户名和密码。 建完成后,单击实例名称,查看并记录实例详情中的“连接地址”。 已创建弹性云主机,并且弹性云主机的VPC、子网、安全组与RabbitMQ实例的VPC、子网、安全组保持一致。 已完成JDK安装及环境变量配置。 命令行模式连接实例 以下操作命令以Linux系统为例进行说明: 1、下载RabbitMQTutorial.zip示例工程代码。 2、解压RabbitMQTutorial.zip压缩包。 $ unzip RabbitMQTutorial.zip 3、进入RabbitMQTutorial目录,该目录下包含预编译好的jar文件。 $ cd RabbitMQTutorial 4、运行生产消息示例。 $ java cp .:rabbitmqtutorial.jar Send host port user password 其中,host表示RabbitMQ实例的连接地址,port为RabbitMQ实例的监听端口(默认为5672),user表示RabbitMQ用户名,password表示用户名对应的密码。 图1 运行生产消息示例 使用Ctrl+C命令退出。 5、运行消费消息示例。 $ java cp .:rabbitmqtutorial.jar Recv host port user password 其中,host表示RabbitMQ实例的连接地址,port为RabbitMQ实例的监听端口(默认为5672),user表示RabbitMQ用户名,password表示用户名对应的密码。 图2 运行消费消息示例 如需停止消费使用Ctrl+C命令退出。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        连接实例
        连接未开启SSL的RabbitMQ实例
      • 新建码表
        参数名称 说明 数据连接类型 在下拉列表中将显示逆向数据库支持的数据连接类型,请选择所需要的数据连接类型。 数据连接 选择数据连接。 如需从其他数据源逆向数据库到码表目录中,需要先在DataArts Studio管理中心创建一个数据连接,以便连接数据源。创建数据连接的操作,请参见 数据库 选择数据库。 Schema 下拉选择Schema。该参数仅DWS模型的表有效。 队列 DLI队列。仅当“数据连接类型”选择“DLI”时,该参数有效。 更新已有表 如果从其他数据源逆向过来的表,在码表中已存在同名的表,选择是否更新已有的码表。 逆向表数据 不逆向 :逆向数据库时,将表导入到码表目录中,但是不导入表数据。您可以在完成逆向数据库后,参考下方“填写数值到码表中”添加记录到码表中。 覆盖 :逆向数据库时,将表导入到码表目录中,同时将表数据导入到该码表中。 数据表 选择一个或多个需导入的数据表。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        标准设计
        新建码表
      • 更新超时策略(1)
        参数 是否必填 参数类型 说明 示例 下级对象 connect 否 Float 连接超时时间(s),默认值为10 6 instId 是 String 实例ID 878da73f7dba36ff0ae80e004a4f28f9 id 是 String 服务内部id 1234563f7dba36ff0ae80e004a4f28f9 read 否 Float 接收消息超时时间(s),默认值为60 6 send 否 Float 发送消息超时时间(s),默认值为60 6
        来自:
      • 更新超时策略
        参数 是否必填 参数类型 说明 示例 下级对象 connect 否 Float 连接超时时间(s),默认值为10 6 instId 是 String 实例ID 878da73f7dba36ff0ae80e004a4f28f9 id 是 String 服务内部id 1234563f7dba36ff0ae80e004a4f28f9 read 否 Float 接收消息超时时间(s),默认值为60 6 send 否 Float 发送消息超时时间(s),默认值为60 6
        来自:
        帮助文档
        微服务引擎
        API参考
        API
        2024-01-14
        云原生API网关
        网关服务管理
        更新超时策略
      • 概述
        事件总线类触发器是一类基于天翼云默认事件总线的能力,以总线为事件源,通过规则配置的触发器。该类型触发器不直接与其他云产品通信,只会订阅总线消息,总线基于规则分发消息发送到工作流实例,事件传递机制如下:
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        控制台操作
        工作流调度
        事件总线类触发器
        概述
      • 微服务治理中心计费说明
        本章节介绍微服务治理中心的计费项、计费方式和计费规则。 计费项 MSE微服务治理中心的计费项为实例使用费用。 计费方式 目前微服务治理中心提供按需和资源包抵扣两种付费模式。 按需付费 按需付费是后付费模式,您只需按实际情况进行使用,然后按照使用账单付费即可。为避免造成您的损失,如果您不想再使用此产品,则需要您在应用管理页面内删除应用,系统才会正式停止计费。 微服务治理中心按需计费具体计费规则如下: 版本系列 按需(元/实例/小时) 专业版 0.04元 企业版 0.125元 资源包抵扣 您在开通按需资源后,可购买对应的资源包用量,购买资源包后,您使用产品的用量将会使用资源包进行抵扣,超出资源包量的部分将按需计费,资源包到期后资源包的用量将失效,不再用于抵扣。 专业版资源包: 资源包类型 资源包规格 资源包有效期 资源包价格 举例说明 专业版资源包 7200实例小时 1个月 270元 10个Agent,使用时间为30天,需要资源包的规格为10×24×307200 Agent小时。 专业版资源包 36,000实例小时 3个月 1250元 50个Agent,使用时间为30天,需要资源包的规格为50×24×3036000 Agent小时。 专业版资源包 144,000实例小时 6个月 4600元 200个Agent,使用时间为30天,需要资源包的规格为200×24×30144000 Agent小时。 专业版资源包 360,000实例小时 6个月 10500元 500个Agent,使用时间为30天,需要资源包的规格为500×24×30360000 Agent小时。 专业版资源包 876,000实例小时 12个月 22900元 100个Agent,使用时间为365天,需要资源包的规格为100×24×365876000 Agent小时。 专业版资源包 1,752,000实例小时 18个月 39900元 200个Agent,使用时间为365天,需要资源包的规格为200×24×3651752000 Agent小时。 专业版资源包 4,380,000实例小时 18个月 88000元 500个Agent,使用时间为365天,需要资源包的规格为500×24×3654380000 Agent小时。
        来自:
        帮助文档
        微服务引擎
        购买指南
        计费说明
        微服务治理中心计费说明
      • 术语解释
        Hudi Hudi是数据湖的文件组织层,对Parquet格式文件进行管理提供数据湖能力,支持多种计算引擎,提供IUD接口,在 HDFS的数据集上提供了插入更新和增量拉取的流原语。 资源池 ModelArts提供的大规模计算集群,可应用于模型开发、训练和部署。支持公共资源池和专属资源池两种,分别为共享资源池和独享资源池。ModelArts默认提供公共资源池。专属资源池需单独购买,专属使用,不与其他用户共享。 Hue Hue是一组WEB应用,用于和MRS大数据组件进行交互,能够帮助用户浏览HDFS,进行Hive查询,启动MapReduce任务等,它承载了与所有MRS大数据组件交互的应用。 Kafka Kafka是一个分布式的、分区的、多副本的消息发布订阅系统,它提供了类似于JMS的特性,但在设计上完全不同,它具有消息持久化、高吞吐、分布式、多客户端支持、实时等特性,适用于离线和在线的消息消费,如常规的消息收集、网站活性跟踪、聚合统计系统运营数据(监控数据)、日志收集等大量数据的互联网服务的数据收集场景。 Spark Spark是一个开源的,并行数据处理框架,能够帮助用户简单的开发快速,统一的大数据应用,对数据进行离线处理,流式处理,交互式分析等等。
        来自:
        帮助文档
        翼MapReduce
        产品简介
        术语解释
      • 定时触发器
        定时触发器 定时触发器能够依照您预设的确切时刻或周期性指令,自动启动函数的运行,这为您提供了一种灵活的方式来安排任务的执行,特别适合那些需要按计划重复执行任务的场景。 使用场景 定时触发器非常灵活,适用于各种时间相关的场景,例如: 周期性任务,例如每周五发送运维报表。 定时任务,例如设定在指定日期时间开启游戏活动。 触发消息格式 触发消息: javascript { "msg": "hello world!" } 对应触发时的工作流输入: plaintext { "msg": "hello world!" } 操作步骤 1. 登录工作流控制台,点击目标工作流,进入工作流详情详情。 2. 在配置选项卡中,选择左边的 工作流调度 选项卡。 3. 点击 创建工作流调度 ,在弹出的右抽屉中选择 定时触发器,配置参数解释如下表。 配置项 参数说明 示例 名称 工作流调度的名称 timeTicker 触发方式 根据需要选择触发方式: 时间间隔:触发器每隔n分钟触发一次函数执行。 指定时间:选择时区,并指定日期、星期和时间,触发器在某时区的指定时间触发一次函数执行。 自定义:支持秒级配置,使用6段式Cron表达式,兼容Quartz的表达式。 /5 触发消息 该消息内容将会作为工作流的输入,必须为JSON字段。 { "msg" : "hello world!" }
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        控制台操作
        工作流调度
        定时触发器
      • 删除用户
        本章节介绍了如何删除分布式消息服务RocketMQ实例的用户。 操作场景 用户无需继续使用,需要清理时,参考本章节删除用户。 须知 : 删除用户后会删除授权关系,原来使用该用户认证的请求将无法访问。 操作步骤 1. 登录分布式消息服务RocketMQ控制台。 2. 单击RocketMQ实例的名称,进入实例详情页面。 3. 在左侧导航栏,单击“用户管理”,进入“用户管理”页面。 4. 在待删除的用户所在行,单击“删除”,弹出“删除用户”对话框。 5. 单击“是”,完成用户的删除。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        用户管理
        删除用户
      • 使用MirrorMaker跨集群数据同步
        验证数据是否同步 1、 在目标集群中查看Topic列表,确认是否有源集群Topic。 说明 目标集群中的Topic名称和源集群相比,多了前缀(如A.),这属于正常情况,是MirrorMaker 2为了防止Topic循环备份进行的设置。 2、 在源集群生产并消费消息,在目标集群查看消费进度,确认数据是否已从源集群同步到了目标集群。 如果目标集群为Kafka实例的话,在分布式消息服务Kafka控制台的“消费组管理 > 消费进度”中,查看消费进度。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        使用MirrorMaker跨集群数据同步
      • 删除多个对象
        参数 是否必填 参数类型 说明 示例 下级对象 Delete 是 Array of Objects 保存DeleteMultipleObjects请求信息 Delete Quiet 否 Boolean 是否使用简单响应模式请求批量删除。如果为true,则响应中不返回消息体。如果为false,则响应中的消息体包含全部删除对象的结果。不填默认是false false
        来自:
        帮助文档
        媒体存储
        API参考
        API(原生接口)
        关于对象的操作
        基础操作
        删除多个对象
      • 删除多个对象
        参数 是否必填 参数类型 说明 示例 下级对象 Delete 是 Array of Objects 保存DeleteMultipleObjects请求信息。 Delete Quiet 否 Boolean 是否使用简单响应模式请求批量删除。如果为true,则响应中不返回消息体。 如果为false,则响应中的消息体包含全部删除对象的结果。 不填默认是false。 false
        来自:
        帮助文档
        媒体存储
        API参考
        API(OpenAPI)
        关于对象的操作
        基础操作
        删除多个对象
      • 取消任务
        用户可通过本接口取消一个正在队列中的转码任务。 接口功能介绍 用户可通过本接口取消一个正在队列中的转码任务。 接口约束 本接口的单用户QPS限制为20次/秒。超过限制,API调用会被限流,这可能会影响您的业务,请合理调用。 URI POST /xstorevod/task/cancel 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 taskId 是 String 必填参数,需要取消的转码任务taskId。当转码任务正在运行中将不可取消。 0200001 48ff88c542a8486da4d0bd263a7907dc 响应参数 参数 是否必填 参数类型 说明 示例 下级对象 code 是 Integer 本次请求的结果码。 0 message 是 String 错误文本信息,取消成功时,为空字符串。 "" 请求示例 请求体body json { "taskId": "0200001 48ff88c542a8486da4d0bd263a7907dc" } 响应示例 json { "code": 0, "message": "" } 状态码 Http 状态码 状态码信息 状态码描述 0 表示业务成功 表示业务成功 400 请求参数有误 请求参数有误 403 用户鉴权失败,用户无操作权限 用户鉴权失败,用户无操作权限 404 请求的资源不存在,输入错误的URL 请求的资源不存在,输入错误的URL 500 业务执行异常 业务执行异常
        来自:
        帮助文档
        云点播
        API参考
        API
        点播模式API
        取消任务
      • 个人数据保护机制
        类型 收集方式 是否可以修改 是否必须 邮箱 服务器开启双因子认证后,HSS定时获取对应消息通知服务主题订阅的邮箱 否 是 手机号 服务器开启双因子认证后,HSS定时获取对应消息通知服务主题订阅的手机号 否 是 登录位置信息 服务器开启防护后,登录云服务器时,HSS记录的用户登录位置信息。 否 是
        来自:
        帮助文档
        企业主机安全
        产品介绍
        个人数据保护机制
      • 管理诊断日报
        参数项 说明 订阅方式 选择“主题订阅”或者“输入邮箱”。 主题 主题是消息发布订阅通知的特定事件类型。它作为发送消息和订阅通知的信道,为发布者和订阅者提供一个可以相互交流的通道。 邮箱 订阅方式选择“输入邮箱”时需要配置邮箱参数。 发起诊断并且诊断结果异常时,才会向指定邮箱发送邮件。最多支持输入15个邮箱,邮箱之间以“;”分隔。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        问题诊断和SQL分析
        问题诊断
        管理诊断日报
      • 不使用SSL证书连接
        本文主要介绍不使用SSL证书连接RabbitMQ实例。 RabbitMQ实例兼容开源协议,请参考RabbitMQ官网提供的不同语言的连接和使用向导:< 介绍VPC内访问与使用RabbitMQ方法,假设RabbitMQ客户端部署在弹性云主机上。 前提条件 参考创建实例章节创建RabbitMQ实例,并记录创建时输入的用户名和密码。 创建完成后,单击实例名称,查看并记录实例详情中的“连接地址”。 已创建弹性云主机,并且弹性云主机的VPC、子网、安全组与RabbitMQ实例的VPC、子网、安全组保持一致。 已完成JDK安装及环境变量配置。 命令模式连接实例 以下操作命令以Linux系统为例进行说明: 1、下载RabbitMQTutorial.zip示例工程代码。 2、解压RabbitMQTutorial.zip压缩包。 $ unzip RabbitMQTutorial.zip 3、进入RabbitMQTutorial目录,该目录下包含预编译好的jar文件。 $ cd RabbitMQTutorial 4、运行生产消息示例。 $ java cp .:rabbitmqtutorial.jar Send host port user password 其中,host表示RabbitMQ实例的连接地址,port为RabbitMQ实例的监听端口(默认为5672),user表示RabbitMQ用户名,password表示用户名对应的密码。 图1 运行生产消息示例 使用Ctrl+C命令退出。 5、运行消费消息示例。 $ java cp .:rabbitmqtutorial.jar Recv host port user password 其中,host表示RabbitMQ实例的连接地址,port为RabbitMQ实例的监听端口(默认为5672),user表示RabbitMQ用户名,password表示用户名对应的密码。 图2 运行消费消息示例 如需停止消费使用Ctrl+C命令退出。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        快速入门
        步骤三:连接实例生产消费消息
        不使用SSL证书连接
      • 产品价格
        本章节主要介绍数据湖探索(DLI)的资费。 队列管理 销售品名称 标准资费(元/CU/小时) 数据湖探索DLIX86 0.35 弹性资源池 销售品名称 标准资费(元 /CU/小时) 标准资费(元 /CU/月) 数据湖探索DLIX86弹性资源池 0.4 170
        来自:
        帮助文档
        数据湖探索
        计费说明
        产品价格
      • 告警设置
        注意事项 针对部分告警(比如存储空间或者备份空间满)默认推送给对应的租户,如果租户下面有多个用户,那么这些用户都会收到对应的告警信息。 如果某个用户不希望收到告警,则需要使用这个用户的账号登录天翼云官网进入“数据库管理平台”的 消息中心消息订阅,取掉告警信息栏关于邮件、短信、企业微信和钉钉等。
        来自:
        帮助文档
        分布式融合数据库HTAP
        用户指南
        告警服务
        告警设置
      • 连接已开启SSL的RocketMQ实例
        本章节介绍了如何连接已开启SSL的分布式消息服务RocketMQ实例。 实例开启SSL时,数据使用加密传输,安全性更高。本文主要介绍在命令行模式下使用SSL连接RocketMQ实例的操作,其中包含VPC内和公网环境下两种连接场景。 在使用SSL连接的场景下,通过VPC内访问和通过公网环境访问,仅涉及连接IP和端口不一致,其他操作步骤是一样的,VPC内访问的连接端口为8100,公网环境下访问的连接端口为8200。 文中仅介绍公网环境下的连接示例,在VPC内连接时,替换为相应的连接地址即可。 前提条件 已创建RocketMQ实例,并记录实例详情中的“元数据连接地址”(VPC内访问)/“元数据公网连接地址”(公网访问)。 已配置安全组。 已创建Topic。 已创建弹性云服务器,并且弹性云服务器的VPC、子网、安全组与RocketMQ实例的VPC、子网、安全组保持一致。 已安装Java Development Kit 1.8.111或以上版本,并完成环境变量配置。 命令行模式连接实例 1. 下载“rocketmqtutorial”示例软件包。 wget 2. 解压“rocketmqtutorial”。 unzip rocketmqtutorial.zip 3. 进入“rocketmqtutorial/bin”目录。 cd rocketmqtutorial/bin 4. 运行生产普通消息示例。 sh mqadmin sendMessage n "{连接地址}" t {Topic名称} p "hello rocketmq" 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin sendMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest p "hello rocketmq" 使用Ctrl+C命令退出。 5. 运行消费普通消息示例。 sh mqadmin consumeMessage n "{连接地址}" t {Topic名称} 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin consumeMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest 如需停止消费使用Ctrl+C命令退出。 6. 运行生产带消息轨迹的消息示例。 sh mqadmin sendMessage n "{连接地址}" t {Topic名称} p "hello rocketmq" m true 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin sendMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest p "hello rocketmq" m true 使用Ctrl+C命令退出。 7. 运行消费消息示例,并发送消息轨迹。 sh mqadmin consumeMessage n "{连接地址}" t {Topic名称} m true 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin consumeMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest m true 使用Ctrl+C命令退出。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        连接实例
        连接已开启SSL的RocketMQ实例
      • 连接未开启SSL的RocketMQ实例
        本章节介绍了如何连接未开启SSL的分布式消息服务RocketMQ实例。 实例开启SSL时,数据使用加密传输,安全性更高。本文主要介绍在命令行模式下使用SSL连接RocketMQ实例的操作,其中包含VPC内和公网环境下两种连接场景。 在使用SSL连接的场景下,通过VPC内访问和通过公网环境访问,仅涉及连接IP和端口不一致,其他操作步骤是一样的,VPC内访问的连接端口为8100,公网环境下访问的连接端口为8200。 文中仅介绍公网环境下的连接示例,在VPC内连接时,替换为相应的连接地址即可。 前提条件 已创建RocketMQ实例,并记录实例详情中的“元数据连接地址”(VPC内访问)/“元数据公网连接地址”(公网访问)。 已配置安全组。 已创建Topic。 已创建弹性云服务器,并且弹性云服务器的VPC、子网、安全组与RocketMQ实例的VPC、子网、安全组保持一致。 已安装Java Development Kit 1.8.111或以上版本,并完成环境变量配置。 命令行模式连接实例 1. 下载“rocketmqtutorial.zip”示例软件包。 wget 2. 解压“rocketmqtutorial”。 unzip rocketmqtutorial.zip 3. 进入“rocketmqtutorial/bin”目录。 cd rocketmqtutorial/bin 4. 运行生产普通消息示例。 sh mqadmin sendMessage n "{连接地址}" t {Topic名称} p "hello rocketmq" 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin sendMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest p "hello rocketmq" 使用Ctrl+C命令退出。 5. 运行消费普通消息示例。 sh mqadmin consumeMessage n "{连接地址}" t {Topic名称} 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin consumeMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest 如需停止消费使用Ctrl+C命令退出。 6. 运行生产带消息轨迹的消息示例。 sh mqadmin sendMessage n "{连接地址}" t {Topic名称} p "hello rocketmq" m true 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin sendMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest p "hello rocketmq" m true 使用Ctrl+C命令退出。 7. 运行消费消息示例,并发送消息轨迹。 sh mqadmin consumeMessage n "{连接地址}" t {Topic名称} m true 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin consumeMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest m true 使用Ctrl+C命令退出。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        连接实例
        连接未开启SSL的RocketMQ实例
      • 任务管理
        参数名 说明 基于全量数据 基于已采集的全量数据在数据目录中生成数据概要。 适用于数据量较少(100W以下)的情况。 基于采样数据,采样数量为 x 条 基于已采集的全量数据在数据目录中生成数据概要。 适用于数据量较多的情况。 基于全量数据,随机取 x %的数据 基于已采集的全量数据在数据目录中生成数据概要。 适用于数据量较多的情况。 DLI队列 选择获取profile数据,执行DLI SQL用的队列。 勾选“采集唯一值”表示只统计已采集的表中的唯一值的个数,并在数据目录中的概要页签呈现。 数据格式 当存储在OBS桶中的数据为CSV格式,请依据数据的实际属性进行勾选是否有表头,是否自定义分隔符,是否自定义引用字符,是否自定义转义字符。 日期格式 当存储在OBS桶中的数据为CSV格式,请依据实际属性配置日期格式,以免影响数据被错误解析。 时间戳格式 当存储在OBS桶中的数据为CSV格式,请依据实际属性配置时间戳格式,以免影响数据被错误解析。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据目录
        元数据采集
        任务管理
      • 术语解释
        SQL作业 在SQL作业编辑器执行的SQL语句、导入数据和导出数据等操作,在系统中对应的执行实体,称之为SQL作业。 Spark作业 Spark作业是指用户通过可视化界面和RESTful API提交的作业,支持提交Spark Core/DataSet/Streaming/MLlib/GraphX等Spark全栈作业。 CU CU是队列的计价单位。 1CU 1Core 4GMem。不同规格的队列对应的计算能力不一样,规格越高计算能力越好。 OBS表、数据湖探索表、CloudTable表 不同表类型表示不同的数据存储位置。 • OBS表表示数据存储在OBS服务的桶中。 • 数据湖探索表表示数据存储在本服务内部的表中。 • CloudTable表表示数据储存在CloudTable服务的表中。 可通过数据湖探索创建表,与其他服务的数据进行关联,以此来实现不同数据源的联合查询分析。 常量与变量 环境变量中,常量与变量的区别如下: • 常量在程序运行过程中,所表示的值是无法被改变的。 • 变量是“可读、可写”,而常量是“只读”的。变量是在程序运行过程中,内部存储的值,随时可以被改变的一段内存地址。比如:int a = 123,这里的a就是一个整型变量。
        来自:
        帮助文档
        数据湖探索
        产品简介
        术语解释
      • 通知外送
        配置项 说明 名称 日志外送接口的名称。必须为中文字符、字母、数字、“”、“.”或“”,长度不超过 64 字符。 Kafka节点地址 Kafka服务器的IP(域名)及端口号。例如:192.168.0.1:9200。 Kafka主题 消息投放到Kafka服务器的主题。 Kafka分区 消息投放到的Kafka服务器的分区。Kafka服务器通过主题(topic)、分区(partition)和消费组(consumergroup)三个概念灵活适应各种消息场合,通过提升硬件资源利用率提高系统吞吐量。 以上Kafka相关配置与服务器端保持一致即可。 审计日志模板 设置发送审计日志的模板,具体字段请依据填写说明编辑。 操作日志模板 设置发送操作日志的模板,具体字段请依据填写说明编辑。 告警日志模板 设置发送告警日志的模板,具体字段请依据填写说明编辑。 流量控制日志模板 设置发送流量控制日志的模板,具体字段请依据填写说明编辑。
        来自:
        帮助文档
        数据安全专区
        用户指南
        API安全网关操作指导
        通知外送
      • 事件通知
        事件通知消息结构 事件通知消息结构如下: { "Records": [ { "eventVersion": "", // 版本号 "eventSource": "", // 消息源,固定为"ctyun:s3" "awsRegion": "", // 事件所在的region "eventTime": "", // 事件时间,格式为ISO8601,示例:20230613 02:20:19.032936Z "eventName": "", // 触发事件通知的事件名 "userIdentity": { "principalId": "" // 触发事件的用户ID }, "requestParameters": { "sourceIPAddress": "" // 请求的源IP }, "responseElements": { "xamzrequestid": "", // 请求对应的requestid "xamzid2": "" // 帮助定位问题的特殊符号 }, "s3": { "s3SchemaVersion": "1.0", "configurationId": "", // 事件匹配的事件通知规则的名称 "bucket": { "name": "examplebkt", // 桶名 "ownerIdentity": { "principalId": "" // 桶拥有者的帐号ID }, "arn": "arn:aws:s3:::examplebkt", // 桶的ARN "id": "" // 桶id }, "object": { "key": "object", // 对象名 "size": 779, // 对象大小 "etag": "", // 对象ETag "versionId": "", // 对象版本Id "sequencer": "", // 确定某个特定对象事件顺序的标识 "metadata": [ { "key": "xamzmetaa", // 用户自定义元数据 "val": "2" } ], } }, "eventId": "" // 事件ID } ] } ‍使用方式 操作途径 使用方式 控制台 可参考:事件通知。
        来自:
        帮助文档
        媒体存储
        用户指南
        数据监控
        事件通知
      • 云硬盘
        本文为您介绍轻量型云主机对云硬盘的支持情况。 云硬盘 云硬盘是一种可弹性扩展的块存储设备,可以为计算产品提供高性能、高可靠的块存储服务。天翼云硬盘规格丰富,满足不同场景的业务需求,适用于文件系统、数据库、开发测试等场景。用户可以在线操作及管理云硬盘,并可以像使用传统服务器硬盘一样,对挂载到云主机的云硬盘做格式化、创建文件系统等操作。 云硬盘类型 云硬盘性能的主要指标包括: IOPS:云硬盘每秒进行读写的操作次数。 吞吐量:云硬盘每秒成功传送的数据量,即读取和写入的数据量。 IO读写时延:云硬盘处理一个读写IO需要的时间。 目前,轻量型云主机系统盘提供高IO类型的云硬盘,数据盘支持普通IO、高IO、通用SSD、超高IO高类型的云硬盘。各种类型的云盘性能如下,详情可查看磁盘类型及性能介绍。 参数 超高IO 通用型SSD 高IO 普通IO 单个云盘最大IOPS 50,000 20,000 5,000 2,000 单盘IOPS性能计算公式(基准性能),公式中容量单位为GB min{1,800+50×容量,50,000} min{1,500+8×容量,20,000} min{1,800+8×容量,5,000} min{300+2×容量,2,000} IOPS突发上限 16,000 8,000 5,000 2,000 单盘最大吞吐量 350 250 200 150 单盘吞吐量计算公式(基准性能,MB/s),公式中容量单位为GB min{120+0.5×容量,350} min{100+0.5×容量,250} min{130+0.1×容量,200} min{100+0.1×容量,150} 单队列平均访问时延(ms),Block Size4K 1 1 1~3 5~10 说明 1. 超高IO最大IOPS为50,000的资源池为:华东1、上海36、青岛20、武汉41、南宁23、华北2、南昌5、西南1、华南2、西安7、太原4、郑州5、西南2贵州、杭州7、长沙42(可用区1)。其他资源池支持的最大IOPS为33,000,单个云硬盘IOPS计算公式为:min{1,800+30×容量,33,000}。 2. 单个云硬盘的最大IOPS、IOPS突发上限、单个云硬盘的最大吞吐量三个参数的值均为读写总和。比如最大IOPSIOPS读+IOPS写。 3. 以单个超高IO云硬盘吞吐量计算公式为例说明:起步120MB/s,每GB增加0.5MB/s,上限为350MB/s。 4. 以单个通用型SSD云硬盘IOPS计算公式为例说明:起步1,500,每GB增加8,上限为20,000。 5. 单队列访问时延:单队列指队列深度为1,即并发度为1。表中时延指所有IO请求串行处理时IO的时延,表格中数据是4KB数据块能达到的时延。云硬盘性能测试方法请参见 6. 通用型SSD、超高IO云硬盘挂载至小规格的轻量云主机(如1vCPU、2vCPU等)时,磁盘性能可能会受到影响。
        来自:
        帮助文档
        轻量型云主机
        产品简介
        云硬盘
      • 删除Topic
        场景描述 在RocketMQ中,删除Topic是一个比较重要且敏感的操作,需要谨慎处理。一般来说,删除Topic的场景有以下几种情况: 业务不再需要该Topic:当某个Topic对应的业务已经结束或不再需要时,可以考虑删除该Topic,以释放资源和减少管理工作。 Topic配置错误或不合适:如果创建Topic时配置错误或者配置不合适,可以考虑删除该Topic,并重新创建一个正确的Topic。 数据归档或清理:在某些情况下,可能需要对Topic中的数据进行归档或清理,以释放存储空间。在归档或清理之前,需要先将Topic中的消息备份或迁移到其他地方,确保数据的完整性和可恢复性。 无论是哪种场景,删除Topic都需要注意以下几点: 确保Topic中的消息已经被正确处理和消费:在删除Topic之前,需要确保Topic中的消息已经被正确地处理和消费,以避免数据丢失或处理中断。 停止生产者和消费者对该Topic的操作:在删除Topic之前,需要停止生产者和消费者对该Topic的操作,以避免数据冲突或丢失。 确保删除操作的权限和安全性:删除Topic通常需要管理员或具有相应权限的用户来执行,确保只有授权人员可以进行删除操作。 慎重操作,备份重要数据:在删除Topic之前,建议备份Topic中的重要数据,以防止误操作或数据丢失。 总之,删除Topic是一个敏感操作,需要在慎重考虑和评估后进行,以确保不会对业务和数据产生不可逆的影响。 操作步骤 1、进入Topic管理菜单。 2、在Topic管理菜单选择将要删除的主题,在更多下拉框选择删除,即可完成删除 注意事项: ● 删除主题前必须确保该主题对应的生产消费实例已经全部停止。 ● 删除主题后消息数据会发生丢失。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        Topic管理
        删除Topic
      • 数据保护技术
        介绍分布式消息服务Kafka的数据保护技术 天翼云分布式消息服务Kafka通过多种数据保护手段和措施,保障您在Kafka实例上的数据的安全性。 容灾 根据数据和服务的不同可靠性需求,您有多种选择。您可以选择在一个可用区(即单个机房)内部署Kafka实例,或者选择跨多个可用区(即同城灾备)进行部署。目前跨可用区在华东1、华南2支持跨可用区部署。具体请参考容灾策略。 副本冗余 通过配置适当数量的副本和分布在不同的节点上,Kafka可以提供高可用性和数据冗余,以保护数据免受节点故障的影响。同时,副本机制还可以提高读取性能,因为客户端可以从就近的副本中读取数据,而不必从远程节点获取数据。 数据持久化 Kafka中数据的持久化是通过将消息写入磁盘上的日志文件来实现的。这种设计使得Kafka能够提供高吞吐量和持久性,即使在发生故障或重启时也能够保留数据。此外,Kafka还提供了数据复制和故障转移机制,以确保数据的可用性和可靠性。
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        安全
        数据保护技术
      • 操作类
        本章节介绍MSAP操作类常见问题 已经订购了云容器引擎,新增环境选择不到云容器引擎? 选择不到云容器引擎可能有如下两种情况: 1、云容器引擎正在开通中或者开通失败了,需要到开通界面或云容器引擎控制台检查容器状态是否是已开通或运行中。 2、新增环境时选择的VPC和云容器引擎所属VPC不一致,需要到云容器引擎控制台,找到对应集群,进入集群信息界面查看集群所属VPC。再到新增环境界面选择和集群所属VPC一致的VPC。 删除环境不成功,提示:环境下存在部署单元,请先删除部署单元? 此提示说明要删除的环境下有应用实例、部署单元、导入资源,需要该环境的对应实例、部署单元和导入资源清理之后才能删除环境。 1. 登录微服务云应用控制台,左侧菜单栏选择“环境规划>环境管理”,点击要删除的环境,进入到环境详情。 2. 选择“资源列表”,依次切换该环境下的资源,如果存在该资源,则点击该资源复选框,点击移除,删除资源。 3. 选择“部署单元>编辑单元”,点击对应部署单元删除。 4. 最后回到“环境管理”,选择对应环境,点击右侧删除。
        来自:
        帮助文档
        微服务云应用平台
        常见问题
        操作类
      • 飞腾系列
        规格名称 vCPU 内存(GB) 最大带宽/基准带宽(Gbps) 最大收发包能力(万PPS) 网卡多队列数 fm1.large.8 2 16 5/1.5 30 1 fm1.xlarge.8 4 32 7/3 80 2 fm1.2xlarge.8 8 64 12/6 140 4 fm1.4xlarge.8 16 128 18/10 200 8
        来自:
        帮助文档
        专属云(计算独享型)
        产品简介
        产品规格
        国产化系列
        飞腾系列
      • 逻辑模型设计
        参数名称 说明 模型名称 逻辑模型所需转换的物理模型的名称。您可以输入一个新的模型名称,系统会创建该新模型,也可以在下拉列表中选择一个已有的模型。 模型名称只能包含中文、英文字母、数字和下划线。 数据连接类型 在下拉列表中选择数据连接类型。如果没有所需要的数据类型,您可以参考 数据连接 选择所需要的数据连接。同一个关系模型一般建议使用统一的数据连接。 如果您还未创建与数据源之间的数据连接,请前往DataArts Studio管理中心控制台进行创建。 数据库 选择数据库。如果您还未创建数据库,可以前往DataArts Studio数据开发控制台进行创建。 选择表 全部:将所有的逻辑实体转换为物理表。 部分:将选择的部分逻辑实体转换为物理表。 队列 DLI队列。该参数仅DLI连接类型有效。 Schema DWS和POSTGRESQL的模式。该参数仅支持DWS和POSTGRESQL连接类型。 描述 描述信息。支持的长度为0~600个字符。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        模型设计
        关系建模
        逻辑模型设计
      • 删除消费组
        介绍分布式消息服务Kafka删除消费组功能操作内容。 场景描述 Kafka删除消费组的场景包括: 消费组不再使用:当一个消费组不再需要使用时,可以选择删除该消费组。这可能是因为业务需求变化,或者消费组已经完成了其任务。删除消费组可以释放资源,并减少管理和维护的工作量。 重置消费者偏移量:在某些情况下,可能需要重置消费者组的偏移量,以重新开始消费消息。例如,当需要重新处理之前的消息,或者需要从最早的消息开始消费时,可以删除消费组并创建一个新的消费组来实现偏移量的重置。 清理过期的消费组:如果消费组长时间未被使用或者没有活跃的消费者,可以选择删除这些过期的消费组。这有助于减少资源占用和管理的复杂性,同时也可以提高整体性能和效率。 需要注意的是,在删除消费组之前,要确保没有任何正在运行的消费者实例与该消费组相关联。否则,删除消费组可能会导致数据丢失或其他问题。在删除消费组之前,建议先停止相关的消费者实例,并确保所有的消费者都已经退出消费组。 操作步骤 删除消费组 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“消费组管理”后进入消费组管理页面。 (5)在目标消费组所在行,单击“更多 ”“删除”。 批量删除消费组 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“消费组管理”后进入消费组管理页面。 (5)在目标消费组所在行,勾选其左侧目标框。 (6)点击左上角“删除消费组”按钮,完成批量删除。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消费组管理
        删除消费组
      • 1
      • ...
      • 32
      • 33
      • 34
      • 35
      • 36
      • ...
      • 254
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      AI Store

      科研助手

      一站式智算服务平台

      推荐文档

      新品上线

      玩转天翼云③:centos6和7通过snat实现上网

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号