云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      分布式消息服务MQTT_相关内容
      • Netty内存
        指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 内存(memory,内存指标。) directMemoryUsage 已使用直接内存 已使用直接内存 INT AVG 内存(memory,内存指标。) maxDirectMemory 最大直接内存 最大直接内存 INT MAX 异常(exception ,异常。) causeType 类名 类名 ENUM LAST 异常(exception ,异常。) exceptionType 异常类型 异常类型 ENUM LAST 异常(exception ,异常。) count 次数 次数 INT SUM 异常(exception ,异常。) message 异常消息 异常消息 STRING LAST 异常(exception ,异常。) stackTrace 异常堆栈 异常堆栈 CLOB LAST
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        基础监控
        Netty内存
      • 管理和使用分布式缓存服务
        本节主要介绍分布式缓存服务Redis的管理与使用概述 管理分布式缓存服务Redis实例 天翼云分布式缓存服务Redis版提供两种方式进行实例管理,分别为Web可视化控制台与OpenAPI。 Web可视化管理控制台 登录天翼云账号后,进入控制中心,选择开通实例的资源池,选择”分布式缓存服务Redis“即可进入Redis控制台。控制台提供Redis相关实例管理能力,包括实例生命周期管理、实例详情信息、实例配置管理、实例备份恢复管理等,具体操作请查看本章用户指南中的各子章节。 OpenAPI 天翼云分布式缓存服务Redis版提供了API接口支持将缓存服务集成到自有应用系统,实现自动化统一管理,具体调用方式与接口详情说明请参考API章节。 使用分布式缓存服务Redis实例 成功创建分布式缓存服务Redis实例后,可通过多种方式连接Redis实例,分布式缓存Redis版与原生Redis完全兼容,支持所有原生Redis支持的客户端,连接数据库的方式也基本相同,您可以根据自身应用特点选用任何兼容Redis协议的客户端程序。可参考连接实例章节。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        使用前必读
        管理和使用分布式缓存服务
      • 事件通知
        事件通知消息结构 事件通知消息结构如下: { "Records": [ { "eventVersion": "", // 版本号 "eventSource": "", // 消息源,固定为"ctyun:s3" "awsRegion": "", // 事件所在的region "eventTime": "", // 事件时间,格式为ISO8601,示例:20230613 02:20:19.032936Z "eventName": "", // 触发事件通知的事件名 "userIdentity": { "principalId": "" // 触发事件的用户ID }, "requestParameters": { "sourceIPAddress": "" // 请求的源IP }, "responseElements": { "xamzrequestid": "", // 请求对应的requestid "xamzid2": "" // 帮助定位问题的特殊符号 }, "s3": { "s3SchemaVersion": "1.0", "configurationId": "", // 事件匹配的事件通知规则的名称 "bucket": { "name": "examplebkt", // 桶名 "ownerIdentity": { "principalId": "" // 桶拥有者的帐号ID }, "arn": "arn:aws:s3:::examplebkt", // 桶的ARN "id": "" // 桶id }, "object": { "key": "object", // 对象名 "size": 779, // 对象大小 "etag": "", // 对象ETag "versionId": "", // 对象版本Id "sequencer": "", // 确定某个特定对象事件顺序的标识 "metadata": [ { "key": "xamzmetaa", // 用户自定义元数据 "val": "2" } ], } }, "eventId": "" // 事件ID } ] } ‍使用方式 操作途径 使用方式 控制台 可参考:事件通知。
        来自:
        帮助文档
        媒体存储
        用户指南
        数据监控
        事件通知
      • 查询订阅组一段时间内消费tps信息
        参数 参数类型 说明 示例 下级对象 tps Double 消息吞吐量(条/秒) 0.3333333333333333 crtTime Long 统计时间戳(毫秒) 1661937180392
        来自:
        帮助文档
        分布式消息服务RocketMQ
        API参考
        API
        2022-04-06
        订阅组管理
        查询订阅组一段时间内消费tps信息
      • 查询主题一段时间内消息写入tps信息
        参数 参数类型 说明 示例 下级对象 tps Double 消息吞吐量(条/秒) 0.3333333333333333 crtTime Long 统计时间戳(毫秒) 1661937180392
        来自:
        帮助文档
        分布式消息服务RocketMQ
        API参考
        API
        2022-04-06
        Topic管理
        查询主题一段时间内消息写入tps信息
      • 连接未开启SASL的Kafka实例
        命令行模式连接实例 以下操作命令以Linux系统为例进行说明: 步骤 1 解压Kafka命令行工具。 进入文件压缩包所在目录,然后执行以下命令解压文件。 tar zxf [kafkatar] 其中, [kafkatar] 表示命令行工具的压缩包名称。 例如: tar zxf kafka2.122.7.2.tgz 步骤 2 进入Kafka命令行工具的“/bin”目录下。 注意,Windows系统下需要进入“/bin/windows”目录下。 步骤 3 执行如下命令进行生产消息。 ./kafkaconsoleproducer.sh brokerlist {连接地址} topic {Topic名称} 参数说明如下: 连接地址:从前提条件中获取的连接地址,如果是公网访问,请使用“公网连接地址”,如果是VPC内访问,请使用“内网连接地址”,请根据实际情况选择。 Topic名称:Kafka实例下创建的Topic名称。如果Kafka实例开启了自动创建Topic功能,此参数值可以填写已创建的Topic名称,也可以填写未创建的Topic名称。 本文以公网连接为例,获取的Kafka实例公网连接地址为“10.3.196.45:9094,10.78.42.127:9094,10.4.49.103:9094”。执行完命令后输入内容,按“Enter”发送消息到Kafka实例,输入的每一行内容都将作为一条消息发送到Kafka实例。 [root@ecskafka bin] ./kafkaconsoleproducer.sh brokerlist 10.3.196.45:9094,10.78.42.127:9094,10.4.49.103:9094 topic topicdemo >Hello >DMS >Kafka! >^C[root@ecskafka bin] 如需停止生产使用Ctrl+C命令退出。 步骤 4 执行如下命令消费消息。 ./kafkaconsoleconsumer.sh bootstrapserver {连接地址} topic {Topic名称} group ${消费组名称} frombeginning 参数说明如下: 连接地址:从前提条件中获取的连接地址,如果是公网访问,请使用“公网连接地址”,如果是VPC内访问,请使用“内网连接地址”,请根据实际情况选择。 Topic名称:Kafka实例下创建的Topic名称。 消费组名称:根据您的业务需求,设定消费组名称。 如果已经在配置文件中指定了消费组名称,请确保命令行中的消费组名称与配置文件中的相同,否则可能消费失败 。 消费组名称开头包含特殊字符,例如下划线“”、
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        连接Kafka实例
        连接未开启SASL的Kafka实例
      • 入侵总览
        本小节介绍服务器安全卫士的入侵总览。 功能介绍 展示入侵检测功能总体的数据概览信息,支持各项操作来展示不同的统计视图信息。 具体操作 1.筛选:右上角提供两个维度的数据筛选,业务组和时间区间; 业务组:可勾选Linux下的业务组,根据选择的业务组信息筛选统计信息重新生成各视图; 时间区间:提供三个时间区间进行选择:24小时、7天和30天,选择后根据选择的时间区间筛选统计信息重新生成各视图; 2.入侵事件分布模块:可点选图例开启/关闭功能在环形图中是否显示; 3.实时监控模块:点击“查看更多”按钮,跳转至消息中心,默认选择入侵检测tab,可查看所有入侵的通知消息事件; 4.查找主机:点击右上角“查找主机”按钮,弹出窗口展示当前全部主机的信息,点击各主机的“查看”按钮将新开Web选项卡并进入该主机的单台主机详情页中。
        来自:
        帮助文档
        服务器安全卫士
        入侵检测
        入侵总览
      • 大模型接入
        参数名 是否必选 参数类型 说明 默认值 role 是 str 聊天角色,user或者assistant content 是 str 消息内容 type 是 str "text":文本, "image"图片, "browserresult" :互联网检索 ref 否 ChatMessageRef 文件(图片)内容,支持多模态的模型可以使用该字段,带上该字段的消息示例格式 { "role":"user", "content":"图里有什么", "ref":{ "type":"image", "image":[{"url":"", "filesize":60994} ] } }
        来自:
        帮助文档
        天翼云电脑(政企版)
        云智助手
        生态接入
        大模型接入
      • 配置委托
        节点名称 系统权限 权限描述 CDM Job DAYU Administrator 数据治理中心服务的所有执行权限。 Import GES GES Administrator 图引擎服务的所有执行权限。该角色有依赖,需要在同项目中勾选依赖的角色:Tenant Guest、Server Administrator。 MRS Presto SQL、MRS Spark、MRS Spark Python、MRS Flink Job、 MRS MapReduce MRS Spark SQL、MRS Hive SQL(通过MRS API方式连接MRS集群的) MRS Administrator KMS Administrator MRS Administrator:MapReduce服务的所有执行权限。该角色有依赖,需要在同项目中勾选依赖的角色:Tenant Guest、Server Administrator。 KMS Administrator:数据加密服务加密密钥的管理员权限。 MRS Spark SQL、MRS Hive SQL、MRS Kafka、Kafka Client(通过代理方式连接集群) DAYU Administrator KMS Administrator DAYU Administrator:数据治理中心服务的所有执行权限。 KMS Administrator:数据加密服务加密密钥的管理员权限。 DLI Flink Job、DLI SQL、DLI Spark DLI Service Admin 数据湖探索的所有执行权限。 DWS SQL、Shell、RDS SQL(通过代理方式连接数据源) DAYU Administrator KMS Administrator DAYU Administrator:数据治理中心服务的所有执行权限。 KMS Administrator:数据加密服务加密密钥的管理员权限。 CSS DAYU Administrator Elasticsearch Administrator DAYU Administrator:数据治理中心服务的所有执行权限。 Elasticsearch Administrator:云搜索服务的所有执行权限。该角色有依赖,需要在同项目中勾选依赖的角色:Tenant Guest、Server Administrator。 Create OBS、Delete OBS、OBS Manager OBS OperateAccess 查看桶、上传对象、获取对象、删除对象、获取对象ACL等对象基本操作权限 SMN SMN Administrator 消息通知服务的所有执行权限。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        配置管理
        配置
        配置委托
      • 【产品公告】关于SSL证书有效期政策变更的重要通知
        天翼云应对方案 为保障您的服务连续性,我们将采取以下措施: 服务承诺不变,在2026年3月15日之前购买SSL证书服务权益不受影响: 在2026年3月15日前购买且在2026年3月15日后签发的证书,签发多张连续有效期的证书(如:1年期内签发2张 有效期最长为199天的证书),确保您在购买的有效期内证书可用。 请注意查收证书到期提醒邮件,您也可以登录证书管理控制台,进入“信息管理 > 消息管理”配置短信提醒。 您需要配合的操作: 手动验证域名的证书:域名验证频率将提高(约6个月验证一次),您需及时验证域名。 天翼云上资源部署的证书:请开启自动续费+证书托管服务,新证书签发后,系统将自动更新替换您部署在云上资源的旧证书。 服务器上部署的证书:证书替换频率将提高(约6个月替换一次),您需及时下载新证书并部署替换旧证书。 如您有任何问题,可随时通过工单或者服务热线(4008109889)与我们联系。
        来自:
        帮助文档
        证书管理服务
        产品公告
        【产品公告】关于SSL证书有效期政策变更的重要通知
      • 重发死信队列
        参数 是否必填 参数类型 说明 示例 下级对象 prodInstId 是 String 实例ID groupId 是 String 订阅组名称 msgId 是 String 消息ID
        来自:
        帮助文档
        分布式消息服务RocketMQ
        API参考
        API
        2022-04-06
        死信队列管理
        重发死信队列
      • 监控与报警
        操作场景 内网DNS服务监控支持查看用户私网域名请求量。您可以通过云监控依据细颗粒度的监控指标获得有关内网DNS的各种监控数据信息, 也可以通过设置适当的报警阈值和报警策略,及时发现并处理潜在的问题。 使用须知 云监控服务不需要开通,会在您使用内网DNS服务后自动启动。 注意 内网DNS监控当前仅部分资源池支持,具体支持资源池以控制台展示为准。 查看内网DNS监控 通过云监控服务中心查看 1. 登录云监控服务控制台。 2. 单击控制中心左上角的,选择地域。 3. 在左侧导航栏,单击“云服务监控>内网DNS监控”。 4. 单击“权威域名”然后在操作列单击“查看监控图表”。 创建阈值报警规则 您可以在云监控控制台创建告警规则对指标进行监控。当资源的监控指标达到告警条件,云监控将向您发送告警消息,报告异常监控数据,帮助您及时掌握异常状态并处理,保证业务顺畅进行。 云监控提供了自定义创建告警模板的功能,您可以选择在默认模板推荐的监控指标上进行修改,或自定义添加告警指标完成自定义告警模板的添加。
        来自:
        帮助文档
        内网DNS
        用户指南
        监控与报警
      • 购买与计费常见问题
        本节介绍分布式缓存服务Redis版购买与计费常见问题 如何订购分布式缓存服务Redis版? 天翼云门户目前支持分布式缓存服务Redis版的按需计费与包年包月开通,具体可参考创建实例。 创建分布式缓存服务Redis时,根据实例规格和购买时长产生费用,支持包年包月、按量付费的计费方式。更多关于计费方式的信息,请参见计费模式。 分布式缓存服务的计费项为CTDCS实例 计费项 计费项说明 适用的计费模式 计费公式 :::: CTDCS实例 分布式缓存服务Redis按照您选择的实例规格进行计费。 包年/包月、按需计费 实例规格单价 购买时长实例规格单价请参见订购分布式缓存Redis。 什么场景适合应用使用Redis? Redis最典型的应用场景是当做缓存使用,服务在处理请求时先从Redis获取结果,获取到结果则直接返回,Redis存储没有结果再从数据库里获取,然后存到Redis里以供下次使用。 具体应用场景描述,比如:热点数据的缓存、限时业务的运用、计数器相关问题、排行榜相关问题、分布式锁等,可参考应用场景。
        来自:
        帮助文档
        分布式缓存服务Redis版
        常见问题
        购买与计费
        购买与计费常见问题
      • 消息广播
        Kafka 自身没有消息广播的语义,可以通过创建不同的 Consumer Group 来模拟实现。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        消费者实践
        消息广播
      • CSS
        参数 是否必选 说明 节点名称 是 节点名称,可以包含中文、英文字母、数字、“”、“”、“/”、“<”、“>”等各类特殊字符,长度为1~128个字符。 CloudSearch集群 是 选择CloudSearch集群,该集群已在CloudSearch服务中创建好。目前仅支持使用5.5.1版本的集群。 CDM集群名称 是 选择CDM集群。CDM集群提供代理,转发相关请求。如果下拉框中未提供CDM集群,请访问CDM管理控制台创建集群。 请求类型 是 支持以下请求类型: GET POST PUT HEAD DELETE 请求参数 否 请求参数。假设用户需要查询dlfsearch索引中dlfdata映射类型的信息,请求参数可填写为: /dlfsearch/dlfdata/search 请求体 否 Json格式的请求消息体。 CloudSearch输出路径 否 选择输出数据的存储路径。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        节点参考
        CSS
      • 设置告警规则
        本节介绍了如何创建云数据库TaurusDB实例的告警规则。 操作场景 通过设置TaurusDB告警规则,用户可自定义监控目标与通知策略,及时了解TaurusDB运行状况,从而起到预警作用。 设置TaurusDB的告警规则,包括设置告警规则名称、服务、维度、监控对象、监控指标、告警阈值、监控周期和是否发送通知等参数。 创建实例告警规则 步骤 1 登录管理控制台。 步骤 2 选择“管理与部署 > 云监控服务”,进入“云监控服务”信息页面。 步骤 3 在左侧导航栏选择“云服务监控 > 云数据库TaurusDB”。 步骤 4 选择目标实例,单击实例名称左侧的,选择操作列的“创建告警规则”。 图 创建实例告警规则 步骤 5 在“创建告警规则”页面,配置相关参数。 1. 配置告警规则的基本信息。 表 配置规则信息 参数 参数说明 名称 系统会随机产生一个名称,用户也可以进行修改。取值样例:alarmb6al 描述 告警规则描述(此参数非必填项)。 2. 配置告警内容参数。 表 配置告警内容参数 参数 参数说明 触发规则 根据需要可选择关联模板、导入已有模板或自定义创建。 选择“关联模板”后,所关联模板内容修改后,该告警规则中所包含策略也会跟随修改。 选择“自定义创建”后,可根据实际需求配置告警策略及告警级别。 模板 选择需要导入的模板。您可以选择系统预置的默认告警模板,或者选择自定义模板。 告警策略 触发告警规则的告警策略。告警规则内最多可添加50条告警策略,若其中一条告警策略达到条件都会触发告警。 3. 配置告警通知参数。 表 配置告警通知 参数 参数说明 发送通知 配置是否发送邮件、短信、HTTP和HTTPS通知用户。 通知方式 根据需要可选择通知组或主题订阅两种方式。 通知组 需要发送告警通知的通知组。 通知对象 需要发送告警通知的对象,可选择“云帐号联系人”或主题。 云帐号联系人:注册帐号时的手机和邮箱。 主题:创建主题后,您需要单击主题列表操作栏的添加订阅按钮,添加通知方式。 生效时间 该告警规则仅在生效时间内发送通知消息。如生效时间为08:0020:00,则该告警规则仅在08:0020:00发送通知消息。 触发条件 可以选择“出现告警”、“恢复正常”两种状态,作为触发告警通知的条件。 4. 配置归属企业项目和标签。 表 配置规则信息 参数 参数说明 归属企业项目信息 告警规则所属的企业项目。只有拥有该企业项目权限的用户才可以查看和管理该告警规则。 标签 使用标签可以方便识别和管理您拥有的数据库服务资源。 步骤 6 单击“立即创建”,告警规则创建完成。
        来自:
        帮助文档
        云数据库TaurusDB
        用户指南
        监控指标与告警
        设置告警规则
      • 向指定的消费者推送消息
        接口功能介绍 向指定的消费者推送消息 接口约束 无 URI POST /v3/message/push 路径参数 无 Query参数 无 请求参数 请求头header参数 参数 是否必填 参数类型 说明 示例 下级对象 regionId 是 String 资源池编码 100054c0416811e9a6690242ac110002 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 prodInstId 是 String 实例ID msgId 是 String 消息的offsetMsgId groupName 是 String 订阅组名字 clientId 是 String 客户端ID 响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 接口系统层面状态码。成功:800,失败:900 800 message String 描述状态 returnObj Object 返回对象。此参数所包含的参数请见“响应示例'里面的注释 error String 错误码,只有非成功才有这个字段,方便快速定位问题 201 枚举参数 无 请求示例 请求url 无 请求头header 无 请求体body { "prodInstId":"mqtest", "msgId":"C0A847BC000020E60000000000003FEE", "groupName":"group", "clientId":"5.5.148.141@testinstance" }
        来自:
        帮助文档
        分布式消息服务RocketMQ
        API参考
        API
        2022-04-06
        消息管理
        向指定的消费者推送消息
      • 管理诊断日报
        参数项 说明 订阅方式 选择“主题订阅”或者“输入邮箱”。 主题 主题是消息发布订阅通知的特定事件类型。它作为发送消息和订阅通知的信道,为发布者和订阅者提供一个可以相互交流的通道。 邮箱 订阅方式选择“输入邮箱”时需要配置邮箱参数。 发起诊断并且诊断结果异常时,才会向指定邮箱发送邮件。最多支持输入15个邮箱,邮箱之间以“;”分隔。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        问题诊断和SQL分析
        问题诊断
        管理诊断日报
      • 异步任务
        执行状态 说明 已入队 异步消息已入队,等待处理。 执行中 调用执行中,实例已经开始运行任务代码。 执行成功 调用执行成功。 执行失败 调用执行失败。 已停止 调用执行终止。 停止中 执行停止中。 已过期 异步消息配置了存活有效期,该任务因过期已被丢弃(未触发)。 无效 任务处于无效状态(未触发)。 重试中 异步调用因执行错误而进行重试中。
        来自:
        帮助文档
        函数计算
        用户指南
        函数调用
        异步任务
      • 自定义自建Apache Kafka事件源
        参数 说明 示例 名称 事件源名。 source1 接入点 Apache Kafka集群broker接入点,由IP与端口号拼接而成,以逗号分隔。 172.17.0.25:9092,192.17.0.26:9092,172.17.0.27:9092 Topic topic名称。 topic1 Group ID 填入当前Apache Kafka集群中已创建的Group,请不要与已有业务的Group混用,以免影响已有的消息收发。 group1 网络配置 根据业务场景选择对应配置。 专有网络 公网网络 专有网络 VPC 网络配置选择专有网络时必填,选择集群所在的VPC。 vpc 子网 网络配置选择专有网络时必填,选择集群所在的子网。 subnet 认证模式 选择认证模式。 PLAINTEXT SASLPLAINTEXT 用户名 :填写SASL用户名 密码 :填写SASL密码 SASL鉴权方式 :可选PLAIN和SCRAMSHA512 PLAINTEXT 消费位点 消费消息的位点。 最新位点 最早位点 最新位点 数据格式 消息value数据编码格式。 JSON Text Binary JSON
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件源
        自定义事件源类型
        自定义自建Apache Kafka事件源
      • 节点重启后消费者如何重连
        本文主要介绍节点重启后消费者如何重连分布式消息服务RabbitMQ。 本章节以Java中使用的RabbitMQ客户端amqpclient为例介绍节点重启后消费者如何重连。 amqpclient自带重连机制,但是自带的重连机制只会重试一次,一次连不上后就不会再执行了,这时如果消费者没有做额外的重试机制,那么这个消费者就彻底丧失的消费能力。 amqpclient在节点断连后,根据与通道建立的节点不同,产生不同的错误。 如果通道连接的是队列所在的节点,消费者就会收到一个shutdown信号,这时amqpclient的重连机制就会生效,尝试重新连接服务端。如果连上了,这个通道就会继续连接消费。如果连不上,就会执行channel.close方法,关闭这个通道。 如果通道连接的不是队列所在的节点,消费者不会触发关闭动作,而是由服务端发送的一个取消动作,这个动作对amqpclient来说并不是异常行为,所以日志上不会有明显的报错,但是连接最终还是会关闭。 amqpclient出现上面两种错误时,会分别回调handleShutdownSignal以及handleCancel方法,您可以通过重写这两种方法,在回调时执行重写的重连逻辑,就能在通道关闭后重新创建消费者的新通道继续消费。 以下提供一个简单的代码示例,此示例能够解决上面的两种错误,实现消费者的持续消费。 package rabbitmq; import com.rabbitmq.client.; import java.io.IOException; import java.nio.charset.StandardCharsets; import java.util.concurrent.TimeoutException; public class RabbitConsumer { public static void main(String... args) throws IOException, TimeoutException { ConnectionFactory factory new ConnectionFactory(); factory.setHost("100.00.000.000"); factory.setPort(5672); factory.setUsername("name"); factory.setPassword("password"); Connection connection factory.newConnection(); createNewConnection(connection); } public static void createNewConnection(Connection connection) { try { Thread.sleep(1000); Channel channel connection.createChannel(); channel.basicQos(64); channel.basicConsume("queue01", false, new CustomConsumer(channel, connection)); } catch (Exception e) { // e.printStackTrace(); createNewConnection(connection); } } static class CustomConsumer implements Consumer { private final Channel channel; private final Connection connection; public CustomConsumer(Channel channel, Connection connection) { channel channel; connection connection; } @Override public void handleConsumeOk(String consumerTag) { } @Override public void handleCancelOk(String consumerTag) { } @Override public void handleCancel(String consumerTag) throws IOException { System.out.println("handleCancel"); System.out.println(consumerTag); createNewConnection(connection); } @Override public void handleShutdownSignal(String consumerTag, ShutdownSignalException sig) { System.out.println("handleShutdownSignal"); System.out.println(consumerTag); System.out.println(sig.getReason()); createNewConnection(connection); } @Override public void handleRecoverOk(String consumerTag) { } @Override public void handleDelivery(String consumerTag, Envelope envelope, AMQP.BasicProperties properties, byte[] body) throws IOException { String message new String(body, StandardCharsets.UTF8); System.out.println(" [x] Received '" + message + "'"); channel.basicAck(envelope.getDeliveryTag(), false); } } }
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        最佳实践
        节点重启后消费者如何重连
      • 与其他服务关系
        虚拟私有云 虚拟私有云为分布式缓存服务Redis版实例提供一个逻辑隔离的区域,构建一个安全可靠、 可配置和管理的虚拟网络环境。更多信息请参见虚拟私有云产品定义。 弹性云主机 分布式缓存服务Redis版订购后,默认按照用户选择的实例规格开通弹性云主机,云主机由 CPU、内存、镜像、云硬盘组成,同时结合VPC、安全组、数据多副本保存等能力,打造一个既高效又可靠安全的计算环境,确保分布式缓存服务Redis持久稳定运行。更多信息请参见弹性云主机产品定义。 云硬盘 分布式缓存服务Redis版订购后,默认按照一定的存储大小开通云硬盘。云硬盘是一种可弹性扩展的块存储设备,可以为分布式缓存服务Redis提供高性能、高可靠的块存储服务。更多信息请参见云硬盘产品定义。 弹性IP 弹性IP是可以独立申请的公网 IP 地址,包括公网IP地址与公网出口带宽服务。可以与分布式缓存服务Redis动态绑定和解绑,实现云资源的互联网访问。针对需要公网访问分布式缓存服务Redis版实例的需求,用户可开通弹性IP后,在Redis实例开通页面进行绑定。更多信息请参见绑定公网IP。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品介绍
        与其他服务关系
      • 构造请求
        1.请求的URL 例如:{URIscheme}://{Endpoint}/{resourcepath}?{querystring} 参数 描述 是否必选 ::: URIscheme 用于传输请求的协议,当前所有API均采用HTTPS协议。 是 Endpoint 当前资源池或者通用的域名。 是 resourcepath 资源路径,也即API访问路径。从具体API的URI模块获取,例如“获取用户1信息”API的resourcepath为“/users/1”。 是 querystring 查询参数,是可选部分,并不是每个API都有查询参数。查询参数前面需要带一个“?”,形式为“参数名参数取值”,例如“?userID1”,表示查询用户ID为1的数据。 是 2.请求方法 方法 说明 :: GET 请求服务器返回指定资源。 PUT 请求服务器更新指定资源。 POST 请求服务器新增资源或执行特殊操作。 DELETE 请求服务器删除指定资源,如删除对象等。 HEAD 请求服务器资源头部。 PATCH 请求服务器更新资源的部分内容。当资源不存在的时候,PATCH可能会去创建一个新的资源。 3.请求消息头 名称 描述 是否必选 示例 ::: ContentType 消息体的类型(格式)。推荐用户使用默认值application/json,有其他取值时会在具体接口中专门说明。 是 application/json ctyuneoprequestid 流水号(32位随机数) 是 0ffb9b07d5a84e19b3ce12dfb9705a1d EopAuthorization EopAuthorization 是 4a4bdc57e06542199b5f98d4cd107be2 Headersctyuneoprequestid;eopdate Signatureb2WEo4nh9ewn6SWOP0ii5g8L0z9CT5gprpDWntlCX9I Eopdate 时间,15分钟有效期(实际传时间为北京东八区UTC+8时间。TZ仅为格式,非UTC时间。) 是 20221107T093029Z
        来自:
        帮助文档
        CDN加速
        API参考
        如何调用API
        构造请求
      • 计费项
        本节主要介绍分布式缓存服务Redis版计费项 创建分布式缓存服务Redis时,根据实例规格和购买时长产生费用,支持包年包月、按量付费的计费方式。更多关于计费方式的信息,请参见计费模式。 分布式缓存服务的计费项为DCS实例 计费项 计费项说明 适用的计费模式 计费公式 :::: DCS实例 分布式缓存服务Redis按照您选择的实例规格进行计费。 包年/包月、按需计费 实例规格单价 购买时长实例规格单价请参见订购分布式缓存Redis。
        来自:
        帮助文档
        分布式缓存服务Redis版
        计费说明
        计费项
      • 产生数字签名
        参数 是否必填 参数类型 说明 示例 下级对象 cmkUuid 是 String 密钥唯一标识id 474e569e8814474a948bdbcf6d853eff keyVersionId 是 String 密钥版本id db4e73dedef547029dbb6387f05ae0d8 algorithm 是 String 签名算法,取值范围: RSAPSSSHA256 SM2 RSAPSSSHA256 digest 是 String 消息摘要,使用algorithm中对应的哈希算法,对原始消息生成摘要 说明:需进行Base64编码 mkmscsninfnenfck
        来自:
        帮助文档
        密钥管理
        API参考(OpenAPI)
        API
        密钥管理接口
        密码运算
        产生数字签名
      • 认证鉴权
        认证鉴权 AK/SK认证:通过AK(Access Key ID)/SK(Secret Access Key)加密调用请求。 AK/SK认证就是使用AK/SK对请求进行签名,在请求时将签名信息添加到消息头,从而通过身份认证。 AK(Access Key ID):访问密钥ID。与私有访问密钥关联的唯一标识符;访问密钥ID和私有访问密钥一起使用,对请求进行加密签名。 SK(Secret Access Key):私有访问密钥。与访问密钥ID结合使用,对请求进行加密签名,可标识发送方,并防止请求被修改。 使用AK/SK认证时,您可以基于签名算法使用AK/SK对请求进行签名,也可以使用专门的签名SDK对请求进行签名。详细的签名方法和SDK使用方法请参见API签名指南。 说明: 签名SDK只提供签名功能,与服务提供的SDK不同,使用时请注意。 ​
        来自:
        帮助文档
        云监控服务
        API参考
        如何调用API
        认证鉴权
      • 天翼云分布式融合数据库HTAP服务协议
        本页介绍天翼云分布式融合数据库HTAP服务协议。 天翼云分布式融合数据库HTAP服务协议获取地址:天翼云分布式融合数据库HTAP服务协议。
        来自:
        帮助文档
        分布式融合数据库HTAP
        相关协议
        天翼云分布式融合数据库HTAP服务协议
      • 续费、到期与欠费
        介绍分布式缓存服务Redis版的到期与欠费规则 到期前续费 手动续订:对于包年/包月订购的分布式缓存服务,用户在资源到期前进行续费操作,可以延长原有资源到期时间,避免资源到期后冻结或超过保留期后被系统回收。详细操作请参考费用中心续订管理手动续订。 自动续订:自动续订仅针对采用包月、包年计费模式的资源,详细操作请参考费用中心续订管理自动续订。 到期处理 到期后,分布式缓存服务进入保留期,您将不能正常访问及使用天翼云分布式缓存服务Redis版,但对于您存储在分布式缓存服务中的数据予以保留。 若您在到期后15天内续费,自资源续订解冻开始,计算新的服务有效期,按照新的服务有效期计算费用; 若到期15天后您仍未续费,存储在分布式缓存服务中的数据将被删除 欠费原因 在按需计费的模式下帐号的余额不足。 欠费停服说明 欠费后分布式缓存服务Redis版服务会自动停止。 您所占用的存储空间资源仍会继续扣费,因此欠费余额会累计。 如果您在15天内充值补足欠款,服务会自动启用。 当欠费超过15天,将视为您主动放弃该服务,您保存在天翼云分布式缓存服务Redis版的全部数据将会被销毁,销毁后数据不可恢复。因此请您及时关注账户余额并及时续费以保证您的服务不受到影响。 若您确认不再使用分布式缓存服务Redis版,请务必及时删除存储于分布式缓存服务Redis版上的数据。
        来自:
        帮助文档
        分布式缓存服务Redis版
        计费说明
        续费、到期与欠费
      • 管理通知
        本章节主要介绍通知管理的管理通知。 用户可以通过通知管理功能配置作业通知任务,当作业运行异常或成功时向相关人员发送通知。 配置通知 为作业配置通知前: 已开通消息通知服务并配置主题。 作业已提交,且不是“未启动”状态。 1. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2. 在数据开发主界面的左侧导航栏,选择“运维调度 > 通知管理”。 3. 在页面右侧的“通知管理”页签,单击“通知配置”,弹出“通知配置”页面,配置如下表所示的参数。 通知参数 参数 是否必选 说明 通知范围 是 选择通知的范围: 单个作业:对单个作业发送通知。 所有作业:对所有作业发送通知。 作业名称 是 选择作业。 通知类型 是 选择通知类型: 单个作业: − 运行异常/失败:作业的状态为“运行异常”或“失败”时,发送通知。 − 运行成功:作业的状态为“成功”时,发送通知。 − 未完成:该功能仅支持按天调度的作业配置。如果作业执行时间超过设置的未完成时间,则发送通知。 − 资源繁忙:如果执行作业时,资源繁忙,则发送通知。 所有作业: − 运行异常/失败:作业的状态为“运行异常”或“失败”时,发送通知。 − 资源繁忙:如果执行作业时,资源繁忙,则发送通知。 说明 实时作业只支持状态为运行异常/失败时发送通知,批处理作业在状态为运行成功和运行异常/失败时都能发送通知。 选择主题 是 选择通知的消息主题。 说明 当前仅支持“短信”、“邮件”、“HTTP”这三种协议的订阅终端订阅主题。 开关 是 是否开启通知,默认开启。 4. 单击“确定”,为作业配置通知。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        运维调度
        通知管理
        管理通知
      • 使用Kibana或API导入数据到Elasticsearch
        本章节主要介绍如何使用Kibana或API导入数据到Elasticsearch。 云搜索服务支持使用Kibana或者API将数据导入到Elasticsearch中,数据文件支持JSON、CSV等格式。 使用Kibana导入数据 在导入数据之前,您可以使用Kibana接入集群。如下操作步骤介绍如何使用POST命令导入数据。 1.登录Kibana Console页面,详细操作请参见接入集群章节中的 在管理控制台通过Kibana接入集群。 首次登录时,需要在Kibana的左侧导航中选择“Dev Tools”,单击“Get to work”,进入Console界面。非首次登录可单击“Dev Tools”直接进入Kibana Console页面。 2.(可选)在Console界面,执行命令创建待存储数据的索引,并指定自定义映射来定义数据类型。 如果待导入数据的集群已存在可用的索引,则不需要再创建索引;如果待导入数据的集群不存在可用的索引,则需要参考如下示例创建索引。 例如:在Console界面,执行如下命令,创建索引“mystore”,并指定自定义映射来定义数据类型。 7.x之前版本 PUT/mystore { "settings": { "numberofshards": 1 }, "mappings": { "products": { "properties": { "productName":{ "type":"text" }, "size": { "type":"keyword" } } } } } 7.x之后版本 PUT/mystore { "settings": { "numberofshards": 1 }, "mappings": { "properties": { "productName": { "type":"text" }, "size": { "type":"keyword" } } } } 3.在Console界面的右侧文本框中输入要导入数据的POST命令,以导入一条数据为例,执行如下命令。 7.x之前版本 POST/mystore/products/bulk {"index":{}} {"productName":"Latest art shirts for women in 2017 autumn","size":"L"} 7.x之后版本 POST/mystore/bulk {"index":{}} {"productName":"Latest art shirts for women in 2017 autumn","size":"L"} 返回结果如下图所示,当返回结果信息中“errors”字段的值为“false”时,表示导入数据成功。 详见下图:返回消息
        来自:
        帮助文档
        云搜索服务
        用户指南
        使用Elasticsearch搜索数据
        导入数据到Elasticsearch
        使用Kibana或API导入数据到Elasticsearch
      • 连接和查看Kafka Manager
        topicconfigs)。 − 图中⑤区域表示队列监控数据统计。 − 图中⑥区域表示队列分区信息,包括分区消息数(Latest Offset),分区leader(Leader),副本列表(Replicas),同步副本列表(In Sync Replicas)。 队列详情页 查看消费组列表 导航栏中单击Consumers页签,即可查看当前集群中的消费组列表。 集群的消费组列表 查看消费组详情页 单击消费组名称可进入消费组详情页面,展示消费组消费的所有队列列表以及每个队列的可消费数(Total Lag)。 消费组详情页面 查看消费组队列详情页 单击队列名称,即可进入详情页面,查看消费组消费在队列中每个分区的消费状态。包括分区编号(Partition),分区消息数(LogSize),分区消费进度(Consumer Offset),分区剩余可消费数(Lag),最近消费该分区的消费者(Consumer Instance Owner)。 消费组队列详情页面
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        用户指南
        连接和查看Kafka Manager
      • 连接已开启SASL的Kafka实例
        命令行模式连接实例 以下操作命令以Linux系统为例进行说明。 步骤 1 在客户端所在主机的“/etc/hosts”文件中配置host和IP的映射关系,以便客户端能够快速解析实例的Broker。 其中,IP地址必须为实例连接地址(从前提条件获取的连接地址),host为每个实例主机的名称(主机的名称由您自行设置,但不能重复)。 例如: 10.154.48.120 server01 10.154.48.121 server02 10.154.48.122 server03 步骤 2 解压Kafka命令行工具。 进入文件压缩包所在目录,然后执行以下命令解压文件。 tar zxf [kafkatar] 其中, [kafkatar] 表示命令行工具的压缩包名称。 例如: tar zxf kafka2.122.7.2.tgz 步骤 3 根据SASL认证机制,修改Kafka命令行工具配置文件。 1、PLAIN机制: 在Kafka命令行工具的“/config”目录中找到“consumer.properties”和“producer.properties”文件,并分别在文件中增加如下内容。 sasl.jaas.configorg.apache.kafka.common.security.plain.PlainLoginModule required username"" password""; sasl.mechanismPLAINsecurity.protocolSASLSSL ssl.truststore.location{ssltruststorepath} ssl.truststore.passworddms@kafka ssl.endpoint.identification.algorithm 参数说明: username和password为创建Kafka实例过程中开启SASLSSL时填入的用户名和密码,或者创建SASLSSL用户时设置的用户名和密码。 ssl.truststore.location配置为client.jks证书的存放路径。注意,Windows系统下证书路径中也必须使用“/”,不能使用Windows系统中复制路径时的“”,否则客户端获取证书失败。 ssl.truststore.password为服务器证书密码,不可更改,需要保持为dms@kafka 。 ssl.endpoint.identification.algorithm为证书域名校验开关,为空则表示关闭。这里需要 保持关闭状态,必须设置为空 。 2、SCRAMSHA512机制: 在Kafka命令行工具的“/config”目录中找到“consumer.properties”和“producer.properties”文件,并分别在文件中增加如下内容。 sasl.jaas.configorg.apache.kafka.common.security.scram.ScramLoginModule required username"" password""; sasl.mechanismSCRAMSHA512 security.protocolSASLSSL ssl.truststore.location{ssltruststorepath} ssl.truststore.passworddms@kafka ssl.endpoint.identification.algorithm 参数说明: username和password为创建Kafka实例过程中开启SASLSSL时填入的用户名和密码,或者创建SASLSSL用户时设置的用户名和密码。 ssl.truststore.location配置为client.jks证书的存放路径。注意,Windows系统下证书路径中也必须使用“/”,不能使用Windows系统中复制路径时的“”,否则客户端获取证书失败。 ssl.truststore.password为服务器证书密码,不可更改,需要保持为dms@kafka 。 ssl.endpoint.identification.algorithm为证书域名校验开关,为空则表示关闭。这里需要 保持关闭状态,必须设置为空 。 步骤 4 进入Kafka命令行工具的“/bin”目录下。 注意,Windows系统下需要进入“/bin/windows”目录下。 步骤 5 执行如下命令进行生产消息。 ./kafkaconsoleproducer.sh brokerlist {连接地址} topic {Topic名称} producer.config ../config/producer.properties 参数说明如下: 连接地址:从前提条件获取的连接地址,如果是公网访问,请使用“公网连接地址”,如果是VPC内访问,请使用“内网连接地址”,请根据实际情况选择。 Topic名称:Kafka实例下创建的Topic名称。如果Kafka实例开启了自动创建Topic功能,此参数值可以填写已创建的Topic名称,也可以填写未创建的Topic名称。 本文以公网访问为例,Kafka实例连接地址为“10.3.196.45:9095,10.78.42.127:9095,10.4.49.103:9095”。 执行完命令后,输入需要生产的消息内容,按“Enter”发送消息到Kafka实例,输入的每一行内容都将作为一条消息发送到Kafka实例。 [root@ecskafka bin]
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        连接Kafka实例
        连接已开启SASL的Kafka实例
      • 1
      • ...
      • 30
      • 31
      • 32
      • 33
      • 34
      • ...
      • 530
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      镜像服务 IMS

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      公共算力服务

      应用托管

      科研助手

      推荐文档

      域名实名认证

      如何修改账号的密码?

      退订

      如何申请发票?

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号