云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      消息队列RabbitMQ版_相关内容
      • 创建增强型跨源连接
        测试DLI队列与数据源的连通性 1. 获取数据源的私有内网IP和端口。 以RDS数据源为例:在RDS控制台“实例管理”页面,单击对应实例名称,查看“连接信息”>“内网地址”,即可获取RDS内网地址。查看“连接信息”>“数据库端口”,获取RDS数据库实例端口。 2. 在DLI管理控制台,单击“资源管理 > 队列管理”。 3. 选择增强型跨源所绑定的队列,单击操作列“更多 > 测试地址连通性”。 4. 输入数据源连接地址和端口,测试网络连通性。 格式: IP: 端口 注意 测试连接前,请确保外部数据源的安全组已放通队列的网段。
        来自:
        帮助文档
        数据湖探索
        用户指南
        增强型跨源连接
        创建增强型跨源连接
      • 创建vLLM NPU单机推理任务(1)
        本节介绍如何创建vLLM NPU单机推理任务。 前置条件 1. 确认智算套件已经安装并且全部运行中 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档] 操作步骤 创建任务 进入智算套件,AI应用列表,在线推理菜单,创建AI应用 基本信息 应用类型:vLLM 推理类型选择:单机 配置信息 推理框架,框架版本,推理模型,模型版本根据实际情况选择。 简单的示例: 推理框架: ascendvllm 框架版本:v0.13.0rc1 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 资源:CPU,内存,共享内存可以不填 选择 NPU:2 队列:选择存在且资源足够的的队列 点击确认完成创建。
        来自:
      • 名词解释
        名词 说明 环境 用于隔离不同应用的逻辑单元。 应用 一组资源的逻辑集合,通常代表一个业务系统。应用是进行演练和管理的核心对象。 资源 构成应用的组件节点,例如云主机、容器、分布式缓存服务Redis版、分布式消息服务Kafka等实例。 演练 通过向应用的特定资源注入指定故障,并观察其影响,从而验证系统稳定性与韧性的过程。 动作 注入到目标资源上的一个原子性故障,例如“CPU高负载”或“网络延迟”。用户可以在一次演练中对多个动作进行自由组合和编排。 动作组 一个或多个动作的逻辑分组,通常代表一个完整的故障场景。在一个演练任务中,不同的动作组之间可以并行执行。 探针 安装在目标资源(如云主机)上,用于执行具体故障注入动作的代理程序(Agent)。 保护策略 一种自动化的安全机制,用于控制演练的“爆炸半径”。当触发预设条件时,系统会依据此策略自动中止演练并回滚故障。
        来自:
        帮助文档
        应用高可用
        产品简介
        故障演练服务
        名词解释
      • 名词解释(1)
        名词 说明 环境 用于隔离不同应用的逻辑单元。 应用 一组资源的逻辑集合,通常代表一个业务系统。应用是进行演练和管理的核心对象。 资源 构成应用的组件节点,例如云主机、容器、分布式缓存服务Redis版、分布式消息服务Kafka等实例。 演练 通过向应用的特定资源注入指定故障,并观察其影响,从而验证系统稳定性与韧性的过程。 动作 注入到目标资源上的一个原子性故障,例如“CPU高负载”或“网络延迟”。用户可以在一次演练中对多个动作进行自由组合和编排。 动作组 一个或多个动作的逻辑分组,通常代表一个完整的故障场景。在一个演练任务中,不同的动作组之间可以并行执行。 探针 安装在目标资源(如云主机)上,用于执行具体故障注入动作的代理程序(Agent)。 保护策略 一种自动化的安全机制,用于控制演练的“爆炸半径”。当触发预设条件时,系统会依据此策略自动中止演练并回滚故障。
        来自:
      • SQL编辑器
        序号 页签/按键 页签/按键名称 描述 1 数据库 显示已有的数据库及其下所有的表。 单击数据库名,将显示该数据库中的表。 单击表名,将在表名下显示该表中的元数据,最多可显示20个元数据。 双击表名,将在作业编辑窗口自动输入SQL查询语句。 2 队列 显示已有的队列。 3 模板 内置的SQL样例模板,目前包含22条标准的TPCH查询语句。 4 创建 包括创建队列、数据库和表。 具体操作请分别参考《 5 刷新 包括刷新已有的队列、数据库和表列表。 6 搜索 可输入关键字查找对应的数据库和表。
        来自:
        帮助文档
        数据湖探索
        用户指南
        SQL编辑器
      • vLLM GPU单机PD分离
        本节介绍如何创建 vLLM GPU单机PD分离任务。 前置条件 1. 确认智算套件已经安装并且全部运行中 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(GPU,CPU,内存,rdma/rdmashareddevicea) [参考创建队列的文档] 操作步骤 创建任务 进入智算套件,AI应用列表,在线推理菜单,创建AI应用 基本信息 应用类型:vLLM 开启PD分离选择:静态PD分离 推理类型选择:单机 配置信息 推理框架,框架版本,推理模型,模型版本根据实际情况选择。 简单示例: 推理框架: nvidiavllm 框架版本:v0.11.2 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 资源:CPU,内存,共享内存可以不填 选择 GPU:4,rdma/rdmashareddevicea:1 队列:选择存在且资源足够的的队列 Prefill
        来自:
        帮助文档
        智算套件
        用户指南
        推理
        创建推理任务
        vLLM GPU单机PD分离
      • 云审计服务支持的DLI操作列表说明
        操作名称 资源类型 事件名称 创建数据库 database createDatabase 删除数据库 database deleteDatabase 修改数据库所有者 database alterDatabaseOwner 创建表 table createTable 删除表 table deleteTable 导出表数据 table exportData 导入表数据 table importData 修改表的所有者 table alterTableOwner 创建队列 queue createQueue 删除队列 queue dropQueue 队列授权 queue shareQueue 修改队列网段 queue replaceQueue 重启队列 queue queueActions 扩容/缩容队列 queue queueActions 提交作业(SQL) queue submitJob 取消作业(SQL) queue cancelJob 授权obs桶给DLI服务 obs obsAuthorize 检查SQL语法 job checkSQL 新建作业 job createJob 更新作业 job updateJob 删除作业 job deleteJob 购买cu时套餐包 order orderPackage 冻结资源 resource freezeResource 解冻资源 resource unfreezeResource 终止资源 resource deleteResource 资源清理 resource cleanResource 数据授权 data dataAuthorize 跨项目数据授权 data authorizeProjectData 导出查询结果 data storeJobResult 保存SQL模板 sqlTemplate saveSQLTemplate 更新SQL模板 sqlTemplate updateSQLTemplate 删除SQL模板 sqlTemplate deleteSQLTemplate 新建Flink模板 flinkTemplate createStreamTemplate 更新Flink模板 flinkTemplate createStreamTemplate 删除Flink模板 flinkTemplate deleteStreamTemplate 创建数据上传任务 uploader createUploadJob 获取数据上传任务鉴权 uploader getUploadAuthInfo 提交上传任务数据 uploader commitUploadJob 创建认证信息并上传证书 authInfo uploadAuthInfo 更新认证信息 authInfo updateAuthInfop 删除认证信息 authInfo deleteAuthInfo 更新配额 quota updateQuota 上传资源包 pkgResource uploadResources 删除资源包 pkgResource deleteResource 创建(经典型)跨源连接 datasource createDatasourceConn 删除(经典型)跨源连接 datasource deleteDatasourceConn 重新激活经典型跨源连接 datasource reactivateDSConnection 创建增强型跨源连接 datasource createConnection 删除增强型跨源连接 datasource getConnection 绑定队列 datasource associateQueueToDatasourceConn 解绑队列 datasource disassociateQueueToDatasourceConn 修改主机信息 datasource updateHostInfo 添加路由 datasource addRoute 删除路由 datasource deleteRoute 创建主题 smn createTopic 创建授权DLI agency createAgencyV2 创建批处理作业 batch createBatch 取消批处理作业 batch cancelBatch 创建会话 session createSession 删除会话 session deleteSession 创建语句 statement createStatement 取消语句执行 statement cancelStatement 创建全局变量 globalVar createGlobalVariable 删除全局变量 globalVar deleteGlobalVariable 修改全局变量 globalVar updateGlobalVariable
        来自:
        帮助文档
        数据湖探索
        用户指南
        其他常用操作
        云审计服务支持的DLI操作列表说明
      • 如何提高消息处理效率
        重视消息生产与消费的确认过程 消息生产(发送) Kafka非常重视消息生产确认过程,它提供了可靠的消息传递保证。下面是Kafka在消息生产确认方面的一些关键特性和机制: 同步发送和异步发送:Kafka提供了同步发送和异步发送两种方式。在同步发送中,生产者会等待服务器确认消息已成功写入到所有副本中,然后才会返回确认。这种方式可以确保消息的可靠性,但会影响吞吐量。而在异步发送中,生产者会立即返回确认,不等待服务器的响应。这种方式可以提高吞吐量,但消息的可靠性可能会有所降低。 消息复制机制:Kafka使用多个副本来保证消息的可靠性。在消息发送过程中,生产者将消息写入到主副本,并将消息复制到其他副本。只有当所有副本都成功写入消息后,生产者才会返回确认。这样可以确保即使主副本发生故障,仍然可以从其他副本中读取到消息。 ISR机制:Kafka使用ISR(InSync Replicas)机制来保证消息的可靠性。ISR是指与主副本保持同步的副本集合。只有ISR中的副本成功写入消息后,生产者才会返回确认。如果某个副本与主副本的同步延迟超过一定阈值,那么它将被移出ISR,不再参与消息的确认过程,直到与主副本同步。 消息持久化:Kafka将消息持久化到磁盘,以确保即使发生故障,消息也不会丢失。消息被写入到日志文件中,并通过索引来提供高效的读取和检索。 可配置的确认级别:Kafka提供了可配置的消息确认级别。确认级别可以设置为0、1或all。在确认级别为0时,生产者不会等待服务器的确认,直接返回确认。在确认级别为1时,生产者会等待主副本的确认。在确认级别为all时,生产者会等待所有副本的确认。确认级别的选择可以根据应用的需求和性能要求进行调整。 总之,Kafka通过同步发送、消息复制、ISR机制、消息持久化和可配置的确认级别等机制,重视消息生产确认过程,以确保消息的可靠性和一致性。这些机制使得Kafka成为一个可靠的分布式消息系统。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        如何提高消息处理效率
      • 配置自动伸缩
        配置项 说明 伸缩名称 长度为115个字符,仅支持数字、英文字母或下划线,必须以英文字母为首。 应用队列 默认展示选择的应用队列。 伸缩组最大节点数(台) 配置伸缩组内的最大节点数,当伸缩组内节点数大于最大节点数时,自动伸缩服务会自动移出节点,使得队列的当前实例数等于最大节点数。 伸缩组最小节点数(台) 配置伸缩组内的最小节点数,当伸缩组内节点数小于最小节点数时,自动伸缩服务会自动添加节点,使得队列的当前实例数等于最小节点数。 自动扩容 是否开启自动扩容。 自动缩容 是否开启自动缩容。 缩容时间(分钟) 计算节点的连续空闲时间超过缩容时间时,该节点会被释放。 伸缩策略 全量策略:根据单次最大伸缩节点数和伸缩组满足节点数,全量伸缩所需的节点数,不考虑队列中已有的空闲节点数。 增量策略:根据单次最大伸缩节点数、伸缩组满足节点数以及队列已有空闲节点数。增量伸缩所需的节点数。 计算节点规格 选择自动扩容节点的规格。 镜像 选择自动扩容节点的镜像。 注:该镜像为弹性高性能计算平台定制镜像,请优先保持集群同一镜像。 计算节点硬盘 选择自动扩容节点规格所对应的硬盘。 子网 选择子网,建议同一个队列保持子网一致。
        来自:
        帮助文档
        弹性高性能计算 E-HPC
        用户指南
        管理集群
        配置自动伸缩
      • 环境准备
        安全组 安全组可重复使用,您也可以根据实际情况使用不同的安全组,请根据实际需要进行配置。 创建安全组的操作指导,请参考虚拟私有云创建安全组。 若需要为安全组添加规则,请参考虚拟私有云安全组添加安全组规则。 弹性云主机 用户若需要自己客户应用接入RocketMQ发送、消费消息,需先购买弹性云主机并确保和RocketMQ实例在同一VPC下。创建操作说明请参见创建弹性云主机。 其他工具 下载安装工具Eclipse3.6.0以上版本 或者IntelliJ ,JDK 1.8.111以上版本。 生产消费验证涉及的SDK如下: rocketmq引擎版本:推荐使用的社区版Java SDK版本为4.9.3,请访问Apache RocketMQ官网下载。 ctgmq引擎版本(已调整白名单特性):点击ctgmqSDK直接下载。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        快速入门
        环境准备
      • 消息接收人设置
        本文主要介绍了消息接收人设置的操作流程。 消息接收人默认为账号联系人,不可编辑、删除。在账号联系人之外,用户可以添加或删除消息接收人,也可对消息接收人信息进行修改。 操作步骤 1、登录消息中心。 2、点击消息中心左侧导航,选择“消息接收人设置”。 3、消息接收人设置 新增消息接收人 (1)点击“新增消息接收人”,根据页面提示填写接收人姓名、手机号、邮箱并提交。 (2)点击邮箱及手机号右侧提示完成验证。 说明 需要邮箱及手机号均完成验证,新增的消息接收人才能在“消息管理”中完成添加。 修改消息接收人信息 (1)选择需要修改的消息接收人,点击“编辑”,然后根据需求,可修改接收人姓名、手机号、邮箱,然后提交。 (2)点击邮箱及手机号右侧提示完成验证。 说明 只修改姓名无需重新验证,若替换了新的邮箱/手机,则需要验证才能接收消息。 删除消息接收人 选择需要删除的消息接收人,点击“删除”,再次确认即可完成删除。
        来自:
        帮助文档
        账号中心
        消息中心
        消息订阅
        消息接收人设置
      • vLLM NPU单机推理
        本节介绍如何创建vLLM NPU单机推理任务。 前置条件 1. 确认智算套件已经安装并且全部运行中。 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档]。 操作步骤 创建任务 进入智算套件,AI应用列表,在线推理菜单,创建AI应用。 基本信息 应用类型:vLLM 推理类型选择:单机 配置信息 推理框架,框架版本,推理模型,模型版本根据实际情况选择。简单的示例: 推理框架: ascendvllm 框架版本:v0.13.0rc1 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 资源:CPU,内存,共享内存可以不填 选择 NPU:2 队列:选择存在且资源足够的的队列 Master 点击确认完成创建。
        来自:
        帮助文档
        智算套件
        用户指南
        推理
        创建推理任务
        vLLM NPU单机推理
      • Flink作业权限管理
        Flink作业权限使用说明 查看作业详情 租户以及admin用户可以查看和操作所有作业。 子用户以及拥有只读权限的用户只能查看自己的作业。 说明 他人赋权给该子用户查看权限外的任意权限,则该作业仅显示在作业列表中,但不支持该子用户查看作业详情。 启动作业 使用独享队列时,用户需要同时拥有队列的提交作业权限以及作业的启动作业权限。 使用共享队列时,用户只需要拥有作业的启动作业权限。 停止作业 使用独享队列时,用户需要同时拥有队列的停止作业权限以及作业的停止作业权限。 使用共享队列时,用户只需要拥有作业的停止作业权限。 删除作业 如果作业在可删除状态,则用户拥有作业的删除权限即可。 如果作业在不可删除状态,用户删除作业时,系统会先停止作业,停止作业权限说明可以参考Flink作业管理概述章节中的“停止作业”,并且用户还需要拥有作业的删除权限。 创建作业 子用户默认不能创建作业。 创建作业时,用户需要拥有创建作业的权限。目前只有admin用户创建作业的权限,同时用户还需要拥有该作业使用的相关程序包组权限或者程序包权限。 编辑作业 编辑作业时,用户需要拥有更新作业的权限,同时用户还需要拥有该作业使用的相关程序包所属组权限或者程序包权限。
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业管理
        Flink作业管理
        Flink作业权限管理
      • 配置DLI目的端参数
        参数名 说明 取值样例 资源队列 选择目的表所属的资源队列。 DLI的default队列无法在迁移作业中使用,您需要在DLI中新建SQL队列。 cdm 数据库名称 写入数据的数据库名称。 dli 表名 写入数据的表名。 cardetail 导入前清空数据 选择导入前是否清空目的表的数据。 如果设置为是,任务启动前会清除目标表中数据。 否 清空数据方式 导入前清空数据,如果设置为true时,呈现此参数。 TRUNCATE:删除标准数据。 INSERTOVERWRITE:新增数据插入,同主键数据覆盖。 TRUNCATE 分区 “导入前清空数据”设置为“是”时,呈现此参数。 填写分区信息后,表示清空该分区的数据。 year2020,locationsun
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        配置作业目的端参数
        配置DLI目的端参数
      • 消息类
        本章节介绍了有关分布式消息服务RocketMQ实例消息类的常见问题及解答。 是否支持消费验证? 分布式消息服务RocketMQ当前不支持消费验证功能。 RocketMQ的消息保留时间是多少?可以修改吗? RocketMQ的消息保留时间是48小时,且不支持修改。 RocketMQ支持的最大消息大小是多少?可以修改吗? RocketMQ支持的最大消息大小是4M,且不支持修改。 RocketMQ副本存储形式是怎样的?可以修改吗? RocketMQ消息是一主两从3个副本的存储形式,且不支持修改。 消息创建时间在哪设置 ? 消息创建时间是由生产客户端在生产消息时设置的。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        常见问题
        消息类
      • 消费端从服务端拉取不到消息或拉取消息缓慢
        本文介绍Kafka消费端从服务端拉取不到消息或拉取消息缓慢原因及解决方案 问题现象 Topic中有消息并且Consumer未消费到最新的位置,出现消费端从服务端拉取不到消息或拉取消息缓慢的情况(特别是公网消费时)。 可能原因 消费流量达到网络带宽。 单个消息大小超过网络带宽。 Consumer每次拉取的消息量超过网络带宽。 说明 Consumer每次消息的拉取量受以下参数影响: max.poll.records:每次拉取的最多消息数。 fetch.max.bytes:每次拉取的最大总byte数。 max.partition.fetch.bytes:每个Partition每次拉取的最大总byte数。 解决方案 (1)登录分布式消息服务Kafka控制台查询消息。 如果能查询到消息,请继续尝试以下步骤。 (2)在实例详情页面,单击左侧导航栏的监控信息,查看消费流量是否已达到网络带宽。 如果消费流量已经达到网络带宽,您需要扩充网络带宽。 (3)检查Topic中是否存在单个消息的大小超过网络带宽。 如果存在单个消息的大小超过网络带宽,请提高网络带宽,或者减小单个消息的大小。 (4)检查Consumer每次拉取的消息量是否超过网络带宽。 说明 如果每次拉取的消息量超过网络带宽,您需要调整以下参数。 网络带宽>fetch.max.bytes 网络带宽>max.partition.fetch.bytes总订阅Partition数
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        操作类
        消费端从服务端拉取不到消息或拉取消息缓慢
      • 消息灰度
        本章节介绍消息灰度功能的使用 概述 在使用全链路灰度能力时,若涉及消息的灰度,可以开启消息灰度能力。 版本限制 框架 限制 详情 RocketMQ 4.5.0+ 当前只支持RocketMQ的灰度。 jdk版本 1.8+ 无。 开启消息灰度 1.登录微服务治理中心控制台。 2.在左侧导航栏选择 微服务治理中心 >应用治理。 3.在应用治理页面单击目标应用卡片。 4.在左侧导航栏选择流量治理 消息灰度,即可配置消息灰度规则。 消息灰度参数说明: 参数 说明 未打标环境忽略标签 未打标环境默认会消费所有环境的消息。若配置“未打标环境忽略标签”,则未打标环境会忽略配置的标签。 开启消息灰度开关 消息灰度生效开关。 消息灰度过滤侧 客户端过滤:在消费端MSE Agent过滤,会拉取所有的消息,建议提前评估消息量。 服务端过滤:在服务端通过SQL92方式过滤,需要RocketMQ服务端支持。
        来自:
        帮助文档
        微服务引擎
        用户指南
        微服务治理中心
        应用治理
        流量治理
        消息灰度
      • 如何判断和处理消息堆积?
        本节介绍Kafka 判断和处理消息堆积 判断消息堆积是否属于正常情况 登录“分布式消息服务Kafka”控制台,在“消费组管理”页面,找到目标消费组,进入“消息堆积”页面。 (1)堆积量保持在一个稳定的数值之间波动,没有持续扩大。说明客户端一直在拉取最新消息,没有消息堆积,属于正常情况。 (2)堆积量逐步扩大,并且当前位点一直不变。客户端的消费线程因为某些原因卡住,没有继续消费,也没有继续向服务端提交位点,属于异常情况,即消息的确堆积了。 (3)堆积量逐步扩大,同时当前位点在前进。说明客户端还在消费中,但是消息的消费速度慢于消息的发送速度。消息堆积大多是消费速度过慢或者消费线程阻塞造成的,建议不要在消费逻辑中有太多耗时的操作。 消息堆积的处理方式 经过上述判断,确认消息的确存在堆积情况时,建议打印消息的消费耗时,或者根据堆栈信息查看线程执行情况,适当调整以加快消息的消费速度,避免出现消息堆积。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        操作类
        如何判断和处理消息堆积?
      • 站内消息
        本页介绍天翼云TeleDB数据库如何查询站内消息。 在消息中心模块,提供了站内消息和消息订阅的功能。站内消息包括服务订阅、系统消息、产品消息和告警消息四大类消息。 消息查询:在消息查询中可以通过消息类型的精确匹配和消息标题或消息内容的模糊匹配对消息进行过滤查询。 消息详情:单击消息标题可以查看具体消息的详情,在查看具体消息详情之后,会将推送的消息置灰。 除此之外,还能够站内消息进行删除和批量删除以及全部删除操作。当您在消息列表上方单击全部标为已读按钮时,所有消息都将置灰。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据库资源与生命周期管理服务操作指南
        消息中心
        站内消息
      • 使用云主机打造 Moltbot 飞书私人助理
        步骤3:在云服务器上为Moltbot服务配置飞书插件 Moltbot 默认不内置飞书 Channel,需要额外安装插件。这里使用开源插件:++ %E4%B8%AD%E6%96%87++。安装流程如下: 1. 在云服务器内运行插件安装命令: plaintext clawdbot plugins install @m1hengclawd/feishu 2. 安装完成后,将飞书机器人的配置参数写入Moltbot的配置文件。 plaintext clawdbot config set channels.feishu.appId "[飞书的APP ID]" clawdbot config set channels.feishu.appSecret "[飞书的APP Secret]" clawdbot config set channels.feishu.enabled true 以上参数所在位置: 3. 配置完成后,重新启动Moltbot的Gateway服务。 plaintext clawdbot gateway restart 注意 若云主机使用的是【Moltbotv2026.1.243CtyunOS25.07】镜像,则重启Gateway服务时,需替换为以下命令执行: plaintext nohup clawdbot gateway & 4. 添加事件订阅 注意 事件订阅必须在Moltbot添加飞书配置并启动后,才可以创建,否则无法创建成功。 选择订阅方式为长连接 添加事件,具体添加项见下表: 事件 说明 im.message.receivev1 接收消息(必需) im.message.messagereadv1 消息已读回执 im.chat.member.bot.addedv1 机器人进群 im.chat.member.bot.deletedv1 机器人被移出群 配置完成后,进行发版 5. 飞书机器人已创建成功,现在可以在飞书中和机器人对话,校验Moltbot功能是否正常。
        来自:
      • 配置Kafka数据转储至OBS
        本节介绍如何配置Kafka数据转储至OBS。 本章节介绍如何创建转储的Smart Connect任务,通过Smart Connect任务可以将Kafka实例中的数据转储至OBS中,实现消息数据的备份。 源Kafka实例中的数据会实时同步到转储文件中。 约束与限制 一个实例最多创建18个Smart Connect任务。 Smart Connect任务创建成功后,不支持修改任务参数。 前提条件 已开启Smart Connect。 已创建Kafka实例,且实例状态为“运行中”。 已创建的OBS桶和Kafka实例需要在同一个区域。 配置Kafka数据转储至OBS 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、单击Kafka实例名称,进入实例详情页面。 5、在左侧导航栏单击“Smart Connect”,进入Smart Connect任务列表页面。 6、单击“创建Smart Connect任务”,进入“创建smart connect”页面。 7、在“connect任务名称”中,输入Smart Connect任务的名称,用于区分不同的Smart Connect任务。任务名称需要符合命名规则:长度为4~64个字符,只能由英文字母、数字、中划线、下划线组成。 8、在“预置类型”中,选择“转储”。 9、在“源端配置”中,保持默认设置。 10、在“Topic配置”中,设置以下参数。 表11 Topic配置参数说明 参数 参数说明 正则表达式 表示以正则表达式的方式订阅Topic,并进行转储。 输入/选择 输入/选择待转储的Topic名称,支持选择多个Topic,以逗号“,”分隔。最多输入/选择20个Topic。 11、在“目标端配置”中,设置以下参数。 表12 目标端参数说明 参数 参数说明 转储启动偏移量 支持以下两种转储启动偏移量: 最早:最小偏移量,即读取最早的数据。 最新:最大偏移量,即获取最新的数据。 数据转储周期 两次转储的时间间隔,单位:秒,默认配置为300秒。 若某个时间段内无数据,则此时间段不会生成打包文件 AK 访问密钥ID。 SK 与访问密钥ID结合使用的密钥。 转储地址 设置存储Topic数据的OBS桶的名称。 选择:在下拉列表中选择已创建的OBS桶名称,或者单击“创建转储地址”,新创建一个OBS桶。 输入:输入已创建的OBS桶名称,或者单击“创建转储地址”,新创建一个OBS桶。输入的OBS桶必须和Kafka实例在同一个区域。 转储目录 OBS中存储Topic的目录,多级目录可以用“/”进行分隔。 时间目录格式 数据将存储在转储目录下的时间目录中,时间目录是按时间格式作为层级的目录。例如,当选择的时间目录格式精确到日时,存储目录为:“桶名称/转储目录/年/月/日”。 记录分隔符 在下拉列表中选择一种分隔符,分隔不同的转储记录 存储Key 是否转储Key,开启表示转储Key,关闭表示不转储Key。 说明 消息进行转储时,不支持以Key作为文件名。 12、单击“立即创建”,跳转到Smart Connect任务列表页面,页面右上角显示“创建xxx任务成功”。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        配置Kafka数据转储至OBS
      • 创建Flink Jar作业
        本章节介绍如何新建FlinkJar作业。 用户可以基于Flink的API进行二次开发,构建自己的应用Jar包并提交到DLI的队列运行,DLI完全兼容开源社区接口。此功能需要用户自己编写并构建应用Jar包,适合对Flink二次开发有一定了解,并对流计算处理复杂度要求较高的用户。 前提条件 确保已创建独享队列。创建DLI独享队列,在购买队列时,勾选“专属资源模式”即可。 创建Flink Jar作业,访问其他外部数据源时,如访问OpenTSDB、HBase、Kafka、DWS、RDS、CSS、CloudTable、DCS Redis、DDS Mongo等,需要先创建跨源连接,打通作业运行队列到外部数据源之间的网络。 当前Flink作业支持访问的外部数据源详情请参考跨源连接和跨源分析概述。 创建跨源连接操作请参见增强型跨源连接。 创建完跨源连接后,可以通过“队列管理”页面,单击“操作”列“更多”中的“测试地址连通性”,验证队列到外部数据源之间的网络连通是否正常。详细操作可以参考 测试地址连通性。 用户运行Flink Jar作业时,需要将二次开发的应用代码构建为Jar包,上传到已经创建的OBS桶中。并在DLI“数据管理”>“程序包管理”页面创建程序包,具体请参考 创建程序包。 说明 DLI不支持下载功能,如果需要更新已上传的数据文件,可以将本地文件更新后重新上传。 由于DLI服务端已经内置了Flink的依赖包,并且基于开源社区版本做了安全加固。为了避免依赖包兼容性问题或日志输出及转储问题,打包时请注意排除以下文件: a.系统内置的依赖包,或者在Maven或者Sbt构建工具中将scope设为provided b.日志配置文件(例如:“log4j.properties”或者“logback.xml”等) c.日志输出实现类JAR包(例如:log4j等)
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业管理
        Flink作业管理
        创建Flink Jar作业
      • 术语解释
        Hudi Hudi是数据湖的文件组织层,对Parquet格式文件进行管理提供数据湖能力,支持多种计算引擎,提供IUD接口,在 HDFS的数据集上提供了插入更新和增量拉取的流原语。 Iceberg Iceberg 是一个用户分析的高性能表格式, Iceberg 表格的数据可以存储在 HDFS/S3 等不同存储上,Iceberg 使得能够在大数据系统中更好的使用 SQL 做数据分析,同时可以让多引擎查询同时支持 Iceberg 表格,Iceberg 支持引擎批量/增量的消费,能够降低端到端的耗时。 Knox Apache Knox Gateway 是一个应用程序网关,用于与Apache Hadoop 部署的 REST API 和 UI 进行交互。Knox 网关为与 Apache Hadoop集群的所有 REST 和 HTTP 交互提供了一个单一的访问点。 Logstash Logstash 是一个流行的开源数据收集引擎,用于从各种来源收集、处理和转发数据。它可以从多种来源(如业务日志文件、消息队列、数据库等)收集数据,对数据进行解析、过滤和转换,最终将处理后的数据输出到目标位置(Opensearch、Elasticsearch、Hadoop、S3 等)。 JeekeFS JeekeFS 是一个高性能分布式文件系统,用于存储和管理文件与数据。它采用数据与元数据分离的存储架构,数据本身被持久化在对象存储中,元数据则可以按需存储在多种数据库中。 Tez Tez组件是Apache Hadoop生态系统中的一个计算框架,它利用DAG(有向无环图)来优化作业执行。通过提供可编程的输入、输出、处理器、任务等组件,Tez能够高效地执行复杂的数据处理任务,提升Hadoop作业的性能和灵活性。
        来自:
        帮助文档
        翼MapReduce
        产品介绍
        术语解释
      • 删除资源池
        本章节主要介绍删除资源池。 操作场景 该任务指导用户通过MRS Manager,删除已有资源池。 前提条件 集群中任何一个队列不能使用待删除资源池为默认资源池,删除资源池前需要先取消默认资源池,请参见配置队列。 集群中任何一个队列不能在待删除资源池中配置过资源分布策略,删除资源池前需要先清除策略,请参见清除队列配置。 操作步骤 在MRS Manager,单击“租户管理”。 1. 单击“资源池”页签。 2. 在资源池列表指定资源池所在行的“操作”列,单击“删除”。 在弹出窗口中单击“确定”。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        租户管理
        删除资源池
      • Kafka消费者poll的优化
        运行结果 上面的示例代码中,消费者线程会循环调用 poll()方法来拉取消息,并对拉取到的消息进行处理。在处理消息时,示例代码只是简单地打印了消息的值。 因此,示例代码的响应结果将是每个消费者线程在拉取到消息时打印出消息的值。具体的响应结果将取决于你所消费的Kafka主题中的消息内容。 例如,假设你的Kafka主题中有以下两条消息: 1. Key: null, Value: "Hello, Kafka!" 2. Key: null, Value: "How are you?" 当消费者线程拉取到这两条消息时,它们将会打印如下的响应结果: Received message: Hello, Kafka! Received message: How are you? 请注意,示例代码中的打印语句只是简单地将消息值输出到控制台。在实际应用中,你可以根据需要对消息进行进一步的处理,比如将消息存储到数据库、执行业务逻辑等操作。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Kafka消费者poll的优化
      • vLLM NPU多机推理
        本节介绍如何创建vLLM NPU多机推理。 本示例基于 vLLM 推理框架,选用 deepseekr1distillqwen7b 模型进行多机部署。整体部署 1 个推理应用实例,由 1 个 master + 1 个 worker 角色组成,每个角色占用 1 张 NPU 卡,因此本任务共使用 2 张 NPU 卡,用于验证模型在多机环境下的推理能力。 前置条件 1. 确认智算套件已经安装并且全部运行中。 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档]。 操作步骤 创建应用 进入智算套件,AI应用列表,在线推理菜单,创建AI应用。 基本信息 应用类型:vLLM 应用数:1 配置信息 推理类型选择多机,推理框架、框架版本、推理模型、模型版本、根据实际情况选择。简单的示例: 推理框架: ascendvllm 框架版本:v0.14.0rc1 推理模型:deepseekr1distillqwen7b 模型版本:v1 队列:选择存在且资源足够的的队列
        来自:
        帮助文档
        智算套件
        用户指南
        推理
        创建推理任务
        vLLM NPU多机推理
      • vLLM NPU多机推理(1)
        本节介绍如何创建vLLM NPU多机推理。 本示例基于 vLLM 推理框架,选用 deepseekr1distillqwen7b 模型进行多机部署。整体部署 1 个推理应用实例,由 1 个 master + 1 个 worker 角色组成,每个角色占用 1 张 NPU 卡,因此本任务共使用 2 张 NPU 卡,用于验证模型在多机环境下的推理能力。 前置条件 1. 确认智算套件已经安装并且全部运行中。 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档]。 操作步骤 创建应用 进入智算套件,AI应用列表,在线推理菜单,创建AI应用。 基本信息 应用类型:vLLM 应用数:1 配置信息 推理类型选择多机,推理框架、框架版本、推理模型、模型版本、根据实际情况选择。简单的示例: 推理框架: ascendvllm 框架版本:v0.14.0rc1 推理模型:deepseekr1distillqwen7b 模型版本:v1 队列:选择存在且资源足够的的队列
        来自:
      • 创建普通任务(Job)
        Job类型 说明 使用示例 一次性Job 创建一个Pod直至其成功结束 数据库迁移 固定结束次数的Job 依次创建一个Pod运行直至completions个成功结束 处理工作队列的Pod 固定结束次数的并行Job 依次创建多个Pod运行直至completions个成功结束 多个Pod同时处理工作队列 并行Job 创建一个或多个Pod直至有一个成功结束 多个Pod同时处理工作队列
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        工作负载
        创建普通任务(Job)
      • 云实例间迁移
        分布式消息服务Kafka提供全托管、免运维的云实例间迁移服务,用于同云实例与分布式消息服务Kafka实例之间的数据同步。本文介绍云实例间迁移的源实例类型、使用限制以及使用流程。 背景信息 云实例间迁移可以把天翼云分布式消息服务Kafka集群的元数据(Topic、Group和SASL User信息)、消息数据和点位信息同步到目标集群,迁移完成后目标集群的元数据与原集群的元数据保持一致,并且支持持续更新和完成后自动停止任务。 使用限制 1.此功能不收费,会占用当前实例的服务器资源,请结合业务流量和服务器资源占用情况,在合理的情况下进行迁移 2.单机版不支持迁移 计费说明 分布式消息服务Kafka的云实例间迁移组件处于公测阶段,不会在分布式消息服务Kafka侧产生费用。同时,天翼云不承诺迁移的SLA。 创建迁移任务 1.登录分布式消息服务Kafka控制台。 2.在左侧导航栏,单击集群迁移 ,然后单击云实例间迁移。 3.在云实例间迁移页签,单击创建任务。 4.在创建 云实例间迁移任务面板,填写任务名称,选择目标实例,然后单击下一步。 5.填写接入点,选择源实例,任务数等,具体请看参数说明。 参数说明: 参数 说明 示例 源实例 下拉框选择源实例 192.168.XX.XX:9092 任务数 选择同步数据的任务数。取值说明如下:1、6、12 1 迁移完成后自动停止任务 迁移任务会自动检测是否完成迁移 是:在检测到消息数据完成同步后停止任务 否:不停止任务,您可以手动停止任务 否 Topic 要迁移的topic信息,选填,多个用半角逗号分开,不填则迁移所有topic topic1,topic2 Groups 要迁移的group信息,选填,多个用半角逗号分开,不填则迁移所有group group1,group2 副本数是否和源集群保持一致 迁移到目标集群的topic的副本数是否和源集群保持一致,默认否 是:副本数是否和源集群保持一致,如原集群topic副本数为1,迁移后的topic副本数也为1 否:迁移后topic的副本数为3 否 6.填写完参数后,单击创建 ,完成任务的创建,在任务列表能看到一条任务,状态为等待迁移,后台调度到此任务时,会将任务状态改为迁移中。 7.其他操作 查看任务详情:单击详情。在任务详情页面,查看云实例间迁移任务的基础信息、源服务、目标服务和运行环境配置信息。 查看同步进度:单击同步进度,选择查看的Topic,可以看到对应Topic的分区id,最早点位,最新点位和当前点位信息。 启停任务:单击停止,然后在提示对话框,单击确认可停止任务。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        集群迁移
        云实例间迁移
      • 计费互转
        介绍分布式消息服务Kafka计费模式互转的功能操作内容。 场景描述 Kafka的按需转包周期的场景描述如下: 在使用Kafka时,可能会遇到需要设置按需转包周期的场景,例如: 消息积压处理:当Kafka中的消息积压较多时,可能会导致消息的消费速度跟不K上消息的生产速度,进而影响系统的性能和稳定性。为了解决这个问题,可以设置按需转包周期,即将一定数量的消息打包成一个批次进行消费,以提高消费的效率和吞吐量。 业务流量波动:在某些业务场景下,业务流量可能会出现波动,即某个时间段内的消息产生速度较快,而另一个时间段内的消息产生速度较慢。为了更好地适应业务流量的波动,可以设置按需转包周期,以根据实际的消息产生情况进行灵活的批量消费。 系统资源优化:当Kafka的消费者资源有限时,可以通过设置按需转包周期来优化系统的资源利用。通过将一定数量的消息打包成一个批次进行消费,可以减少消费者的竞争和上下文切换,提高系统的并发处理能力。 消息处理延迟优化:在某些场景下,对消息的实时性要求较低,可以通过设置按需转包周期来优化消息的处理延迟。将一定数量的消息打包成一个批次进行消费,可以减少消息的处理次数,从而降低消息的处理延迟。 需要注意的是,在设置按需转包周期时,应根据实际业务需求和系统情况进行调整。同时,应考虑消息的重要性、消费者的处理能力、系统的资源限制等因素,以确保系统的稳定性和性能。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        计费互转
      • 功能特性
        本节主要介绍分布式消息服务Kafka的功能特性 消息收发 消息发送,支持指定分区发送、同步发送、异步发送、分区批量累积发送;支持身份认证,客户端连接Broker时使用SSL或SASL进行验证,数据传加密传输;支持ACL机制,提供客户端读、写权限认证。支持通过压缩算法实现消息体压缩,减少网络传输数据量,提高Kafka的消息发送吞吐量。 消息消费,支持指定Partition消费、指定分区的offset消费;采用poll方式,支持批量消费,支持广播消费。 消息有序性 针对消息有序的业务需求,分为全局有序和局部有序。 全局有序:一个Topic下的所有消息都需要按照生产顺序消费。 局部有序:一个Topic下的消息,只需要满足同一业务字段的要按照生产顺序消费。例如:Topic消息是订单的流水表,包含订单orderId,业务要求同一个orderId的消息需要按照生产顺序进行消费。 由于Kafka的一个Topic可以分为了多个Partition,Producer发送消息的时候,是分散在不同 Partition的。当Producer按顺序发消息给Broker,但进入Kafka之后,这些消息就不一定进到哪个Partition,会导致顺序是乱的。因此要满足全局有序,需要1个Topic只能对应1个Partition。 要满足局部有序,只需要在发消息的时候指定Partition Key,Kafka对其进行Hash计算,根据计算结果决定放入哪个Partition。这样Partition Key相同的消息会放在同一个Partition。此时,Partition的数量仍然可以设置多个,提升Topic的整体吞吐量。
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        功能特性
      • 消费失败
        Kafka 是按分区一条一条消息顺序向前推进消费的,如果消费端拿到某条消息后执行消费逻辑失败,比如应用服务器出现了脏数据,导致某条消息处理失败,等待人工干预,那么有以下两种处理方式: 失败后一直尝试再次执行消费逻辑。这种方式有可能造成消费线程阻塞在当前消息,无法向前推进,造成消息堆积。 由于 Kafka 自身没有处理失败消息的设计,实践中通常会打印失败的消息、或者存储到某个服务(比如创建一个 Topic 专门用来放失败的消息),然后定时 check 失败消息的情况,分析失败原因,根据情况处理。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        消费者实践
        消费失败
      • 1
      • ...
      • 16
      • 17
      • 18
      • 19
      • 20
      • ...
      • 241
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      天翼云CTyunOS系统

      训推服务

      AI Store

      应用托管

      一站式智算服务平台

      智算一体机

      知识库问答

      推荐文档

      术语解释

      产品介绍

      退订

      域名解析

      编辑

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号