活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云主机_相关内容
      • 使用限制
        本文介绍使用云应用引擎时,应用的实例配额限制、CPU和内存限制,以及网络、容器、镜像等限制条件。 配额限制 限制项 限制值 说明 可创建应用的用户 实名认证,且账户内金额大于0元。 无 单应用实例数 20 单个应用的实例数量上限 总应用实例数 100 单Region下用户能够创建的全部应用实例数量 内存用量 10G 单Region下用户所有应用使用的内存大小上限 CPU核数 2核 单Region下用户所有应用使用的CPU核数上限 网络 专有网络VPC 不支持经典网络。专有网络VPC内部署的实例默认不可访问公网,如需访问公网,则需进行相关配置。 容器 Linux容器 不支持Windows容器。 系统盘磁盘空间 默认20GiB 不支持更改系统盘磁盘空间大小。为了保证您的业务连续性,在SAE控制台使用镜像部署应用时,请确保镜像大小不超过20GiB。
        来自:
        帮助文档
        云应用引擎
        产品介绍
        使用限制
      • 配置日志外发
        本节介绍如何在堡垒机v1.0中进行Syslog日志外发配置。 前提条件 已购买堡垒机v1.0资源,且资源状态为“运行中”。 操作步骤 1. 登录云等保专区控制台,在左侧导航栏,选择“堡垒机 > 堡垒机v1.0”,在目标资源右侧操作列单击“配置”,进入堡垒机系统。 2. 选择“管理控制台”,在导航栏选择“系统 > 服务管理 > 日志外送”。 3. 将“状态”开关打开,并配置“发送者标识”,“服务器地址+端口地址”,“发送数据”。 发送者标识:根据需求自定义填写。 服务器地址+端口地址:输入外发目的地址,可配置多个。 发送数据:默认勾选全部,可根据需求自定义勾选。 4. 配置完成后,单击“发送测试数据”,确保数据可以正常外发后,单击“保存”,完成配置。
        来自:
        帮助文档
        云等保专区
        用户指南
        堡垒机
        堡垒机v1.0
        配置日志外发
      • 创建普通任务(Job)
        容器配置 容器信息 Pod中可以配置多个容器,您可以单击右侧“添加容器”为Pod配置多个容器。 基本信息:容器基本信息 生命周期:设置容器生命周期 环境变量:设置环境变量 数据存储:存储概述 容器日志:使用ICAgent采集容器日志 说明 负载实例数大于1时,不支持挂载云硬盘类型的存储。 镜像访问凭证:用于访问镜像仓库的凭证,默认取值为defaultsecret,使用defaultsecret可访问SWR镜像仓库的镜像。defaultsecret详细说明请参见defaultsecret。 GPU显卡:默认为不限制。当集群中存在GPU节点时,工作负载实例可以调度到指定GPU显卡类型的节点上。 步骤 4 单击右下角“创建工作负载”。
        来自:
        帮助文档
        云容器引擎
        用户指南
        工作负载
        创建普通任务(Job)
      • 应用场景
        本文介绍云容器引擎Serverless版的应用场景。 应用托管 Serverless集群无需购买节点即可轻松部署容器应用,无需对集群进行节点维护和容量规划,大大降低业务的基础设施管理和运维成本,提供高效的应用托管服务。 突发业务 面对有明显波峰波谷特征的业务负载,Serverless集群的秒级伸缩能力能够以最低的成本代价平滑应对流量高峰,保证业务的高可用和性能。 数据计算 面对数据分析或机器学习训练等任务,Serverless集群可以提供快速、灵活的计算资源,快速启动大量Pod实例在短时间内运行特定的计算任务,计算结束后释放自动停止计费,极大降低了整体的计算成本。 CI/CD Serverless集群可以轻松搭建各种持续集成环境,帮助用户快速构建测试环境和自动化的部署流程,同时为各种持续集成任务之间提供隔离性和安全性。
        来自:
        帮助文档
        云容器引擎 Serverless版
        产品简介
        应用场景
      • 使用专属云分布式存储过程中的故障处理和影响
        本节介绍了使用专属云(存储独享型)过程中的故障处理和影响。 第一种情况 服务器或者磁盘出现故障后,被踢出存储池,对外呈现的“总可用容量”会变小,故障处理后,“总可用容量”恢复原状。 第二种情况 服务器或者磁盘出现故障后,未被踢出存储池,则存储池降级,不影响存储池使用,故障处理后,存储池恢复正常。 说明 存储池降级指的是,存储池中部分数据由三副本变为两副本,并且在没有人工处理故障的情况下无法自动恢复成三副本。 第三种情况 服务器或者磁盘出现故障后,可能会中断业务。比如存储池已使用98%,此时服务器或者磁盘出现故障,被踢出存储池,由于“总可用容量”变小,导致“已使用容量”/“总可用容量”达到将近100%,存储池写保护,用户业务中断,中断时间为用户写满数据后,到故障处理结束。
        来自:
        帮助文档
        专属云(存储独享型)
        常见问题
        操作类
        使用专属云分布式存储过程中的故障处理和影响
      • 数据库权限类
        本节介绍了数据库权限相关问题与处理方法。 TaurusDB提供root帐号或super权限吗 TaurusDB)提供的管理员帐号为root帐号,具有去除super、file、shutdown和create tablespace后的最高权限。 大部分的云数据库服务平台,都未给root帐号提供super权限。因为一旦用户拥有了super权限,就可以执行很多管理性的命令,比如reset master,set global…,kill,reset slave等,这类操作很有可能导致TaurusDB出现不可预知的异常和故障。这一点是云服务平台和本地搭建MySQL比较大的区别,TaurusDB提供服务化能力,那就需要保证实例的稳定正常运行。 对于客户要求super权限的场景,TaurusDB提供了服务化能力,也可以通过其他手段绕过super权限的限制。 举例如下: 举例1:有些用户喜欢登录数据库执行如下命令来修改参数,这在TaurusDB是被禁止的,您只能通过TaurusDB界面中的参数修改功能来实现。 set global 参数名 参数值 ; 如果您的脚本中包含set global命令导致super缺失,请删除set global命令,通过console的参数修改。 举例2:有些用户执行如下命令报错,这也是因为没有super权限导致的,只需要去除definer'root’关键字即可。 create definer'root'@'%’ trigger(procedure)… 如果您缺失super权限,可以使用mysqldump导入数据,请参考使用mysqldump迁移TaurusDB数据导入和导出数据。
        来自:
        帮助文档
        云数据库TaurusDB
        常见问题
        数据库权限类
      • 计费模式
        本章节介绍专属云分布式缓存服务Redis版的计费模式。 按需计费 1、收费方式 (1)预存后付费方式:提前充值现金到天翼云账户中,现金账户余额不低于100元,之后系统按照用户实际使用量进行结算。 (2)计费周期:按小时计费,以自然小时为计费单位(均以北京时间为准),不满一小时按照一小时计费。费用从用户账户现金余额中扣费。开通时间建议整点开通,开通不足一个自然小时,按一小时收费。提前删除也按照自然小时收费。 例如:如果您在1点01分开通,那么时间到2点就算做一个自然小时;如果您在1点58分开通,那么时间到2点也算做一个自然小时,都是按照1个小时收费。所以为了避免您的时间损失,建议您整点后几分钟内开通,在整点前几分钟删除。 2、删除规则 (1)删除数据库时,数据库的CPU、内存的费用停止计费,其他关联资源继续计费。 (2)数据库删除后,数据不会保留会立即释放资源。 6、账户欠费 如用户账户出现欠费,账户一旦充值,系统将会自动优先扣除欠费金额。 7、提醒/通知规则 (1)账户欠费通知:当用户欠费时,系统会向用户发送1次欠费提醒,并在欠费的第2天、第4天、第6天各发送1次欠费提醒。 (2)提醒及通知方式:以邮件和短信方式告知用户,请及时关注您的短信及邮件。
        来自:
        帮助文档
        分布式缓存服务Redis版
        计费说明
        专属云计费说明
        计费模式
      • 如何让接入ER的两个连接之间互相学习路由
        本章节向您介绍如何让接入ER的两个连接之间互相学习路由 如果您需要接入ER的两个连接之间互相学习路由,那么需要ER和其他两个连接之间构成EBGP组网,即ER、连接A、连接B的AS号均不能相同,这样ER会将学习到的连接A的路由信息发布给连接B。比如: 将“虚拟网关(VGW)”连接和“VPN网关(VPN)”连接同时接入ER中,为了实现两个连接之间互相学习路由,那么ER和两个连接的AS号均不能相同,规划示例如下: ER:“ASN”为64512。 “虚拟网关(VGW)”连接:虚拟网关的“BGP ASN”为64513。 “VPN网关(VPN)”连接:VPN网关的“BGP ASN”为64515。 说明 当前“虚拟私有云(VPC)”连接不支持路由学习,其他类型的连接均支持路由学习。
        来自:
        帮助文档
        企业路由器
        常见问题
        如何让接入ER的两个连接之间互相学习路由
      • IP被DDoS封堵后如何恢复业务?
        本小节介绍DDoS封禁后如何恢复业务。 IP被DDoS封堵后如何恢复业务? IP 被 DDoS 封堵后,可等待封堵时长到期自动解封,也可通过以下两种方式主动恢复业务,其中购买配置 DDoS 高防并更换 EIP 为推荐方案,仅更换 EIP 存在较大安全风险,不建议使用。 一、购买配置 DDoS 高防并更换 EIP(推荐) DDoS 基础防护的封堵仅支持两种解除方式:等待封堵时间自动到期;或购买配置 DDoS 高防产品后,通过天翼云工单系统申请提前解封。 您可选择天翼云或其他第三方DDoS高防产品防护自身在天翼云的业务IP免受DDoS攻击,以天翼云举例,如天翼云“DDoS高防IP”、天翼云“DDoS高防(边缘云版)”等。这类产品可提供业务 IP 隐藏、大流量攻击清洗、攻击源分析等能力。业务 IP 接入高防防护后,由高防 IP 替代其暴露在公网,攻击者仅能对高防 IP 发起攻击;攻击流量经高防节点清洗后,正常流量回注至业务 IP,不会超出DDoS防护阈值,可避免触发基础防护封堵。 同时请注意:若业务IP历史存在攻击,可能已被攻击者获知,即使配置DDoS高防,攻击者有可能绕过高防IP对业务IP直接发起攻击,若攻击流量过大,仍会超过DDoS防护阈值,触发封禁,因此建议在配置高防的同时,同步更换业务IP并限制仅能被高防IP访问,实现业务IP隐藏。具体购买和配置请咨询DDoS高防产品对应产品厂商。 完成防护配置后即可提交工单申请提前解封。 二、仅更换 EIP(不推荐) 购买新的公网 IP,或使用账号下未被封堵的公网 IP; 将原封禁 EIP 绑定的云资源切换绑定至新公网 IP,即可恢复业务访问。 注意 仅更换 IP 无法从根源抵御 DDoS 攻击,新 IP 仍可能再次遭到攻击。若同一账号下资源频繁触发 DDoS 封堵,持续冲击平台网络稳定性,天翼云有权依据服务协议对账号采取权限限制,包括但不限于暂停新购资源权限等处置措施。
        来自:
        帮助文档
        DDoS基础防护
        常见问题
        公网IP封堵解封类相关问题
        IP被DDoS封堵后如何恢复业务?
      • 创建桶
        参数 说明 地域 桶所在的地域。存储桶一旦创建成功,地域不能修改。 bucket名称 桶的名称,注意以下命名规则: 不能与已有的任何桶名称重复。 创建成功后不支持修改。 长度范围为3到63个字符,支持小写字母、数字、中划线()。 禁止以中划线()开头或结尾。 存储类型 桶的存储类型,可选标准存储/低频存储/归档存储。部分资源池暂不支持低频或归档存储。 读写权限 桶的读写权限控制。 私有:仅桶的拥有者和授权用户可进行读写操作。 公共读:公共读权限下所有用户均拥有该桶的读权限,为确保您的数据安全,不推荐此配置。 数据冗余策略 单AZ存储:选择单AZ,数据会存储在一个可用区。单AZ存储支持标准存储、低频存储、归档存储三种存储类型。 多AZ存储:选择多AZ存储,数据会存储在同一地域的多个可用区中,可用性更高。多AZ采用相对较高的计费标准。多AZ存储仅支持标准或低频存储类型。 请根据业务情况提前规划数据冗余存储策略,桶一旦创建成功,数据冗余存储策略后续无法更改。 企业项目 企业项目是一种云资源管理方式,企业项目管理服务将统一的云资源按项目管理。 为桶选择所属的企业项目,从而将桶与企业项目进行关联。在选择“企业项目”的下拉列表中,将显示用户在企业项目服务中已创建的项目。 系统还内置了一个缺省的企业项目“default”,如果用户没有为桶创建企业项目,将使用缺省项目“default”。您也可参考 服务端加密 开启KMS服务端加密功能,上传的对象将以加密的方式存储在ZOS中。 下载对象时,ZOS会自动将加密文件解密后再提供给用户。 合规保留 开启合规保留后,允许用户以“不可删除、不可篡改”方式保存和使用数据。 是否编辑桶标签 为指定存储桶设置标签,用来标记不同用途的存储桶并进行分类管理。
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        入门操作
        创建桶
      • 准备实例依赖资源
        本章节介绍了所依赖的资源及创建指导。 概述 在购买RocketMQ实例前,您需要提前准备相关依赖资源,包括虚拟私有云(Virtual Private Cloud,以下简称VPC)、子网和安全组,并配置安全组策略。每个RocketMQ实例都部署在某个VPC中,并绑定具体的子网和安全组,通过这样的方式为RocketMQ提供一个隔离的、用户自主配置和管理的虚拟网络环境以及安全保护策略,提升实例的安全性。 准备依赖资源 RocketMQ实例所需资源的具体要求和创建指导如表1所示。 表1 RocketMQ实例依赖资源 准备资源 要求 创建指导 VPC和子网 不同的RocketMQ实例可以重复使用相同的VPC和子网,也可以使用不同的VPC和子网,请根据实际需要进行配置。在创建VPC和子网时应注意如下要求:·创建的VPC与使用的分布式消息服务RocketMQ应在相同的区域。·创建VPC和子网时,如无特殊需求,配置参数使用默认配置即可。 创建VPC和子网的操作指导请参考创建虚拟私有云和子网,若需要在已有VPC上创建和使用新的子网,请参考为虚拟私有云创建新的子网。 安全组 不同的RocketMQ实例可以重复使用相同的安全组,也可以使用不同的安全组,请根据实际需要进行配置。在创建安全组时应注意如下要求:·创建安全组时,“模板”选择“自定义”。·创建安全组后,请保留系统默认添加的入方向“允许安全组内的弹性云服务器彼此通信”规则和出方向“放通全部流量”规则。·使用分布式消息服务RocketMQ必须添加表2所示安全组规则,其他规则请根据实际需要添加。 创建安全组的操作指导请参考创建安全组,为安全组添加规则的操作指导请参考添加安全组规则。 表2 安全组规则 方向 协议 端口 源地址 说明 入方向 TCP 8100 0.0.0.0/0 VPC内访问元数据节点的端口 入方向 TCP 8200 0.0.0.0/0 公网访问元数据节点的端口 入方向 TCP 1010010199 0.0.0.0/0 访问业务节点的端口
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        准备实例依赖资源
      • 数据库命令授权
        本章节为您介绍数据库授权的相关内容。 数据库命令授权是用于拦截数据库会话敏感操作,实现数据库运维操作的细粒度控制。授权用户登录策略关联的数据库资源,当数据库运维会话触发规则,将会拦截数据库会话操作。 数据库命令授权支持以下功能项: 支持按命令组列表排序区分优先级,排序数字越小优先级越高。 支持以下控制命令的动作。 触发审批:拦截该命令,并自动创建为审批工单。支持审批超时配置,超时xx分钟默认允许或默认拒绝。 断开连接:触发该策略规则后,断开与数据库的连接。 允许执行:默认允许执行所有操作。当触发策略规则后,放行规则集中操作。 约束限制 仅企业版堡垒机支持数据库运维操作审计。 仅针对MySQL、Oracle、Postgresql类型数据库,支持通过数据库命令授权设置操作细粒度控制。 新增命令组 您在新增数据库命令授权前需要进行新增命令组的操作。 1. 使用“管理角色”账户登录云堡垒机系统。 2. 在左侧导航栏选择“授权管理 > 数据库命令授权”,进入“数据库命令授权”页面。 3. 在页面上面选择“命令组”页签,单击“新增”,开始新增命令组。 参数 参数说明 名称 自定义命令组的名称。 动作 选择该命令组中的命令触发时产生的动作: 触发审批:拦截该命令,并自动创建为审批工单。支持审批超时配置,超时xx分钟默认允许或默认拒绝。 说明 对于包含“触发审批”动作的命令组,需要当前选择的用户(组)具有审批规则,否则无法配置“触发审批”动作,请先前往工单管理配置审核人。 断开连接:触发该策略规则后,断开与数据库的连接。 允许执行:默认允许执行所有操作。当触发策略规则后,放行规则集中操作。 SQL命令类型 根据您业务的需求,选择需要进行控制的命令,云堡垒机目前支持选择如下命令: SELECT、INSERT、UPDATE、DELETE、TRUNCATE、CREATE、DROP、ALTER、GRANT、REVOKE、SHOW、DESCRIBE、EXPLAIN、RENAME。 SQL库名 填写命令生效的SQL库名。 SQL表名 填写命令生效的SQL表名。 风险等级 选择该命令组的风险等级,共可选5个等级。 说明 命令匹配上多条策略时,动作执行优先级:触发审批 > 断开连接 > 允许执行,若未匹配上任何策略则放行。
        来自:
        帮助文档
        云堡垒机(原生版)
        用户指南
        管理员手册
        授权管理
        数据库命令授权
      • 产品功能
        本节介绍了DDoS高防(边缘云版)的主要产品功能。 DDoS高防(边缘云版)的功能说明如下,适用于所有套餐。 功能分类 功能项 功能描述 防护功能 DDoS网络层防护 支持TCP、UDP、ICMP网络协议防护,如SYN Flood ,ACK Flood,空连接等。 防护功能 畸形报文防护 支持对Ping of Death、Tear Drop、LAND、Fraggle等畸形报文进行过滤,判断报文合法性,丢弃异常请求。 防护功能 CC防护 CC防护根据访问者的URL,频率,行为等访问特征,智能识别CC攻击,避免源站资源耗尽,保证企业网站的正常访问。 防护功能 访问控制 可针对IP,IP段,IP端口,URI,METHOD,请求地区,请求参数,请求头部,请求协议等维度进行组合,设置白名单和黑名单,对请求进行拦截和放行,保证客户网站不受未知访问。 防护功能 频率控制 支持针对特定报文(十余种粒度组合),选择URL、ARGS、Header、Cookie、UA、IP其中一个或两个粒度进行频率统计,并设置对应的处理动作,以对高频请求进行控制。 告警策略 应用层CC告警 支持自定义CC攻击告警策略,对持续时长、QPS峰值、攻击次数进行监控和告警。 告警策略 网络层告警 支持自定义网络层攻击告警策略,对持续时长、pps峰值、bps峰值进行监控和告警。 告警策略 告警勿扰时间 支持设置勿扰时间,在特定时间内不进行告警。 业务接入 域名接入 支持HTTP、HTTPS、HTTP2协议的域名进行自助接入配置。 支持自定义回源HTTP请求头。 支持多个源站或域名回源,并对源站设置层级和权重。 支持指定回源协议或配置跟随协议。 支持请求强制跳转,即将请求的HTTP强制302跳转至HTTPS进行请求。 业务接入 端口接入 支持UDP、TCP协议协议的域名进行自助接入配置。 支持配置转发端口或转发端口段。 支持多个源站或域名回源。 安全分析 安全报表 支持查看CC安全报表、网络层安全报表,通过攻击趋势、攻击源TOP分析、攻击目标TOP分析等,掌握攻击态势。 安全分析 攻击事件 支持查看、导出CC攻击事件、网络层攻击事件。 业务分析 日志下载 支持下载业务请求全量日志,以对业务情况进行深入分析,为攻击排查,业务决策提供输入信息。 业务分析 业务用量 支持查看流量、带宽、请求次数、QPS、连接数、并发连接数、响应状态码的趋势,以掌握业务运行情况。
        来自:
        帮助文档
        DDoS高防(边缘云版)
        产品介绍
        产品功能
      • 恢复实例到指定时间点
        本节介绍了如何恢复云数据库GaussDB 实例到指定时间点。 操作场景 云数据库GaussDB 支持使用已有的自动备份,恢复实例数据到指定时间点。 注意事项 恢复到任意时间点仅支持2.1版本以上实例。 节点扩容,版本升级,恢复自身期间,对应时间点无法恢复。 实例故障,发生CN剔除等场景无法产生归档日志,对应时间点无法恢复。 如果您要将数据库备份恢复到新实例: − 数据库引擎、数据库大版本,与原实例相同,不可修改。 − 数据库密码需重新设置。 恢复到当前实例会将当前实例上的数据全部覆盖,并且恢复过程中数据库不可用,且立即停止归档。恢复完成后会出现数据确认按钮,在单击数据确认前,可多次进行恢复。数据确认后会删除本次恢复时间点后的归档日志,并重新开启日志归档。 删除实例会默认删除所有归档日志,不支持选择保留。重建后不支持恢复任意时间点。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在“实例管理”页面,选择指定的实例,单击实例名称。 步骤 3 在左侧导航栏中选择“备份恢复”页签,单击“恢复到指定时间点”。 步骤 4 单击“确定”,恢复实例。 说明 如果打开并行恢复功能,那么恢复过程中,所有主、备副本会同时从OBS服务器下载备份数据,与默认的串行恢复相比,OBS带宽消耗量增加到N倍(N等于每个分片的副本个数)。因此,为了防止OBS带宽达到上限导致恢复速度反而下降的情况,当待恢复集群的分片个数大于5个时,建议先咨询运维当前OBS服务器空闲带宽,然后再决定是否开启并行恢复功能。 数据库内核版本小于1.4时,不支持开启并行恢复。 恢复到新实例: − 数据库大版本与原实例相同。例如:1.4.x的实例仅可以恢复到1.4.y版本的实例。 − 存储空间大小默认和备份时实例磁盘空间相同,且必须大于或等于备份时实例存储空间大小。 − 数据库密码需重新设置。 − 新实例的规格默认和原实例相同,如果需要修改规格,新实例的规格必须大于或等于原实例的规格。 − 新实例的节点配置需要与备份时保持一致。 步骤 5 查看恢复结果。 恢复到新实例 为用户重新创建一个和该备份数据相同的实例。可看到实例由“创建中”变为“正常”,说明恢复成功。 恢复成功的新实例是一个独立的实例,与原有实例没有关联。
        来自:
        帮助文档
        云数据库GaussDB
        用户指南
        数据恢复
        恢复实例到指定时间点
      • 客户端上传私有镜像
        本文介绍如何客户端上传私有镜像。 创建好仓库后,用户需要向仓库上传本地镜像,镜像通过客户端进行上传。客户端上传指的是用户在本地环境使用docker命令将镜像上传到容器镜像服务的镜像仓库。本章节将以nginx:1.10镜像为例,介绍如何通过客户端上传私有镜像。 操作前提 用户本地环境已安装Docker客户端,并确定Docker服务已启动; 确保本地网络环境良好,且可访问公网; 请确保镜像的正确性,能够成功后台启动; 已创建名为nginx的容器镜像仓库,操作过程请参见创建容器镜像仓库 。 操作步骤 1.登录云容器引擎控制台,单击左侧导航栏的【镜像仓库】,进入仓库列表界面; 2.单击仓库名称,可进入仓库详情页,点击右上角【上传镜像】,页面将展示镜像上传步骤; 以下将根据页面提示步骤,详细的说明客户端上传镜像到镜像仓库的操作流程: 3.登录镜像仓库服务器; 1)获取登陆指令及用户名密码:点击【上传镜像】后,从提示页面中可获取镜像登录指令及用户名密码,用户名可直接获取,密码可需要点击查看密码获取; 2)登陆仓库:打开用户本地环境,在命令行内输入步骤1)中获得的指令,当页面出现successful的关键词提示,即表明仓库已登陆成功; 4.标记镜像; 1)使用命令获得本地镜像名称或镜像ID:docker images 2)标记镜像:我们以nginx镜像为例,本次需要为nginx镜像打上仓库tag,提示面板中步骤2的提示,我们完成命令填写后,在命令行中使用以下命令: docker tag {镜像ID} cceregistry.ctyun.cn:443/{仓库名}/{镜像名}:{标签名} docker tag nginx cceregistry.ctyun.cn:443/nginx/nginx:1.10 其中,第一个nginx为仓库名,第二个nginx为镜像名,1.10为版本号。 5.推送镜像至镜像仓库; 根据提示面板中步骤3提示的push命令,我们完成命令填写后,在命令行中使用以下命令,将打好tag的镜像上传到对应仓库中: docker push cceregistry.ctyun.cn:443/nginx/nginx:1.10 终端显示如下信息,表明 push 镜像成功。 6d6b9812c8ae: Pushed 695da0025de6: Pushed fe4c16cbf7a4: Pushed 1.10: digest: sha256:eb7e3bbd8e3040efa71d9c2cacfa12a8e39c6b2ccd15eac12bdc49e0b66cee63 size: 948 6.返回云容器引擎平台,依次点击【镜像仓库】>【仓库名称】,进入镜像列表页面,可查看到上传的镜像信息,至此用户已完成镜像上传功能,可进行镜像管理及应用部署等操作。
        来自:
        帮助文档
        云容器引擎(旧版)
        用户指南
        镜像仓库
        客户端上传私有镜像
      • 迁移集群
        本章节主要介绍云搜索服务如何迁移集群。 将一个集群的数据迁移到另一个集群,我们称之为集群迁移。集群迁移的应用场景很多,如当业务数据不断增加时,无法直接修改当前集群的规格以便满足需求时,可以选择创建一个规格较高的集群,然后通过集群迁移的操作,快速将数据全部迁移至新集群中,以满足业务需求。另一个场景,如通过集群迁移可将两个集群的索引合并到一个集群中,以满足业务的需要。在云搜索服务中,通过备份与恢复索引功能可实现集群迁移,即将一个集群的快照恢复到另一个集群。 迁移条件 原集群和目标集群在同一个region下。 目标集群的版本等于或高于原集群。 目标集群节点数要大于原集群节点数的一半。 迁移建议 目标集群的节点数不少于原集群的shard副本数。 目标集群的CPU、MEM和Disk配置大于等于原集群,使迁移后业务受损最小化。 本文以将集群“Es1”中的数据迁移到集群“Es2”为例。其中“Es2”集群的版本高于“Es1”集群,且节点数要高于“Es1”节点数的1/2。 操作步骤 1.在集群管理界面中,单击集群名称“Es1”进入集群“基本信息”页面。然后,选择“集群快照”页签。 2.单击“创建快照”手动创建快照,在弹出框中输入快照名称并单击“提交”,等待快照创建完成。 首次使用备份与恢复索引功能,需要先进行基础配置,详见请参见备份与恢复索引中的手动创建快照。 详见下图: 创建快照 快照创建完成后,如下图所示。 3.在快照管理页面,单击该快照操作列的“恢复”按钮,将数据恢复至Es2集群。 在“索引”的文本框中输入“”,表示对集群“Es1”的全部索引进行恢复。 在“集群”的下拉框中选择“Es2”,将该快照恢复到集群“Es2”中。 最后单击“确定”按钮开始恢复。当然还可以进行对恢复之后的索引重命名等操作,详情请参见备份与恢复索引。 详见下图: 恢复数据 4.恢复完成后,即完成了集群“Es1”中的数据到集群“Es2”的迁移。
        来自:
        帮助文档
        云搜索服务
        用户指南
        使用Elasticsearch搜索数据
        管理Elasticsearch类型集群
        迁移集群
      • 简繁体转换插件
        默认情况下云搜索服务安装了简繁体转换插件,用户无需自行安装。简繁体转换插件是一款可以使中文简体和中文繁体相互转换的插件。通过该插件的转换,用户可以使用中文繁体关键字搜索出包含对应中文简体的索引数据,也可以使用中文简体关键字搜索出包含对应中文繁体的索引数据。 简繁体转换插件通常可以当做analyzer、tokenizer、tokenfilter或charfilter来使用。 简繁体转换插件的转换类型包含如下两种: s2t:将中文简体转换为中文繁体。 t2s:将中文繁体转换为中文简体。 示例指导 1. 登录云搜索服务管理控制台。 2. 在左侧导航栏中,选择“集群管理”,进入集群列表页面。 3. 在集群列表中,单击需要使用的集群对应“操作”列的“Kibana”。 如果开启了安全模式,需要输入创建集群时设置的用户名和密码。 4. 在Kibana的左侧导航中选择“Dev Tools”,单击“Get to work”,进入Console界面。 5. 在Console界面,执行如下命令,创建索引“stconvert”,并指定自定义映射来定义数据类型。 7.x之前版本 PUT /stconvert { "settings": { "numberofshards": 1, "numberofreplicas": 0, "analysis": { "analyzer": { "tsik": { "tokenizer": "iksmart", "charfilter": [ "tsconvert", "stconvert" ] } }, "charfilter": { "tsconvert": { "type": "stconvert", "converttype": "t2s" }, "stconvert": { "type": "stconvert", "converttype": "s2t" } } } }, "mappings": { "type": { "properties": { "desc": { "type": "text", "analyzer": "tsik" } } } } } 7.x之后版本 PUT /stconvert { "settings": { "numberofshards": 1, "numberofreplicas": 0, "analysis": { "analyzer": { "tsik": { "tokenizer": "iksmart", "charfilter": [ "tsconvert", "stconvert" ] } }, "charfilter": { "tsconvert": { "type": "stconvert", "converttype": "t2s" }, "stconvert": { "type": "stconvert", "converttype": "s2t" } } } }, "mappings": { "properties": { "desc": { "type": "text", "analyzer": "tsik" } } } } 返回结果如下所示。 { "acknowledged" : true, "shardsacknowledged" : true, "index" : "stconvert" } 6. 在Console界面,执行如下命令,导入数据到“stconvert”索引中。 7.x之前版本 POST /stconvert/type/1 { "desc": "國際電視臺" } 7.x之后版本 POST /stconvert/doc/1 { "desc": "國際電視臺" } 当返回结果信息中“failed”字段的值为“0”时,表示数据导入成功。 7. 在Console界面,执行如下命令,搜索关键字“国际”,并查看搜索结果。 GET /stconvert/search { "query": { "match": { "desc": "国际" } } } 搜索结果如下所示。 { "took" : 15, "timedout" : false, "shards" : { "total" : 1, "successful" : 1, "skipped" : 0, "failed" : 0 }, "hits" : { "total" : 1, "maxscore" : 0.5753642, "hits" : [ { "index" : "stconvert", "type" : "type", "id" : "1", "score" : 0.5753642, "source" : { "desc" : "國際電視臺" } } ] } }
        来自:
        帮助文档
        云搜索服务
        用户指南
        使用Elasticsearch搜索数据
        简繁体转换插件
      • 解绑弹性IP
        本文帮助您快速熟悉弹性IP解绑的操作方法。 操作场景 当虚拟IP不需要访问公网服务的时候,可以解除虚拟IP与弹性IP的绑定关系。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 您已经完成VPC、子网的创建。 您已完成虚拟IP与弹性IP的绑定。 操作步骤 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,本文我们选择广东广州6。 3. 依次选择“网络”,单击“虚拟私有云”;进入网络控制台页面。 4. 在左侧导航栏,选择“子网”选项,点击虚拟IP所在的子网。 5. 进入子网详情界面,点击“虚拟IP”页签,在需要解绑弹性IP的虚拟IP地址所在行的操作列下,单击“解绑弹性IP”。 6. 在弹窗中选择需要解绑的弹性IP地址。 7. 单击“确定”。
        来自:
        帮助文档
        虚拟私有云 VPC
        虚拟IP
        解绑弹性IP
      • 访问资产提示“登录设备失败,设备账号或密码错误”,怎么解决?
        此小节介绍访问资产提示“登录设备失败,设备账号或密码错误”的处理方法。 访问资产提示“登录设备失败,设备账号或密码错误”,如果使用托管的账号密码,则需联系资产管理员,确认托管的账号和密码是否正确。 资产管理员需要将正确的资产账号和密码重新添加到资产,运维用户才能正常登录设备运维。 操作步骤 1、管理员登录云堡垒机实例控制台,访问角色切换为管理角色。 2、进入 资产管理>资产 页面,按资产IP或资产名搜索需要修改资产账号密码的资产。 3、点击资产数据操作栏【编辑】,在账号项选择需要修改的资产账号点击【编辑】。 4、进入 资产管理>资产账号 页面,选择需要修改的资产账号点击【编辑】。 5、更新资产账号、密码及应用的协议。
        来自:
        帮助文档
        云堡垒机(原生版)
        常见问题
        操作类
        访问资产提示“登录设备失败,设备账号或密码错误”,怎么解决?
      • 重置节点
        参数 参数说明 系统盘 直接使用云服务器的系统盘。 数据盘 至少需要一块数据盘 ,供容器运行时和Kubelet组件使用,该数据盘不能被删除卸载,否则会导致节点不可用。 单击后方的“展开高级设置”可设置自定义空间分配:勾选后可定义容器运行时在数据盘上占用的空间比例,容器运行时的空间用于存放容器运行时工作目录、容器镜像数据以及镜像元数据。数据盘空间分配详细说明请参见 其他数据盘 默认情况直接创建为裸盘,不做任何处理。您也可以展开高级配置,将磁盘挂载到指定目录。另外还可以作为持久存储卷或临时存储卷,具体使用请参见
        来自:
        帮助文档
        云容器引擎
        用户指南
        节点管理
        重置节点
      • 批量绑定域名
        本文将介绍证书如何批量绑定域名。 使用场景 当您需要更新证书时,如果涉及到大量域名需要绑定证书,可以通过批量绑定域名进行快捷操作。 配置说明 证书批量绑定域名具体操作步骤如下: 1. 登录DDoS高防(边缘云版)控制台。 2. 在【证书管理】页面,找到您需要操作的证书,通过操作列>单击【绑定域名】按钮。 3. 见下图,左侧列表展示此证书可绑定的域名,证书不匹配、已停用的域名不展示。 4. 选择您要绑定该证书的域名,域名将会出现在右侧,每次最多支持绑定10个域名。 5. 选择完毕后,单击【提交绑定】,将提交证书绑定域名的任务。 注意事项 关联域名后,已选择的域名将自动开启https开关,且绑定该证书。 证书绑定域名生效时间大概需要5~15分钟,您可以稍后在证书详情查看绑定域名情况。
        来自:
        帮助文档
        DDoS高防(边缘云版)
        用户指南
        证书管理
        批量绑定域名
      • 计算型
        规格名称 CPU 内存(GB) 处理器 处理器主频(GHz) 本地磁盘 内网带宽(Gbps) 是否支持挂载云硬盘 physical.s5.2xlarge1 2路28核 512 Intel 6348 2.6 无 25 支持 physical.s5.2xlarge4 2路28核 512 Intel 6348 2.6 系统盘:2480GB(SSD)数据盘:2 3200GB(NVMeSSD) 50 不支持 physical.s5.2xlarge5 2路32核 512 Intel 8378A 3.0 系统盘:2480GB(SSD)数据盘:2 3200GB(NVMeSSD) 50 不支持 physical.s6.2xlarge1.2 2路52核 1024 Intel 8566C 2.6 系统盘:2480GB(SSD)数据盘:2 3200GB(NVMeSSD) 100 不支持 physical.s6a.3xlarge1 2路64核 1536 AMD EPYC 9A84 3.4 系统盘:2480GB(SSD)数据盘:2 3840GB(NVMeSSD) 225 不支持
        来自:
        帮助文档
        物理机 DPS
        产品规格
        计算型
      • 将MySQL同步到MySQL
        操作步骤 本小节以RDS for MySQL>MySQL的出云实时同步为示例,介绍如何使用数据复制服务创建两个数据库实例之间的实时同步任务。 步骤 1 在“实时同步管理”页面,单击“创建同步任务”。 步骤 2 在“同步实例”页面,填选任务名称、描述、同步实例信息,单击“下一步”。 表 任务和描述 参数 描述 :: 任务名称 任务名称在450位之间,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 表 同步实例信息 参数 描述 :: 数据流动方向 选择“出云”,即源端数据库为本云数据库。 源数据库引擎 选择“MySQL”。 目标数据库引擎 选择“MySQL”。 网络类型 此处以公网网络为示例。 可根据业务场景选择公网网络、VPC网络和VPN、专线网络。 源数据库实例 用户所创建的关系型数据库实例。 同步实例所在子网 请选择同步实例所在的子网。也可以单击“查看子网”,跳转至“网络控制台”查看实例所在子网帮助选择。 默认值为当前所选数据库实例所在子网,请选择有可用IP地址的子网。为确保同步实例创建成功,仅显示已经开启DHCP的子网。 IP类型 选择迁移实例的IP类型,目前支持选择“IPv4”或“IPv4&IPv6双栈”。只有所选择的VPC及子网都开启了IPv6双栈功能,才能选择IP类型为“IPv4&IPv6双栈”。 同步类型 此处以“全量+增量”为示例。 “全量+增量”:该模式为数据持续性实时同步,通过全量过程完成目标端数据库的初始化后,增量同步阶段通过解析日志等技术,将源端和目标端数据保持数据持续一致。 说明 选择“全量+增量”同步模式,增量同步可以在全量同步完成的基础上实现数据的持续同步,无需中断业务,实现同步过程中源业务和数据库继续对外提供访问。 “增量”:增量同步通过解析日志等技术,将源端产生的增量数据同步至目标端。 标签 可选配置,对同步任务的标识。使用标签可方便管理您的任务。每个任务最多支持10个标签配额。 任务创建成功后,您可以单击任务名称,在“标签”页签下查看对应标签。关于标签的详细操作,请参见 标签管理。 步骤 3 同步实例创建成功后,在“源库及目标库”页面,填选源库信息和目标库信息后,单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 表 源库信息 参数 描述 :: 数据库实例名称 默认为创建同步任务时选择的关系型数据库实例,不可进行修改。 数据库用户名 源数据库对应的用户名。 数据库密码 源数据库用户名对应的密码。 说明 源数据库用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 表 目标库信息 参数 描述 :: IP地址或域名 目标数据库的IP地址或域名。 端口 目标数据库服务端口,可输入范围为1~65535间的整数。 数据库用户名 目标数据库的用户名。 数据库密码 目标数据库用户名所对应的密码。 SSL安全连接 通过该功能,用户可以选择是否开启对同步链路的加密。如果开启该功能,需要用户上传SSL CA根证书。 说明 最大支持上传500KB的证书文件。 如果不使用SSL证书,请自行承担数据安全风险。 说明 目标数据库IP地址、端口、用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 步骤 4 在“设置同步”页面,选择数据冲突策略和同步对象,单击“下一步”。 表 同步模式和对象 参数 描述 :: 流速模式 流速模式支持限速和不限速,默认为不限速。 限速 自定义的最大同步速度,全量同步过程中的同步速度将不会超过该速度。 当流速模式选择了“限速”时,你需要通过流速设置来定时控制同步速度。流速设置通常包括限速时间段和流速大小的设置。默认的限速时间段为全天限流,您也可以根据业务需求自定义时段限流。自定义的时段限流支持最多设置3个定时任务,每个定时任务之间不能存在交叉的时间段,未设定在限速时间段的时间默认为不限速。 流速的大小需要根据业务场景来设置,不能超过9999MB/s。 不限速 对同步速度不进行限制,通常会最大化使用源数据库的出口带宽。该流速模式同时会对源数据库造成读消耗,消耗取决于源数据库的出口带宽。比如源数据库的出口带宽为100MB/s,假设高速模式使用了80%带宽,则同步对源数据库将造成80MB/s的读操作IO消耗。 说明 限速模式只对全量阶段生效,增量阶段不生效。 您也可以在创建任务后修改流速模式。具体方法请参见 修改流速模式。 增量阶段冲突策略 该冲突策略特指增量同步中的冲突处理策略,全量阶段的冲突默认忽略。冲突策略目前支持如下三种形式: 忽略 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将跳过冲突数据,继续进行后续同步。 报错 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),同步任务将失败并立即中止。 覆盖 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将覆盖原来的冲突数据。 当数据发生冲突时,针对如下情况,建议选择“忽略”或者“覆盖”,否则建议选择“报错”: 目标数据库存在数据 多对一同步场景 目标数据库手动更新数据 是否过滤DROP DATABASE 实时同步过程中,源数据库端执行的DDL操作在一定程度上会影响数据的同步能力,为了降低同步数据的风险,数据复制服务提供了过滤DDL操作的功能,目前支持默认过滤删除数据库的操作。 是,表示过程中不会同步用户在源数据库端执行的删除数据库的操作。 否,则表示过程中将相关操作同步到目标库。 对象同步范围 对象同步范围支持普通索引和增量DDL同步。您可以根据业务需求选择是否进行同步。 数据同步拓扑 数据同步功能支持多种同步拓扑,您可以根据业务需求规划您的同步实例。数据同步拓扑说明可参考 数据同步拓扑介绍。 增量支持DDL 用户根据需求选择增量同步的DDL类型,不同链路支持的DDL类型以显示为准。 一对一、一对多场景:如果业务上认为源和目标应该使用保持严格一致,那么高危类DDL也应该勾选并同步。如果业务上确定某个高危DDL不应该发生,则可以不勾选同步高危类DDL,这样DRS将拦截过滤这个DDL,从而起到保护目标数据的作用。但需要知晓,过滤DDL的附带问题是可能导致同步失败,例如过滤删列动作。 多对一数据聚合场景:最佳方式是推荐只选择同步加列DDL,其他大部分DDL同步都可能因目标表修改而导致数据不一致或多对一中其他任务失败的情况发生。 同步对象 可选表级同步、库级同步,您可以根据业务场景选择对应的数据进行同步。 选择数据的时候支持搜索,以便您快速选择需要的数据库对象。 如果有切换源数据库的操作,请在选择同步对象前单击右上角的 ,以确保待选择的对象为最新源数据库对象。 在同步对象右侧已选对象框中,可以使用对象名映射功能进行源数据库和目标数据库中的同步对象映射,具体操作可参考对象名映射。 步骤 5 在“数据加工”页面,根据需要选择数据加工的方式。 如果不需要数据加工,单击“下一步”。 如果需要数据加工,可选择“数据过滤”、“附加列”或“列加工”,参考 数据加工章节,设置相关规则。 步骤 6 在“预检查”页面,进行同步任务预校验,校验是否可进行。 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行任务预校验。 预检查完成后,且所有检查项结果均通过时,单击“下一步”。 说明 所有检查项结果均通过时,若存在请确认项,需要阅读并确认详情后才可以继续执行下一步操作。 步骤 7 在“任务确认”页面,设置同步任务的启动时间,并确认同步任务信息无误后,单击“启动任务”,提交同步任务。 表 任务启动设置 参数 描述 :: 启动时间 同步任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”。 说明 预计同步任务启动后,会对源数据库和目标数据库的性能产生影响,建议选择业务低峰期,合理设置同步任务的启动时间。 步骤 8 同步任务提交后,您可在“管理”页面,查看并管理自己的任务。 您可查看任务提交后的状态,状态请参见 任务状态说明。 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        出云
        将MySQL同步到MySQL
      • Elasticsearch迁移至OpenSearch的排查清单及迁移方案
        注意事项 客户原有 XPack 相关功能(如 Watcher、ML、RBAC、License 校验等)需替换为OpenSearch插件或重写业务逻辑。 Kibana的仪表盘、图表迁移需适配OpenSearch Dashboards(部分图表可能不兼容)。 是否安装第三方插件,以及插件的不同版本功能使用上是否存在差异。 API兼容性与客户端适配 SDK需要使用OpenSearch官方提供的SDK。不过OpenSearch也兼容Elasticsearch的Java HighLevel Rest Client,只需要修改少量的代码(具体可以参考《Elasticsearch与OpenSearch的Java Client代码差异》章节)。 注意事项 建议更换为OpenSearch官方SDK。 如用Elasticsearch 8.x SDK,需回退使用兼容 Elasticsearch 7.10 的版本(否则会因header校验失败)。 安全配置差异 安全能力 Elasticsearch(XPack) OpenSearch2.19.1 用户认证 基于License的角色控制 内置OpenSearch Security插件 多租户隔离 XPack支持Spaces OpenSearchDashboards 支持 Multitenancy 注意事项 需重新配置: 用户角色映射 (roles.yml, tenants.yml); Dashboards多租户视图; API Token/LDAP/SAML集成方式。 访问控制策略语法和行为有区别,尤其是fieldlevel和documentlevel安全控制。 迁移与数据恢复 常见迁移方式包括 1. 使用快照迁移 优点:简洁、可靠;可保留索引、映射、分片结构和设置。 适用场景:客户使用的ES 版本 ≤ 7.10.2,数据量较大,迁移时可接受短暂停机或只读窗口。 限制/注意事项:ES 8.x 快照不可恢复至 OpenSearch。 2. 使用Logstash迁移 优点:支持数据加工/转换,迁移时可进行字段清洗、格式转换。 适用场景:想要“边迁移边清洗”,或者只迁移部分数据字段;或ES源版本较新(7.11+) 限制/注意事项:需部署Logstash,性能较低,不保留原mapping设置;需要重建索引结构。 3. Reindex from Remote 优点:操作简单、无需额外工具,实时迁移部分数据或索引。 适用场景:只需迁移部分索引、文档数量不大、源ES支持reindexremote。 限制/注意事项:源和目标集群需网络可通;不能迁移mapping和setting,需手动创建索引结构;不支持向量数据迁移。 4. 逐节点原地迁移(InPlace Rolling Upgrade) 优点:无需拷贝数据,保留分片布局、设置、集群UUID,最完整地保留原集群状态。 适用场景:客户源ES为OSS版本且版本号≤7.10.2,不想重建集群或数据迁移成本较高。 限制/注意事项:源集群和目标集群必须是兼容版本(≤7.10.2);需停掉每个节点依次切换为OpenSearch,较复杂;不支持ES 8.x。 额外限制:目前天翼云云搜索服务为全托管服务,不支持自助逐节点原地迁移。客户可以通过这种方式将数据先迁移到天翼云云主机,然后再逐步迁移到天翼云云搜索服务。
        来自:
        帮助文档
        云搜索服务
        最佳实践
        迁移集群
        Elasticsearch迁移至OpenSearch的排查清单及迁移方案
      • 设置容器健康检查
        检查方式 HTTP 请求检查 HTTP 请求方式针对的是提供HTTP/HTTPS服务的容器,集群周期性地对该容器发起HTTP/HTTPS GET请求,如果HTTP/HTTPS response返回码属于200~399范围,则证明探测成功,否则探测失败。使用HTTP请求探测必须指定容器监听的端口和HTTP/HTTPS的请求路径。 例如:提供HTTP服务的容器,HTTP检查路径为:/healthcheck;端口为:80;主机地址可不填,默认为容器实例IP,此处以172.16.0.186为例。那么集群会周期性地对容器发起如下请求:GET 图 HTTP请求检查 TCP 端口检查 对于提供TCP通信服务的容器,集群周期性地对该容器建立TCP连接,如果连接成功,则证明探测成功,否则探测失败。选择TCP端口探测方式,必须指定容器监听的端口。 例如:我们有一个nginx容器,它的服务端口是80,我们对该容器配置了TCP端口探测,指定探测端口为80,那么集群会周期性地对该容器的80端口发起TCP连接,如果连接成功则证明检查成功,否则检查失败。 图 TCP端口检查 执行命令检查 命令检查是一种强大的检查方式,该方式要求用户指定一个容器内的可执行命令,集群会周期性地在容器内执行该命令,如果命令的返回结果是0则检查成功,否则检查失败。 对于上面提到的TCP端口检查和HTTP请求检查,都可以通过执行命令检查的方式来替代: 对于TCP端口探测,我们可以写一个程序来对容器的端口进行connect,如果connect成功,脚本返回0,否则返回1。 对于HTTP请求探测,我们可以写一个脚本来对容器进行wget。 wget 并检查response 的返回码,如果返回码在200~399 的范围,脚本返回0,否则返回1。如下图: 图 执行命令检查 注意 必须把要执行的程序放在容器的镜像里面,否则会因找不到程序而执行失败。 如果执行的命令是一个shell脚本,由于集群在执行容器里的程序时,不在终端环境下,因此不能直接指定脚本为执行命令,需要加上脚本解析器。比如脚本是 /data/scripts/healthcheck.sh ,那么我们使用执行命令检查时,指定的程序应该是 sh /data/scripts/healthcheck.sh 。究其原因是集群在执行容器里的程序时,不在终端环境下。
        来自:
      • TeleDB内核架构
        本页介绍天翼云TeleDB数据库的内核架构。 分布式数据库方案架构如图所示。 Global Transaction Manager(简称 GTM),是全局事务管理器,负责全局事务管理,包括管理分布式事务和管理全局对象。GTM 上不存储业务数据。 管理分布式事务‌:GTM负责协调和管理分布式环境中的事务,确保事务的原子性、一致性、隔离性和持久性(ACID属性),从而保证数据的一致性和完整性。 管理全局对象‌:除了管理分布式事务本身,GTM还负责管理全局对象,如序列等,这些对象在分布式环境中需要跨多个节点进行协调和管理。 Coordinator(简称 CN)是协调节点,主要负责数据的分发和查询规划。协调节点需对外提供接口,确保高效处理和分发数据。协调节点是分布式系统中的一个组件,通过任务调度和数据分发来协调整个数据处理流程,提高处理速度和可靠性。它们还负责监控工作节点的状态和进度,确保数据的高效处理和分析。在大数据处理中,协调节点作为主节点,分配任务给工作节点,确保负载均衡和系统的容错能力。 任务调度‌:协调节点负责将任务分配给可用的工作节点,根据负载均衡策略和节点的可用性确定任务的分配方式。 数据分发‌:协调节点将输入数据分发给工作节点,实现数据并行处理,提高处理速度。 状态监控‌:协调节点监控工作节点的状态和进度,及时检测节点故障或任务失败,并采取相应的措施,如重新分配任务或启动备用节点。‌ Datanode(简称 DN)是数据节点,主要负责存储数据,执行协调节点分发的业务请求。‌它包含数据库的实际数据文件和索引文件,并接收来自应用程序或其他节点的数据读写请求,负责执行实际的数据存储和检索操作。数据节点以分布式方式组织,每个节点存储部分数据,通过分片(Sharding)技术来实现数据的水平扩展和负载均衡。这样的设计使得分布式数据库系统能够支持大规模的数据存储和高可用性,同时确保数据的均匀分布,避免单个节点成为瓶颈,从而提高系统的整体性能和可靠性。 说明 各个数据节点可以部署在不同的物理机上,也支持同物理机部署多个数据节点,注意互为主备数据节点不建议部署在同物理主机上。数据节点存储空间彼此之间独立、隔离,是标准的无共享存储拓扑结构。并且数据节点之间可以相互通信,互相交换数据。‌ TeleDB管控资源全生命周期管理。 说明 在接口上,TeleDB 支持 JDBC、ODBC、shell、C、Python、PHP、.NET 等大多数语言的 API。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        方案简介
        TeleDB内核架构
      • 计费模式
        您可以通过包年包月计费提前预留资源,同时享受比按量计费更大的价格优惠。 订购方式 天翼云云间高速(标准版)产品采用包年包月方式订购。 云企业路由器产品采用按量计费的方式。 计费周期:按订单购买周期结算。 变更 可以根据业务需求,对已经订购的带宽包的带宽,进行升降操作。 续订 用户想要延长带宽包使用时间,可以续订带宽包。 退订 用户不再使用带宽包,可以退订带宽包。 带宽包仅在未绑定云间高速(标准版)且未到期的情况下支持退订。 计费方式变更 暂不支持计费方式变更。 到期与欠费 云间高速(标准版)带宽包到期欠费后,控制台会保留该条记录,同时限制该带宽包速率为1Kbps及以下。
        来自:
        帮助文档
        云间高速(标准版)EC
        计费说明
        计费模式
      • 购买与计费常见问题
        计费模式 包年/包月 按需计费 付费方式 预付费按照订单的购买周期结算。 后付费按照云服务器实际使用时长计费。 计费周期 按订单的购买周期计费。 按小时结算。 实例升级 支持扩容,工单施工完生效,但是施工过程中服务不可用;不支持缩容。 支持扩容,工单施工完生效,但是施工过程中服务不可用;不支持缩容。 更改计费模式 支持变更为按需资源。 支持变更为包周期资源。 变更规格 支持变更实例规格。 支持变更实例规格。 适用场景 适用于可预估资源使用周期的场景,价格比按需计费模式更优惠。对于长期使用者,推荐该方式。 适用于资源需求波动的场景,可以随时开通,随时删除。
        来自:
        帮助文档
        分布式缓存服务Redis版
        常见问题
        购买与计费
        购买与计费常见问题
      • 步骤三:(可选) 创建VPC和ECS
        本章节向您介绍通过企业路由器实现同区域VPC互通的步骤三内容。 约束与限制 VPC网段(CIDR)不能重叠。 本示例中,ER路由表使用的是“虚拟私有云(VPC)”连接的传播路由,由ER自动学习VPC网段作为目的地址,不支持修改,因此重叠的VPC网段会导致路由冲突。 如果您已有的VPC存在网段重叠,则不建议您使用传播路由,请在ER路由表中手动添加静态路由,目的地址可以为VPC子网网段或者范围更小的网段。 本示例中4个ECS位于同一个安全组内,如果您的ECS位于不同的安全组,需要在安全组中添加规则放通网络。 操作步骤 步骤1:创建4个VPC及子网。 步骤2:创建4个ECS。
        来自:
        帮助文档
        企业路由器
        快速入门
        通过企业路由器实现同区域VPC互通
        步骤三:(可选) 创建VPC和ECS
      • 资产被勒索攻击的过程
        此小节介绍资产被勒索过程 在攻击云基础设施时,攻击者通常会攻击多个资源以试图获取对客户数据或公司机密的访问权限。在勒索攻击链中,攻击者通过事前侦查探测、事中攻击入侵及横向扩散、事后勒索三个步骤实现对企业的资源勒索: 事前侦查探测阶段: 收集基础信息、寻找攻击入口,进入环境并建立内部立足点。 事中攻击入侵及横向扩散阶段: 部署攻击资源、侦查网络资产并提升访问权限,窃取凭据、植入勒索软件,破坏检测防御机制并扩展感染范围。 事后勒索阶段: 窃取机密数据、加密关键数据后加载勒索信息,基于文件重要等级索要赎金。 图被勒索过程
        来自:
        帮助文档
        企业主机安全
        最佳实践
        勒索病毒防护最佳实践
        资产被勒索攻击的过程
      • 产品定义
        本节主要介绍产品定义。 GeminiDB Influx接口是一款基于计算存储分离架构,兼容InfluxDB生态的云原生NoSQL时序数据库。在云计算平台高性能、高可用、高可靠、高安全、可弹性伸缩的基础上,提供了一键部署、快速备份恢复、计算存储独立扩容、监控告警等服务能力。广泛应用于资源监控、业务监控分析、物联网设备实时监控、工业生产监控、生产质量评估和故障回溯等。提供大并发的时序数据读写,压缩存储和类SQL查询,并且支持多维聚合计算和数据可视化分析能力。 GeminiDB Influx接口具有高写入、灵活弹性、高压缩率和高查询的特点。 高写入性能 数据按“时间Range + 时间线Hash”两层打散,分布式并行写入,且最高每天处理万亿级时间点写入。 灵活弹性 计算独立按需扩展、扩容不迁移数据,分钟级完成集群节点扩缩容。 高压缩率 列式存储布局和专用压缩算法,相比开源版本压缩率可以提升5~10倍左右。 高查询性能 多节点多线程并行查询,可高效处理高并发大数据量分析任务。 典型应用 IoT传感器时序数据分析 物联网应用,规模和可靠性至关重要。GeminiDB Influx接口提供了高吞吐量和并发性,您可以通过快速的响应时间来支持大量的连接。因此非常适合要求苛刻的物联网应用。 优势 : 超强写入:小批量写入场景性能为开源版本InfluxDB的4.5倍,大批量写入场景性能为开源版本InfluxDB的3.3倍。 弹性扩展:基于计算存储分离的分布式架构,分钟级计算节点扩容,应对业务高峰期。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        产品介绍
        产品定义
      • Kubernetes集群内置DNS配置说明
        工作负载的DNS配置介绍 Kubernetes集群内置DNS插件KubeDNS/CoreDNS,为集群内的工作负载提供域名解析服务。业务在高并发调用场景下,如果使用到域名解析服务,可能会触及到KubeDNS/CoreDNS的性能瓶颈,导致DNS请求概率失败,影响用户业务正常运行。在Kubernetes使用的过程中,在有些场景下工作负载的域名解析存在冗余的DNS查询,使得高并发场景更容易触及DNS的性能瓶颈。根据业务使用场景,对工作负载的DNS配置进行优化,能够在一定程度上减少DNS请求概率失败的问题。 更多DNS相关信息请参见CoreDNS(系统资源插件,必装)或通过kubectl配置kubedns/CoreDNS高可用。 Linux 系统域名解析文件配置项的介绍 在Linux系统的节点或者容器里执行cat /etc/resolv.conf命令,能够查看到DNS配置,以Kubernetes集群的容器DNS配置为例: nameserver 10.247.x.x search default.svc.cluster.local svc.cluster.local cluster.local options ndots:5 配置项说明: nameserver:容器解析域名时查询的DNS服务器的IP地址列表。如果设置为10.247.x.x说明DNS对接到KubeDNS/CoreDNS,如果是其他IP地址,则表示采用DNS或者用户自建的DNS。 search:定义域名的搜索域列表,当访问的域名不能被DNS解析时,会把该域名与搜索域列表中的域依次进行组合,并重新向DNS发起请求,直到域名被正确解析或者尝试完搜索域列表为止。对于CCE集群来说,容器的搜索域列表配置3个域,当解析一个不存在的域名时,会产生8次DNS查询,因为对于每个域名需要查询两次,分别是IPv4和IPv6。 options:定义域名解析配置文件的其他选项,常见的有timeout、attempts和ndots等等。Kubernetes集群容器的域名解析文件设置为options ndots:5,该参数的含义是当域名的“.”个数小于ndots的值,会先把域名与search搜索域列表进行组合后进行DNS查询,如果均没有被正确解析,再以域名本身去进行DNS查询。当域名的“.”个数大于或者等于ndots的值,会先对域名本身进行DNS查询,如果没有被正确解析,再把域名与search搜索域列表依次进行组合后进行DNS查询。如查询www.ctyun.cn域名时,由于该域名的“.”个数为2,小于ndots的值,所以DNS查询请求的顺序依次为:www.ctyun.cn.default.svc.cluster.local、www.ctyun.cn.svc.cluster.local、 www.ctyun.cn.cluster.local和www.ctyun.cn,需要发起至少7次DNS查询请求才能解析出该域名的IP。可以看出,这种配置在访问外部域名时,存在大量冗余的DNS查询,存在优化点。 说明:完整的Linux域名解析文件配置项说明可以参考文档: Kubernetes 集群应用的DNS 相关配置项介绍 前面已经分析过,应用在某些场景下会出现冗余的DNS查询。Kubernetes为应用提供了与DNS相关的配置选项,通过对应用进行DNS配置,能够在某些场景下有效地减少冗余的DNS查询,提升业务并发量。目前应用配置中与DNS相关的字段有dnsPolicy 和dnsConfig。 dnsPolicy 字段说明: dnsPolicy字段是应用设置的DNS策略,默认值为“ClusterFirst”。基于dnsPolicy策略生成的域名解析文件会与dnsConfig设置的DNS参数进行合并,合并规则将在“dnsConfig字段说明”中说明,dnsPolicy当前支持四种参数值: − ClusterFirst:应用对接KubeDNS/CoreDNS(CCE集群的KubeDNS/CoreDNS默认级联DNS)。这种场景下,容器既能够解析service注册的集群内部域名,也能够解析发布到互联网上的外部域名。由于该配置下,域名解析文件设置了search搜索域列表和ndots: 5,因此当访问外部域名和集群内部长域名(如kubernetes.default.svc.cluster.local)时,大部分域名都会优先遍历search搜索域列表,导致至少有6次无效的DNS查询,只有访问集群内部短域名(如kubernetes)时,才不存在无效的DNS查询。 − ClusterFirstWithHostNet:对于配置主机网络的应用,默认配置kubelet的“resolvconf”参数指向的域名解析文件(CCE集群在该配置下对接DNS)。当dnsPolicy设置为“ClusterFirstWithHostNet”时,应用对接KubeDNS/CoreDNS。该配置下,容器的域名解析文件与“ClusterFirst”一致,也存在无效的DNS查询。 − Default:容器的域名解析文件使用kubelet的“resolvconf”参数指向的域名解析文件(CCE集群在该配置下对接DNS),没有配置search搜索域列表和options。该配置只能解析注册到互联网上的外部域名,无法解析集群内部域名,且不存在无效的DNS查询。 − None:Kubernetes v1.9(Beta in v1.10)中引入的新选项值。设置为None之后,必须设置dnsConfig,此时容器的域名解析文件将完全通过dnsConfig的配置来生成。 dnsConfig 字段说明: dnsConfig为应用设置DNS参数,设置的参数将合并到基于dnsPolicy策略生成的域名解析文件中。当dnsPolicy为“None”,应用的域名解析文件完全由dnsConfig指定;当dnsPolicy不为“None”时,会在基于dnsPolicy生成的域名解析文件的基础上,追加dnsConfig中配置的dns参数。 − nameservers:DNS的IP地址列表。当应用的dnsPolicy设置为“None”时,列表必须至少包含一个IP地址,否则此属性是可选的。列出的DNS的IP列表将合并到基于dnsPolicy生成的域名解析文件的nameserver字段中,并删除重复的地址。 − searches:域名查询时的DNS搜索域列表,此属性是可选的。指定后,提供的搜索域列表将合并到基于dnsPolicy生成的域名解析文件的search字段中,并删除重复的域名。Kubernetes最多允许6个搜索域。 − options:DNS的配置选项,其中每个对象可以具有name属性(必需)和value属性(可选)。该字段中的内容将合并到基于dnsPolicy生成的域名解析文件的options字段中,dnsConfig的options的某些选项如果与基于dnsPolicy生成的域名解析文件的选项冲突,则会被dnsConfig所覆盖。 工作负载的DNS配置实践 前面介绍了Linux系统域名解析文件以及Kubernetes为应用提供的DNS相关配置项,下面将举例介绍应用如何进行DNS配置。 场景1 对接kubernetes 内置的KubeDNS/CoreDNS 场景说明: 这种方式适用于应用中的域名解析只涉及集群内部域名,或者集群内部域名+外部域名两种方式,应用默认采用这种配置。 示例: apiVersion: v1 kind: Pod metadata: namespace: default name: dnsexample spec: containers: name: test image: nginx dnsPolicy: ClusterFirst 该配置下容器的域名解析文件将如下所示: nameserver 10.247.3.10 search default.svc.cluster.local svc.cluster.local cluster.local options ndots:5 场景2 直接对接DNS 场景说明: 这种方式适用于应用只访问注册到互联网的外部域名,该场景不能解析集群内部域名。 示例: apiVersion: v1 kind: Pod metadata: namespace: default name: dnsexample spec: containers: name: test image: nginx dnsPolicy: Default //使用kubelet的“resolvconf”参数指向的域名解析文件(CCE集群在该配置下对接DNS) 该配置下容器的域名解析文件将如下所示: nameserver 10.125.x.x 场景3 主机网络模式的应用对接KubeDNS/CoreDNS 场景说明: 对于配置主机网络模式的应用,默认对接DNS,如果应用需要对接KubeDNS/CoreDNS,需将dnsPolicy设置为“ClusterFirstWithHostNet”。 示例: apiVersion: extensions/v1beta1 kind: Deployment metadata: name: nginx spec: template: metadata: labels: app: nginx spec: hostNetwork: true dnsPolicy: ClusterFirstWithHostNet containers: name: nginx image: nginx:1.7.9 ports: containerPort: 80 该配置下容器的域名解析文件将如下所示: nameserver 10.247.3.10 search default.svc.cluster.local svc.cluster.local cluster.local options ndots:5 场景4 自定义应用的域名配置 场景说明: 用户可以完全自定义配置应用的域名解析文件,这种方式非常灵活,dnsPolicy和dnsConfig配合使用,几乎能够满足所有使用场景,如对接用户自建DNS的场景、串联多个DNS的场景以及优化DNS配置选项的场景等等。 示例1 :对接用户自建DNS 该配置下,dnsPolicy为“None”,应用的域名解析文件完全根据dnsConfig配置生成。 apiVersion: v1 kind: Pod metadata: namespace: default name: dnsexample spec: containers: name: test image: nginx dnsPolicy: "None" dnsConfig: nameservers: 10.2.3.4 //用户自建DNS 的IP 地址 searches: ns1.svc.cluster.local my.dns.search.suffix options: name: ndots value: "2" name: timeout value: "3" 该配置下容器的域名解析文件将如下所示: nameserver 10.2.3.4 search ns1.svc.cluster.local my.dns.search.suffix options timeout:3 ndots:2 示例2 :修改域名解析文件的ndots 选项,减少无效的DNS 查询 该配置下,dnsPolicy不为“None”,会在基于dnsPolicy生成的域名解析文件的基础上,追加dnsConfig中配置的dns参数。 apiVersion: v1 kind: Pod metadata: namespace: default name: dnsexample spec: containers: name: test image: nginx dnsPolicy: "ClusterFirst" dnsConfig: options: name: ndots value: "2" //该配置会将基于ClusterFirst 策略生成的域名解析文件的ndots:5 参数改写为ndots:2 该配置下容器的域名解析文件将如下所示: nameserver 10.247.3.10 search default.svc.cluster.local svc.cluster.local cluster.local options ndots:2
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        工作负载
        容器设置
        Kubernetes集群内置DNS配置说明
      • 1
      • ...
      • 284
      • 285
      • 286
      • 287
      • 288
      • ...
      • 444
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      镜像服务 IMS

      轻量型云主机

      弹性高性能计算 E-HPC

      训推服务

      AI Store

      应用托管

      智算一体机

      人脸检测

      推荐文档

      天翼云进阶之路①:Linux / windows 系统修改远程端

      监控应用运行状态

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号