活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云电脑版下载_相关内容
      • 恢复HBase业务数据
        本章主要介绍翼MapReduce的恢复HBase业务数据功能。 操作场景 在用户意外修改、删除或需要找回数据时,系统管理员对HBase进行重大操作(如升级、重大数据调整等)后,系统数据出现异常或未达到预期结果,模块全部故障无法使用,或者迁移数据到新集群的场景中,需要对HBase业务数据进行恢复数据操作。 系统管理员可以通过FusionInsight Manager创建恢复HBase任务并恢复数据。只支持创建任务手动恢复数据。 须知 只支持进行数据备份时的系统版本与当前系统版本一致时的数据恢复。 当业务正常时需要恢复数据,建议手动备份最新管理数据后,再执行恢复数据操作。否则会丢失从备份时刻到恢复时刻之间的HBase数据。 对系统的影响 恢复过程的数据还原阶段,系统会把待恢复的HBase表禁用,此时无法访问该表。还原阶段可能需要几分钟时间,此时HBase的上层应用无法正常工作。 恢复过程中会停止用户认证,用户无法开始新的连接。 数据恢复后,会丢失从备份时刻到恢复时刻之间的数据。 数据恢复后,需要重新启动HBase的上层应用。 前提条件 如果需要从远端HDFS恢复数据,需要准备备集群。如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 检查HBase备份文件保存路径。 停止HBase的上层应用。 登录FusionInsight Manager,请参见登录管理系统。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        恢复数据
        恢复HBase业务数据
      • 管理租户目录
        本章节主要介绍翼MapReduce的管理租户目录操作。 操作场景 管理员通过FusionInsight Manager管理指定租户使用的HDFS存储目录,能根据业务需求对租户添加目录、修改目录文件数量配额、修改存储空间配额和删除目录。 前提条件 已添加具有HDFS存储资源的租户。 查看租户目录 1. 在FusionInsight Manager,单击“租户资源”。 2. 在左侧租户列表,单击目标的租户。 3. 单击“资源”页签。 4. 查看“HDFS存储”表格。 指定租户目录的“文件目录数上限”列表示文件和目录数量配额。 指定租户目录的“存储空间配额 ”列表示租户目录的存储空间大小。 添加租户目录 1. 在FusionInsight Manager,单击“租户资源”。 2. 在左侧租户列表,单击需要修改HDFS存储目录的租户。 3. 单击“资源”页签。 4. 在“HDFS存储”表格,单击“添加目录”。 “父目录”,表示当前租户对应父租户的存储目录。 说明 当前租户不是子租户则不显示此参数。 “路径”,填写租户目录的路径。 说明 当前租户不是子租户则新路径将在HDFS的根目录下创建。 “文件目录数上限”填写文件和目录数量配额。 文件数阈值配置(%),只有设置了“文件目录数上限”才会生效。表示当已使用的文件数超过了设置的“文件目录数上限”的百分数后将会产生告警。不设置则不会根据实际使用情况上报告警。 说明 当前已使用的文件数的数据采集周期为1个小时,因此超过文件数阈值的告警上报会存在延迟。 “存储空间配额”,填写租户目录的存储空间大小。 存储空间阈值配置(%),表示已使用存储空间超过了设置的“存储空间配额”的百分数后将会产生告警。不设置则不会根据实际使用情况上报告警。 说明 已使用的存储空间的数据采集周期为1个小时,因此超过存储空间阈值的告警上报会存在延迟。 5. 单击“确定”完成租户目录添加。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        使用Superior调度器的租户业务
        管理租户
        管理租户目录
      • 产品定义
        Kafka是一个拥有高吞吐、可持久化、可水平扩展,支持流式数据处理等多种特性的分布式消息流处理中间件,采用分布式消息发布与订阅机制,在日志收集、流式数据传输、在线/离线系统分析、实时监控等领域有广泛的应用。 分布式消息服务Kafka是一款基于开源社区版Kafka提供的消息队列服务,向用户提供计算、存储和带宽资源独占式的Kafka专享实例。使用分布式消息服务Kafka,资源按需申请,按需配置Topic的分区与副本数量,即买即用,您将有更多精力专注于业务快速开发,不用考虑部署和运维。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        产品简介
        产品定义
      • 删除科研文件
        本文介绍了如何在科研助手中删除科研文件。 操作步骤 1. 登录科研助手管理控制台并切换至科研版。 2. 在控制台左侧导航栏中,选择【数据存储】。 3. 在【数据存储】弹出的选项中,选择【科研文件管理】。 4. 在【科研文件管理】中,展示了当前可用区的科研文件列表。点击所需要删除的科研文件的【删除】按钮。 5. 删除操作会弹出二次确认提示,确认无误后,点击【确定删除】,科研文件将被删除,并且科研文件中的数据不再保留。
        来自:
        帮助文档
        科研助手
        用户指南
        科研版
        数据存储
        科研文件管理
        删除科研文件
      • 查询协议服务
        协议服务提供标准NFS协议访问HPFS文件系统的能力,本文介绍查询协议服务的场景说明和操作步骤。 场景说明 您可以查看文件系统下协议服务的基本信息,支持按协议服务ID或描述关键字查看指定的协议服务。 操作步骤 1. 登录天翼云控制中心,单击管理控制台左上角的,选择地域。 2. 选择“存储>并行文件服务HPFS”,进入并行文件服务的控制台页面。 3. 点击目标文件系统,进入文件系统详情页,点击协议服务页签,即可进入协议服务页面。 4. 在协议服务列表页查看所有协议服务的基本信息,参数说明如表所示: 参数 说明 协议服务ID 协议服务的ID,创建时自动生成,不支持修改。 状态 协议服务状态: 创建中、创建失败、可用、删除中、异常。 规格 通用型。 协议类型 NFS协议,默认支持NFSv3和NFSv4。 VPC挂载地址 导出的NFS的挂载地址。 VPCE挂载地址 若创建时选择开启终端节点(VPCE),则展示VPCE挂载信息,返回通常需要1~3分钟。 注意 如果您删除了终端节点,则VPCE的挂载地址将会失效。 VPC名称/ID 协议服务绑定的虚拟私有云(VPC),VPC的名称可以点击跳转到对应详情页面。 创建时间 协议服务的创建时间。 描述 协议服务的描述信息。 操作 仅支持删除操作。
        来自:
        帮助文档
        并行文件服务 HPFS
        用户指南
        协议服务
        查询协议服务
      • 天翼云CT-RDS MySQL为源的迁移任务源端配置
        本节为您介绍天翼云CTRDS MySQL为源的迁移任务源端配置。 前提条件 (1)天翼云CTRDS MySQL数据库的源端版本为5.7、8.0版本。 (2)天翼云CTRDS MySQL数据库源端已关闭大小写敏感。 (3)天翼云CTRDS MySQL数据库的源端版本为5.7、8.0版本。 (4)目标端数据库的存储空间必须大于源端数据库所占用的存储空间。 使用限制 待迁移的表需具备主键,否则会导致该表无法进行增量迁移和稽核修复; 不支持迁移mysql、informationschema、performanceschema等天翼云CTRDS MySQL系统库; 目标库非自建MySQL的情况下,结构迁移仅支持迁移表结构; 迁移过程中,可迁移源端数据库的表结构、全量数据和增量数据。 源端权限要求 由于权限查询需要设计到mysql.user及mysql.db两张系统表。所以需要先授予用户以上两张表的SELECT权限。 迁移模式 所需权限 基础权限 SELECT 全量迁移 需具备基础权限,且具备REFERENCES, INDEX, SHOW VIEW, TRIGGER和全局级别:PROCESS权限 结构迁移 需具备基础权限,且具备REFERENCES, INDEX, SHOW VIEW, TRIGGER,CREATE ROUTINE, SUPER (根据不同的结构,所需权限也不同) 增量迁移 需具备基础权限,且具备全局级别REPLICATION CLIENT,REPLICATION SLAVE权限,并开启binlog row模式 稽核修复 需具备基础权限 源端配置请参照自建MySQL为源的迁移任务源端配置。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据迁移
        任务创建
        天翼云CT-RDS MySQL为源的迁移任务配置
        天翼云CT-RDS MySQL为源的迁移任务源端配置
      • 验证域名归属权
        本文通过对DNS解析验证、文件验证两种验证方式的详细操作说明,方便客户做域名归属权验证。 背景说明 客户在天翼云客户控制台新增域名时,需通过域名归属权验证。具体可根据如下方法一、方法二,任意选择一种方式进行操作验证即可。 方法一:DNS解析验证 以加速域名www.ctcdn.cn为例,为您介绍如何通过DNS解析验证来验证域名归属权。 1. 客户需在自己的域名解析服务商(例如:腾讯云、新网等),操作本次要新增域名的【主域名】解析记录,添加天翼云客户控制台返回的TXT记录值(如下记录值仅为示例)。 说明 主域名:一级域名,例如:www.ctcdn.cn的主域名为:ctcdn.cn(具体值以添加域名时控制台或API返回的主域名或domainzone值为准)。 主机记录:为固定值:dnsverify。 TXT记录值为根据域名随机生成: 记录类型 主机记录 记录值 TXT dnsverify 202207060000002jar4fb2hc79iwjq5cdid87t7rci1sgp33exuyvez4kwonobxt 2. 域名解析操作完成后,等待(建议10分钟)DNS解析生效后即可进行解析验证。 Linux系统解析命令:dig dnsverify.ctcdn.cn txt。 3. 如解析出来的txt值和天翼云控制台返回的TXT记录值一致,则表示配置正确。 确认配置正确后,可前往天翼云客户控制台,在【域名管理】【域名列表】【添加域名】界面,在【加速域名】输入待验证的域名后,单击【进入验证环节】,验证通过就可以正常操作添加域名。
        来自:
        帮助文档
        全站加速
        快速入门
        验证域名归属权
      • 通过ISO文件创建Linux系统盘镜像
        约束与限制 使用ISO文件注册的ISO镜像无法在创建云主机页面选择到,也无法用来切换操作系统,必须完成操作系统及驱动安装做成系统盘镜像后才能使用。 ISO镜像在镜像服务页面创建的临时云主机只建议用来装机,部分功能受限。如:不支持挂载磁盘操作。 将ISO文件注册为镜像(Linux) 操作场景 通过注册镜像操作,将外部镜像ISO文件注册为云平台的私有镜像,即ISO镜像。注册镜像前,需先将ISO文件上传到OBS桶中。 使用ISO文件注册的ISO镜像不支持复制、导出和加密。 前提条件 待注册文件需为iso格式。 已上传ISO镜像文件到OBS的个人桶中。具体操作请参见上传镜像文件(Linux)。 说明: ISO镜像文件名称只能包含英文字母、数字、中划线()和下划线()。如果不符合要求,请先修改名称再上传至OBS桶。 操作步骤 1、登录控制台。 a.登录管理控制台。 b.选择“镜像服务”。 进入镜像服务页面。 2、创建ISO镜像。 a.单击右上角的“创建私有镜像”,进入创建私有镜像页面。 b.在创建方式选择“导入私有镜像”,在“镜像类型”区域,选择镜像的创建方式为“ISO镜像”。 c.从镜像文件列表中先选择保存ISO镜像文件的桶,再选择对应的ISO文件。 使用ISO文件创建私有镜像 d.在“配置信息”区域,填写镜像的基本信息。 操作系统:选择ISO镜像文件对应的操作系统。为保证镜像的正常创建和使用,请确保选择的操作系统与镜像文件的操作系统类型一致。 系统盘:设置系统盘容量,要求不小于镜像文件的系统盘大小。 名称:输入镜像的名称。 企业项目:选择资源所属的企业项目。 标签:可选配置,根据需要为待创建私有镜像添加资源标签。 描述:可选配置,根据需要输入描述信息。 e.单击“立即创建”。 f.根据界面提示,确认镜像参数。阅读并勾选《天翼云镜像服务协议》,单击“提交申请”。 3、返回私有镜像界面,查看创建的ISO镜像的状态。 当镜像的状态为“正常”时,表示创建成功。
        来自:
        帮助文档
        镜像服务 IMS
        用户指南
        创建私有镜像
        通过ISO文件创建Linux系统盘镜像
      • 通过Pod环境变量采集应用日志
        本文介绍如何通过Pod环境变量采集应用日志。 为了简化日志管理流程,天翼云提供一套完整的日志服务解决方案,让您免开发即可实现日志的快速获取、存储、检索和分析。在 Serverless集群中,借助其内置的日志服务托管功能,您可以通过设置相应的环境变量,轻松地将业务容器的标准输出和相关日志文件接入云日志服务。 前提条件 确保您已经创建Serverless集群,具体操作请参阅创建Serverless集群。 确保kubectl工具已经连接目标集群。 操作步骤 步骤一:创建应用并配置日志服务 为了给容器指定采集配置,需要使用env来为容器增加采集配置,并根据采集配置,创建对应的volumeMounts和volumes。Pod YAML示例如下: shell apiVersion: v1 kind: Pod metadata: name: busyboxenvs spec: containers: name: busybox image: 'registryhuadong1.crsinternal.ctyun.cn/opensource/busybox:1.36' args: c mkdir p /var/log;while true; do echo hello world; date; echo hello als >> /var/log/test.log; sleep 1;done command: /bin/sh env: 配置环境变量 name: Ctyunlogsecilogstdout value: stdout name: Ctyunlogsecilogvarlog value: /var/log/.log name: Ctyunlogsecilogstdoutproject value: k8slogdemo name: Ctyunlogsecilogvarlogproject value: k8slogdemo name: Ctyunlogsecilogstdoutunit value: logstdout name: Ctyunlogsecilogvarlogunit value: logvarlog
        来自:
        帮助文档
        云容器引擎 Serverless版
        用户指南
        日志
        通过Pod环境变量采集应用日志
      • 创建卷
        本节主要介绍创建卷命令。 本地卷 单机版 ./stor lun add { n name } LUNNAME { p capacity } CAPACITY { t target } TARGETNAME [ { o sectorsize } SECTORSIZE ] [ { w writepolicy } WRITEPOLICY ] [ { P path } PATH ] [ { { m mode } STORAGEMODE ] [ [qosname QOSNAME ] [ iops IOPS ] [ readiops READIOPS ] [ writeiops WRITEIOPS ] [ bps BPS ] [ readbps READBPS ] [ writebps WRITEBPS ] [ iopsburst IOPSBURST ] [ readiopsburst READIOPSBURST ] [ writeiopsburst WRITEIOPSBURST ] [ bpsburst BPSBURST ] [ readbpsburst READBPSBURST ] [ writebpsburst WRITEBPSBURST ] [ iopsburstsecs IOPSBURSTSECS ] [ readiopsburstsecs READIOPSBURSTSECS ] [ writeiopsburstsecs WRITEIOPSBURSTSECS ] [ bpsburstsecs BPSBURSTSECS ] [ readbpsburstsecs READBPSBURSTSECS ] [ writebpsburstsecs WRITEBPSBURSTSECS] ] 集群版 ./stor lun add { n name } LUNNAME { p capacity } CAPACITY { t target } TARGETNAME [ priority SERVERID & [ autofailback AUTOFAILBACK ] ] [ pool POOL ] [ cachepool CACHEPOOL ] [ { a ha } HIGHAVAILABILITY ] [ { c localstorageclass } LOCALSTORAGECLASS ] [ minreplica MINREPLICA ] [ redundancyoverlap REDUNDANCYOVERLAP ] [ ecfragmentsize ECFRAGEMENTSIZE ] [ { o sectorsize } SECTORSIZE ] [ { w writepolicy } WRITEPOLICY ] [ { m mode } STORAGEMODE ] [ [qosname QOSNAME ] [ iops IOPS ] [ readiops READIOPS ] [ writeiops WRITEIOPS ] [ bps BPS ] [ readbps READBPS ] [ writebps WRITEBPS ] [ iopsburst IOPSBURST ] [ readiopsburst READIOPSBURST ] [ writeiopsburst WRITEIOPSBURST ] [ bpsburst BPSBURST ] [ readbpsburst READBPSBURST ] [ writebpsburst WRITEBPSBURST ] [ iopsburstsecs IOPSBURSTSECS ] [ readiopsburstsecs READIOPSBURSTSECS ] [ writeiopsburstsecs WRITEIOPSBURSTSECS ] [ bpsburstsecs BPSBURSTSECS ] [ readbpsburstsecs READBPSBURSTSECS ] [ writebpsburstsecs WRITEBPSBURSTSECS] ] 上云卷 单机版 ./stor lun add { n name } LUNNAME { p capacity } CAPACITY { t target } TARGETNAME [ { o sectorsize } SECTORSIZE ] [ { w writepolicy } WRITEPOLICY ] [ { P path } PATH ] { m mode } STORAGEMODE [ cloudprovider CLOUDPROVIDER ] { B bucket } BUCKETNAME { A ak } ACCESSKEY { S sk } SECRETKEY [ { C cloudstorageclass } CLOUDSTORAGECLASS ] { E endpoint } ENDPOINT [ signversion VERSION ] [ region REGION ] [ { M cloudcompression } CLOUDCOMPRESSION ] [ { O objectsize } OBJECTSIZE ] [ { X prefix } PREFIX ] [ [qosname QOSNAME ] [ iops IOPS ] [ readiops READIOPS ] [ writeiops WRITEIOPS ] [ bps BPS ] [ readbps READBPS ] [ writebps WRITEBPS ] [ iopsburst IOPSBURST ] [ readiopsburst READIOPSBURST ] [ writeiopsburst WRITEIOPSBURST ] [ bpsburst BPSBURST ] [ readbpsburst READBPSBURST ] [ writebpsburst WRITEBPSBURST ] [ iopsburstsecs IOPSBURSTSECS ] [ readiopsburstsecs READIOPSBURSTSECS ] [ writeiopsburstsecs WRITEIOPSBURSTSECS ] [ bpsburstsecs BPSBURSTSECS ] [ readbpsburstsecs READBPSBURSTSECS ] [ writebpsburstsecs WRITEBPSBURSTSECS] ] 集群版 ./stor lun add { n name } LUNNAME { p capac ity } CAPACITY { t target } TARGETNAME [ priority SERVERID & [ autofailback AUTOFAILBACK ] ] [ pool POOL ] [ cachepool CACHEPOOL ] [ { a ha } HIGHAVAILABILITY ] [ { c localstorageclass } LOCALSTORAGECLASS ] [ minreplica MINREPLICA ] [ redundancyoverlap REDUNDANCYOVERLAP ] [ ecfragmentsize ECFRAGEMENTSIZE ] [ { o sectorsize } SECTORSIZE ] [ { w writepolicy } WRITEPOLICY ] { m mode } STORAGEMODE [ cloudprovider CLOUDPROVIDER ] { B bucket } BUCKETNAME { A ak } ACCESSKEY { S sk } SECRETKEY [ { C cloudstorageclass } CLOUDSTORAGECLASS ] { E endpoint } ENDPOINT [ signversion VERSION ] [ region REGION ] [ { M cloudcompression } CLOUDCOMPRESSION ] [ { O objectsize } OBJECTSIZE ] [ { X prefix } PREFIX ] [ [qosname QOSNAME ] [ iops IOPS ] [ readiops READIOPS ] [ writeiops WRITEIOPS ] [ bps BPS ] [ readbps READBPS ] [ writebps WRITEBPS ] [ iopsburst IOPSBURST ] [ readiopsburst READIOPSBURST ] [ writeiopsburst WRITEIOPSBURST ] [ bpsburst BPSBURST ] [ readbpsburst READBPSBURST ] [ writebpsburst WRITEBPSBURST ] [ iopsburstsecs IOPSBURSTSECS ] [ readiopsburstsecs READIOPSBURSTSECS ] [ writeiopsburstsecs WRITEIOPSBURSTSECS ] [ bpsburstsecs BPSBURSTSECS ] [ readbpsburstsecs READBPSBURSTSECS ] [ writebpsburstsecs WRITEBPSBURSTSECS] ] 此命令用来创建卷。 说明 HBlock上Target IQN的数量最多32766个。一个Target最多可以关联256个卷,但是一个卷只能被一个Target关联。 卷创建成功后,仅下列参数可以修改:卷容量、写策略、最小副本数(仅集群版支持)、折叠副本数(仅集群版支持)、主备优先级(仅集群版支持)、Endpoint、上云签名认证版本、区域、AK/SK、是否压缩数据。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        卷操作
        创建卷
      • 独享引擎实例升级最佳实践
        步骤 3 将新购买的独享引擎实例添加到ELB的后端服务器上。 以添加共享型后端服务器为例说明,添加后端服务器操作步骤如下。 1. 单击页面左上方的“服务列表”,选择“安全> Web应用防火墙(独享版)”,进入“安全总览”页面。 2. 在左侧导航树中,选择“系统管理 > 独享引擎”,进入“独享引擎”页面。 3. 在目标实例所在行的“操作”列,单击“更多 > 添加到ELB”。 4. 在“添加到ELB”页面中,选择原独享引擎实例配置的“ELB(负载均衡器)”、“ELB监听器”和“后端服务器组”。 5. 单击“确认”,为WAF实例配置业务端口,“业务端口”需要配置为原WAF独享引擎实例实际监听的业务端口。 步骤 4 在ELB管理控制台上,将原独享引擎实例的流量权重设置为“0”。新的请求不会转发到权重为0的后端。 步骤 5 待业务流量降下来后,删除原独享引擎实例。查看独享实例的云监控信息,“新建连接数”较小时(例如,小于5),说明业务流量已经降下来。 1. 在WAF控制台的左侧导航树中,选择“系统管理 > 独享引擎”,进入“独享引擎”页面。 2. 在目标实例所在行的“操作”列,单击“更多 > 删除”。 3. 在弹出的提示框中,单击“确认”。 删除实例后,该实例上的资源将被释放且不可恢复。 多独享引擎实例节点升级 如果您的业务部署了多个独享引擎实例,请参照以下操作升级实例。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        最佳实践
        独享引擎实例升级最佳实践
      • 基于RAGFlow+OpenSearch+Deepseek快速搭建知识库问答RAG应用
        天翼云云搜索团队RAGFlow社区贡献 RAGFlow默认使用Elasticsearch 8.x作为向量库数据库。天翼云云搜索团队成员贡献了OpenSearch作为向量数据库的全流程支持,已合入社区,并在正式发版中作为NewFeatures单独致谢。在RAGFlow的v0.19.0以后的版本中均支持OpenSearch作为底层向量数据库。 前置需求 开通天翼云云搜索服务OpenSearch实例,获取内网地址和实例密码。 准备好云主机环境用来部署RAGFlow,需要和OpenSearch实例网络互通。 准备好Deepseek模型、Embedding向量模型、Rerank重排序模型。 安装好Docker环境。 RAG运行流程 1. 用户通过RAGFlow对话框进行提问。 2. 调用Embedding模型将查询向量化。 3. 使用OpenSearch的Hybridsearch混合检索进行召回,调用Rerank模型进行重排序,返回和提问相关的文档。 4. 将检索到的文档及对话的上下文通过Deepseek大模型总结归纳生成详细准确的回复。 步骤一:部署RAGFlow 1. 拉取RAGFlow最新源码到云主机上,以下以v0.19.1为例。 2. 进入ragflow源码的docker目录 plaintext cd ragflow/docker 3. 修改向量数据库为OpenSearch plaintext vim .env DOCENGINE${DOCENGINE:opensearch} 修改如下配置项 plaintext OSPORT9200 OSHOSTnode1 OPENSEARCHPASSWORDxxxxxx 4. 确认使用镜像 plaintext vim .env RAGFLOWIMAGEinfiniflow/ragflow:v0.19.1 5. 修改dockercomposebase.yml文件 为了性能,不适用docker自带的Elasticsearch和OpenSearch,注释掉如下代码: plaintext es01: containername: ragflowes01 profiles: elasticsearch image: elasticsearch:${STACKVERSION} volumes: esdata01:/usr/share/elasticsearch/data ports: ${ESPORT}:9200 envfile: .env environment: node.namees01 ELASTICPASSWORD${ELASTICPASSWORD} bootstrap.memorylockfalse discovery.typesinglenode xpack.security.enabledtrue xpack.security.http.ssl.enabledfalse xpack.security.transport.ssl.enabledfalse cluster.routing.allocation.disk.watermark.low5gb cluster.routing.allocation.disk.watermark.high3gb cluster.routing.allocation.disk.watermark.floodstage2gb TZ${TIMEZONE} memlimit: ${MEMLIMIT} ulimits: memlock: soft: 1 hard: 1 healthcheck: test: ["CMDSHELL", "curl interval: 10s timeout: 10s retries: 120 networks: ragflow restart: onfailure opensearch01: containername: ragflowopensearch01 profiles: opensearch image: hub.icert.top/opensearchproject/opensearch:2.19.1 volumes: osdata01:/usr/share/opensearch/data ports: ${OSPORT}:9201 envfile: .env environment: node.nameopensearch01 OPENSEARCHPASSWORD${OPENSEARCHPASSWORD} OPENSEARCHINITIALADMINPASSWORD${OPENSEARCHPASSWORD} bootstrap.memorylockfalse discovery.typesinglenode plugins.security.disabledfalse plugins.security.ssl.http.enabledfalse plugins.security.ssl.transport.enabledtrue cluster.routing.allocation.disk.watermark.low5gb cluster.routing.allocation.disk.watermark.high3gb cluster.routing.allocation.disk.watermark.floodstage2gb TZ${TIMEZONE} http.port9201 memlimit: ${MEMLIMIT} ulimits: memlock: soft: 1 hard: 1 healthcheck: test: ["CMDSHELL", "curl interval: 10s timeout: 10s retries: 120 networks: ragflow restart: onfailure 6. 修改部分conf配置 plaintext vim serviceconf.yaml.template hosts: ' 7. 启动服务 plaintext docker compose f dockercompose.yml up d 8. 查看启动log plaintext docker logs f ragflowserver 9. 浏览器页面打开,默认服务在80端口
        来自:
        帮助文档
        云搜索服务
        最佳实践
        基于RAGFlow+OpenSearch+Deepseek快速搭建知识库问答RAG应用
      • 执行Spark任务报内存不足告警如何处理?
        本章节主要介绍翼MapReduce组件Spark使用时的常见问题。 Spark 任务内存不足情况需要根据具体问题进行具体分析。 首先spark统一内存模型将内存分为offheap和heap两部分内存,每一个部分都可能发生内存不足的情况。 offheap内存不足的情况 offheap内存作用 为了进一步优化内存的使用以及提高 Shuffle 时排序的效率,Spark 引入了堆外(Offheap)内存,使之可以直接在工作节点的系统内存中开辟空间,存储经过序列化的二进制数据。 利用JDK Unsafe API(从 Spark 2.0 开始,在管理堆外的存储内存时不再基于 Tachyon,而是与堆外的执行内存一样,基于 JDK Unsafe API 实现),Spark 可以直接操作系统堆外内存,减少了不必要的内存开销,以及频繁的 GC 扫描和回收,提升了处理性能。堆外内存可以被精确地申请和释放,而且序列化的数据占用的空间可以被精确计算,所以相比堆内内存来说降低了管理的难度,也降低了误差。 offheap参数和动态扩展机制 Spark堆外内存的大小可以由spark.memory.offHeap.size控制,spark offheap空间只分为 execution 和 storage 1:1两部分,两部分可以动态扩展。 offheap不足 目前常用的offheap常见是 executor端,map task侧 shuffle时候,由于ShuffleExternalSorter占用内存过大,导致内存不足。 此外,在spark native场景中,spark将更多的使用 spark offheap内存取代heap内存,因此spark offheap在非shuffle场景下也会占用很多offheap内存。 如果存在offheap 内存不足警告,可以酌情添加spark.memory.offHeap.size 或者 降低shuffle 内存缓冲区大小。 heap内存不足的情况 spark将heap内存做如下分割 每一个部分超出使用上线都可能产生内存不足的情况。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        大数据业务开发
        执行Spark任务报内存不足告警如何处理?
      • 多租户管理页面概述
        本章节主要介绍翼MapReduce的多租户管理页面概述操作。 统一的多租户管理 登录FusionInsight Manager,选择“租户资源 > 租户资源管理”,可以查看到FusionInsight Manager作为统一的多租户管理平台,集成了租户生命周期管理、租户资源配置、租户服务关联和租户资源使用统计等功能,为企业提供了成熟的多租户管理模型,实现集中式的租户和业务管理。 图形化的操作界面 FusionInsight Manager实现全图形化的多租户管理界面:通过树形结构实现多级租户的管理和操作,将当前租户的基本信息和资源配额集成在一个界面中,方便运维和管理,如下图所示多租户管理。 层级式的租户管理 FusionInsight Manager支持层级式的租户管理,可以为租户进一步添加子租户,实现资源的再次配置。一级租户下一级的子租户属于二级租户,以此类推。为企业提供了成熟的多租户管理模型,实现集中式的租户和业务管理。 简化的权限管理 FusionInsight Manager对普通用户封闭了租户内部的权限管理细节,对管理员简化了权限管理的操作方法,提升了租户权限管理的易用性和用户体验。 使用RBAC方式,在多租户管理时,可根据业务场景为各用户分别配置不同权限。 租户的管理员,具有租户的管理权限,包括:查看当前租户的资源和服务、在当前租户中添加/删除子租户并管理子租户资源的权限。支持定义单个租户的管理员,可以将租户的管理权限委托给系统管理员之外的其他用户。 租户对应的角色,具有租户的计算资源和存储资源的全部权限。创建租户时,系统自动创建租户对应的角色,可以添加用户并绑定该角色为其他用户授权,以使用该租户的资源。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        多租户介绍
        技术原理
        多租户管理页面概述
      • 修改OMS服务配置参数
        本章节主要介绍翼MapReduce的修改OMS服务配置参数操作。 操作场景 根据用户环境的安全要求,管理员可以在FusionInsight Manager修改OMS中Kerberos与LDAP配置。 对系统的影响 修改OMS的服务配置参数后,需要重启对应的OMS模块,此时FusionInsight Manager将无法正常使用。 操作步骤 修改okerberos配置 1. 登录FusionInsight Manager,选择“系统 > OMS”。 2. 在okerberos所在行,单击“修改配置”。 3. 根据下表所示的说明修改参数。 okerberos参数配置一览表 参数名 说明 连接KDC最大时延(毫秒) 应用连接到Kerberos的超时时间,单位为毫秒,请填写整数值。 最大尝试次数 应用连接到Kerberos的最大重试次数,请填写整数值。 操作Ldap最大时延(毫秒) Kerberos连接LDAP的超时时间,单位为毫秒。 搜索Ldap最大时延(毫秒) Kerberos在LDAP查询用户信息的超时时间,单位为毫秒。 Kadmin监听端口 kadmin服务的端口。 KDC监听端口 kinit服务的端口。 Kpasswd监听端口 kpasswd服务的端口。 4. 单击“确定”。 在弹出窗口输入当前登录用户密码验证身份,单击“确定”,在确认重启的对话框中单击“确定”。 修改oldap配置 5. 在oldap所在行,单击“修改配置”。 6. 根据下表所示的说明修改参数。 oldap参数配置一览表 参数名 说明 Ldap服务监听端口 LDAP服务端口号。 7. 单击“确定”。 在弹出窗口输入当前登录用户密码验证身份,单击“确定”,在确认重启的对话框中单击“确定”。 说明 如果重置LDAP帐户口令需要重启ACS,操作步骤如下: 使用PuTTY,以omm用户登录主管理节点,执行以下命令更新域配置: sh ${BIGDATAHOME}/omserver/om/sbin/restartRealmConfig.sh复制 提示以下信息表示命令执行成功: Modify realm successfully. Use the new password to log into FusionInsight again.复制 执行 sh $CONTROLLERHOME/sbin/acscmd.sh stop ,停止ACS。 执行 sh $CONTROLLERHOME/sbin/acscmd.sh start ,启动ACS。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        系统设置
        OMS管理
        修改OMS服务配置参数
      • 解锁系统内部用户
        本章主要介绍翼MapReduce的解锁系统内部用功能。 操作场景 若服务出现异常状态,有可能是系统内部用户被锁定,请及时解锁,否则会影响集群正常运行。系统内部用户列表请参见用户帐号一览表。系统内部用户无法使用FusionInsight Manager解锁。 前提条件 根据用户帐号一览表获取LDAP管理员“cnroot,dchadoop,dccom”的默认密码。 操作步骤 1.使用以下方法确认系统内部用户是否被锁定: a.查询oldap端口: 登录FusionInsight Manager,选择“系统 > OMS > oldap > 修改配置”。 “Ldap服务监听端口”参数值即为oldap端口。 b.查询域名方法: 登录FusionInsight Manager,选择“系统 > 权限 > 域和互信”。 “本端域”参数即为域名。 例如当前系统域名为“9427068F6EFA4833B43E60CB641E5B6C.COM”。 c.在集群内节点上以omm用户执行以下命令查询密码认证失败次数: ldapsearch H ldaps://OMS浮动IP地址:OLdap端口 LLL x D cnroot,dchadoop,dccom b krbPrincipalName系统内部用户名@当前域名,cn当前域名,cnkrbcontainer,dchadoop,dccom w LDAP管理员密码 e ppolicy grep krbLoginFailedCount 例如,查看oms/manager用户认证失败次数: ldapsearch H ldaps://10.5.146.118:21750 LLL x D cnroot,dchadoop,dccom b krbPrincipalNameoms/manager@9427068F6EFA4833B43E60CB641E5B6C.COM,cn9427068F6EFA4833B43E60CB641E5B6C.COM,cnkrbcontainer,dchadoop,dccom w cnroot,dchadoop,dccom 用户密码 e ppolicy grep krbLoginFailedCount krbLoginFailedCount: 5 d.登录FusionInsight Manager,选择“系统 > 权限 > 安全策略 > 密码策略”。 e.查看“密码连续错误次数”参数值,若小于等于“krbLoginFailedCount”参数值,则用户已被锁定。 说明 查看运行日志,也可以确认系统内部用户是否被锁定。 2.以omm用户登录主管理节点,执行以下命令解锁。 sh ${BIGDATAHOME}/omserver/om/share/om/acs/config/unlockuser.sh userName 系统内部用户名 例如, sh ${BIGDATAHOME}/omserver/om/share/om/acs/config/unlockuser.sh userName oms/manager
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        安全管理
        帐户管理
        帐户安全设置
        解锁系统内部用户
      • 入服与退服实例
        本章节主要介绍翼MapReduce的入服与退服实例操作。 操作场景 部分角色实例以分布式并行工作的方式对外部业务提供服务,服务会单独保存每个实例是否可以使用的信息,所以需要使用FusionInsight Manager为这些实例执行入服或退服的操作,变更实例的业务可用状态方式。 不支持该此功能的实例,默认无法执行任务。 说明 当前支持退服和入服操作的角色有:HDFS的DataNode、Yarn的NodeManager、HBase的RegionServer。 当DataNode数量少于或等于HDFS的副本数时,不能执行退服操作。若HDFS副本数为3时,则系统中少于4个DataNode,将无法执行退服,Manager在执行退服操作时会等待30分钟后报错并退出执行。 由于Mapreduce任务执行时,会生成一些副本数为10的文件,此时若DataNode实例数少于10时,将无法进行退服操作。 如果退服前,DataNode节点的机架数(机架数由各DataNode节点所配置的“机架”的名称数量决定)大于1;而退服部分DataNode后,剩余的DataNode节点的机架数变为1,则此次退服将会失败。所以需要在退服前评估退服操作对机架数的影响,以调整退服的DataNode节点。 在退服多个DataNode时,如果每个DataNode存储的数据量较大,如果执行选择多个DataNode同时退服,则很有可能会因超时而退服失败。为了避免这种情况,建议每次退服仅退服1个DataNode,进行多次退服操作。 操作步骤 1. DataNode节点退服前需要进行健康检查,步骤如下: 使用客户端用户登录客户端安装节点,并切换到客户端安装目录。 如果是安全集群,需要使用hdfs用户进行权限认证。 source bigdataenv
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        管理实例
        入服与退服实例
      • 安全防护介绍
        本文介绍天翼云APP支持哪些安全防护及如何开启。 天翼云APP支持用户对APP进行安全防护。 设置验证密码 第一次使用安全保护时,需要设置验证密码,步骤如下 1、登录天翼云APP,点击【我的】 【安全防护】 2、开启【APP启动保护】 3、按页面提示设置手势密码 验证方式 面容验证:可以选择使用系统预设的面容用于验证,面容认证更便捷 手势密码:可以对首次设置的手势密码进行修改,并支持选择是否展示手势轨迹 说明 面容验证和手势密码可同时开启,默认使用面容验证,也可选择切换验证方式。 关闭安全防护 如需关闭安全防护,可以在点击【我的】 【安全防护】选择关闭 注意 为了确保您在天翼云APP上进行的所有关键操作都经由您本人确认,保护您的资产和信息安全,建议您保持安全防护开启。
        来自:
        帮助文档
        天翼云APP
        安全防护
        安全防护介绍
      • 实践教程
        下述例程,实现了创建会话,到下发指令至云电脑,并得到返回结果。 完整示例 plaintext import Client from '@ctyun/desktopagentsdk'; async function main() { // 创建 Client 实例 const client new Client({ apiKey: 'yourapikey', apiSecret: 'yourapisecret', desktopCode: 'yourdesktopcode' }); let sessionnull; try { // 创建会话 session await client.createSession(); console.log('会话创建成功:', session.sessionId); // 移动鼠标并点击 await session.computer.movemouse(500, 300); await session.computer.clickmouse(500, 300); // 输入文本 await session.computer.typetext('Hello from Desktop Agent SDK!'); // 截图 await session.computer.screenshot(); } catch (error) { console.error('操作失败:', error); } finally { // 关闭会话 await session.close(); } } main();
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        Aluse云电脑
        SDK接入
        实践教程
      • IAM权限管理
        本文为您介绍云密评专区的权限管理能力,支持通过IAM实现对云密评专区的访问控制、权限分配。 天翼云提供统一身份认证(Identity and Access Management,简称IAM)服务,是提供用户进行权限管理的基础服务,可以帮助您安全的控制云服务和资源的访问及操作权限。通过IAM服务定义企业项目、创建子用户,轻松实现IAM子用户对云密评专区资源的访问控制、权限分配等。 默认情况下,天翼云主账号拥有管理员权限,而主账号创建的IAM用户没有任何权限。IAM用户需要加入用户组,并给用户组授权相应策略后,IAM用户才能获得策略对应的权限,才可以基于被授予的权限对云服务进行操作。 云密评专区支持企业项目管理,若您需要对云密评专区资源进行分组和管理,形成逻辑隔离,您可以创建企业项目,并将资源划分至不同的企业项目中,不同的企业项目可以绑定不同的用户组,并给用户组授予云密评专区产品的权限策略(包括系统策略和自定义策略),从而实现对特定资源的授权。 说明 仅“一类节点”区域的实例支持企业项目管理。 IAM应用场景 IAM策略主要面向同一主账号下,对不同IAM用户授权的场景: 您可以为不同操作人员或应用程序创建不同IAM用户,并授予IAM用户刚好能完成工作所需的权限,比如查看权限,进行最小粒度授权管理。 新创建的IAM用户可以使用自己的登录名和密码登录控制台,实现多用户协同操作时无需分享账号密码的安全要求。
        来自:
        帮助文档
        云密评专区
        用户指南
        密码产品实例
        IAM权限管理
      • 欠费说明
        本文介绍CDN加速欠费产生后的处理规则。 当客户的天翼云账户中,没有余额或产生欠费的情况下,天翼云会关停客户的CDN加速服务,并通过短信通知客户充值。 关停服务 关停客户的CDN加速服务,即天翼云CDN会立即将加速域名的CNAME入口解析至客户源站地址,控制台上域名状态变更为“已停止”,1天后将加速域名的CNAME解析至不可用地址。 恢复服务 对域名进行停用操作后,CDN节点会立即删除配置,但仍会在系统数据库中保留原来的配置记录,客户可通过在线充值结清欠款,并对域名进行【启用】操作,CDN加速产品即可恢复服务。操作步骤如下: 1. 登录CDN控制台。 2. 单击左侧导航栏【域名管理】【域名列表】。 3. 在【域名列表】页面,找到【已停止】的域名,单击【操作】列的【启用】。 4. 对弹出的【启用确认】,单击【确认启用】。 预警设置 为避免欠费情况的产生,可通过对客户在天翼云官网账户的可用额度进行预警设置,当用户的余额低于阈值,系统会发送短信提醒。 操作步骤: 1. 登录天翼云账户。 2. 单击右上角。 3. 单击【费用中心】。 4. 打开【可用额度预警】开关,修改预警阈值,当用户的余额低于阈值,系统会发送短信提醒。
        来自:
        帮助文档
        CDN加速
        计费说明
        欠费说明
      • 功能清单
        功能名称 功能描述 发布区域 当前云硬盘提供了三类API,分别为云硬盘API、云硬盘快照API、云硬盘自动快照API。 详细的提供了API的描述、语法、参数说明及示例等内容。 云硬盘API:全部 云硬盘快照API:华东1/华北2 云硬盘自动快照API:华东1/华北2 云硬盘支持多种配置规格,可挂载至云主机用作数据盘和系统盘,根据性能将其分为XSSD3、XSSD2、XSSD1、XSSD0、极速型SSD、超高IO、通用型SSD、高IO、普通IO几种规格。 您可以在实际使用中可以选择符合业务需求与成本预算的规格进行购买。 不同地域支持的磁盘类型不同,您可以通过 云硬盘的磁盘模式分为三种,分别是: VBD(Virtual Block Device):虚拟块存储设备。 SCSI (Small Computer System Interface):小型计算机系统接口。 FCSAN(Fibre Channel SAN):光纤通道协议的SAN网络。 VBD:全部 SCSI: HDD类型:拉萨3/北京9/西宁2/庆阳2/呼和浩特3 SSD类型:华北2/郑州5/上海36/西南1/西宁2/庆阳2/呼和浩特3/沈阳8/华东1 FCSAN:上海7 系统盘在创建云主机或物理机时自动添加,无需单独创建。数据盘可以在创建云主机或物理机时创建,由系统自动挂载给云主机或物理机,也可以在创建了云主机或物理机之后,单独创建云硬盘并挂载给云主机或物理机。 全部 创建云硬盘后,需要将云硬盘挂载给云主机或物理机,供云主机或物理机作为数据盘使用。 挂载云硬盘通常分为两种,一种是挂载非共享云硬盘,另一种为挂载共享云硬盘。 全部 当卸载数据盘时,支持离线卸载或在线卸载,即可在挂载该数据盘的云主机处于“运行中”或“关机”状态时进行卸载。 只有数据盘支持卸载操作,系统盘不支持卸载。 全部 一块新创建的数据盘在挂载至云主机后,还不能直接存储数据,您需要为这块数据盘创建分区、格式化等初始化操作后才可以正常使用。 全部 当云硬盘空间不足时,您可以扩大云硬盘的容量,也就是云硬盘扩容。云硬盘扩容可以有如下两种处理方式: 申请一块新的云硬盘,并挂载给云主机。 扩容原有云硬盘空间。系统盘和数据盘均支持扩容。 全部 当您不再使用包年/包月的云硬盘时,可以退订云硬盘以释放存储空间资源。退订云硬盘后,将停止对云硬盘收取费用。 当云硬盘被退订后,云硬盘的数据将无法被访问。同时,该云硬盘对应的物理存储空间会被回收,对应的数据会被覆盖。在数据被覆盖之前,该存储空间不会被再次分配。 全部 当您不再使用按量付费的云硬盘时,可以删除云硬盘以释放存储空间资源。 删除云硬盘后,将停止对云硬盘收取费用。当云硬盘被删除后,云硬盘的数据将无法被访问。同时,该云硬盘对应的物理存储空间会被回收,对应的数据会被覆盖。在数据被覆盖之前,该存储空间不会被再次分配。 全部 云硬盘快照是云硬盘数据在特定时间点的完整副本或镜像。作为一种主要的灾难恢复方法,您可以使用快照将数据完全恢复到创建快照时的时间点。 您可以通过管理控制台或者API接口创建云硬盘快照。 华东1/华北2 天翼云云硬盘支持自动快照功能,您可以通过自动快照策略周期性地为云硬盘创建快照,可同时适用于系统盘和数据盘。 自动快照服务便于您灵活设置快照创建任务,提高数据安全和操作容错率。 华东1/华北2 天翼云云硬盘回收站支持将删除的云硬盘资源保存至回收站中,是一种数据保护的方式。在一定时间内,您可以在回收站内恢复云硬盘数据,以防止误删除导致的云硬盘数据丢失。 回收站功能默认为关闭状态,如需使用,需要您手动开启,保留时间最多为7天。 华东1/南宁23/上海36/青岛20/武汉41/华北2/长沙42/西南1/南昌5/西安7/太原4/郑州5/西南2贵州/华南2/杭州7/庆阳2/呼和浩特3/佛山7 云硬盘备份是指将云硬盘中的数据备份到其他存储介质或位置的操作。 云硬盘备份是一种数据保护措施,旨在应对数据损坏、误删除、恶意操作或主存储系统故障等风险,以确保数据的可靠性和可恢复性。 芜湖4/合肥2/芜湖2/北京5/重庆2/厦门3/福州3/福州4/福州25/兰州2/庆阳2/佛山3/广州6/南宁23/南宁2/贵州3/海口2/石家庄20/郑州5/华北2/华东1/华南2/武汉3/武汉4/武汉41/郴州2/长沙3/长沙42/南京2/南京4/南京3/南京5/九江/南昌5/沈阳8/辽阳1/呼和浩特3/内蒙6/中卫5/中卫2/西宁2/西安7/西安4/西安5/西安3/青岛20/上海15/上海7/上海36/太原4/晋中/成都4/西南1/西南2贵州/乌鲁木齐7/乌鲁木齐27/拉萨3/昆明2/杭州7/杭州2 当您的业务因为等保合规或安全要求等原因,需要对存储在云硬盘上的数据进行加密保护时,您可以在创建云硬盘时勾选加密选项,即可对新创建的云硬盘进行加密。 南宁23/华东1/南昌5/华南2/西安7/太原4/华北2/郑州5/西南2贵州/杭州7/庆阳2/呼和浩特3/长沙42/芜湖4/西南1/上海36/上海15/北京9/上海17/佛山7/长春3/宁波2 共享云硬盘允许多个云主机并发访问同一个云硬盘,实现多个实例之间的数据共享和协作。对云硬盘的共享访问通常应用于数据集群应用系统、分布式文件系统和高可用性架构等场景。 一块共享云硬盘支持同时挂载到最多16台云主机,其中云主机包括弹性云主机和物理机两种,目前共享云硬盘只支持共享数据盘,不支持共享系统盘。 重庆2/南宁2/成都4/芜湖2/九江/西宁2/拉萨3/海口2/佛山3/贵州3/福州3/上海7/杭州2/北京5/南京3/南京4/西安4/内蒙6/晋中/郴州2/武汉4/福州4/昆明2/西安5/南京5/华东1/南宁23/上海36/石家庄20/辽阳1/青岛20/武汉41/福州25/乌鲁木齐27/华北2/西南1/长沙42/中卫5/南昌5/华南2/西安7/太原4/郑州5/西南2贵州/杭州7/西安3/庆阳2/乌鲁木齐7/中卫2/厦门3/乌鲁木齐4/上海15/芜湖4/北京9/上海17/呼和浩特3/沈阳8/上海20/佛山7/广州9/长春3/宁波2 当您开通云硬盘服务后,即可通过云监控来查看云硬盘的性能指标。 云硬盘支持的监控指标包括:磁盘读速率、磁盘写速率、磁盘读请求速率、磁盘写请求速率、平均写操作大小、平均读操作大小、平均写操作耗时、平均读操作耗时 。 全部 包年包月采用包周期预付费的计费模式,按订单的购买周期计费,适用于可预估资源使用周期的场景。 如果您需要更灵活的计费方式,按照云硬盘的实际使用时长计费,您可以将云硬盘的计费方式转为按需付费。 全部 天翼云提供多种云硬盘类型,满足不同场景的存储性能和价格需求,您可以根据业务需求变更云硬盘的类型。 例如,创建云硬盘时选择了通用型SSD,但后期需要更高的IOPS,则可以将该盘变配为超高IO型云硬盘。 普通IO、高IO、通用型SSD、超高IO:南宁23/上海36/青岛20/武汉41/华北2/西南1/南昌5/西安7/太原4/华南2/郑州5/西南2贵州/杭州7/庆阳2/呼和浩特3/长沙42/乌鲁木齐7/华东1/上海15/佛山7 X系列:已上线的地域, 除华北2均支持修改磁盘类型,已上线区域请参见 针对按需计费云硬盘,您可以手动释放云硬盘,也可以设置随实例释放云硬盘(如果云硬盘开启了随实例释放,则在释放云主机实例时云硬盘会自动一起释放)。 云硬盘的快照默认不随云硬盘自动释放,如果您不再需要某些云硬盘快照,可以将其手动释放。您还可以通过设置云硬盘释放策略,选择在释放云硬盘的同时释放该盘的全部快照。 随实例释放按需计费云硬盘:华东1/华北2 随云硬盘释放快照:华东1/华北2
        来自:
        帮助文档
        云硬盘 EVS
        产品介绍
        功能清单
      • 性能
        您还可以进行如下操作: 在历史性能页面右上角选择近1小时、近12小时、近1天、近2天、近7天或自定义时间,查看指标的详细情况。 您还可以选择某个指标,单击图表右上角的“详情”,选择近1小时、近12小时、近1天、近2天、近7天或自定义时间,查看该指标的详细情况。 单击“性能趋势对比查看”页签,选择需要查看的指标后,单击“确定”。 您也可以在性能趋势对比查看页签右上角,选择对比的时间。 打开“联动图表”开关,可以查看同一时刻其他指标的数据。 若您需要更清晰地查看各指标的详细情况,建议打开“全屏显示”。
        来自:
        帮助文档
        数据管理服务
        用户指南
        DBA智能运维
        GaussDB
        性能
      • 通过Flink作业处理OBS数据
        查看作业执行结果 1. 作业提交成功后,登录MRS集群的FusionInsight Manager界面,单击“集群 > 服务 > Yarn”。 2. 点击“ResourceManager WebUI”后的链接进入Yarn Web UI界面,在Applications页面查看当前Yarn作业的详细运行情况及运行日志。 3. 等待作业运行完成后,在OBS文件系统中指定的结果输出文件中可查看数据分析输出的结果。 下载“output”文件到本地并打开,可查看输出的分析结果。 a 3 and 2 batch 1 both 1 computing 2 data 2 demo 1 distribution 1 engine 1 flink 2 for 1 framework 1 is 2 it 1 mrs 1 parallel 1 processing 3 provides 1 stream 2 supports 2 test 1 that 2 this 1 unified 1 使用集群客户端命令行提交作业时,若不指定输出目录,在作业运行界面也可直接查看数据分析结果。 Job with JobID xxx has finished. Job Runtime: xxx ms Accumulator Results: e6209f96ffa423974f8c7043821814e9 (java.util.ArrayList) [31 elements] (a,3) (and,2) (batch,1) (both,1) (computing,2) (data,2) (demo,1) (distribution,1) (engine,1) (flink,2) (for,1) (framework,1) (is,2) (it,1) (mrs,1) (parallel,1) (processing,3) (provides,1) (stream,2) (supports,2) (test,1) (that,2) (this,1) (unified,1)
        来自:
        帮助文档
        翼MapReduce
        最佳实践
        数据分析
        通过Flink作业处理OBS数据
      • 配置跨Manager集群互信
        本章节主要介绍的是配置跨Manager集群互信。 操作场景 当不同的两个Manager系统下安全模式的集群需要互相访问对方的资源时,管理员可以设置互信的系统,使外部系统的用户可以在本系统中使用。 每个系统用户安全使用的范围定义为“域”,不同的Manager系统需要定义唯一的域名。跨Manager访问实际上就是用户跨域使用。 说明 最多支持配置500个互信集群。 对系统的影响 配置跨集群互信后,外部系统的用户可以在本系统中使用,请管理员根据企业业务与安全要求,定期检视Manager系统中用户的权限。 配置跨集群互信时需要停止所有集群,会造成业务中断。 配置跨集群互信后,互信的集群中均会增加Kerberos内部用户“krbtgt/ 本集群域名 @ 外部集群域名 ”、“krbtgt/ 外部集群域名 @ 本集群域名 ”,用户不能删除。请管理员根据企业安全要求,及时且定期修改密码,需同时修改互信系统中4个用户且密码保持一致。具体请参见修改组件运行用户密码。修改密码期间可能影响跨系统业务应用的连接。 配置跨集群互信后,各个集群都需要重新下载并安装客户端 配置跨集群互信后,验证配置后是否可以正常工作,且如何使用本系统用户访问对端系统资源,请参见配置跨集群互信后的用户权限。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        集群互信管理
        配置跨Manager集群互信
      • 使用Elasticsearch搜索数据
        本文通过示范例子,向您介绍天翼云云搜索服务Elasticsearch实例可以提供的检索和分析服务。 这里,我们以一个示范的例子,向您简单介绍天翼云Elasticsearch实例可以提供的检索和分析服务,包括创建索引、数据导入、数据搜索、筛选排序等。 操作步骤 创建实例 1. 在“云搜索服务”产品页,单击“立即开通”。 2. 在云搜索服务实例创建页面选择实例类型为Elasticsearch、订购周期、当前区域(即资源池)、可用区、填写实例名称、节点规格等基础配置信息后,按页面提示并根据需要进行配置,然后点击下一步。 3. 按确认信息页面提示,勾选相关协议,完成订单付款,即可完成订购,等待资源开通完成,对应实例处于“运行中”状态,即为成功。 导入数据 Elasticsearch实例支持多种导入方式,常用的业务场景是把Logstash作为源接入搜索实例,在此,为了演示方便,我们以商品检索为例子,从Kibana的DevTools控制台里调用Rest API导入数据。 注意:Kibana需要预先链接公网使用,具体配置方法请参考实例公网访问。 1. 先在Kibana的左边栏里选择“Dev Tools“,进入控制台,其中左边屏幕为命令行调用API栏,右边屏幕为调用结果返回栏。 2. 首先,在console界面,我们创建索引productsfruits来定义存储数据的Schema。 具体语句如下: plaintext PUT /productsfruits { "mappings": { "properties": { "name": { "type": "text", "fields": { "keyword": { "type": "keyword", "ignoreabove": 256 } } }, "price": { "type": "long" } } }, "settings": { "numberofshards": "1", "numberofreplicas": "0" } } 3. 然后在console里执行bulk插入语句,来将数据导入到索引里。 返回结果里errors为false,表示数据全部导入,具体语句如下: plaintext PUT /productsfruits/bulk {"index":{"id":1}} {"name": "苹果", "price": 10} {"index":{"id":2}} {"name": "香蕉", "price": 20} {"index":{"id":3}} {"name": "菠萝", "price": 15} {"index":{"id":4}} {"name": "火龙果", "price": 25}
        来自:
        帮助文档
        云搜索服务
        快速入门
        使用Elasticsearch搜索数据
      • 使用OpenSearch搜索数据
        本文通过示范例子,向您介绍天翼云云搜索服务OpenSearch实例可以提供的检索和分析服务。 这里,我们以几个示范的例子,向您简单介绍天翼云OpenSearch实例可以提供的检索和分析服务,包括创建索引、数据导入、数据搜索、筛选排序等。 操作步骤 创建实例 1. 在【云搜索服务】产品页,单击【立即开通】。 2. 在云搜索服务实例创建页面选择计费模式、订购周期、当前区域(即资源池)、可用区、实例类型、实例版本、实例名称、节点规格等基础配置信息后,按页面提示并根据需要进行配置,然后点击下一步。 3. 按确认信息页面提示,勾选相关协议,完成订单付款,即可完成订购,等待资源开通完成,对应实例处于“运行中”状态,即为成功。 导入数据 OpenSearch实例支持多种导入方式,常用的业务场景是把Logstash作为源接入搜索实例,在此,为了演示方便,我们以商品检索为例子,选择从Dashboards的DevTools控制台里调用Rest API导入数据。 注意:Dashboards需要预先链接公网使用,具体配置方法请参考实例公网访问。 1. 先在Dashboards的左边栏里选择“DevTools”,进入控制台。其中左边屏幕为命令行调用API栏,右边屏幕为调用结果返回栏。 2. 首先,在console界面,我们创建索引productsfruits来定义存储数据的Schema。 具体语句如下: plaintext PUT /productsfruits { "mappings": { "properties": { "name": { "type": "text", "fields": { "keyword": { "type": "keyword", "ignoreabove": 256 } } }, "price": { "type": "long" } } }, "settings": { "numberofshards": "1", "numberofreplicas": "0" } } 3. 然后我们,在console里执行bulk插入语句,来将数据导入到索引里。 返回结果里errors为false,表示数据全部导入,具体语句如下: plaintext PUT /productsfruits/bulk {"index":{"id":1}} {"name": "苹果", "price": 10} {"index":{"id":2}} {"name": "香蕉", "price": 20} {"index":{"id":3}} {"name": "菠萝", "price": 15} {"index":{"id":4}} {"name": "火龙果", "price": 25}
        来自:
        帮助文档
        云搜索服务
        快速入门
        使用OpenSearch搜索数据
      • 设置API可见
        本章节主要介绍设置API可见。 操作场景 当需要修改API的在服务目录中的可见范围时,可以通过“设置可见”功能或编辑API中的“服务目录可见性”参数进行设置。 前提条件 已创建API。 通过“设置可见”功能修改API可见范围 1.在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据服务”模块,进入数据服务页面。 详见下图: 选择数据服务 2.在左侧导航栏选择服务版本(例如:专享版),进入总览页。 3.进入“开发API > API目录”或“开发API > API管理”页面,在待修改的API所在行,选择“更多 >设置可见”。 4.在弹出的窗口中点击添加,填写项目ID并确认,即可设置此API在服务目录中额外对以该项目下的用户可见。 详见下图:设置可见 通过“服务目录可见性”参数修改API可见范围 1.在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据服务”模块,进入数据服务页面。 详见下图: 选择数据服务 2.在左侧导航栏选择服务版本(例如:专享版),进入总览页。 3.进入“开发API > API目录”或“开发API > API管理”页面,在API列表操作列中,选择“编辑”。注意,仅当API处于已创建、已驳回、已下线、已停用的情况下才能进行API修改。 4.在基本配置处,修改“服务目录可见性”参数的取值,可以选择为“当前工作空间可见”、“当前项目可见”或“当前租户可见”。然后保存修改。 5.修改完成后,重新恢复或发布API,即可修改此API在服务目录中的可见范围。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据服务
        开发API
        管理API
        设置API可见
      • 删除Vhost
        本章节主要介绍如何删除Vhost。 操作场景 本章节主要介绍删除Vhost的操作,有以下几种方式,您可以根据实际情况选择任意一种方式: 方式一:在控制台删除 方式二:使用RabbitMQ WebUI删除 方式三:调用API删除 方式一:在控制台删除 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择RabbitMQ实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”>“分布式消息服务”>“RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤 4 单击实例名称,进入实例详情页面。 步骤 5 在左侧导航栏选择“Vhost列表”,进入Vhost列表页面。 步骤 6 通过以下任意一种方法,删除Vhost。 勾选Vhost名称左侧的方框,可选一个或多个,单击信息栏左上侧的“删除Vhost”。 在待删除的Vhost所在行,单击“删除”。 步骤 7 在弹出的确认删除对话框中,单击“是”。 方式二:使用RabbitMQ WebUI删除 步骤 1 登录RabbitMQ WebUI。 步骤 2 在顶部导航栏选择“Admin”,进入Admin页面。 步骤 3 在右侧导航栏选择“Virtual Hosts”,进入Virtual Hosts页面。 图1 Virtual Hosts页面 步骤 4 单击待删除的Vhost名称,进入Vhost详情页。 图2 待删除的Vhost 步骤 5 在“Delete this vhost”区域,单击“Delete this virtual host”,弹出确认删除对话框。 图3 删除Vhost 步骤 6 单击“确定”,完成Vhost的删除。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        Vhost管理
        删除Vhost
      • 查询消息
        本文主要介绍查询消息。 操作场景 您可以查看指定Topic不同分区的偏移量、消息大小、创建时间以及消息正文。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例名称,进入实例详情页面。 步骤 5 选择“消息查询”页签,在消息页签页面,设置查询的Topic名称、分区以及查询方式。 如果未设置具体分区,查询结果显示Topic所有分区的消息。 查询方式支持以下两种方式: 按创建时间查询:即按生产该消息的时间。 按偏移量查询:即记录消息的位置。 说明 当Topic中的数据量比较大时,单副本Topic查询消息可能会报“内部服务错误”,建议根据数据量适当减小查询时间范围。 步骤 6 单击“搜索”,查询消息。 查询结果如下: 图 查询Topic消息 消息的参数说明如下: Topic名称:消息所在的Topic名称。 分区:消息所在的分区。 偏移量:消息在分区中的位置。 消息大小:消息存入磁盘的大小,单位为B。 创建时间:消息的创建时间。创建时间由生产客户端在生产消息时通过CreateTime指定的,如果生产消息时没有设置此参数,创建时间会默认为1970。 步骤 7 单击“查看消息正文”,弹出“查看消息正文”对话框,查看消息的内容,包括Topic名称、分区、偏移量、创建时间和消息正文。 步骤 8 (可选)如果需要恢复默认设置,单击“重置”。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消息管理
        查询消息
      • 登录文档数据库服务
        本页介绍了如何登录文档数据库服务。 前提条件 在登录并使用TeleDB数据库控制台前,您需要预先购买文档数据库服务实例,实例购买页面会提供版本、规格等多样参数供您选择,您可以根据业务需求选择最适合您的数据库规格。 控制中心方式登录控制台 1. 打开天翼云官网,并登录。 2. 单击页面右上方“控制中心”,进入天翼云管理控制台页面。 3. 右上角根据您的需要切换到对应企业项目。 4. 左上角可切换您需要购买文档数据库服务的区域和资源池。 5. 选择资源池后信息,在页面找到“数据库”专栏,点击“文档数据库“,即可进入文档数据库服务管理控制台页面。 产品详情页方式登录登录控制台 1. 打开天翼云官网,并登录。 2. 从官网首页依次选择“产品” > “数据库” > “NoSQL数据库”并点击“文档数据库服务”。 3. 进入到“文档数据库服务”产品详情页,点击页面中的“管理控制台”按钮,即可进入到TeleDB数据库控制台页面,点击“DDS”>“实例管理”进入文档数据库服务控制台。 4. 在页面左上角可切换已购买实例的区域和资源池。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        登录文档数据库服务
      • 基础概念类
        资源编排ROS和 Terraform 有什么关系? 资源编排ROS基于 Terraform 引擎进行封装,用户可以通过控制台或 API 使用 Terraform 语法(HCL)来描述云上资源。服务负责资源创建、更新、销毁的生命周期管理,无需用户本地安装 Terraform。 资源编排如何收费 资源编排ROS本身不收取服务费。但是,通过本服务创建和管理的一切天翼云资源(如ECS、EIP、CCSE、Mysql等),都会按照各自产品的标准计费规则进行收费。 服务支持的 Terraform 版本是多少? 当前支持的Terraform版本号是1.5.7 使用资源编排ROS需要哪些权限? 用户需具备对应云资源的创建、查询、删除权限,以及对资源编排ROS本身的访问权限(例如:模板管理、资源栈管理)。 Terraform Provider 的 AK/SK 是如何管理的? 对于AK/SK:控制台会自动使用您当前登录的账号权限,生成委托ak/sk, 以您的权限进行资源的开通,无需在模板中指定。 我的Terraform状态文件存储在哪里? 状态文件由资源编排ROS后端统一托管。您无需关心其存储位置和备份问题。这种机制保证了状态文件的安全性和多用户协作时的一致性。 如何将天翼云上已经存在的资源纳入到资源栈中进行管理? 当前版本暂时不支持,我们正在抓紧迭代中。
        来自:
        帮助文档
        资源编排ROS
        常见问题
        基础概念类
      • 1
      • ...
      • 233
      • 234
      • 235
      • 236
      • 237
      • ...
      • 610
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      GPU云主机

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      训推服务

      模型推理服务

      一站式智算服务平台

      智算一体机

      人脸实名认证

      推荐文档

      android端

      产品定义

      邀请参会方

      域名解析

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号