活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 聚力AI赋能 天翼云大模型专项 大模型特惠专区·Token Plan 轻享包低至9.9元起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V4-Flash
  • GLM-5.1
  • Qwen3.5-122B-A10B
  • DeepSeek-V3.2(旗舰版)
  • GLM-5(正式版)
  • Qwen3.5-397B-A17B(正式版)
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      数据集成工具_相关内容
      • 数据库管理
        本文主要介绍如何使用数据管理服务DMS管理数据库。 前提条件 已登录数据管理服务。 登录所用的数据库账号已经具备足够的库表访问权限。 操作步骤 1. 点击 数据资产 > 实例管理,进入实例列表界面。 2. 在实例列表找到目标实例,点击 库列表 按钮,进入库列表页面。 3. 数据库管理的具体操作,详见 库列表。 说明 如需同步实时的数据库元数据,请点击 同步元数据 按钮手动同步。
        来自:
        帮助文档
        数据管理服务
        用户指南
        数据资产
        实例管理
        实例列表
        数据库管理
      • 配置OBS桶
        本章节主要介绍配置的配置OBS桶。 脚本、作业或节点的历史运行记录依赖于OBS桶,如果未配置测试运行历史OBS桶,则无法查看历史运行的详细信息。请参考本节操作配置OBS桶。 配置方法 1.登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2.在数据开发主界面的左侧导航栏,选择“配置管理 > 配置”。 3.选择“OBS桶”。 4.配置OBS桶的信息。 详见下图:配置OBS桶 5.单击“保存”,完成配置。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        配置管理
        配置
        配置OBS桶
      • RocketMQ性能白皮书
        测试场景 本章节主要测试RocketMQ不同产品规格在发送1KB大小的消息,实例的网络入流量、网络出流量、消息生产速率、消息消费速率、CPU核均负载和内存使用率。 测试环境 购买实例 名称 规格 存储空间 rocketmq01 c7.xlarge.2 4C8G 超高I/O 500GB rocketmq02 c7.2xlarge.2 8C16G 超高I/O 500GB rocketmq03 c7.4xlarge.2 16C32G 超高I/O 500GB 控制台创建主题 名称 权限 关联代理 队列个数 topic01 发布+订阅 broker1 8 控制台创建消费组 名称 关联代理 最大重试次数 是否允许以广播模式消费 group01 broker1 16 否 测试工具准备 购买1台ECS服务器(区域、可用区、虚拟私有云、子网、安全组与RocketMQ实例保持一致,Linux系统),安装jdk,并配置环境变量 tar zxvf jdk8u131linuxx64.tar.gz vi /etc/profile 追加以下内容 export JAVAHOME/root/jdk1.8.0131 export PATH$JAVAHOME/bin:$PATH 生效配置 source /etc/profile 下载测试工具 wget 解压测试工具 unzip rocketmqall5.1.4binrelease.zip 测试命令
        来自:
        帮助文档
        分布式消息服务RocketMQ
        性能白皮书
        RocketMQ性能白皮书
      • 通过Flink作业处理OBS数据
        本章节主要介绍通过Flink作业处理OBS数据的最佳实践。 应用场景 MRS支持在大数据存储容量大、计算资源需要弹性扩展的场景下,用户将数据存储在OBS服务中,使用MRS集群仅做数据计算处理的存算分离模式。 本文将向您介绍如何在MRS集群中运行Flink作业来处理OBS中存储的数据。 方案架构 Flink是一个批处理和流处理结合的统一计算框架,其核心是一个提供了数据分发以及并行化计算的流数据处理引擎。它的最大亮点是流处理,是业界最顶级的开源流处理引擎。 Flink最适合的应用场景是低时延的数据处理(Data Processing)场景:高并发pipeline处理数据,时延毫秒级,且兼具可靠性。 在本示例中,我们使用MRS集群内置的Flink WordCount作业程序,来分析OBS文件系统中保存的源数据,以统计源数据中的单词出现次数。 操作流程 本示例操作流程如下: 创建MRS集群 创建并购买一个包含有Flink组件的MRS集群,详情请参见购买自定义集群。 说明 本文以购买的MRS 3.1.0版本的集群为例,集群未开启Kerberos认证。 在本示例中,由于我们要分析处理OBS文件系统中的数据,因此在集群的高级配置参数中要为MRS集群绑定IAM权限委托,使得集群内组件能够对接OBS并具有对应文件系统目录的操作权限。 您可以直接选择系统默认的“MRSECSDEFAULTAGENCY”,也可以自行创建其他具有OBS文件系统操作权限的自定义委托。 集群购买成功后,在MRS集群的任一节点内,使用omm用户安装集群客户端,具体操作可参考安装并使用集群客户端。 例如客户端安装目录为“/opt/client”。
        来自:
        帮助文档
        翼MapReduce
        最佳实践
        数据分析
        通过Flink作业处理OBS数据
      • 配置OpenTSDB源端参数
        参数名 说明 取值样例 开始时间 查询的起始时间,格式为yyyyMMddHHmmdd的字符串或时间戳。 20180920145505 结束时间 可选参数,查询的终止时间,格式为yyyyMMddHHmmdd的字串或时间戳。 20180921145505 指标 输入迁移哪个指标的数据,或选择OpenTSDB中已存在的指标。 city.temp 聚合函数 输入聚合函数。 sum 标记 可选参数,如果这里有输入标记,则只迁移标记的数据。 tagk1:tagv1,tagk2:tagv2
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        配置作业源端参数
        配置OpenTSDB源端参数
      • 生成数据密钥并导出
        接口功能介绍 生成并导出数据密钥 接口约束 请保证账户余额大于0 URI POST /v1/keyCompute/generateAndExportDataKey 路径参数 无 Query参数 无 请求参数 请求头header参数 参数 是否必填 参数类型 说明 示例 下级对象 regionId 是 String 资源池id fecnjniakfkn2314ndekqldedcsadfg 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 cmkUuid 是 String 密钥唯一标识id 474e569e8814474a948bdbcf6d853eff keySpec 否 String 指定生成数据密钥类型 AES256 numberOfBytes 否 String 指定生成的密钥长度 128 publicKeyBlob 是 String base64格式的公钥 wrappingAlgorithm 是 String 使用publicKeyBlob所指定的公钥,加密(Wrap)数据密钥时的加密算法 wrappingKeySpec 是 String Publickeyblob的密钥类型 RSA128 响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 返回码 取值范围:200 成功 200 error String 错误码 KMS0514 message String 调用结果信息 加密数据成功 returnObj Object 接口返回结果 returnObj 表 returnObj 参数 参数类型 说明 示例 下级对象 exportedDataKey String 导出的数据密钥密文 AK0Fq+zuxUitFTmOpyJkJb8VsjR7t8RLFGMSLxsiuK6s6/8dyQmlI5lxCxBFDfuRT9bpLqLAlKNm7DM+NzYNNwshq1GsX7+ujaTfHIt5a4QOW5mLdnPEpdpbUfOHzXlV3pvToDC24wPJjw7KcIQMqchfOzuixXWtreEVf8LK4J1hMiVp1VuiDO2HR1dUjk+RZVsQKlZy0xf55qN4uffknp1c7bwv5Fd1mPIVzBjvjdz9h+8gTG2VVygN1uHo0tCCljQRKFGLo67y/E8Dn8qyWANWKhPl0dkjNrOtRvwm1kNK7cunPIECkpYm1lHnBPO3QPkzIC7t5dQJzu3T0iMAAg requestId String 请求id 2a56124813ed4ef7a359e818dce118d8 cmkUuid String 密钥唯一标识id 474e569e8814474a948bdbcf6d853eff keyVersionId String 密钥版本id f2ffbff9940a41a4ba9afe1fd8f22792 ciphertextBlob String 数据密钥密文 itIb4kN84JKrbv8P5ZTZJyn3cbu0SLvblB5/csedLEchgF5ijFx9nEc5Y0DpzWba dataKeyId String 数据密钥id 012ea0d1862a488b956e107ffae5059f
        来自:
        帮助文档
        密钥管理
        API参考
        API
        2022-11-03
        生成数据密钥并导出
      • Elasticsearch整库迁移到云搜索服务
        创建云搜索服务连接 1.单击CDM集群后的“作业管理”,进入作业管理界面,再选择“连接管理 > 新建连接”,进入选择连接器类型的界面。 2.连接器类型选择“云搜索服务”后单击“下一步”,配置云搜索服务连接参数。 名称:用户自定义连接名称,例如“csslink”。 Elasticsearch服务器列表:配置为云搜索服务集群(支持5.X以上版本)的连接地址、端口,格式为“ip:port”,多个地址之间使用分号(;)分隔,例如192.168.0.1:9200;192.168.0.2:9200。 用户名、密码:配置为访问云搜索服务集群的用户,需要拥有数据库的读写权限。 3.单击“保存”回到连接管理界面。 创建Elasticsearch连接 1.在CDM集群管理界面,单击集群后的“作业管理”,选择“连接管理 > 新建连接”,进入连接器类型的选择界面。 2.连接器类型选择“Elasticsearch”后单击“下一步”,配置Elasticsearch连接参数,Elasticsearch连接参数与云搜索服务的连接参数一样: 名称:用户自定义连接名称,例如“eslink”。 Elasticsearch服务器列表:配置为本地Elasticsearch数据库的IP地址、端口,多个地址之间使用分号(;)分隔。 3.单击“保存”回到连接管理界面。 创建整库迁移作业 1.选择“整库迁移 > 新建作业”,开始创建Elasticsearch整库迁移到云搜索服务的任务。 详见下图:创建Elasticsearch整库迁移作业 作业名称:用户自定义便于记忆、区分的任务名称。 源端作业配置 −源连接名称:选择创建Elasticsearch连接中的“eslink”。 −索引:单击输入框后面的按钮,可选择本地Elasticsearch数据库中的一个索引,也可以手动输入索引名称,名称只能全部小写。需要一次迁移多个索引时,这里可配置为通配符,CDM会迁移所有符合通配符条件的索引。例如这里配置为cdm时,CDM将迁移所有名称为cdm开头的索引:cdm01、cdmB3、cdm45…… 目的端作业配置 −目的连接名称:选择创建云搜索服务连接中的“csslink”。 −索引:待写入数据的索引,这里可以选择一个云搜索服务中已存在的索引,也可以手动输入一个不存在的索引名称,名称只能全部小写,CDM会自动在云搜索服务中创建该索引。一次迁移多个索引时,该参数将被禁止配置,CDM自动在目的端创建索引。 −导入前清空数据:如果上面选择的索引,在云搜索服务中已存在,这里可以选择导入数据前是否清空该索引中的数据。如果选择不清空,则数据追加写入该索引。 2.作业配置完成后,单击“保存并运行”,回到作业管理界面,在整库迁移的作业管理界面可查看执行进度和结果。 本地Elasticsearch索引中的每个类型都会生成一个子作业并发执行,可以单击作业名查看子作业进度。 3.作业执行完成后,单击作业操作列的“历史记录”,可查看该作业的历史执行记录、读取和写入的统计数据,以及日志信息(子作业才有日志)。 详见下图:作业执行记录
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        使用教程
        Elasticsearch整库迁移到云搜索服务
      • 规格说明
        本章节主要介绍规格说明。 专享版规格 数据服务专享版的实例规格,如下表所示。 专享版实例规格说明 实例规格 最大支持发布的API数量 small (X86或ARM) 500 medium (X86或ARM) 1000 large (X86或ARM) 2000 API返回数据规格 数据服务适用于小批量数据的快速响应交互场景,不适用于将大量数据通过API的方式返回。当前通过数据服务API返回数据的规格如下表所示。 API的返回数据条数限制 API分类 使用场景 数据源 默认规格 配置类API 调试API DLI/MySQL/RDS/DWS 10 配置类API 调用API DLI/MySQL/RDS/DWS 100 脚本类API 测试SQL 10 脚本类API 调试API DLI 默认分页:100 自定义分页:1000 脚本类API 调试API MySQL/RDS/DWS 默认分页:10 自定义分页:2000 脚本类API 调用API DLI 默认分页:100 自定义分页:1000 脚本类API 调用API MySQL/RDS/DWS 默认分页:10 自定义分页:2000
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据服务
        规格说明
      • 重颁发
        证书重颁发,是指在证书仍然有效时,由于某些特殊原因,用户需要获取一张新证书。 操作场景 通常在下述场景下,需要重颁发证书: 密钥泄露或丢失:为了网站的安全,建议重颁发一张新证书。 域名删减:原有的证书将不再适用,需要重颁发证书以匹配新域名。 密钥算法升级:通过密钥算法升级,可优化安全性、性能、合规性,系统性地提升安全防护能力并优化资源效率。 约束限制 适用产品:SSL证书、私有(内网)证书 适用品牌:CFCA、GlobalSign、标准版、DigiCert(SecureSite、GeoTrust、TrustAsia) 适用算法:国际、国密 重颁发次数限制:单张证书在有效期内(199天 )最多可申请3次重颁发,第3次申请后,重颁发按钮置灰。 重颁发后新证书的有效期: CFCA、GlobalSign:原证书剩余时间,仅在证书到期前30天内重颁发时将获得199天续期证书。 标准版、DigiCert(SecureSite、GeoTrust、TrustAsia):199天。 操作步骤 1. 登录证书管理服务控制台。 2. 选择“SSL证书管理 > SSL证书列表”或“私有证书管理 > 私有证书列表”。 3. 选择需要进行重颁发的证书,单击“操作”列的“重颁发”。 4. 填写证书申请的相关信息。 参数 说明 证书绑定域名 第一个域名将作为证书通用域名名称(不可修改)。只可删减其他域名。 密钥算法 可选择“RSA”、“ECC”或“SM2”。 证书请求文件 CSR是一个包含网站、服务、国家、组织、域名、公钥和签名的编码文件,用于从可信的证书颁发机构(CA)获取证书。 支持“系统生成”或“手动生成”两种方式: 系统生成:根据用户所配置的信息,系统自动生成一个CSR。为保障您的证书顺利申请,建议您使用系统生成CSR的方式,避免因内容不正确而导致的审核失败。 手动生成:在下拉框中选择已手动创建的CSR,使用已创建的CSR申请证书。 注意 请不要在证书签发完成前删除CSR。 手动生成将无法署到天翼云产品。 私钥文件 填写您的CSR私钥。 您可以单击“上传”并选择存储在本地计算机的证书私钥文件,将文件内容上传到文本框,或者使用文本编辑工具打开KEY格式的证书私钥文件,复制其中的内容并粘贴到该文本框。 5. 单击“确定”,提交申请。 证书状态更新为“申请审核中重颁发”。申请通过后,证书状态将更新为“已签发”。 新证书签发后,原证书吊销说明: 品牌 是否吊销 吊销说明 CFCA 是 原证书将在3天内吊销。 GlobalSign 否 原证书与新证书可同时使用。 标准版、DigiCert(SecureSite、GeoTrust、TrustAsia) 吊销的场景:仅当申请重颁发时删减域名,原证书将在新证书签发3 天后吊销。 不吊销的场景:其他场景不吊销原证书。
        来自:
        帮助文档
        证书管理服务
        用户指南
        SSL证书
        管理SSL证书
        重颁发
      • 查看监控数据
        本文主要介绍查看监控数据。 操作场景 云监控对Kafka实例的运行状态进行日常监控,可以通过控制台直观的查看Kafka实例各项监控指标。 前提条件 已创建Kafka实例,且实例中有可消费的消息。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 通过以下任意一种方法,查看监控数据。 在Kafka实例名称后,单击。跳转到云监控页面,查看实例、节点、队列和消费组的监控数据,数据更新周期为1分钟。 单击Kafka实例名称,进入实例详情页。在左侧导航栏单击“监控”,进入监控页面,查看实例、节点、队列和消费组的监控数据,数据更新周期为1分钟。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        监控
        查看监控数据
      • 结构化数据
        使用限制 分类分级任务默认仅启动数据打标 、结果发布功能; 若要启用任务分配、结果审核以及结果验收功能页面,需登录SysAdmin账号,进入“系统管理 > 安全设置”页面,单击“审核验收模式”开关并在右侧下拉框选择“审核员审核+验收员审核”,启动任务分配、结果审核与结果验收功能;下拉框中选择“仅审核员审核”,仅启动任务分配、结果审核功能。 任务分配 任务分配功能能够将分类分级任务分配给指定的打标员,每个打标员只能看到自己分配的任务。 1.使用安全管理员账号登录数据分类分级实例。 2.在左侧导航栏选择“分类分级任务 > 结构化数据”即可进入“结构化数据”页面,在页面上方选择“任务分配”页签。 3.单击页面左上角的“分配任务”按钮,在弹出的窗口中填写相关参数。 参数 参数说明 填写样例 任务名称 填写任务名称。 Test 数据源 选择所需数据源;数据源来自数据源管理中添加的数据源,已添加分类分级任务的数据源无法再次添加分类分级任务; 系统默认选择最新添加且尚未被添加分类分级任务的数据源。 行业模板 显示选中数据源对应的行业模板;该模板与新增数据源时设置的行业模板保持一致,如需修改,请至数据源管理页面编辑对应数据源配置。 打标员 显示所有用户名+角色标签;用户手动选择时,没有数据分类分级任务执行权限的用户置灰、无法选中,鼠标悬浮提示“无数据分类分级任务执行权限”。 4.填写完成后单击“确认” ,即可完成分类分级任务分配。 注意 审核验收模式开启后,数据打标页的“新增”按钮将被隐藏,并启动任务分配页面,有分配权限的用户可以使用分配任务、批量分配、删除任务功能;若审核验收模式关闭,“新增”按钮恢保持可见,并关闭任务分配页面。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据分类分级操作指导
        分类分级任务
        结构化数据
      • 查看灾备监控
        本节主要介绍查看灾备监控 数据复制服务提供对灾备实例性能和进度的监控,可根据界面的监控数据判断链路健康度、数据完整性等,以便及时排查和处理引起数据差异的问题,也可作为数据恢复时的参考依据。RPO和RTO均为0时,表示数据已经完全迁移到灾备库,可以作为主备倒换的参考。 前提条件 已登录数据复制服务管理控制台。 已成功创建数据灾备任务。 操作步骤 步骤 1 在“实时灾备管理”页面,选择指定的灾备任务,单击任务名称进入“基本信息”页签。 步骤 2 在“基本信息”页签,单击“灾备监控”页签。 RPO(Recovery Point Objective),为业务数据库与DRS实例数据差的一种度量方式,RPO0时,意味着业务数据库的数据已经全部到达DRS实例。 RTO(Recovery Time Objective),处在传输中数据量的一种度量方式,RTO0时,意味着DRS实例上的事务已经全部在灾备数据库上执行完毕。 时延监控:展示RPO、RTO的历史数据轨迹,对真实灾难将发生时的数据丢失量具有一定的预测意义。可重点关注以下两种类型数据: 长时间RPO、RTO高的时间段。 规律性RPO、RTO高的时间段。 自治监控:展示DRS的智能自制能力,主要包括: 网络断连时,DRS自动重连并断点续传的次数。 发生数据冲突时,DRS自动使用最新数据覆盖旧数据的次数。 性能监控:展示了DRS实例的实时读取速度和写入速度,有助于诊断性能瓶颈。 资源监控:展示了DRS实例的资源使用情况,有助于诊断性能瓶颈。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时灾备
        任务生命周期
        查看灾备监控
      • CoapServer监控
        指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 接口监控(detail,以接口、报文类型、请求类型为维度统计接口调用数据。) url url 请求的url ENUM LAST 接口监控(detail,以接口、报文类型、请求类型为维度统计接口调用数据。) requestType 报文类型 该调用的报文类型 ENUM LAST 接口监控(detail,以接口、报文类型、请求类型为维度统计接口调用数据。) concurrentMax 最大并发 该方法的最大并发 INT MAX 接口监控(detail,以接口、报文类型、请求类型为维度统计接口调用数据。) errorCount 错误数 该方法的错误数 INT SUM 接口监控(detail,以接口、报文类型、请求类型为维度统计接口调用数据。) invokeCount 调用次数 该方法的调用次数 INT SUM 接口监控(detail,以接口、报文类型、请求类型为维度统计接口调用数据。) maxTime 最大响应时间 该方法在采集周期内最大响应时间 INT MAX 接口监控(detail,以接口、报文类型、请求类型为维度统计接口调用数据。) runningCount 正在执行数 该方法在采集时间点正在执行数量 INT SUM 接口监控(detail,以接口、报文类型、请求类型为维度统计接口调用数据。) range1 010ms 响应时间在010ms范围请求数 INT SUM 接口监控(detail,以接口、报文类型、请求类型为维度统计接口调用数据。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM 接口监控(detail,以接口、报文类型、请求类型为维度统计接口调用数据。) range3 100500ms 响应时间在100500ms范围请求数 INT SUM 接口监控(detail,以接口、报文类型、请求类型为维度统计接口调用数据。) range4 5001000ms 响应时间在5001000ms范围请求数 INT SUM 接口监控(detail,以接口、报文类型、请求类型为维度统计接口调用数据。) range5 110s 响应时间在110s范围请求数 INT SUM 接口监控(detail,以接口、报文类型、请求类型为维度统计接口调用数据。) range6 10s以上 响应时间在10s以上请求数 INT SUM 接口监控(detail,以接口、报文类型、请求类型为维度统计接口调用数据。) totalTime 总响应时间 该方法的总响应时间 INT SUM 接口监控(detail,以接口、报文类型、请求类型为维度统计接口调用数据。) method 请求类型 该调用的请求类型 ENUM LAST 接口监控(detail,以接口、报文类型、请求类型为维度统计接口调用数据。) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST 接口监控(detail,以接口、报文类型、请求类型为维度统计接口调用数据。) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST 接口监控(detail,以接口、报文类型、请求类型为维度统计接口调用数据。) lastError 错误信息 错误信息 STRING LAST 状态码(statusInfo,以接口返回的状态码维度统计接口调用数据。) statusInfo 状态码 状态码 ENUM LAST 状态码(statusInfo,以接口返回的状态码维度统计接口调用数据。) count 调用次数 该状态码的发生次数 INT SUM 状态码(statusInfo,以接口返回的状态码维度统计接口调用数据。) url url 状态码的url STRING LAST 集群调用(cluster,以调用方集群id维度统计接口调用数据。) clusterId 集群id 调用方的集群id ENUM LAST 集群调用(cluster,以调用方集群id维度统计接口调用数据。) invokeCount 调用次数 该集群的调用次数 INT SUM 集群调用(cluster,以调用方集群id维度统计接口调用数据。) totalTime 总响应时间 该集群调用的总响应时间 INT SUM 集群调用(cluster,以调用方集群id维度统计接口调用数据。) errorCount 错误次数 该集群调用的错误次数 INT SUM 集群调用(cluster,以调用方集群id维度统计接口调用数据。) clientErrorCount 客户端错误次数 该集群调用的客户端错误次数 INT SUM 集群调用(cluster,以调用方集群id维度统计接口调用数据。) serverErrorCount 服务端错误次数 该集群调用的服务端错误次数 INT SUM CoapServer版本(version,CoapServer版本。) version 版本 版本 STRING LAST
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        物联网
        CoapServer监控
      • 使用迁移任务在线迁移其他云厂商Redis
        迁移后验证 数据迁移前如果目标Redis中数据为空,迁移完成后,可以通过以下方式确认数据的完整性: 1. 连接源Redis和目标Redis。连接Redis的方法请参考使用rediscli连接Redis实例。 2. 输入info keyspace,查看keys参数和expires参数的值。 3. 对比源Redis和目标Redis的keys参数分别减去expires参数的差值。如果差值一致,则表示数据完整,迁移正常。 注意 如果是全量迁移,迁移过程中源Redis更新的数据不会迁移到目标实例。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        数据迁移指南
        其他云厂商Redis服务迁移至DCS
        使用迁移任务在线迁移其他云厂商Redis
      • 将MySQL迁移到ClickHouse
        目标库ClickHouse表结构说明 迁移到ClickHouse的表结构和ClickHouse的部署架构有关: 集群部署,单副本 在集群的每个节点上创建一个本地表和一个分布式表。分布式表的名称与源端表名映射后的名字一致,本地表的名称为 +local,本地表使用ReplacingMergeTree引擎。 集群部署,多副本 在集群的每个节点上创建一个本地表和一个分布式表。分布式表的名称与源端表名映射后的名字一致,本地表的名称为 +local,本地表使用ReplicatedReplacingMergeTree引擎。 此外,DTS会在目标表(包括本地表和分布式表)中添加两个字段: ctyundtsversion ,类型为UInt64,默认值为now(),记录了数据插入的时间戳; ctyundtssign,类型为Int8,默认值为0,标记数据的存在性,0表示数据存在,1表示数据已逻辑删除。 用户可使用where条件过滤掉ClickHouse被逻辑删除的数据,例如:select from tablename final where ctyundtssign< 1,其中,表名后的final字段可以过滤相同排序键的数据。 名称 数据类型 默认值 说明 ctyundtssign Int8 0 记录是否被删除: Insert:记录为0。 Delete:记录为1。 Update::记录为0。 ctyundtsversion UInt64 now() 数据写入ClickHouse的时间戳。 操作须知 DTS迁移过程一般包含四个阶段:预检查阶段、结构迁移阶段、全量阶段、增量阶段。为了确保数据迁移各个阶段的平顺,在创建迁移任务前,请务必阅读以下使用须知。 待迁移对象不支持无主键的表。 在库表结构迁移阶段,DTS会在目标表中添加字段ctyundtsversion和ctyundtssign。若您配置迁移类型时未勾选库表结构迁移,则需要手动在目标端创建接收数据的表,并在表中添加额外的字段。根据目标端ClickHouse的部署架构,需要创建的表结构也不相同,具体请查看“目标库ClickHouse表结构说明”章节。 如迁移对象为表级别,则单次迁移任务仅支持迁移最多10000张表。当超出数量限制,任务会在提交后会请求报错。如果遇到这种情形,建议您拆分待迁移的表,分批配置成多个任务,或者配置为整库迁移。 目标库若已存在行数据,DTS在增量迁移过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在启动迁移任务前需要用户自行判断数据是否需要清除,建议用户在迁移前自行清空目标库。 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为7天。否则DTS在增量迁移时可能因无法获取Binlog而导致任务失败。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。 在任务进入增量迁移阶段之前,不建议对源数据库做DDL操作,这样可能会引起任务迁移失败。 迁移过程中,请勿修改、删除提供给DTS连接访问的源库和目标库及用户名、密码、权限,或修改源库和目标库的端口号;若用户源库、目标库的密码发生变化,请先暂停任务再修改DTS配置的连接源库、目标库的密码。 选择表级对象迁移时,增量迁移过程中不建议对表进行重命名操作。 增量迁移场景下,不支持源数据库进行恢复操作。 增量迁移并开启增量DDL支持的场景下,当前暂不支持在结构迁移与全量迁移详情页面显示增量阶段新增的表。 若源表使用了外键约束如FOREIGN KEY REFERENCES ON DELETE CASCADE或FOREIGN KEY REFERENCES ON UPDATE CASCADE时,当删除或更新父表的数据时,子表关联的数据会被自动删除或更新,但这些子表的删除或更新操作并不会记录到源库的二进制日志(Binlog)中,从而导致迁移后数据不一致的问题。为解决该问题,可在使用DTS迁移数据前在源库创建触发器实现关联子表的数据操作,确保所需执行的删除或更新都可以记录到Binlog中,从而保证迁移前后的数据一致性。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        入云
        将MySQL迁移到ClickHouse
      • 配置同步实例
        本页详细介绍如何配置同步实例。 基本流程 用户在成功购买天翼云DTS同步实例之后,实例默认是“待配置”状态,需要完成实例的配置,才可以真正实现数据的同步。 前置条件 1. 备好待同步的数据库实例。 2. 已成功订购天翼云DTS实例。 3. 其他合理且必要的条件。 具体步骤 1、登录天翼云官网门户,进入数据传输服务DTS控制台。 登录天翼云 在天翼云门户首页顶部菜单栏,点击“控制中心”进入【控制中心】页面。 在【控制中心】页面顶部的资源池下拉列表框中选择相应资源池(目前支持上海36/华东1/西南1/华北2/长沙42/杭州7 ),找到页面中的“数据库”服务列表,选择“数据传输服务DTS”,进入DTS控制台。 2、进入数据同步实例列表页面。 在控制台左侧菜单栏点击“数据同步”,进入【数据同步】实例列表页面。 3、选择待配置实例,点击“实例配置”进入实例配置页面。 DTS实例订购成功后,选择对应实例ID的操作,点击“实例配置”,进入配置页面。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        实例配置和实例编辑
        配置同步实例
      • 应用场景
        本节为您介绍数据安全中心的应用场景。 满足合规场景 DSC可应用于合规场景,DSC提供了多种合规模板,包括GDPR、PCI DSS和HIPAA等,用户可以一键匹配识别这些合规规则,并生成报表供针对性整改。这样可以精准区分和保护个人数据,避免产生合规问题。 自动识别分类敏感数据 DSC可以为敏感数据进行自动识别并分类。可以从海量数据中自动发现并分析敏感数据的使用情况。通过数据识别引擎,DSC可以扫描、分类和分级储存的结构化数据(RDS)和非结构化数据(OBS),从而解决数据“盲点”,进一步加强数据的安全防护。 用户异常行为分析 DSC提供用户异常行为分析功能。通过深度行为识别引擎,DSC可以建立用户行为基线,并实时监测基线外的异常操作。用户可以实时查询行为操作,可视化行为轨迹,并识别与风险事件相关的用户操作,完善溯源审计链条。这样可以及时发现数据使用是否存在安全违规,并及时预警,从而预防数据泄露。 数据脱敏保护 DSC提供数据脱敏保护功能。通过多种预置脱敏算法和用户自定义脱敏算法,搭建数据保护引擎。可以实现非结构化数据的脱敏储存和结构化数据的静态脱敏,有效防止敏感数据的泄露。
        来自:
        帮助文档
        数据安全中心
        产品介绍
        应用场景
      • 快照功能概述(公测)
        本节介绍了什么是云硬盘快照、使用场景、操作概览、相关操作。 什么是云硬盘快照 EVS为您提供快照功能,您可以通过管理控制台或者API接口创建云硬盘快照。云硬盘快照指的是云硬盘数据在某个时刻的完整拷贝或镜像,是一种重要的数据容灾手段,当数据丢失时,可通过快照将数据完整的恢复到快照时间点。 云硬盘快照简称为快照。 您可以创建快照,从而快速保存指定时刻云硬盘的数据。同时,您还可以通过快照创建新的云硬盘,这样云硬盘在初始状态就具有快照中的数据。 使用场景 快照功能可以帮助您实现以下需求: ● 日常备份数据 通过对云硬盘定期创建快照,实现数据的日常备份,可以应对由于误操作、病毒以及黑客攻击等导致数据丢失或不一致的情况。 ● 快速恢复数据 应用软件升级或业务数据迁移等重大操作前,您可以创建一份或多份快照,一旦升级或迁移过程中出现问题,可以通过快照及时将业务恢复到快照创建点的数据状态。 例如,当由于云主机A的系统盘A发生故障而无法正常开机时,由于系统盘A已经故障,因此也无法将快照数据回滚至系统盘A。此时您可以使用系统盘A已有的快照新创建一块云硬盘B并挂载至正常运行的云主机B上,从而云主机B能够通过云硬盘B读取原系统盘A的数据。 说明 ● 当前通过快照回滚数据,只支持回滚快照数据至源云硬盘,不支持快照回滚到其它云硬盘。 ● 快速部署多个业务 通过同一个快照可以快速创建出多个具有相同数据的云硬盘,从而可以同时为多种业务提供数据资源。例如数据挖掘、报表查询和开发测试等业务。这种方式既保护了原始数据,又能通过快照创建的新云硬盘快速部署其他业务,满足企业对业务数据的多元化需求。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        管理快照
        普通快照(公测)
        快照功能概述(公测)
      • 应用场景
        本节主要介绍应用场景 SQL变更场景 需要为某一角色设置对某个数据库的结构权限、数据权限等权限进行变更时,可以使用此功能方便操作。 优势: 预检查:此功能可以规避用户使用错误SQL语句进行变更时,提前察觉,方便用户进行预处理。 审批限制:方便企业管理者对数据和数据变更人员的管理。 备份与回滚:备份功能有助于客户在执行SQL失败或返回数据库更改前的状态,保证了数据的安全性。 库管理场景 对象列表下包括表、视图、存储过程、事件、触发器和函数六部分。 表:MySQL数据表包含基本信息、字段/列信息、虚拟列、索引、外键5大组成部分,其中,虚拟列、索引、外键为可选项。通过在数据库中的表操作,可以直接操作数据。 视图:就是一个表或者多个表的一个映射,一般只做查询使用。 事件:即时间触发器,它可以完成在特定的时间特定的操作。 存储过程:存储过程是一组为了完成特定功能的SQL语句集,它通常存在于数据库中,用户只需要修改对应的参数就可以实现某一特定事务。 触发器:触发器是在对某一张表进行操作前后(增、删、改),需要实现对另一张关联表的操作所设计的自动执行的sql语句。触发器经常用于增强数据的完整性约束和原子性的事件规则。 函数:包括系统函数和用户自定义函数,通过设置不同的函数,实现某一功能的复用。
        来自:
        帮助文档
        数据管理服务
        产品简介
        应用场景
      • 将Oracle同步到DWS
        本章节介绍如何将Oracle同步到DWS。 支持的源和目标数据库 表支持的数据库 源数据库 目标数据库 本地自建数据库 ECS自建数据库 DWS集群 前提条件 已登录数据复制服务控制台。 满足实时同步支持的数据库类型和版本,详情请参见实时同步。 使用建议 注意 DRS任务启动和全量数据同步阶段,请不要在源数据库执行DDL操作,否则可能导致任务异常。 为保证同步前后数据一致性,确保同步期间目标数据库无业务写入。 数据库同步与环境多样性和人为操作均有密切关系,为了确保同步的平顺,建议您在进行正式的数据库同步之前进行一次演练,可以帮助您提前发现问题并解决问题。 基于以下原因,建议您在启动任务时选择“稍后启动”功能,将启动时间设置在业务低峰期,相对静止的数据可以有效提升一次性同步成功率,避免同步对业务造成性能影响。 在网络无瓶颈的情况下,全量同步会对源数据库增加约50MB/s的查询压力,以及占用2~4个CPU。 正在同步的数据被其他事务长时间锁死,可能导致读数据超时。 DRS并发读取数据库,会占用大约610个session连接数,需要考虑该连接数对业务的影响。 全量阶段读取表数据时,特别是大表的读取,可能会阻塞业务上对大表的独占锁操作。 数据对比 建议您结合对比同步项的“稍后启动”功能,选择业务低峰期进行数据对比,以便得到更为具有参考性的对比结果。由于同步具有轻微的时差,在数据持续操作过程中进行对比任务,可能会出现少量数据不一致对比结果,从而失去参考意义。
        来自:
      • 将Oracle同步到DRDS
        本章节介绍如何将Oracle同步到DRDS。 支持的源和目标数据库 表支持的数据库 源数据库 目标数据库 本地自建数据库 ECS自建数据库 DRDS实例 前提条件 已登录数据复制服务控制台。 满足实时同步支持的数据库类型和版本,详情请参见实时同步。 使用建议 注意 DRS任务启动和全量数据同步阶段,请不要在源数据库执行DDL操作,否则可能导致任务异常。 为保证同步前后数据一致性,确保同步期间目标数据库无业务写入。 数据库同步与环境多样性和人为操作均有密切关系,为了确保同步的平顺,建议您在进行正式的数据库同步之前进行一次演练,可以帮助您提前发现问题并解决问题。 基于以下原因,建议您在启动任务时选择“稍后启动”功能,将启动时间设置在业务低峰期,相对静止的数据可以有效提升一次性同步成功率,避免同步对业务造成性能影响。 在网络无瓶颈的情况下,全量同步会对源数据库增加约50MB/s的查询压力,以及占用2~4个CPU。 正在同步的数据被其他事务长时间锁死,可能导致读数据超时。 DRS并发读取数据库,会占用大约610个session连接数,需要考虑该连接数对业务的影响。 全量阶段读取表数据时,特别是大表的读取,可能会阻塞业务上对大表的独占锁操作。 数据对比 建议您结合对比同步项的“稍后启动”功能,选择业务低峰期进行数据对比,以便得到更为具有参考性的对比结果。由于同步具有轻微的时差,在数据持续操作过程中进行对比任务,可能会出现少量数据不一致对比结果,从而失去参考意义。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        入云
        将Oracle同步到DRDS
      • ALM-12033 慢盘故障
        告警属性 告警ID 告警级别 是否自动清除 12033 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群或系统名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 磁盘名 产生告警的磁盘名。 对系统的影响 磁盘慢盘故障,导致业务性能下降,阻塞业务的处理能力,严重时可能会导致服务不可用。 可能原因 磁盘老化或者磁盘坏道。 处理步骤 检查磁盘状态 1. 在FusionInsight Manager界面,选择“运维 > 告警 > 告警”。 2. 查看该告警的详细信息,查看定位信息中“主机名”字段和“磁盘名”字段的值,获取该告警产生的故障磁盘信息。 3. 确认上报告警的节点是否为虚拟化环境。 是,执行步骤4。 否,执行步骤7。 4. 请检查虚拟化环境提供的存储性能是否满足硬件要求,检查完毕之后执行步骤5。 5. 以root 用户登录告警节点,执行df h命令,查看输出内容是否包含“磁盘名”字段的值。 是,执行步骤7。 否,执行步骤6。 6. 执行lsblk命令,是否可以查到“磁盘名”字段值与磁盘设备的映射关系。 是,执行步骤7。. 否,执行步骤22。 7. 以root用户登录上报告警的节点,执行 lsscsi grep"/dev/sd[x]" 命令查看磁盘的设备信息,判断磁盘是否建立了RAID。 说明 其中 /dev/sd[x] 为步骤2中获取到的上报告警的磁盘名称。 例如执行: lsscsi grep "/dev/sda" 如果命令执行结果第三列显示ATA、SATA或者SAS,说明磁盘没有建立RAID;显示其他信息,则该磁盘可能建立了RAID。 是,执行步骤12。 否,执行步骤8。 8. 执行 smartctl i /dev/sd[x] 命令检查硬件是否支持smart。 例如执行: smartctli /dev/sda 如果命令执行结果中包含“SMART support is: Enabled”,表示磁盘支持smart;执行结果中包含“Device does not support SMART”或者其他,表示磁盘不支持smart。 是,执行步骤9。 否,执行步骤17。 9. 执行 smartctl H all /dev/sd[x] 命令查看smart的基本信息,判断磁盘是否正常。 例如执行: smartctlH all /dev/sda 查看命令执行结果的“SMART overallhealth selfassessment test result”内容,如果是“FAILED”,表示磁盘故障,需要更换;如果为“PASSED”,需要进一步看“ReallocatedSectorCt”或者“Elements in grown defect list”项的计数,如果大于100,则认为磁盘故障,需要更换。 是,执行步骤10。 否,执行步骤18。 10. 执行 smartctl l error H /dev/sd[x] 命令查看磁盘的GLIST列表,进一步继续判断磁盘是否正常。 例如执行: smartctll error H /dev/sda 查看命令执行结果的“Command/Featruename”列,如果出现“READ SECTOR(S)”或者“WRITE SECTOR(S)”表示磁盘有坏道;如果出现其他错误,表示磁盘电路板有问题。这两种错误均表示磁盘不正常,需要更换。 如果显示“No Errors Logged”,则表示没有错误日志,则可以触发磁盘smart自检。 是,执行步骤11。 否,执行步骤18。 11. 执行 smartctl t long /dev/sd[x] 命令触发磁盘smart自检。命令执行后,会提示自检完成的时间,在等待自检完成后,重新执行步骤9和步骤10,检查磁盘是否正常。 例如执行: smartctlt long /dev/sda 是,执行步骤17。 否,执行步骤18。 12. 执行 smartctl d [satscsi]+megaraid,[DID] H all /dev/sd[x] 命令检查硬件是否支持smart。 说明 [satscsi]表示磁盘类型,需要尝试以上两种类型。 [DID]表示槽位信息,需要尝试0~15。 例如依次执行: smartctld sat+megaraid,0 H all /dev/sda smartctld sat+megaraid,1 H all /dev/sda smartctld sat+megaraid,2 H all /dev/sda 依次尝试不同磁盘类型和槽位信息的命令组合,如果执行结果中显示“SMART support is: Enabled”,表示磁盘支持smart,记录命令执行成功时磁盘类型和槽位信息组合参数;如果尝试完以上所有的命令组合,执行结果都未显示“SMART support is: Enabled”,表示磁盘不支持smart。 是,执行步骤13。 否,执行步骤16。 13. 执行步骤12中记录的 smartctl d [satscsi]+megaraid,[DID] H all /dev/sd[x] 命令查看smart的基本信息,判断磁盘是否正常。 例如执行: smartctl d sat+megaraid,2 H all /dev/sda 查看命令执行结果的“SMART overallhealth selfassessment test result”内容,如果是“FAILED”,表示磁盘故障,需要更换;如果为“PASSED”,需要进一步看“ReallocatedSectorCt”或者“Elements in grown defect list”项的计数,如果大于100,则认为磁盘故障,需要更换。 是,执行步骤14。 否,执行步骤18。 14. 执行 smartctl d [satscsi]+megaraid,[DID] l error H /dev/sd[x] 命令查看硬盘的GLIST列表,进一步判断硬盘是否正常。 例如执行: smartctl d sat+megaraid,2 l error H /dev/sda 查看命令执行结果的“Command/Featruename”列,如果出现“READ SECTOR(S)”或者“WRITE SECTOR(S)”表示磁盘有坏道;如果出现其他错误,表示磁盘电路板有问题。这两种错误均表示磁盘不正常,需要更换。 如果显示“No Errors Logged”,则表示没有错误日志,则可以触发磁盘smart自检。 是,执行步骤15。 否,执行步骤18。 15. 执行 smartctl d [satscsi]+megaraid,[DID] t long /dev/sd[x] 命令触发磁盘smart自检。命令执行后,会提示自检完成的时间,在等待自检完成后,重新执行步骤13和步骤14,检查磁盘是否正常。 例如执行: smartctl d sat+megaraid,2 t long /dev/sda 是,执行步骤17。 否,执行步骤18。 16. 磁盘不支持smart,通常是因为配置的RAID卡不支持,此时需要使用对应RAID卡厂商的检查工具进行处理,然后执行步骤17。 例如LSI一般是MegaCLI工具。 17. 在FusionInsight Manager界面,选择“运维 > 告警 > 告警”,单击该告警操作列的“清除”,并继续观察该告警,查看同一块磁盘的告警是否会继续上报。 如果当前磁盘出现三次以上该告警,建议用户更换磁盘。 是,执行步骤18。 否,操作结束。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-12033 慢盘故障
      • 云硬盘备份与快照的区别
        指标 存储方案 数据同步 容灾范围 业务恢复 备份 与云硬盘数据分开存储,存储在对象存储(OBS)中,可以实现在云硬盘存储损坏情况下的数据恢复 保存云硬盘指定时刻的数据,可以设置自动备份。如果将创建备份的云硬盘删除,那么对应的备份不会被同时删除 与云硬盘位于同一个AZ内 通过恢复备份至云硬盘,或者通过备份创建新的云硬盘,找回数据,恢复业务。数据持久性高。 快照 与云硬盘数据存储在一起 备份由于数据搬迁会耗费一定的时间,创建快照和回滚快照数据的速度比备份快。 保存云硬盘指定时刻的数据。如果将创建快照的云硬盘删除,那么对应的快照也会被同时删除。重装操作系统或切换操作系统后,系统盘快照会自动删除;数据盘快照不受影响,可以照常使用 与云硬盘位于同一个AZ内 通过回滚快照至云硬盘,或者通过快照创建新的云硬盘,找回数据,恢复业务。
        来自:
        帮助文档
        云硬盘 EVS
        产品简介
        云硬盘备份与快照的区别
      • 产品概述
        产品优势 即开即用 非侵入式性能数据采集,无需修改业务代码即可轻松接入APM,数据来源如下: APM Agent:基于自研Agent通过非侵入方式采集业务调用数据、服务存量数据、调用的KPI数据等应用指标。 超高性能 支持亿级调用链业务吞吐,无惧流量凶猛,为用户体验保驾护航。 生态开放 开放了运营、运维数据查询接口和性能指标、采集标准,支持自主开发。 智能分析 AI智能阈值检测,机器学习历史基线数据产生告警,通过RCA(Root Cause Analysis)分析找到问题根因。
        来自:
        帮助文档
        应用性能管理
        产品介绍
        产品概述
      • 特性概述和应用场景
        本章节介绍分片变更的三个常用场景。 概述 分片变更是DRDS的一项核心功能,通过增加数据节点数或者增加分片数,提高数据存储能力和并发支持能力。可解决随着业务增长,逻辑库对应的物理存储空间不足问题。分片变更过程对业务影响相对较小,可在不影响您业务使用的情况下快速解决业务在快速发展的过程中针对数据库扩展性产生的后顾之忧与运维压力。 应用场景 1.分片数不变,增加数据节点数量 此种变更方式不改变当前分片数,只增加数据节点数量。将原数据节点的部分分片平移到新增数据节点上,分片数据进行平移,数据相对位置不需要重新分布,所以变更速度为三种变更方式中最快的一种。推荐您优先使用此方式进行分片变更。 适用于水平拆分业务后业务规模快速增长的场景,可在业务初期减少成本。 也适用于RDS for MySQL实例无法满足存储空间, 读写性能的场景。 分片数不变,增加RDS for MySQL实例数量示意图 2.增加分片数不增加数据节点数量 增加分片数不增加数据节点数量。此种情况分片总数、分表总数、分表规则都会发生变化,数据将重新分布到不同的分片中,广播表分片数量增加。 适用于单个物理表数据量过大, 查询性能受到限制, 但是整体RDS for MySQL实例可用空间充足的场景。 增加分片数不增加RDS for MySQL实例数示意图 3.增加分片数也增加数据节点数量 既增加分片数也增加数据节点数量。此种情况分片总数、分表总数、分表规则都会发生变化,数据将重新分布到不同的分片中,广播表分片数量增加。 适用于RDS for MySQL实例无法满足存储空间, 读写性能,且单个物理表数据量过大, 查询性能受到限制的场景。 既增加分片数也增加RDS for MySQL实例数示意图
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        分片变更
        特性概述和应用场景
      • 概念类问题
        备份和容灾的区别是什么? 对比维度 备份 容灾 使用目的 避免数据丢失,一般通过快照、备份等技术构建数据的数据备份副本, 故障时可以通过数据的历史副本恢复用户数据。 避免业务中断,一般是通过复制技术(应用层复制、主机I/O层复制、存储层复制) 在异地构建业务的备用主机和数据, 主站点故障时备用站点可以接管业务。 使用场景 针对病毒入侵、人为误删除、软硬件故障等场景, 可将数据恢复到任意备份点。 针对软硬件故障以及海啸、火灾、地震等重大自然灾害,运行故障切换,尽快恢复业务。 源端可用区恢复正常时,可轻松利用故障恢复能力重新切换回到源端可用区。 成本 通常是生产系统的1~2%。 通常是生产系统的20%~100%(根据不同的RPO/RTO要求而定),高级别的双活容灾, 要求备用站点也要部署一套和主站点相同的业务系统,基础设施成本需要翻倍计算。 说明: RPO(Recovery Point Objective):最多可能丢失的数据的时长。 RTO(Recovery Time Objective):从灾难发生到整个系统恢复正常所需要的最大时长。 备份和快照的区别是什么? 备份和快照为存储在云硬盘中的数据提供冗余备份,确保高可靠性,两者的主要区别如下表所示。 指标 存储方案 数据同步 容灾范围 业务恢复 备份 与云硬盘数据分开存储,存储在对象存储(OBS)中, 可以实现在云硬盘存储损坏情况下的数据恢复 保存云硬盘指定时刻的数据,可以设置自动备份。 如果将创建备份的云硬盘删除,那么对应的备份不会被同时删除 与云硬盘位于同一个AZ内 通过恢复备份至云硬盘,或者通过备份创建新的云硬盘, 找回数据,恢复业务。数据持久性高。 快照 与云硬盘数据存储在一起说明备份由于数据搬迁会耗费一定的时间, 创建快照和回滚快照数据的速度比备份快。 保存云硬盘指定时刻的数据。如果将创建快照的云硬盘删除, 那么对应的快照也会被同时删除 与云硬盘位于同一个AZ内 通过回滚快照至云硬盘,或者通过快照创建新的云硬盘, 找回数据,恢复业务。
        来自:
      • 容量预估
        Top库表 可查看物理文件大小Top50库表,结合磁盘空间的分布情况,识别占用较高的库表并进行优化。 单击“查看趋势”,可以查看近7天、近30天、自定义时间段(时间跨度在30天内)的数据量变化情况。 说明 数据管理服务每天凌晨4点左右会进行一次数据采集。 物理文件大小为精确采集数据,其余指标为预估值(存在误差),如差距较大建议对目标表执行ANALYZA TABLE。 库名或表名中包含保留特殊字符时无法正常统计,包括“/”和“ p p”。 目前只支持RDS for MySQL 5.7和8.0版本。 实例总计表数量超过5万时,为了不影响实例,不会采集数据。 由于Top库表可能存在波动,趋势数据可能存在部分缺失。
        来自:
        帮助文档
        数据管理服务
        用户指南
        DBA智能运维
        MySQL
        容量预估
      • 使用须知
        本节主要介绍使用须知 MySQL>MySQL灾备 使用技巧(需要人为配合) 建议您配合如下使用技巧和操作要求,进行灾备以确保任务稳定运行。 基于以下原因,建议您结合定时启动功能,选择业务低峰期开始运行灾备任务。 全量灾备会对源数据库有一定的访问压力。 灾备无主键表时,为了确保数据一致性,会存在3s以内的单表级锁定。 正在灾备的数据被其他事务长时间锁死,可能导致读数据超时。 建议您结合数据对比的“稍后启动”功能,选择业务低峰期进行数据对比,以便得到更为具有参考性的对比结果。由于同步具有轻微的时差,在数据持续操作过程中进行对比任务,可能会出现少量数据不一致对比结果,从而失去参考意义。 操作要求 在使用数据复制服务进行数据灾备的过程中,存在一些无法预知或因人为因素及环境突变导致同步失败的情况,针对该情况,数据复制服务提供以下常见的操作限制,供您在数据灾备过程中参考。 表操作要求 类型 操作限制 (需要人为配合) 注意事项 下表中的环境要求均不允许在灾备过程中修改,直至灾备结束。 业务数据库进行的参数修改不会记录在日志里,所以也不会同步至灾备数据库,请在灾备数据库升主后调整参数。 外部数据库创建的高权限用户若超出RDS MySQL支持范围,不会同步至灾备数据库,如super权限。 不支持外键级联操作。 不支持业务数据库恢复到之前时间点的操作(PITR)。 不支持强制清理binlog,否则会导致灾备任务失败。 网络中断在30秒内恢复的,不影响数据灾备,超过30秒,则可能会导致灾备任务失败。 若专属计算集群不支持4vCPU/8G或以上规格实例,则无法创建灾备任务。 支持断点续传功能,但对于无主键的表可能会出现重复插入数据的情况。 存在灾备任务时,不允许创迁移或者同步任务。 灾备不支持多写的多主模式,如果外部数据库没有提供superuser权限,则外部数据库为备时无法设置只读,请严格确保备节点的数据只来自主节点的同步,任何其他地方的写入将会导致备库数据被污染,使得灾备出现数据冲突而无法修复。 如果外部数据库为备且为只读,该只读只有superuser权限的账号可以写入数据,其他账号无法写入,但仍然需要确保备节点通过这个账号写入任何数据导致备库数据被污染,使得灾备出现数据冲突而无法修复。 业务数据库和灾备数据库为RDS for MySQL实例时,不支持带有TDE特性并建立具有加密功能表。 操作须知 数据灾备过程中,如果修改了业务库用于灾备的密码,会导致该灾备任务失败,需要在数据复制服务控制台将上述信息重新修改正确,然后重试任务可继续进行数据灾备。一般情况下不建议在灾备过程中修改上述信息。 数据灾备过程中,如果修改了业务库端口,会导致该灾备任务失败。一般情况下不建议在灾备过程中修改业务库端口。 数据灾备过程中,如果业务库为非本云关系型数据库实例,不支持修改IP地址。本云关系型数据库实例,对于因修改IP地址导致灾备任务失败的情况,系统自动更新为正确的IP地址,重试任务可继续进行同步。一般情况下,不建议修改IP地址。 数据灾备过程中,不建议做删除类型的DDL操作,可能会引起任务失败。 禁止源端在灾备任务执行主备倒换过程中进行写入操作,否则会出现数据污染或者表结构不一致,并最终导致业务端和灾备端数据不一致。 在使用数据复制服务进行数据灾备的过程中,对环境有一些特定的要求,请确保环境配置满足以下条件。该类型的要求系统会自动检查,并给出处理建议。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时灾备
        使用须知
      • 使用云硬盘备份恢复数据
        您可以根据云硬盘备份将磁盘数据恢复到备份时刻的状态。 您可以根据云硬盘备份将磁盘数据恢复到备份时刻的状态。 前提条件 需要恢复的磁盘状态为可用。 在恢复数据前,需要先停止云主机,并解除云主机和磁盘的挂载关系后再做恢复操作。恢复后,再挂载磁盘并启动云主机。 约束与限制 如果系统盘在备份完成后,云主机切换过系统,则由于磁盘的UUID变化等原因将会导致系统盘备份无法恢复原系统盘。您可以使用系统盘备份创建新磁盘后,将数据导入原系统盘中。 目前仅支持将备份恢复至原磁盘中,暂不支持将备份恢复至新的磁盘中。如果希望将备份恢复至其他的磁盘中,可以使用备份创建新的磁盘。 暂不支持批量恢复数据操作。 操作步骤 1. 登录云服务备份管理控制台。 a. 登录管理控制台。 b. 单击管理控制台左上角的,选择区域。 c. 单击“”,选择“存储 > 云服务备份”。选择对应的备份目录。 2. 选择“备份副本”页签,找到存储库和磁盘所对应的备份。 3. 单击备份所在行的“恢复数据”,弹出恢复数据对话框,如下图所示。 图 找到目标备份副本 图 恢复磁盘 注意 恢复磁盘数据之后将导致备份时间点的数据覆盖磁盘数据,一旦执行,无法回退。 如果恢复按钮为灰色,需要先停止云主机,并解除云主机和磁盘的挂载关系后再做恢复操作。恢复后,再挂载磁盘并启动云主机。 4. 根据页面提示,单击“确定”。可以在云硬盘备份副本页面和云硬盘页面确认恢复数据是否成功。直到云硬盘备份的“状态”恢复为“可用”时,表示恢复成功。恢复成功的资源数据将于备份时间点保持一致。 5. 恢复完成后,需要将磁盘重新挂载至云主机上。
        来自:
        帮助文档
        云服务备份
        操作指导
        数据恢复
        使用云硬盘备份恢复数据
      • 创建并运行MRS脱敏任务
        本章节将介绍如何创建MRS脱敏任务。 创建MRS脱敏任务后,可以对指定数据的敏感信息脱敏。 前提条件 已在“资产列表”中完成了云资源委托授权。 已添加MRS资产,具体请参见添加MRS资产章节。 已在“敏感数据识别”中完成了敏感数据识别,具体操作请参见创建敏感数据识别任务章节。 创建数据库脱敏 1. 单击左上角的,选择区域或项目。 2. 在左侧导航树中,单击,选择“安全 >数据安全中心”,进入数据安全中心总览界面。 3. 在左侧导航树中选择“数据脱敏”,并选择“MRS脱敏”页签,进入“MRS脱敏”页面。 4. 在“MRS脱敏”页签中,单击,将“MRS脱敏”设置为,开启MRS脱敏。 5. 单击“新建任务”,进入“数据源配置”页面,如下图所示,具体参数说明如下表所示。 参数名称 参数说明 任务名称 您可以自定义脱敏任务的名称。 任务名称需要满足以下要求: 1~255个字符。 字符可由中文、英文字母、数字、下划线或中划线组成。 数据源选择 选择数据来源。仅支持“MRSHIVE”。 数据源 说明 说明 如果没有可使用的云数据,可单击“添加云数据库”,添加云数据库资产,具体的操作可参见添加MRS资产。 数据库实例:选择脱敏数据所在的数据库实例。 数据源 说明 说明 如果没有可使用的云数据,可单击“添加云数据库”,添加云数据库资产,具体的操作可参见添加MRS资产。 数据库名:选择脱敏数据所在的数据库名称。 数据源 说明 说明 如果没有可使用的云数据,可单击“添加云数据库”,添加云数据库资产,具体的操作可参见添加MRS资产。 数据表名:选择脱敏数据所在的数据表名称。 数据源 说明 说明 如果没有可使用的云数据,可单击“添加云数据库”,添加云数据库资产,具体的操作可参见添加MRS资产。 数据类型:勾选后将该列数据拷贝到目标数据库。 此处还显示数据列的“目标数据类型”,“风险等级”。 6. 单击“下一步”,进入“脱敏算法配置”页面。 1. 勾选需要脱敏的数据列。 2. 选择脱敏算法。脱敏算法更多详细信息请参见配置脱敏规则章节。 7. 单击“下一步”,进入“脱敏周期”页面,配置脱敏周期。 选择并设置脱敏任务的执行周期: 手动:由用户自行启动的,且基于脱敏规则执行脱敏任务。 每小时:每几个小时执行一次脱敏任务。 示例:如果需要每2小时执行一次脱敏任务,则此处设置为:02:00 每天:每天几点几分执行一次脱敏任务。 示例:如果需要每天12:00执行一次脱敏任务,则此处设置为:12:00:00 每周:每周几的几点几分执行一次脱敏任务。 示例:如果需要每周一的12:00执行一次脱敏任务,则此处设置为:每周一12:00:00 每月:每月几日几时执行一次脱敏任务。 示例:如果需要每月12日的12:00执行一次脱敏任务,则此处设置为:每月12日12:00:00 说明 如果设置每月31日执行一次脱敏任务,在当月日期少于31日的情况下,系统自动在当月最后一日执行任务。 8. 单击“下一步”,进入“数据目标配置”页面。 1. 选择数据库实例、数据库名,并输入数据表名。 如果输入的数据表名已存在,系统将刷新目标数据库中该数据表中的数据。 如果输入的数据表名不存在,系统将自动在目标数据库中新建该名称的数据表。 注意 如果需要填写已有的数据表,请勿选择业务数据表,以免影响业务。 2. 设置数据目标列名。 系统默认将生产与数据源列相同的名称,您可以保持默认名称,也可以根据需要进行修改。 9. 单击“完成”。
        来自:
        帮助文档
        数据安全中心
        用户指南
        数据隐私保护
        数据脱敏
        静态脱敏
        创建数据脱敏任务
        创建并运行MRS脱敏任务
      • GetRestoreCapacity
        名称 描述 是否必须 Action GetRestoreCapacity。 是 BeginDate 指定查询数据取回量的起始时间,统计数据的起始时间为开始日期(时区为:UTC+8)的00:00。 类型:Time 取值:格式为yyyyMMdd。 是 EndDate 指定查询数据取回量的结束时间,返回数据的时间为当天日期(时区为:UTC+8)的最后一个数据。 类型:Time 取值:格式为yyyyMMdd。EndDate不能早于BeginDate。 说明 Freqby5min,EndDate与BeginDate的间隔小于1天。 FreqbyHour,EndDate与BeginDate的间隔小于7天。 FreqbyDay,EndDate与BeginDate的间隔小于30天。 是 StorageClass 指定查询的存储类型。 类型:Enum 取值: ALL:所有存储类型。 STANDARADIA:低频访问类型。 默认值为ALL。 否 Bucket 指定查询数据取回量的Bucket名称。如果不指定Bucket名称,则表示查询账户下所有Bucket的数据取回量之和。 类型:字符串 取值:3~63个字符,只能由小写字母、数字、短横线()和点(.)组成。 否 Region 指定查询数据取回量的数据位置。如果不指定数据位置名称,则表示查询账户下所有数据位置的数据取回量之和。 类型:字符串 取值: 对象存储网络:ZhengZhou、ShenYang、ChengDu、WuLuMuQi、LanZhou、QingDao、GuiYang、WuHu、WuHan、ShenZhen、SH2、SuZhou。 对象存储网络2:NeiMeng1、HangZhou1。 香港节点:HongKong。 否 Freq 指定返回统计数据的采样粒度。 类型:Enum 取值: by5min:统计数据的采样粒度为5分钟。 byHour:统计数据的采样粒度为1小时。 byDay:统计数据的采样粒度为1天。 默认值为byHour。 否
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        统计分析
        统计API
        GetRestoreCapacity
      • PostgreSQL数据库用户管理
        本文介绍如何管理PostgreSQL数据库账号或者建库等权限。 前提条件 用户已登录数据管理服务。 在数据管理服务DMS中录入目标实例,数据库类型为PostgreSQL。 登录实例的数据库用户具有管理数据库用户密码的权限。 操作步骤 1. 点击左侧菜单栏 数据资产 > 实例管理 进入实例列表页面。 2. 选择目标实例,点击操作菜单栏 登录 按钮。 3. 输入数据库的用户名和密码,完成该实例的登录。 4. 登录实例后,点击 更多 > 数据库用户管理按钮。 功能介绍 数据库用户管理支持查看当前实例所有数据库账号、新建账号、删除账号、编辑账号。 账号列表 显示实例下所有账号信息,包括账号名、权限、密码到期时间、注释等,支持按账号名模糊搜索。 新建账号 1. 登录数据管理服务。 2. 从 数据资产 > 实例管理 进入实例列表页面。 3. 在实例列表页面点击 更多 >数据库用户管理按钮进入管理页面。 4. 点击创建账号按钮,输入账号名、密码等必填信息。 5. 点击 确定 按钮,生成创建账号的DDL语句。 6. 在DDL预览弹窗中,点击 执行 按钮即可完成账号的创建。 7. 可以为账号设置全局权限和对象权限,以及密码到期时间、连接数限制、注释等选项。连接数默认为1,表示不限制。 编辑账号 1. 登录数据管理服务。 2. 从 数据资产 > 实例管理 进入实例列表页面。 3. 在实例列表页面点击 更多 > 数据库用户管理 按钮进入管理页面。 4. 点击列表操作菜单的 编辑 按钮,进入编辑页面。 5. 按需修改所需要的属性内容。 6. 点击 确定 按钮,生成修改账号的DDL语句。 7. 在DDL预览弹窗中,点击 执行 按钮即可完成账号的修改。 8. 可以编辑修改账号的账密、全局权限、对象权限,以及密码到期时间、连接数限制、注释等选项。 注意 注意不支持修改用户名。
        来自:
        帮助文档
        数据管理服务
        用户指南
        数据资产
        实例管理
        数据库用户管理
        PostgreSQL数据库用户管理
      • 1
      • ...
      • 90
      • 91
      • 92
      • 93
      • 94
      • ...
      • 449
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      聚力AI赋能 天翼云大模型专项

      大模型特惠专区·Token Plan 轻享包低至9.9元起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      公共算力服务

      一站式智算服务平台

      推荐文档

      错误日志

      天翼云进阶之路⑧:sql server内存暴涨如何解决

      退订

      如何设置和修改绑定手机?

      产品价格

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号