活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      数据集成工具_相关内容
      • 透明存储加密
        本页介绍天翼云TeleDB数据库中透明存储加密。 透明存储加密方式(Transparent Data Encryption, TDE)是一种保护数据库中静态数据的加密技术,使数据在存储时自动加密,有助于防止未授权访问和数据泄露。透明存储加密的特点是数据在加密和解密过程对应用程序透明,该过程中应用程序无需进行任何修改,从而简化了实施流程。加密操作(函数调用)与业务侧解耦合,业务只负责传递原始数据到数据库内核,后续的加密计算在数据库内部完成,从而业务侧操作上无感知。 透明加密的方案 透明加密是由自动加密与解密和加密密钥管理两部分机制组成。 自动加密与解密:当数据写入磁盘,TDE会自动对数据进行加密。当数据从磁盘读取时, TDE会自动对数据进行解密。整个加密与解密过程,用户和应用程序将不会感知。文件在硬盘上是密文,在内存中是明文。一旦离开使用环境,由于应用程序无法得到自动解密的服务而无法打开,从而起到保护文件内容的效果。 加密密钥管理:TDE通常使用对称加密算法(如AES)。加密密钥被存储在数据库管理系统外部或安全位置,加密算法的由数据库维护,包括加密算法的选择、秘钥管理,都可以由安全员独立操作完成,以确保数据安全。 开启透明存储加密 TeleDB数据库支持提供TDE功能。当用户需要对磁盘上存储的数据进行加密和解密来实现对数据的保护时,可以对该功能进行开启。 注意 TDE功能仅能在实例开通时开启,且开启后无法关闭。 支持加密功能的内核版本为:5.1.5。 您可参考如下操作开启透明加密。 管控侧操作: 1. 以用户名和密码登录TeleDBDCP管理控制台。 2. 进入TeleDBDCP控制台管理页面,开通实例。您可参考《安装部署》中实例服务初始化及实例开通章节开通实例。 3. 在实例开通页面,填写基本信息页面,打开KMS开关,选择KMS机器。 说明 KMS开启后无法关闭,选择后无法更改。 数据库侧操作: 说明 用户可以通过函数创建加密算法,之后可以通过函数将创建的算法绑定到schema,表和列上,实现加密算法和数据库对象建⽴关联。同时⽀持,将已经绑定的算法从schema,表和列上解绑,从⽽取消加密算法和数据库对象之间的关联关系。 1. 创建加密算法 SELECT MLSTRANSPARENTCRYPTCREATEALGORITHM(algoname, password) 2. 注销加密算法 SELECT MLSTRANSPARENTCRYPTDROPALGORITHM(algoid) 3. 加密算法绑定 (1) 绑定到Schema SELECT MLSTRANSPARENTCRYPTALGORITHMBINDSCHEMA(schemaname, algoid) (2) 绑定到表 SELECT MLSTRANSPARENTCRYPTALGORITHMBINDTABLE(schemaname, tablename, algoid) (3) 绑定到列 SELECT MLSTRANSPARENTCRYPTALGORITHMBINDTABLE(schemaname, tablename, attrname, algoid) 4. 加密算法解绑 SELECT MLSTRANSPARENTCRYPTALGORITHMUNBINDSCHEMA(schemaname) SELECT MLSTRANSPARENTCRYPTALGORITHMUNBINDTABLE(schemaname, tablename, needcascade) 使用示例 创建管理插件 CREATE EXTENSION teledbxmls; 切换为安全管理员⽤⼾ c mlsadmin 注册内置的加密算法和对应密钥(此处使⽤国测sm4加密算法进⾏注册),获得对应的algo id select MLSTRANSPARENTCRYPTCREATEALGORITHM('SM4','0123456789012345'); select MLSTRANSPARENTCRYPTCREATEALGORITHM('AES128','0123456789012345'); c xieyuecreate table t1(id int,content int); c mlsadmin 将加密算法绑定到表上 select MLSTRANSPARENTCRYPTALGORITHMBINDTABLE('public','t1',1); insert into t1 values(1,0), (2,0), (3,0); insert into t1 values(7, 0), (8,0), (9,0);
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安全配置手册
        数据加密
        透明存储加密
      • 安全白皮书总览
        数据删除 租户删除文档数据库服务实例时,存储在数据库实例中的数据都会被删除,任何人都无法查看及恢复数据。
        来自:
        帮助文档
        文档数据库服务
        安全白皮书
        安全白皮书总览
      • 视频直播支持哪些维度的数据统计
        本文介绍视频直播支持统计的维度。 视频直播支持以下维度的数据统计: 用量查询:您可以在直播控制台查看流量、带宽、回源统计、请求数、状态码、在线人数等。 增值服务:您可以在直播控制台查看直播转码、直播录制和直播截图的使用量。 流数据:您可以在直播控制台【流数据】中查看推流的平均码率和帧率。 更多统计信息请参见API文档中的【统计分析】模块。
        来自:
        帮助文档
        视频直播
        常见问题
        统计分析类
        视频直播支持哪些维度的数据统计
      • 添加云数据库
        本文主要介绍如何添加云数据库。 前提条件 已登录数据管理服务。 已加入团队。 操作步骤 1. 点击 数据资产 >实例管理 ,进入实例列表界面。 2. 点击 添加实例 按钮,弹出右侧抽屉进行编辑。 3. 在数据来源选择 云数据库 ,录入实例相关信息,参数说明如下。 添加云数据库参数说明 参数项 说明 所属团队 实例添加成功后的归属团队。 实例名称 实例在DMS中展示的别名。 自动同步实例名称 勾选后开启,可同步实例控制台侧的实例名称。 环境 环境标识,例如开发、测试、预发、生产等。 数据来源 实例的来源,如云数据库,公网/直连数据库 数据库类型 数据类型,如MySQL、PostgreSQL、SQL Server、DRDS、DDS。 地域/资源池 云数据库的所属资源池。 云数据库 云数据库的基本信息,含IP、端口,可勾选隐藏实例地址。 数据库账号 用于登录该实例的数据库账号。 数据库密码 登录账号的密码。 管控规则 仅限组织为企业版时显示,可设置当前实例的管控规则。 SQL规范 仅限组织为企业版时显示,可设置当前实例的SQL规范。 最大连接数 可设置当前用户能获取到的数据库最大连接数。 4. 完成以上信息的填写后,点击 测试连接 按钮。 5. 弹出 连接成功 的提示后,点击 确定 按钮完成云数据库的添加。 说明 测试连接功能只有在输入了数据库账号和密码的时候可以使用。 输入正确的数据库账号和密码,点击 确定 按钮后会自动登录并同步元数据。否则,仅录入实例信息,不进行登录也不会自动同步元数据。 普通用户录入实例后将自动作为实例Owner。实例Owner默认拥有编辑、删除、禁用、启用该实例的权限。 开启SSL的实例可能会添加失败。 所属团队下拉列表有创建新团队选项,便于用户快速新建团队并且完成回填。
        来自:
        帮助文档
        数据管理服务
        用户指南
        数据资产
        实例管理
        实例列表
        添加云数据库
      • 磁盘监控
        本页介绍天翼云TeleDB数据库磁盘监控。 操作场景 磁盘监控展示DN节点的磁盘占用情况。 操作步骤 1. 以用户名和密码登录分布式数据库TeleDB控制台,在左侧导航树单击实例监控 ,进入实例监控页面。 2. 在实例监控页面,在当前实例下拉框选择目标实例,选择磁盘监控 页签。 页面展示信息如下: 节点基本信息:节点名,主备信息,节点IP,端口和类型。 数据地址:数据目录。 挂载磁盘:数据目录所挂载的磁盘。 数据库目录容量:数据目录大小。 数据库容量:实例所有database占用大小。 磁盘使用率。 wal日志内容:wal日志目录占用大小。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V3.0.0版本产品文档
        管理平台使用手册
        实例监控
        磁盘监控
      • 备份Hive业务数据
        本章主要介绍翼MapReduce的备份Hive业务数据功能。 操作场景 为了确保Hive日常用户的业务数据安全,或者系统管理员需要对Hive进行重大操作(如升级或迁移等),需要对Hive数据进行备份,从而保证系统在出现异常或未达到预期结果时可以及时进行数据恢复,将对业务的影响降到最低。 系统管理员可以通过FusionInsight Manager创建备份Hive任务。支持创建任务自动或手动备份数据。 Hive备份恢复功能不支持识别用户的Hive表、索引、视图等对象在业务和结构上存在的关联关系。用户在执行备份恢复任务时,需要根据业务场景管理统一的恢复点,防止影响业务正常运行。 Hive备份恢复功能不支持Hive on RDB数据表,需要在外部数据库中单独备份恢复原始数据表。 已创建的Hive备份任务且包含Hive on HBase表,如果本次备份任务在备集群的备份数据丢失,当下次执行增量备份时备份任务将失败,需要重新创建Hive的备份任务。若下次执行全量则备份正常。 前提条件 如果数据要备份至远端HDFS中,需要准备一个用于备份数据的备集群,认证模式需要与主集群相同。其他备份方式不需要准备备集群。 如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 根据业务需要,规划备份任务的类型、周期、备份对象、备份目录和备份任务需要使用的Yarn队列等策略规格。 检查备集群HDFS是否有充足的空间,备份文件保存的目录建议使用用户自定义的目录。 使用HDFS客户端,以“hdfs”用户执行hdfs lsSnapshottableDir检查当前集群中已创建HDFS快照的目录清单,确保待备份的数据文件所在HDFS路径的父目录或子目录不存在HDFS快照,否则无法创建备份任务。 如果数据要备份至NAS中,需要提前部署好NAS服务端。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        备份数据
        备份Hive业务数据
      • 查询拓扑节点
        名称 类型 描述 子节点类型为room name String 子节点名称。 子节点类型为room fullname String 节点在集群中的全路径名称,从根节点开始,使用name:name格式来唯一标识该节点的名称。 子节点类型为room id String 节点ID。 子节点类型为room type String 节点类型。 子节点类型为room description String 节点描述。 子节点类型为rack name String 子节点名称。 子节点类型为rack fullname String 节点在集群中的全路径名称,从根节点开始,使用name:name:name格式来唯一标识该节点的名称。 子节点类型为rack id String 节点ID。 子节点类型为rack type String 节点类型。 子节点类型为rack description String 节点描述。 子节点类型为server name String 子节点名称。 子节点类型为server fullname String 节点在集群中的全路径名称,从根节点开始,使用name:name:name格式来唯一标识该节点的名称。 子节点类型为server id String 节点ID。 子节点类型为server serverId String 服务器ID。 子节点类型为server type String 节点类型。 子节点类型为server description String 节点描述。 子节点类型为server clusterAddress String 拓扑图集群网络IP。 子节点类型为server publicAddress String 拓扑图业务网络IP。 子节点类型为server allDiskPaths.usedCapacity Long 服务器上HBlock数据目录对应分区的已用容量,单位是bytes。 子节点类型为server allDiskPaths.totalCapacity Long 服务器上HBlock数据目录对应分区的总容量,单位是bytes。 子节点类型为server serverStatus String 服务器状态: Connected:已连接。 Disconnected:未连接。 Removing:移除中。 子节点类型为path name String 子节点名称。 子节点类型为path fullname String 节点在集群中的全路径名称,从根节点开始,使用name:name:name格式来唯一标识该节点的名称。 子节点类型为path id String 节点ID。 子节点类型为path serverId String 服务器ID。 子节点类型为path type String 节点类型。 子节点类型为path totalCapacity Long HBlock数据目录对应分区的总容量,单位是bytes。 子节点类型为path usedCapacity Long HBlock数据目录对应分区的已用容量,单位是bytes。 子节点类型为path capacityQuota Long 数据目录容量配额。 负整数表示无限制写入。 子节点类型为path usedCapacityQuota Long 数据目录已用容量配额。 子节点类型为path storagePool String 所属存储池。 子节点类型为path healthStatus String 数据目录健康状态: Healthy:数据目录处于健康状态,可正常读写,且数据目录所在磁盘使用率未超过阈值(系统默认值为95%)。 Warning:数据目录处于警告状态,可读,但存在以下情况的任意一种:慢盘;数据目录所在磁盘使用率超过阈值(系统默认值为95%);磁盘剩余空间不足1GiB;HBlock对这个目录停写;数据目录配额使用率超过阈值(系统默认值为95%);数据目录配额为0。 Error:数据目录错误状态,无法访问,原因可能是:所在磁盘出现I/O错误导致无法读写,数据目录未正确挂载等。 子节点类型为path healthDetail Array of string 数据目录健康状态详情: 如果健康状态为Healthy,此字段为空。 如果健康状态为Warning或Error,显示警告或错误的详细信息。
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        集群拓扑(集群版)
        查询拓扑节点
      • 查询整个拓扑
        名称 类型 描述 子节点类型为room name String 子节点名称。 子节点类型为room fullname String 节点在集群中的全路径名称,从根节点开始,使用name:name格式来唯一标识该节点的名称。 子节点类型为room id String 节点ID。 子节点类型为room type String 节点类型。 子节点类型为room description String 节点描述。 子节点类型为rack name String 子节点名称。 子节点类型为rack fullname String 节点在集群中的全路径名称,从根节点开始,使用name:name:name格式来唯一标识该节点的名称。 子节点类型为rack id String 节点ID。 子节点类型为rack type String 节点类型。 子节点类型为rack description String 节点描述。 子节点类型为server name String 子节点名称。 子节点类型为server fullname String 节点在集群中的全路径名称,从根节点开始,使用name:name:name格式来唯一标识该节点的名称。 子节点类型为server id String 节点ID。 子节点类型为server serverId String 服务器ID。 子节点类型为server type String 节点类型。 子节点类型为server description String 节点描述。 子节点类型为server clusterAddress String 拓扑图集群网络IP。 子节点类型为server publicAddress String 拓扑图业务网络IP。 子节点类型为server allDiskPaths.usedCapacity Long 服务器上HBlock数据目录对应分区的已用容量,单位是bytes。 子节点类型为server allDiskPaths.totalCapacity Long 服务器上HBlock数据目录对应分区的总容量,单位是bytes。 子节点类型为server serverStatus String 服务器状态: Connected:已连接。 Disconnected:未连接。 Removing:移除中。 子节点类型为path name String 子节点名称。 子节点类型为path fullname String 节点在集群中的全路径名称,从根节点开始,使用name:name:name格式来唯一标识该节点的名称。 子节点类型为path id String 节点ID。 子节点类型为path serverId String 服务器ID。 子节点类型为path type String 节点类型。 子节点类型为path totalCapacity Long HBlock数据目录对应分区的总容量,单位是bytes。 子节点类型为path usedCapacity Long HBlock数据目录对应分区的已用容量,单位是bytes。 子节点类型为path capacityQuota Long 数据目录容量配额。 负整数表示无限制写入。 子节点类型为path usedCapacityQuota Long 数据目录已用容量配额。 子节点类型为path storagePool String 所属存储池。 子节点类型为path healthStatus String 数据目录健康状态: Healthy:数据目录处于健康状态,可正常读写,且数据目录所在磁盘使用率未超过阈值(系统默认值为95%)。 Warning:数据目录处于警告状态,可读,但存在以下情况的任意一种:慢盘;数据目录所在磁盘使用率超过阈值(系统默认值为95%);磁盘剩余空间不足1GiB;HBlock对这个目录停写;数据目录配额使用率超过阈值(系统默认值为95%);数据目录配额为0。 Error:数据目录错误状态,无法访问,原因可能是:所在磁盘出现I/O错误导致无法读写,数据目录未正确挂载等。 子节点类型为path healthDetail Array of string 数据目录健康状态详情: 如果健康状态为Healthy,此字段为空。 如果健康状态为Warning或Error,显示警告或错误的详细信息。
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        集群拓扑(集群版)
        查询整个拓扑
      • 删除Topic
        场景描述 在RocketMQ中,删除Topic是一个比较重要且敏感的操作,需要谨慎处理。一般来说,删除Topic的场景有以下几种情况: 业务不再需要该Topic:当某个Topic对应的业务已经结束或不再需要时,可以考虑删除该Topic,以释放资源和减少管理工作。 Topic配置错误或不合适:如果创建Topic时配置错误或者配置不合适,可以考虑删除该Topic,并重新创建一个正确的Topic。 数据归档或清理:在某些情况下,可能需要对Topic中的数据进行归档或清理,以释放存储空间。在归档或清理之前,需要先将Topic中的消息备份或迁移到其他地方,确保数据的完整性和可恢复性。 无论是哪种场景,删除Topic都需要注意以下几点: 确保Topic中的消息已经被正确处理和消费:在删除Topic之前,需要确保Topic中的消息已经被正确地处理和消费,以避免数据丢失或处理中断。 停止生产者和消费者对该Topic的操作:在删除Topic之前,需要停止生产者和消费者对该Topic的操作,以避免数据冲突或丢失。 确保删除操作的权限和安全性:删除Topic通常需要管理员或具有相应权限的用户来执行,确保只有授权人员可以进行删除操作。 慎重操作,备份重要数据:在删除Topic之前,建议备份Topic中的重要数据,以防止误操作或数据丢失。 总之,删除Topic是一个敏感操作,需要在慎重考虑和评估后进行,以确保不会对业务和数据产生不可逆的影响。 操作步骤 1、进入Topic管理菜单。 2、在Topic管理菜单选择将要删除的主题,在更多下拉框选择删除,即可完成删除 注意事项: ● 删除主题前必须确保该主题对应的生产消费实例已经全部停止。 ● 删除主题后消息数据会发生丢失。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        Topic管理
        删除Topic
      • 支持云硬盘共享功能
        共享云硬盘的优点 多挂载点:单个共享云硬盘最多可同时挂载给16台云主机,既可以挂载至天翼云云主机,也可以挂载至天翼云物理机,灵活部署不同类型的工作负载。 高性能:高IOPS (Input/Output Operations Per Second),低时延,满足现代应用的需求。 共享云硬盘的规格性能 共享云硬盘的规格性能与普通云硬盘规格性能一致,详情请参见产品规格。 共享云硬盘的数据共享原理 共享云硬盘本质上就是将同一块云硬盘挂载到多台云主机上。由于每一台云主机均可以在任意时刻对该云硬盘任意区域的数据进行读写,如果这些云主机之间没有相互约定读写数据的规则,将会导致这些云主机读写数据时相互干扰,以致出现不可预知的错误。 想要确保云主机在访问过程中不互相干扰,确保读写次序和读写意义,必须通过一个集群来对读写进行集中管理与调度,因此用户在实际使用过程中务必确保自行部署集群系统,如企业应用中常见的Windows MSCS集群、Linux RHCS集群和CFS集群应用等。 如果使用共享云硬盘的过程中并没有通过集群进行管理,有可能导致以下问题: 读写冲突导致数据不一致 当两台弹性云主机同时挂载了同一块共享云硬盘却没有在一个集群系统中进行管理时,这两台云主机无法感知对方的具体存储空间是否已被使用,可能导致存储空间的重复分配,最终导致空间分配冲突使得数据出错的情况。 比如,将一块共享云硬盘格式化为ext3文件系统后挂载给云主机A和云主机B,云主机A在某一时刻向云硬盘上的区域C和区域D写了文件系统的元数据,下一时刻云主机B又向区域E和区域D写了自己的元数据,则云主机A写入的数据将会被替换,随后读取区域D的元数据时即会出现错误。 数据缓存导致数据不一致 当两台弹性云主机同时挂载了同一块共享云硬盘却没有在一个集群系统中进行管理时,其中一台假定为云主机A,另一台为云主机B,云主机A将读取来的数据记录在缓存区域中,云主机A上的其他进程读取数据时,可直接去读缓存区域的数据提高效率,而云主机B若修改了缓存区域的数据,云主机A是无法感知数据变化的,此时若继续读取缓存,则会导致读取的数据不一致情况。比如,将一块共享云硬盘格式化为ext3文件系统后挂载给云主机A和云主机B,两台云主机均将文件系统的元数据进行了缓存,此后用户在云主机A中创建了一个新的文件File,但云主机B并无法感知该修改,依旧从缓存中读取数据,导致用户在云主机B中无法看到文件File。 除此之外,还可能会导致存储性能下降,读写速度变慢,响应时间延长等问题。
        来自:
        帮助文档
        云硬盘 EVS
        产品介绍
        功能特性
        支持云硬盘共享功能
      • 配置Kafka数据转储至OBS
        本节介绍如何配置Kafka数据转储至OBS。 本章节介绍如何创建转储的Smart Connect任务,通过Smart Connect任务可以将Kafka实例中的数据转储至OBS中,实现消息数据的备份。 源Kafka实例中的数据会实时同步到转储文件中。 约束与限制 一个实例最多创建18个Smart Connect任务。 Smart Connect任务创建成功后,不支持修改任务参数。 前提条件 已开启Smart Connect。 已创建Kafka实例,且实例状态为“运行中”。 已创建的OBS桶和Kafka实例需要在同一个区域。 配置Kafka数据转储至OBS 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、单击Kafka实例名称,进入实例详情页面。 5、在左侧导航栏单击“Smart Connect”,进入Smart Connect任务列表页面。 6、单击“创建Smart Connect任务”,进入“创建smart connect”页面。 7、在“connect任务名称”中,输入Smart Connect任务的名称,用于区分不同的Smart Connect任务。任务名称需要符合命名规则:长度为4~64个字符,只能由英文字母、数字、中划线、下划线组成。 8、在“预置类型”中,选择“转储”。 9、在“源端配置”中,保持默认设置。 10、在“Topic配置”中,设置以下参数。 表11 Topic配置参数说明 参数 参数说明 正则表达式 表示以正则表达式的方式订阅Topic,并进行转储。 输入/选择 输入/选择待转储的Topic名称,支持选择多个Topic,以逗号“,”分隔。最多输入/选择20个Topic。 11、在“目标端配置”中,设置以下参数。 表12 目标端参数说明 参数 参数说明 转储启动偏移量 支持以下两种转储启动偏移量: 最早:最小偏移量,即读取最早的数据。 最新:最大偏移量,即获取最新的数据。 数据转储周期 两次转储的时间间隔,单位:秒,默认配置为300秒。 若某个时间段内无数据,则此时间段不会生成打包文件 AK 访问密钥ID。 SK 与访问密钥ID结合使用的密钥。 转储地址 设置存储Topic数据的OBS桶的名称。 选择:在下拉列表中选择已创建的OBS桶名称,或者单击“创建转储地址”,新创建一个OBS桶。 输入:输入已创建的OBS桶名称,或者单击“创建转储地址”,新创建一个OBS桶。输入的OBS桶必须和Kafka实例在同一个区域。 转储目录 OBS中存储Topic的目录,多级目录可以用“/”进行分隔。 时间目录格式 数据将存储在转储目录下的时间目录中,时间目录是按时间格式作为层级的目录。例如,当选择的时间目录格式精确到日时,存储目录为:“桶名称/转储目录/年/月/日”。 记录分隔符 在下拉列表中选择一种分隔符,分隔不同的转储记录 存储Key 是否转储Key,开启表示转储Key,关闭表示不转储Key。 说明 消息进行转储时,不支持以Key作为文件名。 12、单击“立即创建”,跳转到Smart Connect任务列表页面,页面右上角显示“创建xxx任务成功”。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        配置Kafka数据转储至OBS
      • 删除卷
        本节主要介绍删除卷命令。 本地卷 ./stor lun rm { n name } LUNNAME [ f force ] 上云卷 ./stor lun rm { n name } LUNNAME [ { c delcloud } ] [ f force ] 此命令用来删除指定的卷。 说明 卷禁用后,才能被删除(3.9之前版本)。对于上云卷,如果删除卷的时候未删除云上数据,后期可以使用卷还原功能进行卷数据还原。删除卷时,应确保卷不包含快照、一致性快照。 注意 对于上云卷,选择强制删除卷,且同时删除云上数据,可能会有云上数据残留,需要对云上数据进行手动删除。 如果卷存在关联克隆卷,且克隆卷未处于“Deleting”或“Flattening”状态,则禁止删除源卷。 如果卷有关联的快照或一致性快照,只能强制删除卷。强制删除卷时,将同时删除此卷的快照和一致性快照中的卷快照。同时也会产生数据残留风险,请谨慎操作。 参数 参数 描述 n LUNNAME 或 name LUNNAME 指定删除的卷名称。 c 或 delcloud 删除卷时,删除云上数据。 说明 如果卷状态为Suspended、Suspending或SuspendFailed,即使强制删除卷,也不能删除云上数据。 f 或force 强制删除卷。 注意 强制删除卷,会产生数据残留风险,请谨慎操作。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        卷操作
        删除卷
      • 云硬盘扩容问题
        扩容后的云硬盘容量大于2TB该如何处理 EVS服务支持的最大系统盘容量为1 TB(1024 GB),即您最大可将系统盘扩容至1 TB。 EVS服务支持的最大数据盘容量为32 TB(32768 GB)。 当数据盘使用MBR分区形式时,容量最大支持2 TB(2048 GB),超过2 TB的部分无法使用。 如果因为业务需求要将该数据盘扩容至2 TB以上并投入使用。则必须将MBR切换成GPT,期间会中断业务,并且更换分区形式时会清除数据盘原有数据,请在扩容前先对数据进行备份。 当磁盘使用GPT分区形式时,容量最大支持18 EB(19327352832 GB)。由于EVS服务支持的最大数据盘容量为32 TB,因此使用GPT的数据盘最大可扩容至32 TB。 如果当前磁盘使用的是GPT分区形式,可以参考以下方法进行扩容。 Windows:扩展磁盘分区和文件系统( Windows 2008 ) Linux:扩展数据盘的分区和文件系统(Linux) 为什么扩容后云主机内云硬盘容量没有变化 通过管理控制台扩容成功后,只是扩大了云硬盘的存储容量,还需要登录云主机自行扩展分区和文件系统,完成该操作后,您才可以看到新增容量并使用。 扩展磁盘分区和文件系统操作请参见: 扩展磁盘分区和文件系统( Windows 2008 ) [分区和文件系统扩展前准备( Linux )](
        来自:
        帮助文档
        云硬盘 EVS
        常见问题
        云硬盘扩容问题
      • RDS SQL
        参数 是否必选 说明 节点名称 是 节点名称,可以包含中文、英文字母、数字、“”、“”、“/”、“<”、“>”等各类特殊字符,长度为1~128个字符。 数据连接 是 选择数据连接。 数据库 是 填写数据库名称,该数据库已创建好,建议不要使用默认数据库。 SQL或脚本 是 可以选择SQL语句或SQL脚本。 SQL语句 单击“SQL语句”参数下的文本框,在“SQL语句”页面输入需要执行的SQL语句。 SQL脚本 在“脚本路径”参数后选择需要执行的脚本。如果脚本未创建,请参考新建脚本和开发SQL脚本先创建和开发脚本。 说明 若选择SQL语句方式,数据开发模块将无法解析您输入SQL语句中携带的参数。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        节点参考
        RDS SQL
      • 添加实例至收藏夹
        本文介绍了数据管理服务进行实例收藏的两种方法。 前提条件 组织中已存在实例,将组织中的实例添加到实例收藏夹。 操作步骤 通过实例列表菜单将实例加入收藏夹 1. 登录数据管理服务。 2. 点击右侧菜单的实例列表,打开实例列表菜单。 3. 点击右上角,打开添加实例弹窗,填写实例信息。 4. 点击添加并收藏按钮,将实例加入收藏夹。 通过实例管理页将实例加入收藏夹 1. 登录数据管理服务。 2. 在左侧菜单栏中,选择 数据资产 >实例管理。 3. 在实例列表中,点击目标实例行的添加收藏。
        来自:
        帮助文档
        数据管理服务
        用户指南
        实例列表
        添加实例至收藏夹
      • 我对存储在媒体存储上的数据加密时,可支持哪些加密技术
        本文介绍我对存储在媒体存储上的数据加密时,可支持哪些加密技术。 您在将数据上传到媒体存储前,可以事先对数据进行加密,以保证传输和保存的安全性。媒体存储不限定客户端加密的技术。 用户可根据需要对对象进行服务端加密,使对象更安全地存储,当启用服务端加密功能后,用户上传对象时,数据会在服务端加密成密文后存储。用户下载加密对象时,存储的密文会先在服务端解密为明文,再提供给用户。媒体存储支持完全由服务端生成和托管加密密钥的服务端加密(SSEXOS)。具体可参考:服务端加密。
        来自:
        帮助文档
        媒体存储
        常见问题
        数据安全
        我对存储在媒体存储上的数据加密时,可支持哪些加密技术
      • 上传文件
        项目 描述 当前位置 文件上传的位置。 存储类型 文件的存储类型: 标准存储:访问时延低、吞吐量高,能够有效支持各种热点类型数据频繁访问。适用于各种音视频服务、图片服务、大型网站、大数据分析等应用的数据存储。标准存储是默认的存储类型。如果上传文件时未指定存储类型,OOS默认使用标准存储。 低频访问存储:适合长期保存不经常访问的数据。对于不经常访问但仍需要实时访问的数据,可以采用低频访问存储,例如各类移动应用、智能设备、企业数据的长期备份。 最短存储时间:低频访问存储的文件有最短存储时间,存储时间短于30天的文件被提前删除或变更时,会产生一定费用。 最小计费大小:低频访问存储文件有最小计费大小,即如果文件大小低于64KiB,会按照64KiB计算收费,文件大于等于64KiB按照实际存储收费。 数据取回:获取低频访问存储文件时会产生数据取回费用。 选择文件 可以通过将目录或文件拖到浮窗上传文件,也可以点击添加文件、添加文件夹按钮上传文件。 上传的文件中如果想移除的,可以勾选对应的文件,点击“移除”按钮,进行文件移除。 说明 在查找框中可以模糊匹配查找上传的文件。 元数据 用户可以编辑上传文件的文件元数据信息,具体元数据信息详见
        来自:
        帮助文档
        对象存储(经典版)I型
        快速入门
        控制台快速入门
        上传文件
      • 全局字典相关函数
        项目 描述 语法 number DICT:flushexpired(maxcount?) 作用 清空共享内存中所有过期的数据,方法是释放掉这些内存,彻底清除数据,并返回所清除数据的数量。 入参 maxcount: 可选参数,如果不设置此参数或设为0,则会清除全部过期数据;如果参数值大于0,则会清除相应数量的数据。 返回值 number: 返回实际已刷新的项目数。
        来自:
        帮助文档
        CDN加速
        用户指南
        UDFScript用户自定义脚本
        UDFScript函数说明
        全局字典相关函数
      • PUT Bucket
        名称 描述 是否必须 CreateBucketConfiguration 设置Bucket索引位置和数据位置的容器。 类型:容器。 子节点:MetadataLocationConstraint、DataLocationConstraint。 否 MetadataLocationConstraint 设置Bucket的索引位置。 类型:容器。 父节点:CreateBucketConfiguration。 子节点:Location。 创建Bucket的时候非必填。修改Bucket ACL或数据位置的时候不能填写。 DataLocationConstraint 设置Bucket的数据位置。 类型:容器。 父节点:CreateBucketConfiguration。 子节点:Type、LocationList、ScheduleStrategy。 否 Type 数据位置的类型。 类型:枚举。 取值: Local:本地 Specified:指定位置 默认值:Local 父节点:DataLocationConstraint。 否 LocationList 指定的数据位置。 类型:容器。 父节点:DataLocationConstraint。 子节点:Location。 否 Location 索引位置或数据位置。 类型:字符串。 取值: 父节点为MetadataLocationConstraint,表示索引位置。对于对象存储网络,取值为:ChengDu、FuZhou、GuiYang、HangZhou、LaSa、LanZhou、QingDao、ShenYang、ShenZhen、WuHan、WuHu、WuLuMuQi、ZhengZhou、SH2、SuZhou;对于对象存储网络2,取值为:NeiMeng1、HangZhou1。 父节点为LocationList,表示数据位置。对于对象存储网络,取值为:ChengDu、GuiYang、LanZhou、QingDao、SH2、ShenYang、ShenZhen、SuZhou、WuHan、WuHu、WuLuMuQi、ZhengZhou;对于对象存储网络2,取值为:NeiMeng1、HangZhou1。 默认值:无 父节点:MetadataLocationConstraint或Locationlist。 否 ScheduleStrategy 指定数据时的调度策略。 类型:枚举。 取值: Allowed:允许OOS自动调度 NotAllowed:不允许OOS自动调度 默认值:Allowed。 父节点:DataLocationConstraint。 否
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        存储桶(Bucket)和文件(Object)
        关于Bucket的操作
        PUT Bucket
      • DN管理概述
        本节主要介绍DN管理概述 DN管理提供数据节点管理服务,管理DRDS实例关联的RDS for MySQL实例或者GaussDB(for MySQL)实例,展现实例的状态、存储、规格、读权重等信息,提供设置读权重、增加只读实例的快捷操作。 “设置读权重”主要用于批量设置读权重,可同时设置列表中多个数据节点的权重,注意如果数据节点未挂载只读实例,该主实例无法设置权重。 “同步DN信息”用于数据节点数量比较多的场景下,可以先设置第一个数据节点的读权重,点击“同步DN信息”后,会把第一个数据节点的设置同步到其他只读实例数量相同的数据节点上,如果只读实例数量不同,请手动设置。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        DN管理
        DN管理概述
      • 创建自定义拓扑集群
        节点部署原则 适用场景 组网规则 管理节点、控制节点和数据节点分开部署 (此方案至少需要8个节点) MN × 2 + CN × 9 + DN × n (推荐)数据节点数5002000时采用此方案 l 集群节点数超过200时,各节点划分到不同子网,各子网通过核心交换机三层互联,每个子网的节点数控制在200个以内,不同子网中节点数量请保持均衡。 l 集群节点数低于200时,各节点部署在同一子网,集群内通过汇聚交换机二层互联。 管理节点、控制节点和数据节点分开部署 (此方案至少需要8个节点) MN × 2 + CN × 5 + DN × n (推荐)数据节点数100500时采用此方案 l 集群节点数超过200时,各节点划分到不同子网,各子网通过核心交换机三层互联,每个子网的节点数控制在200个以内,不同子网中节点数量请保持均衡。 l 集群节点数低于200时,各节点部署在同一子网,集群内通过汇聚交换机二层互联。 管理节点、控制节点和数据节点分开部署 (此方案至少需要8个节点) MN × 2 + CN × 3 + DN × n (推荐)数据节点数30100时采用此方案 l 集群节点数超过200时,各节点划分到不同子网,各子网通过核心交换机三层互联,每个子网的节点数控制在200个以内,不同子网中节点数量请保持均衡。 l 集群节点数低于200时,各节点部署在同一子网,集群内通过汇聚交换机二层互联。 管理节点和控制节点合并部署,数据节点单独部署 (MN+CN) × 3 + DN × n (推荐)数据节点数330时采用此方案 集群内节点部署在同一子网,集群内通过汇聚交换机二层互联。 管理节点、控制节点和数据节点合并部署 l 节点数小于6的集群使用此方案 l 此方案至少需要3个节点 说明 生产环境或商用环境不推荐使用此场景: l 管理节点、控制节点和数据节点合并部署时,集群性能和可靠性都会产生较大影响。 l 如节点数量满足需求,建议将数据节点单独部署。 l 如节点数量不满足将数据节点单独部署的要求,必须使用此场景时,需要使用双平面组网方式。将管理网络与业务网络流量隔离,防止业务平面的数据量过大,导致管理操作不能正常下发。 集群内节点部署在同一子网,集群内通过汇聚交换机二层互联。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        配置集群
        创建自定义拓扑集群
      • 修改同步对象
        本页介绍数据同步实例修改同步对象的操作。 支持的链路和对象 DTS支持在数据同步实例运行过程中新增或移除同步对象,无需重新配置同步实例,帮助您在降低对业务影响的情况下变更同步对象。 目前MySQL到MySQL、PostgreSQL到PostgreSQL的数据同步链路支持修改同步对象。支持修改的对象如下: MySQL到MySQL:支持表、索引、存储过程、视图、函数、事件、触发器等。 PostgreSQL到PostgreSQL:支持模式、表、索引、约束(外键、唯一、排他)、视图、物化视图、序列、存储过程、函数、规则、触发器、用户自定义类型、域等。 注意 数据同步小规格实例不支持在任务运行过程中新增或移除同步对象,如需动态修改同步对象,请务必订购中规格及以上规格实例。 前提条件 数据同步实例进入增量写入模块,且处于运行中,或未启动(暂停)状态。 为保障DTS可以正常连接源和目标库、读取源库的库表信息,在修改同步对象时,请勿对源库和目标库执行升级、变配、网络切换、跨可用区迁移等操作,即源库和目标库须处于正常运行的状态。 注意事项 每次修改同步对象只能新增对象,或者移除对象,不能同时新增并移除对象。若您同时需要新增和移除同步对象,请您分两次进行操作。 若实例存在未运行的增量写入模块,则不支持修改同步对象。 新增或移除同步对象后,DTS需要重新进行预检查并启动任务,从而会导致同步任务出现分钟级别的延迟。 在修改同步对象过程中,不支持新增或修改数据稽查任务。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        修改同步对象
      • 免责申明
        源端服务器导致的迁移问题免责申明 因源端服务器的硬件(如磁盘、网卡)、软件(如OS、应用)、数据(文件)等损坏/配置不当/不兼容/业务量大/网络慢等因素引发的迁移问题,非主机迁移服务的问题,包括但不限于下面列举的问题。您可自行解决,若自行解决无果,您可以向天翼云提出咨询或请求天翼云协助解决,但天翼云不承诺解决问题。 源端服务器系统本身有问题,如:Windows的启动文件损坏或缺失。 源端服务器系统配置错乱,如:Linux的grub配置错乱缺失,fstab配置错乱。 网络问题,如:访问不了公网,网速慢,ssh问题,防火墙等。 IO读写慢,增量数据多,Windows有效簇分散,Linux小文件多导致的迁移慢,同步慢,同步时间比较久的问题。 源端平台服务或软件与天翼云不兼容。 源端平台服务或软件把Agent关闭,或杀毒软件把IO监控关闭。 迁移到天翼云后,若目的端服务器不能正常启动,天翼云可以提供相应的技术支持,但是不承诺解决问题。 其中目的端服务器不能正常启动的原因可能包括以下几种: 源端服务器本身无法重启。 源端服务器上有非OS标准的配置。 源端服务器上安装了与天翼云不兼容的驱动或软件等。 为了适配天翼云,主机迁移服务对目的端服务器的系统配置做了修改,主机迁移服务可以保证迁移前后数据一致性,但无法保证业务能正常运行,需要您自己修改业务相关配置。 业务割接后,源端服务器、目的端服务器均有新增数据时,使用主机迁移服务,无法将源端新增数据与目的端新增数据进行合并,只能使用源端数据覆盖目的端数据。因此,建议您在业务割接前,不要在目的端服务器新增数据;业务割接后,不要在源端服务器新增数据。对于业务割接后,源端服务器、目的端服务器均有新增数据且需要合并的情况,需要您自行设计解决方案。
        来自:
        帮助文档
        主机迁移服务SMS
        产品介绍
        免责申明
      • 导出监控数据:弹性文件
        接口功能介绍 导出指定时间段内的弹性文件时序指标监控数据,导出格式为csv文件。 接口约束 regionID(资源池)、deviceUUIDList(弹性文件资源)、itemNameList(待查监控项名称)存在。 URI POST /v4/monitor/exportsfshistorymetricdata 请求参数 请求体body参数 参数 参数类型 是否必填 示例 说明 下级对象 regionID String 是 81f7728662dd11ec810800155d307d5b 资源池ID itemNameList Array of String 是 ["fswriteiops","fsreadbw"] 待查的监控项名称 startTime String 是 1667815639 查询起始时间戳 endTime String 是 1667817639 查询结束时间戳 deviceUUIDList Array of String 是 ["04k6lrn29u8qwrs8"] 查询设备ID列表 period Integer 否 300 聚合周期,单位:秒,默认300 响应参数 根据请求参数导出监控数据为csv文件。 文件内容按照设备deviceUUID分隔,不同设备的数据以栏(多个行)为单位竖向排列。 同一设备的不同指标,按照时间戳横向排列,无数据则为空。 请求失败,返回参数参考历史监控数据查询系列接口。 请求示例 POST /v4/monitor/exportsfshistorymetricdata 请求体body json { "regionID": "81f7728662dd11ec810800155d307d5b", "startTime": "1667815639", "endTime": "1667817639", "itemNameList": [ "fswriteiops", "fswritebw", "fsreadiops", "fsreadbw", "fscapacitytotal" ], "deviceUUIDList": [ "04k6lrn29u8qwrs8" ] }
        来自:
        帮助文档
        云监控服务
        API参考
        API
        监控服务
        监控数据导出
        导出监控数据:弹性文件
      • 概述
        操作步骤 1. 在库管理页面,打开右上方的元数据采集开关,单击“元数据采集”页签,打开元数据采集窗口。 2. 在元数据采集窗口单击“立即采集”,触发采集动作,您可在右侧操作栏中止采集或查看采集详情信息。 清空采集数据:清空采集的元数据、库结构、表结构等结构数据。 删除日志:日志删除后将不能恢复,请谨慎操作。
        来自:
        帮助文档
        数据管理服务
        用户指南
        分布式关系型数据库DRDS数据库管理(开发工具)
        库管理
        概述
      • 表结构设计
        策略 描述 适用场景 优势与劣势 复制表(Replication) 集群中每一个DN实例上都有一份全量表数据。 小表、维度表。 Replication优点是每个DN上都有此表的全量数据,在join操作中可以避免数据重分布操作,从而减小网络开销,同时减少了plan segment(每个plan segment都会起对应的线程) Replication缺点是每个DN都保留了表的完整数据,造成数据的冗余。一般情况下只有较小的维度表才会定义为Replication表。 哈希表(Hash) 表数据通过hash方式散列到集群中的所有DN实例上。 数据量较大的事实表。 在读/写数据时可以利用各个节点的IO资源,大大提升表的读/写速度。 一般情况下大表(1000000条记录以上)定义为Hash表。 轮询表(Roundrobin) 表的每一行被轮番地发送给各个DN,数据会被均匀地分布在各个DN中。 数据量较大的事实表,且使用Hash分布时找不到合适的分布列。 Roundrobin优点是保证了数据不会发生倾斜,从而提高了集群的空间利用率。 Roundrobin缺点是无法像Hash表一样进行DN本地化优化,查询性能通常不如Hash表。 一般在大表无法找到合适的分布列时,定义为Roundrobin表,若大表能够找到合适的分布列,优先选择性能更好的Hash分布。
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        调优表实践
        表结构设计
      • 恢复方案
        本页介绍了文档型数据库服务的恢复方案。 目前文档型数据库服务的3种规格都支持备份数据的恢复,您可以根据实际需求进行备份数据的恢复。 实例类型 恢复类型 使用场景 单机版(单节点) 按备份点恢复到本实例 将已有的单机版(单节点)备份数据恢复到本实例 单机版(单节点) 按备份点恢复到其他单机版(单节点)实例 将已有的单机版(单节点)备份数据恢复到其他单机版实例或副本集实例 单机版(单节点) 按备份点跨区域恢复到单机版新实例 将已有的单机版(单节点)备份数据跨区域恢复到单机版新实例 副本集 按备份点恢复到本实例 将已有的副本集备份数据恢复到本实例 副本集 按时间点恢复到本实例 将已有的副本集备份数据按某个指定的时间点还原到本实例 副本集 按备份点恢复到新实例 将已有的副本集备份数据恢复到新实例 副本集 按时间点恢复到新实例 将已有的副本集备份数据按某个指定的时间点还原到新实例 副本集 按备份点恢复到其他副本集实例 将已有的副本集备份数据恢复到其他单机版实例或副本集实例 副本集 按时间点恢复到其他副本集实例 将已有的副本集备份数据按某个指定的时间点还原到其他单机版实例或副本集实例 副本集 按备份点跨区域恢复到副本集新实例 将已有的副本集备份数据跨区域恢复到节点数相同的副本集新实例 集群版 按备份点恢复到本实例 将已有的集群版备份数据恢复到本实例 集群版 按时间点恢复到本实例 将已有的集群版备份数据按某个指定的时间点恢复到本实例 集群版 按备份点恢复到新实例 将已有的集群版备份数据恢复到新实例 集群版 按时间点恢复到新实例 将已有的集群版备份数据按某个指定的时间点恢复到新实例 集群版 按备份点恢复到其他集群版实例 将已有的集群版备份数据恢复到其他相同shard数量的集群版实例 集群版 按时间点恢复到其他集群版实例 将已有的集群版备份数据按某个指定的时间点恢复到其他相同shard数量的集群版实例 集群版 按备份点跨区域恢复到集群版新实例 将已有的集群版备份数据跨区域恢复到shard 数量相同的集群版新实例
        来自:
        帮助文档
        文档数据库服务
        用户指南
        恢复管理
        恢复方案
      • 勒索软件概念
        此小节介绍勒索软件 勒索软件攻击已成为当今企业面临的最大安全挑战之一。勒索软件可以锁定受害者的数据或资产设备,攻击者会要求在支付赎金后才能赎回数据,防止数据被盗,也存在即使支付赎金也无法赎回数据情况。 一旦被勒索软件攻击成功,可能导致您的业务中断、数据泄露、数据丢失等严重问题,从而可能对企业的运转、经济、形象、信誉造成重大损失和不良影响,出现的安全问题可能对企业发展产生重大阻碍,出现一蹶不振的现象。 近年来,勒索病毒攻击量呈倍增趋势,且隐蔽性极强、变种多、变化快,攻击目标更多元,攻击路径更多样,应对勒索软件攻击当下刻不容缓。 图 勒索概述
        来自:
      • Get Bucket Location
        本节主要介绍GET Bucket Location。 此操作用来获取Bucket的索引位置和数据位置,只有根用户和拥有GET Bucket location权限的子用户才能执行此操作。 注意 香港节点不支持此接口。 请求语法 plaintext GET /?location HTTP/1.1 Host: BucketName.ooscn.ctyunapi.cn Date: date Authorization: SignatureValue 请求参数 名称 描述 是否必须 BucketName 存储桶名称。 是 响应结果 名称 描述 BucketConfiguration 设置Bucket索引位置和数据位置的容器。 类型:容器。 子节点:MetadataLocationConstraint、DataLocationConstraint。 MetadataLocationConstraint 设置Bucket的索引位置。 类型:容器。 父节点:CreateBucketConfiguration。 子节点:Location。 DataLocationConstraint 设置Bucket的数据位置。 类型:容器。 父节点:CreateBucketConfiguration。 子节点:Type、LocationList、ScheduleStrategy。 Type 数据位置的类型。 类型:枚举。 取值: Local:本地。 Specified:指定位置。 默认Local。 父节点:DataLocationConstraint。 LocationList 指定的数据位置。 类型:容器。 父节点:DataLocationConstraint。 子节点:Location。 Location 索引位置或数据位置。 类型:字符串。 取值: 父节点为MetadataLocationConstraint,表示索引位置,有效值为:ChengDu、FuZhou、GuiYang、HangZhou、LaSa、LanZhou、QingDao、ShenYang、ShenZhen、WuHan、WuHu、WuLuMuQi、ZhengZhou、SH2、SuZhou 父节点为LocationList,表示数据位置,有效值为:ChengDu、GuiYang、LanZhou、QingDao、SH2、ShenYang、ShenZhen、SuZhou、WuHan、WuHu、WuLuMuQi、ZhengZhou 父节点:MetadataLocationConstraint或LocationList。 ScheduleStrategy 指定数据时的调度策略 类型:枚举 取值: Allowed:允许OOS自动调度。 NotAllowed:不允许OOS自动调度。 父节点:DataLocationConstraint
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        存储桶(Bucket)和文件(Object)
        关于Bucket的操作
        Get Bucket Location
      • 作业开发类
        本章节主要介绍操作类问题中有关作业开发的问题。 如何准备MRS的数据源? MRS既可以处理OBS中的数据,也可以处理HDFS中的数据。在使用MRS分析数据前,需要先准备数据。 1.将本地数据上传OBS。 a.登录OBS管理控制台。 b.在OBS上创建userdata并行文件系统,然后在userdata文件系统下创建program、input、output和log文件夹。 i.单击“并行文件系统 > 创建并行文件系统”,创建一个名称为userdata的文件系统。 ii.在OBS文件系统列表中单击文件系统名称userdata,选择“文件 > 新建文件夹”,分别创建program、input、output和log目录。 c.上传数据至userdata文件系统。 i.进入program文件夹,单击“上传文件”。 ii.单击“添加文件”并选择用户程序。 iii.单击“上传”。 iv.使用同样方式将用户数据文件上传至input目录。 2.将OBS数据导入至HDFS。 当“Kerberos认证”为“关闭”,且运行中的集群,可执行将OBS数据导入至HDFS的操作。 a.登录MRS管理控制台。 b.单击集群名称进入集群详情页面。 c.单击“文件管理”,选择“HDFS文件列表”。 d.进入数据存储目录,如“bdapp1”。 “bdapp1”目录仅为示例,可以是界面上的任何目录,也可以通过“新建”创建新的目录。 e.单击“导入数据”,通过单击“浏览”选择OBS和HDFS路径。 f.单击“确定”。 文件上传进度可在“文件操作记录”中查看。 MRS集群支持提交哪些形式的Spark作业? 当前在MRS页面,集群支持提交Spark、Spark Script和Spark SQL形式的Spark作业。 MRS集群的租户资源最小值改为0后,只能同时运行一个Spark任务吗? 租户资源最小值改为0后,只能同时运行一个Spark任务。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        操作类
        作业开发类
      • 文档数据库服务开发规范
        可靠性 在使用文档数据库服务时,为了保证数据的可靠性和一致性,需要遵守一些规范和最佳实践。以下是一些常见的文档数据库服务可靠性规范: 使用副本集:文档数据库服务的副本集是一组自动同步的文档数据库实例,提供了数据冗余和高可用性。可以使用副本集来保证数据的可靠性和恢复性。 设置write concern:文档数据库服务的write concern用于指定写入操作的确认级别,即写入数据后需要多少个文档数据库服务实例确认才算成功。对于关键业务,write concern设置为{w:n},n>0,数字越大,一致性实现更好,但性能较差 。可以根据业务需求设置不同的write concern级别,例如: w: 0 表示写入操作不需要确认,不会等待文档数据库服务实例的响应. w: 1 表示写入操作需要至少一个文档数据库服务实例确认,等待一个文档数据库服务实例的响应; w: majority 表示写入操作需要大多数文档数据库服务实例确认,等待大多数文档数据库服务实例的响应; w: n 表示写入操作需要n个文档数据库服务实例确认,等待n个文档数据库服务实例的响应。 使用事务:文档数据库服务4.0及以上版本支持事务,可以使用事务来保证数据的一致性和可靠性。可以使用事务来确保多个操作的原子性,例如同时写入多个文档或修改多个文档。 使用正确的索引:正确使用索引可以提高文档数据库服务查询的效率和性能,并减少数据错误和丢失的风险。 备份和恢复数据:定期备份文档数据库服务数据可以保证数据的可靠性和恢复性,可以使用mongodump和mongorestore命令来备份和恢复数据。
        来自:
        帮助文档
        文档数据库服务
        开发指南
        文档数据库服务使用规范
        文档数据库服务开发规范
      • 用户加密
        本文带您了解天翼云加密相关产品 天翼云支持以下方式,助您对弹性云主机资源进行加密,从而提升数据的安全性。 云硬盘加密 天翼云云硬盘支持系统盘加密和数据盘加密。 云硬盘加密功能 :创建云硬盘时,用户可以选择是否加密此云硬盘,云硬盘创建完成后加密属性无法更改。 云主机系统盘加密 :创建云主机时,支持在创建时直接设置系统盘加密。 云主机数据盘加密 :创建云主机时,支持在创建时直接设置数据盘加密。 云硬盘加密与快照 :加密云硬盘生成的快照及通过这些快照创建的云硬盘将自动继承加密功能属性。 云硬盘加密与备份 :加密云硬盘生成的备份及通过这些备份创建的云硬盘将自动继承加密功能属性。 密钥管理 天翼云使用行业标准的AES256 算法,利用数据密钥加密您的云硬盘数据,加密云硬盘使用的密钥由天翼云自研密钥管理(KMS,Key Management Service)功能提供,用户可轻松创建并管理密钥,满足数据加解密及数字签名验签等需求,安全便捷。 KMS通过使用硬件安全模块HSM(Hardware Security Module)保护密钥的安全,所有的用户密钥都由HSM中的根密钥保护,避免密钥泄露。KMS对密钥的所有操作都会进行访问控制及日志跟踪,并提供所有密钥的使用记录,满足审计和合规性要求。密钥管理可以轻松满足对小数据和大量数据的加解密。 工作原理 在了解云硬盘加密工作原理之前,首先需要了解两个概念: 默认密钥(Default CMK) :用户第一次通过对应云服务使用KMS加密时,系统自动生成的并托管在用户账号下的服务密钥。 用户主密钥(Customer Master Key,CMK) :用户主密钥包括对称密钥及非对称密钥,主要用于加密保护数据密钥并产生信封,也可直接用于加密少量的数据。用户可以调用KMS的API CreateKey创建一个用户主密钥。 第一次使用加密云硬盘时,系统会自动创建一个用户主密钥(CMK),该密钥有且仅有一个,且是在KMS中的相应地域所创建,并将其存储在受严格的物理和逻辑安全控制保护的密钥管理服务上。 每个地域的加密云硬盘,都需要通过256位数据密钥(DK)进行加密,此数据密钥(DK)具备地域唯一性,即每个地域都有且仅有一个。该密钥受 KMS 提供的密钥管理基础设施的保护,能有效防止未经授权的访问。云硬盘的数据密钥(DK)仅在实例所在的宿主机的内存中使用,不会以明文形式存储在任何持久化介质(即使是云硬盘本身)上。 在创建加密云硬盘并将其挂载到实例后,以下数据都将关联此密钥并进行加密: 云硬盘中的静态数据 云硬盘和实例间传输的数据(实例操作系统内的数据不加密) 通过加密云硬盘创建的快照
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        安全
        数据保护技术
        用户加密
      • 1
      • ...
      • 104
      • 105
      • 106
      • 107
      • 108
      • ...
      • 449
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务 MDR

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      AI Store

      公共算力服务

      模型推理服务

      推荐文档

      应用监控指标总览

      产品定义

      如何设置和修改绑定手机?

      购买指南

      导出数据

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号