活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 聚力AI赋能 天翼云大模型专项 大模型特惠专区·Token Plan 轻享包低至9.9元起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V4-Flash
  • GLM-5.1
  • Qwen3.5-122B-A10B
  • DeepSeek-V3.2(旗舰版)
  • GLM-5(正式版)
  • Qwen3.5-397B-A17B(正式版)
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      数据集成工具_相关内容
      • DSC对可识别和脱敏的数据的字符集是否有要求?
        本章为您介绍DSC对可识别和脱敏的数据的字符集是否有要求? DSC对可识别和脱敏的数据字符集没有任何要求。 DSC可以识别的数据源对象:查看DSC能够识别哪些数据源对象?章节。 DSC支持识别的敏感数据类型:查看DSC支持识别的敏感数据类型?章节。
        来自:
        帮助文档
        数据安全中心
        常见问题
        数据识别和数据脱敏
        DSC对可识别和脱敏的数据的字符集是否有要求?
      • 重装操作系统类
        操作 类型 重装操作系统 切换操作系统 变更规格 功能简介 还原服务器的初始化状态。重装前后操作系统不发生改变。 将现有的操作系统切换为不同镜像类型的操作系统。中国大陆外区域(包括中国港澳台及其他国家、地区)不支持Windows镜像和Linux镜像之间的切换。 云主机规格无法满足业务需要时,通过变更规格,升级vCPU、内存。 是否收费 重装动作不收费。重装前后操作系统不变,计费项不发生改变。 切换动作不收费。切换后,系统将根据您选择的产品重新计费。 变更规格动作不收费。但变更规格会引起费用的变化。 IP是否发生改变 私有IP、弹性公网IP、MAC地址均不发生改变。 私有IP、弹性公网IP、MAC地址均不发生改变。 私有IP、弹性公网IP、MAC地址均不发生改变。 对系统盘数据的影响 重装操作系统会清除系统盘数据,包括系统盘上的系统分区和所有其它分区,请做好数据备份。 切换操作系统清除系统盘数据,包括系统盘上的系统分区和所有其它分区,请做好数据备份。 不影响系统盘数据。 对数据盘数据的影响 不影响数据盘数据。 不影响数据盘数据。 不影响数据盘数据。 是否需要做备份 重装会清除系统盘数据,建议制作系统盘备份。 切换操作系统会清除系统盘数据,建议制作系统盘备份。 为防止变更规格后系统盘数据丢失,建议制作系统盘快照。
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        操作系统管理类
        重装操作系统类
      • 技术类
        本章节主要介绍应用容灾多活技术类问题。 什么时候可以选用应用双活架构? 应用双活架构 采用数据主备集群模式,优点是实现简单,业务改造成本低,不需要过多考虑多中心数据读写冲突问题,流量层和应用层常态化跨中心多活,数据层通过容灾主备切换实现高可用。 推荐业务场景包括: 业务数据集中化,无法拆分。 业务数据拆分成本高,应用期望少改造或零改造。 数据中心距离较近,异地数据读写延迟可接受(建议物理距离≤100km,网络延迟≤10ms)。 什么时候可以选用数据双活架构? 数据双活架构 采用基于业务数据分片 的单元化模式,不受数据中心距离限制,流量在单元内闭环,单元故障影响不外溢。相比异地应用双活方案业务体验更好、故障爆炸半径更小、容灾切换更平滑,但应用改造成本更高,要求业务数据拆分、流量带标和标记传递。 推荐业务场景包括: 单个中心数据负载过高,需要水平拆分(要求业务数据能够拆分)。 数据中心距离较远,异地调用成本过高。 技术投入和技术栈能够支撑应用改造。 多活容灾是否一定要进行业务改造? 不一定。在选用应用双活架构时,应用可以不做改造,只需要引入应用容灾多活的探针即可。 数据双活架构的数据分区与流量封闭需要对业务应用进行必要的改造,一般来说有如下考虑和实施: 如要求服务调用分区闭环,需进行业务垂直拆分和微服务改造。 如要求数据访问分区闭环,需进行数据水平拆分,确定分片键。 如要求流量调度分区闭环,需进行入口流量带标以及路由标传递改造。
        来自:
        帮助文档
        应用高可用
        常见问题
        应用容灾多活
        技术类
      • 新建连接
        本章节主要介绍数据治理中心的新建连接功能。 操作场景 用户在创建数据迁移的任务前,需要先创建连接,让CDM集群能够读写数据源。一个迁移任务,需要建立两个连接,源连接和目的连接。不同的迁移方式(表或者文件迁移),哪些数据源支持导出(即作为源连接),哪些数据源支持导入(即作为目的连接),详情请参见支持的数据源。 不同类型的数据源,创建连接时的配置参数也不相同,本章节指导用户根据数据源类型创建对应的连接。 约束限制 当所连接的数据源发生变化(如MRS集群扩容等情况)时,您需要重新编辑并保存该连接。 前提条件 已具备CDM集群。 CDM集群与目标数据源可以正常通信。 1. 如果目标数据源为云下的数据库,则需要通过公网或者专线打通网络。通过公网互通时,需确保CDM集群已绑定EIP、CDM云上安全组出方向放通云下数据源所在的主机、数据源所在的主机可以访问公网且防火墙规则已开放连接端口。 2. 如果目标数据源为云上服务(如DWS、MRS及ECS等),则网络互通需满足如下条件: ①CDM集群与云上服务处于不同区域的情况下,需要通过公网或者专线打通网络。通过公网互通时,需确保CDM集群已绑定EIP,数据源所在的主机可以访问公网且防火墙规则已开放连接端口。 ②CDM集群与云上服务同区域情况下,同虚拟私有云、同子网、同安全组的不同实例默认网络互通;如果同虚拟私有云但是子网或安全组不同,还需配置路由规则及安全组规则,配置路由规则请参见《虚拟私有云》帮助文档中的“添加路由信息”章节,配置安全组规则请参见《虚拟私有云》帮助文档中的“安全组 > 添加安全组规则”章节。 ③此外,您还必须确保该云服务的实例与CDM集群所属的企业项目必须相同,如果不同,需要修改工作空间的企业项目。 已获取待连接数据源的地址、用户名和密码,且该用户拥有数据导入、导出的操作权限。 使用Agent时需用主账户给子账户赋予CDM操作权限。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理连接
        新建连接
      • 产品架构和功能原理
        本节介绍了产品架构和功能原理的相关内容。 DRS的产品架构以及功能原理如下图所示: 图 DRS产品架构 架构说明 最小权限设计 a. 采用JDBC连接,无需在用户的源数据库、目标数据库节点部署程序。 b. 任务独立虚拟机运行独享资源,租户之间数据隔离。 c. 采用最小IP资源,在源数据库、目标数据库仅开放DRS数据迁移实例节点IP访问权限,无需增加网段。 可靠性设计 a. 连接异常自动重试:当网络闪断、数据库倒换等场景造成DRS和数据库连接异常,会自动重试直到任务恢复。 b. 具备断点续传能力:源数据库或目标数据库连接出现异常时,自动记录当前回放位点,等故障修复后,自动从上一次位点接续回放,保证同步数据的一致性。 c. DRS迁移实例所在虚拟机故障,业务自动切换到新虚拟机并保证IP不变,保证迁移任务正常。 实时迁移基本原理 图 实时迁移原理 以“全量+增量”迁移为例,完整的迁移分为四个阶段。 a. 第一阶段:结构迁移。DRS服务会从源数据库查询到用户选择迁移的库、表、主键等对象,然后在目标数据库创建这些对象。 b. 第二阶段:全量数据迁移。DRS服务会通过并行技术,以最高效的资源利用,从源数据库查询到当前所有数据,并在目标数据库进行插入。在全量数据迁移启动前,会提前进行增量数据抽取保存,以便在第三阶段增量数据迁移时,能够和全量数据接续,保证数据的完整性和一致性。 c. 第三阶段:增量数据迁移。全量任务结束后,增量迁移任务启动,此时会从全量开始的增量数据持续的解析转换和回放,直到追平当前的增量数据。 d. 第四阶段:为了防止触发器、事件在迁移阶段对于数据的操作,在结束任务阶段再迁移触发器、事件。 全量数据迁移的底层模块主要原理: 分片模块:通过优化的分片算法,计算每个表的分片逻辑 抽取模块:根据计算的分片信息并行多任务从源数据库查询数据 回放模块:将抽取模块查询的数据并行多任务插入目标数据库 增量数据迁移的底层实现模块主要原理: 日志读取模块:日志读取模块从源数据库读取原始增量日志数据(例如MySQL为binlog),经过解析转换为标准的日志格式存储在本地。 日志回放模块:日志回放模块根据日志读取模块转换的标准格式增量日志,根据用户的选择策略进行加工过滤,将增量数据同步到目标数据库。
        来自:
        帮助文档
        数据库复制
        产品简介
        产品架构和功能原理
      • 系统事件列表
        卷(Lun) 事件 描述 ActiveStandbySwitched 卷主备切换 InsufficientFDForLUNToWrite 可用故障域数量不满足卷写入要求 SufficientFDForLUNToWrite 可用故障域数量满足卷写入要求 LUNRecovered 卷还原 CannotConnectToCloud 无法连接到云 ConnectWithCloudResumed 上云连接已恢复 CloudAccountAbnormal 云账户异常 CloudAccountNormal 云账户正常 LUNCloudDataConflict 卷云端数据冲突 LUNCloudDataConflictResolved 卷云端数据冲突解除 LUNCloudHeartbeatConflict 卷云端心跳冲突 LUNCloudHeartbeatNormal 卷云端心跳正常 LUNFlattened 断开关系链完成 LUNResumed 卷恢复 LUNDataLowRedundancy 卷数据降级 LUNDataRedundancyResumed 卷数据降级恢复 LUNDataAccessResumed 卷数据访问恢复 LUNDataAccessFailed 卷数据无法访问 目标(target) 事件 描述 InitiatorConnectionFailed 客户端连接断开 InitiatorConnectionNormal 客户端连接恢复 系统(System) 事件 描述 ReachLicenseMaxCapacity 许可证容量达到上限 LicenseMaintenanceExpired 许可证过保 LicenseExpired 许可证过期 LicenseImported 许可证导入 DataLowRedundancy 数据降级 DataRedundancyResumed 数据降级恢复 DataResumed 数据恢复 DataBalanceStart 数据均衡开始 DataBalanceProgress 数据均衡过程 DataBalanceFailed 数据均衡失败 DataBalanceEnd 数据均衡结束 DataAccessFailed 数据无法访问 DataAccessResumed 数据访问恢复 ProTrialActive 开启高级功能试用
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        运维
        事件和日志
        事件列表
        系统事件列表
      • 开启数据监控
        态势感知(专业版)数据监控功能支持监控态势感知(专业版)管道上下游的生产速率、生产量、消费总速率等指标,您可以根据监控判断业务运行状态。 相关概念 生产者:是用来构建并传输数据到服务端的逻辑概念,负责把数据放入消息队列。 订阅器:用于订阅态势感知(专业版)管道消息,一个管道可由多个订阅器进行订阅,态势感知(专业版)通过订阅器进行消息分发。 消费者:是用来接收并处理数据的运行实体,负责通过订阅器把态势感知(专业版)管道中的消息进行消费并处理。 消息队列:是数据存储和传输的实际容器。 查看监控指标 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间 > 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“日志审计 > 安全数据”,进入安全分析页面。 5. 在左侧数据空间导航栏中,单击数据空间名称,展开数据管道列后,单击目标管道名称后的“更多 > 监控”,进入管道监控页面。 6. 在数据管道的监控页面,查看监控指标。 总览:显示当前管道中生产者、管道、订阅器、消费者之间生产速率等信息。 生产者:显示生产者的“当前生产TPS”、“当前生产速率”、“当前生产量”、“当前消息存储大小”等相关指标信息。 管道:显示当前管道指定时间(近2/6/12/24小时、近7天或自定义)内的“管道存储的消息大小(MB)”、“生产到管道的消息大小(MB)”、“生产到管道的消息数量(条)”、“从管道消费的消息大小(MB)”、“从管道消费的消息数量(条)”、“未确认的消息大小(MB)”、“管道的生产速率(条/秒)”、“管道的消费速率(条/秒)”、“每条消息大小平均值(KB)”、“未卸载的消息大小(B)”等相关指标信息。 订阅器:显示当前订阅器指定时间(近2/6/12/24小时、近7天或自定义)内的“订阅器消费总速率(条/秒)”、“订阅器消费的数据大小(B)”、“订阅器消费的数据数量(条)”、和“活跃消费者”等相关指标信息。
        来自:
      • 通过设置数据分片提升性能
        合理分片键的判断依据 判断依据 说明 片键基数 片键基数是指划分数据块的能力。例如,要记录某个学校的学生信息,由于学生的年龄比较集中,如果选择年龄作为分片键,同一个数据段中将存储很多同龄学生的数据,影响集群的性能以及可管理性。由于学生的学号唯一,如果选择学号作为分片键,分片基数较大,有利于数据的均匀分布。 写分布 若用户业务在同一时间段有大量写操作,则希望这些写操作能够均匀分布到各个分片上。如果数据分布策略为范围分片,并以一个单调递增的值作为分片键,此时,大量写入的数据同样是片键字段递增,数据将写入同一个分片。 读分发 若用户业务在同一时间段有大量读操作,则希望这些读操作能够均匀分布到各个分片上,以充分利用各分片节点的计算性能。 定向读 mongos查询路由器可以执行定向查询(只查询一个分片)或scatter/gather查询(查询所有分片)。只有查询中存在分片键,mongos才能定位到单一分片,因此,您需要选择在业务运行时可用于普遍查询的分片键。如果您选择合成的分片键,将无法在定向查询中使用该片键,所有的查询方式将变成scatter/gather查询,从而限制扩展读数据的能力。 选择合适的数据分布策略 分片集群支持将单个集合的数据分散存储在多个分片上,用户可以根据集合内文档的分片键来分布数据。 目前,主要支持两种数据分布策略,即范围分片(Range based sharding)和Hash分片(Hash based sharding),设置方式请参见步骤4。 下面分别介绍这两种数据分布策略以及各自的优缺点。 范围分片 基于范围进行分片,即集群按照分片键的范围把数据分成不同部分。假设有一个数字分片键,为一条从负无穷到正无穷的直线,每一个片键的值均在直线上进行标记。可以理解为将该直线划分为更短的不重叠的片段,并称之为数据块,每个数据块包含了分片键在一定的范围内的数据。 图 数据分布示意图 如上图所示,x表示范围分片的片键,x的取值范围为[minKey,maxKey],且为整型。将整个取值范围划分为多个chunk,每个chunk(通常配置为64MB)包含其中一小段的数据。其中,chunk1包含x值在[minKey, 75]中的所有文档,每个chunk的数据都存储在同一个分片上,每个分片可以存储多个chunk,并且chunk存储在分片中的数据会存储在config服务器中,mongos也会根据各分片上的chunk的数据自动执行负载均衡。 范围分片能够很好的满足范围查询的需求,例如,查询x的取值在[60,20]中的文档,仅需mongos将请求路由到chunk2。 范围分片的缺点在于,如果分片键有明显递增(或递减)趋势,新插入的文档很大程度上会分布到同一个chunk,从而无法扩展写的能力。例如,使用“id”作为分片键,集群自动生成id的高位值将是递增的时间戳。 Hash分片 根据用户的分片键值计算出Hash值(长度64bit且为整型),再按照范围分片策略,根据Hash值将文档分布到不同的chunk中。基于Hash分片主要的优势为保证数据在各节点上分布基本均匀,具有“相近”片键的文档很可能不会存储在同一个数据块中,数据的分离性更高。 图 数据分布示意图 Hash分片与范围分片互补,能将文档随机分散到各个chunk,充分扩展写能力,弥补范围分片的不足。但所有的范围查询要分发到后端所有的分片,才能获取满足条件的文档,查询效率低。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        性能调优
        通过设置数据分片提升性能
      • 迁移专家服务工作说明书
        云迁移实施支持 云迁移专家服务(Clold Migration Expert Services)可提供远程或现场专家支持,依托天翼云自研的一体化迁移平台,构建上云最短路径,将迁移过程业务化管理,实现迁移生命周期一站式可视化表达,帮助用户高效、安全地将相关业务迁移到云端。 服务2:存储数据迁移专家服务(远程支持) 数据迁移需求调研 存储数据迁移专家服务(Data Migration Expert Services)将提供对象存储数据迁移的需求调研,细化对象存储迁移的源端与目的端的数据情况,提前识别客户数据现状,帮助用户提前识别和规避数据迁移风险,提供更便捷的迁移需求咨询与分析服务。 数据迁移实施支持 存储数据迁移专家服务(Data Migration Expert Services)为客户的本地存储数据和其他云上存储数据进行迁移,以及项目方案中涉及数据迁移部分,提供技术专家的支持,帮助用户将数据迁移至天翼云对象存储(ZOS),并保证用户数据的安全和一致性。 第9章 服务SLA 1. 天翼云指定接口人,完成迁移咨询、迁移调研、迁移实施等方面的支撑和信息归集服务工作,并依据双方合同约定达成预期交付目标,保障迁移数据的安全和数据一致性。 2. 服务细则以《迁移专家服务工作说明书》中的内容为准,其中,云主机迁移专家服务提供现场服务、或远程服务;存储数据迁移专家服务,仅提供远程服务支持。 3. 为保障服务质量,对于远程服务场景,将与客户建立专属服务沟通渠道,服务人员及时响应时间为每日9:0017:30,不包含国家法定节假日;对于现场服务场景,天翼云现场支持专家,按客户现场要求的工作时间到岗服务。
        来自:
        帮助文档
        云迁移服务CMS
        迁移专家服务
        迁移专家服务工作说明书
      • 删除实例数据
        本节主要介绍如何删除实例数据 Redis管理控制台支持删除实例数据。删除实例数据操作无法撤销,且实例数据被删除后将无法恢复,请谨慎操作。 前提条件 只有当Redis实例处于“运行中”状态,才能执行此操作。 操作步骤 1. 登录 Redis管理控制台。 2. 在管理控制台左上角选择实例所在的区域。 3. 在实例列表页,单击目标实例名称进入实例详情管理。 4. 左侧菜单点击CloudDBA>Redis节点管理,进入Redis节点管理界面。 5. 在Redis节点管理界面,点击上方按钮清空实例数据,可删除实例数据。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例日常操作
        删除实例数据
      • 数据脱敏快速入门
        本章节为您介绍如何快速使用数据脱敏能力。 第一步:新增数据源 1.使用系统管理员账号登录数据脱敏实例。 2.在左侧目标栏选择“数据资产管理 > 数据源/目标”,进入“数据源/目标”管理页面。 3.单击页面左上角的“新增”按钮,在右侧的窗口中数据需要新增数据源的相关信息。 注意 不同的数据源类型会存在不同的参数填写情况。 若您选择的数据源类型为StructFile下的LOCAL/FTP/SFTP,且文件类型为csv/txt/del,则可以在高级属性中填写表头行数:若表头行数为0,将自动填充表头;若行数大于1,则仅保留最后一行作为新表头,此配置可以使数据扫描更加准确。 4.填写完成后,单击窗口左下角的“测试连接”按钮,测试数据源的连通性。 5.连接成功后,若需要再新增目标请单击“保存并新增数据目标”重复上述操作,否则请单击“保存”按钮。 第二步:配置脱敏任务 1.使用系统管理员登录数据脱敏实例。 2.在左侧导航栏选择“脱敏/水印任务 > 结构化任务 ”,进入“结构化任务”页面。 3.单击页面左上角的“新增”按钮,进入“任务新增”界面。 4.填写完成后,单击“下一步”即可完成脱敏规则的基础配置。 第三步:配置脱敏规则 在完成基础配置后,会开始脱敏规则的创建。 配置数据脱敏任务时,您可以选择手动配置所需字段对应的脱敏规则,或者一键选择数据安全专区提供的脱敏模板。 若您希望创建自己的脱敏模板,可单击“管理”按钮,进入对应配置页面配置自定义脱敏模板,单击“保存”后单击“刷新” ,即可在下拉框中选择新创建的自定义模板。如下图所示。
        来自:
        帮助文档
        数据安全专区
        快速入门
        数据脱敏快速入门
      • 备份HBase业务数据
        本章主要介绍翼MapReduce的备份HBase业务数据功能。 操作场景 为了确保HBase日常数据安全,或者系统管理员需要对HBase进行重大操作(如升级或迁移等),需要对HBase业务数据进行备份,从而保证系统在出现异常或未达到预期结果时可以及时进行数据恢复,将对业务的影响降到最低。 系统管理员可以通过FusionInsight Manager创建备份HBase任务并备份数据。支持创建任务自动或手动备份数据。 HBase备份业务数据时,可能存在以下场景: 用户创建HBase表时,“KEEPDELETEDCELLS”属性默认值为“false”,备份该HBase表时会将已经删除的数据备份,可能导致恢复后出现垃圾数据。请根据业务需要,在创建HBase表时手动修改参数值为“true”。 用户在HBase表写入数据时手动指定了时间戳,且时间早于上一次该HBase表的备份时间,则在增量备份任务中可能无法备份新数据。 HBase备份功能不支持对HBase的global或者命名空间的读取、写入、执行、创建和管理权限的访问控制列表(ACL)进行备份,恢复HBase数据后需要管理员在FusionInsight Manager上重新设置角色的权限。 已创建的HBase备份任务,如果本次备份任务在备集群的备份数据丢失,当下次执行增量备份时备份任务将失败,需要重新创建HBase的备份任务。若下次执行全量则备份正常。 前提条件 如果数据要备份至远端HDFS中,需要准备一个用于备份数据的备集群,认证模式需要与主集群相同。其他备份方式不需要准备备集群。 如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 根据业务需要,规划备份任务的类型、周期、备份对象、备份目录和备份任务需要使用的Yarn队列等策略规格。 检查备集群HDFS是否有充足的空间,备份文件保存的目录建议使用用户自定义的目录。 使用HDFS客户端,以hdfs用户执行hdfs lsSnapshottableDir检查当前集群中已创建HDFS快照的目录清单,确保待备份的数据文件所在HDFS路径的父目录或子目录不存在HDFS快照,否则无法创建备份任务。 如果数据要备份至NAS中,需要提前部署好NAS服务端。 HBase的“fs.defaultFS”配置参数需要与Yarn,HDFS的配置保持一致。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        备份数据
        备份HBase业务数据
      • 查看监控数据
        监控指标 指标说明 单位 是否支持告警 监控周期 CPU利用率 该指标用于统计云堡垒机实例的CPU利用率。 % 是 5分钟 内存总大小 该指标用于统计云堡垒机实例的实际内存大小。 GB 是 5分钟 剩余内存大小 该指标用于统计云堡垒机实例的空闲的内存大小。 GB 是 5分钟 内存利用率 该指标用于统计云堡垒机实例的内存利用率。 内存利用率 100% (剩余内存大小/内存总大小) % 是 5分钟 系统盘大小 该指标用于统计云堡垒机实例的实际系统盘大小。 GB 是 5分钟 剩余系统盘大小 该指标用于统计云堡垒机实例的空闲的系统盘大小。 GB 是 5分钟 系统盘利用率 该指标用于统计云堡垒机实例的系统盘利用率。 系统盘利用率 100% (剩余系统盘大小/系统盘大小) % 是 5分钟 数据盘大小 该指标用于统计云堡垒机实例的实际数据盘大小。 GB 是 5分钟 剩余数据盘大小 该指标用于统计云堡垒机实例的空闲的数据盘大小。 GB 是 5分钟 数据盘利用率 该指标用于统计云堡垒机实例的数据盘利用率。 系统盘利用率 100% (剩余数据盘大小/数据盘大小) % 是 5分钟 异常登陆事件累计数 该指标用于统计云堡垒机实例异常登录事件的数量。 个 是 5分钟
        来自:
        帮助文档
        云堡垒机(原生版)
        用户指南
        实例管理
        使用云监控服务监控云堡垒机实例
        查看监控数据
      • 功能类
        数据脱敏是否支持原地脱敏? 数据脱敏支持原地脱敏功能,请您先打开“系统配置管理>全局配置”的“数据流向”开关。然后在'脱敏/水印任务→结构化任务'下新增任务中的“数据流向”配置项下,就会出现相关选项。 数据脱敏是否支持非结构化脱敏? 数据脱敏支持非结构化脱敏(包括XML、JSON、TXT、WORD、DICOM等),具体请先登录SysAdmin用户,查看'脱敏/水印任务→非结构化任务'。 数据脱敏数据是否会落地? 数据脱敏系统保证敏感数据全程不落地,所有敏感数据全部在内存中处理,避免产品本身成为数据泄漏的一个风险点。 实现原理:代码用Java语言实现,脱敏步骤在JVM内存中进行,脱敏结束后,方法自动出栈,堆内存中的数据对象会被自动清理,不会落地到磁盘。 数据脱敏支持哪些脱敏算法? 支持24大类200多种系统内置脱敏算法,适用各种业务场景主要算法支持情况如下: 置空:直接将待脱敏的信息以填充空字符或者删除的形式抹除。 乱序:在结构化数据(例如数据库)中颇为常用,对于待脱敏的列,不对列的内容进行修改,仅对数据的顺序进行随机打乱。 遮蔽:保留数据一些位置上的信息,对于敏感位置的信息使用指定的字符进行替换。 分割:保留数据一些位置上的信息,对于敏感位置的信息进行删除。 替换:使用固定值或字典映射表对敏感数据进行替换。 取整:对数值类型和日期时间类型的数据进行取整操作。 哈希:将哈希(或哈希加盐)编码后的数据作为脱敏结果输出。 仿真(保留业务含义):考虑到业务含义,则生成的数据需符合核验规则,主要包括长度、取值范围以及校验规则和校验位的计算等。 密码学:根据所选参数指定的密码学加密算法对数据进行加密。支持的加密算法有:RSA/AES/SM2/SM4。 编码:根据所选参数指定的编码方式对数据进行编码。 保留类别频次特征:主要指的是反映事物类别的数据类型,具有有限个无序的值,或枚举类型,脱敏后各个类型出现的频次可保持不变。 保留数值统计特征:支持分布重建、平均、区间、标准化、归一化、添加噪声、一致性等算法:对数值型数据在脱敏后可保留数据中的高阶统计特征及数据分布特征,仍满足趋势分析要求。 关联关系保留:支持计算关系保留、乱序关联保留、身份信息关联保留等算法:对数据在脱敏后可保留其原始的字段间关联关系。 保留原数据:对指定的列的数据不做脱敏处理。 溯源算法:对数据本身添加仿真水印,做到精准溯源。
        来自:
        帮助文档
        数据安全专区
        常见问题
        功能类
      • 查看HBlock服务状态
        ./stor status t server Server: status: 3 total, 2 connected, 1 disconnected, 0 removing 项目 描述 System 系统状态,包括: status:系统运行状态。 licenseStatus:软件许可证状态: Expired:软件许可证已过期。 Effective:软件许可证已生效。 Invalid:软件许可证无效。 None:还未加载软件许可证。 Server 服务器状态,包括:服务器个数、状态为连接的服务器个数、状态为断开连接的服务器个数、状态为正在移除的服务器个数。 Disk 磁盘状态(仅单机版支持),包括: usage:数据目录所在磁盘使用情况,包括磁盘已用容量、磁盘总容量。 status:数据目录所在磁盘状态,包括磁盘总个数,状态为健康的磁盘个数、状态为告警的磁盘个数、状态为错误的磁盘个数。 LUN 卷的状态,包括: status:卷的总数、总容量,以及各类型卷的个数及容量。 data:卷的数据健康度,包括:正常数据的比例(normal)、降级数据的比例(low redundancy)、错误数据的比例(error)。如果存在降级状态的数据,会给出数据重建进度(low redundancy reconstruction progress)。 Storage Pool 存储池状态(仅集群版支持): number:存储池个数。 base pool:基础存储池名称。 fault domain of base pool:基础存储池的故障域: level:故障域级别: path:数据目录级别。 server:服务器级别。 rack:机架级别。 room:机房级别。 status:故障域状态: Healthy:健康状态,可正常读写。 Warning:警告状态,可读。 Error:错误状态,无法访问。 data health of base pool:存储池的数据健康度,包括:正常数据的比例(normal)、降级数据的比例(low redundancy)、错误数据的比例(error)。如果存在降级状态的数据,会给出数据重建进度(low redundancy reconstruction progress)。 disk of base pool:基础存储池的数据目录状态: usage:数据目录所在磁盘使用情况,包括磁盘已用容量、磁盘总容量。 status:数据目录所在磁盘状态,包括磁盘总个数,状态为健康的磁盘个数、状态为告警的磁盘个数、状态为错误的磁盘个数。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        查看HBlock服务状态
      • 全密态加密
        本页介绍天翼云TeleDB数据库中全密态加密。 全密态加密是一种数据加密技术,‌旨在确保数据在整个生命周期(‌包括传输、‌运算和存储)‌中始终保持加密状态,‌从而保护数据隐私。‌这种加密技术不仅涉及到数据的存储加密,‌还包括数据在处理过程中的加密,‌确保即使在数据传输和计算过程中,‌攻击者也无法获取有效的数据信息。‌全密态加密技术的实现依赖于特定的密钥管理机制,‌包括客户端主密钥(‌CMK)‌和数据加密密钥(‌CEK)‌的使用,‌其中CMK用于加密CEK,‌而CEK则用于加密用户数据,‌从而形成一个完整的数据加密体系。 全密态加密方案 全密态加密的实现原理是用户发起查询任务指令,在客户端按照与数据相同的加密策略(加密算法,加密密钥等)完成加密。参数加密完成后整个查询任务被变更成⼀个加密的查询任务并发到数据库服务端。查询得到的结果仍然为密⽂,并最终返回客户端进⾏解密。其核心在用户自己持有数据加解密密钥且数据加解密过程仅在客⼾侧完成,数据以密⽂形态存在于数据库服务侧的整个生命周期过程中,并在数据库服务端完成查询运算。 开启全密态加密 您可参考如下操作开启全密态加密。 管控侧操作: 1. 以用户名和密码登录TeleDBDCP管理控制台。 2. 进入TeleDBDCP控制台管理页面,开通实例。您可参考《安装部署》中实例服务初始化及实例开通章节开通实例。 3. 在实例开通页面,填写基本信息页面,打开KMS开关,选择KMS机器。 说明 KMS开启后无法关闭,选择后无法更改。 数据库侧操作: 1. 在安装⽬录下新建 etc/localkms ⽬录⽤于存储CMK⽂件。 2. psql使⽤C开启全密态。 psql dxxx pxxx hxxx C 3. 创建主密钥CMK。 CREATE CLIENT MASTER KEY cmk1 WITH (KEYSTORE LOCALKMS , KEYPATH "kms1", ALGORITHM SM2); 4. 创建数据密钥CEK。 CREATE COLUMN ENCRYPTION KEY CEK1 WITH VALUES (CLIENTMASTERKEY cmk1,ALGORITHM SM4SM3); 5. 创建加密表,指定加密列。 CREATE TABLE creditcardinfo ( idnumber int,name text encrypted with (columnsencryptionkey cek1, encryptiontype DETERMINISTIC), creditcard varchar(19) encrypted with (columnsencryptionkey cek1,encryptiontype DETERMINISTIC)); 6. 执⾏SQL(仅⽀持SELECT、UPDATE、INSERT、DELETE)。 使用示例 创建CMK主秘钥 CREATE CLIENT MASTER KEY cmk12 WITH (KEYSTORE localkms, KEYPATH "localkms1" , ALGORITHM SM2);CREATE CLIENT MASTER KEY cmk2 WITH (KEYSTORE localkms, KEYPATH "localkms1" , ALGORITHM SM2); 创建CEK数据秘钥 CREATE COLUMN ENCRYPTION KEY cek1 WITH VALUES (CLIENTMASTERKEY cmk1, ALGORITHM SM4SM3);CREATE COLUMN ENCRYPTION KEY cek2 WITH VALUES (CLIENTMASTERKEY cmk2, ALGORITHM SM4SM3);DROP CLIENT MASTER KEY cmk1 CASCADE 创建加密表,col1未加密,col2使⽤cek1加密,col3和col4使⽤cek2加密 CREATE TABLE IF NOT EXISTS tbl1 (col1 INT,col2 INT ENCRYPTED WITH (COLUMNSENCRYPTIONKEY cek1, ENCRYPTIONTYPE DETERMINISTIC),col3 TEXT ENCRYPTED WITH (COLUMNSENCRYPTIONKEY cek2, ENCRYPTIONTYPE DETERMINISTIC),col4 VARCHAR(20) ENCRYPTED WITH (COLUMNSENCRYPTIONKEY cek2, ENCRYPTIONTYPE DETERMINISTIC));
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安全配置手册
        数据加密
        全密态加密
      • 流数据
        本文简述如何查看流粒度带宽以及推流域名的平均码率和帧率,实时感知业务运营状态。 功能说明 您可以在【统计分析】下方【流数据】中查看流粒度的带宽,以及推流的平均码率和帧率。 注意事项 支持查看的是推流域名维度的平均码率和平均帧率。 单次支持查询3小时内的数据。 查询流带宽 直播控制台支持查询流粒度的带宽数据。 1. 登录直播控制台。 2. 单击【统计分析】下方的【流数据】。 3. 单击【流带宽】,可查询流粒度的带宽数据。 查询推流码率和帧率 直播控制台支持查询推流的码率和帧率。 1. 登录直播控制台。 2. 单击【统计分析】下方的【流数据】。 3. 单击【推流码率和帧率】,可查询推流的码率和帧率信息。
        来自:
        帮助文档
        视频直播
        用户指南
        统计分析
        流数据
      • 文件复制
        本文为您介绍文件复制的相关功能。 概述 文件复制,即数据从工作机到灾备机的复制“通道”。数据灾备的主要目的是通过将数据以及相关的增量变化实时地从工作机复制到灾备机。MDR程序以字节为最小单位,将数据的变化部分通过IP网络复制到灾备机,从而保证数据传输的高效、数据的完整性。文件复制中包含了实时数据复制及持续数据保护的功能。实时数据复制:字节级实时复制软件,广泛适用于文件系统、数据库系统、邮件系统等实时的容灾备份保护。通过部署在生产服务器上的轻量级客户端实时捕获字节级增量并实时传输到灾备服务器。 持续数据保护可以捕获或跟踪数据的变化,并将其独立存放在生产数据之外,以确保数据可以恢复到过去的任意时间点。持续数据保护可以为恢复对象提供足够细的恢复粒度,实现任意的恢复时间点。由于持续数据保护记录所有的修改操作以及数据的变化,所以占用的磁盘空间是比较大的。MDR程序独特的多Baseline支持可以提高配置的灵活性,以及持续数据保护恢复的速度。 持续数据保护功能主要包含两个步骤:添加节点和新增规则(见下方)。 添加节点包含工作机和灾备机。添加工作机,主要是指定需要保护的文件或目录;添加灾备机,主要是确定数据备份的存放目录;添加规则,或任务,即关联工作机和灾备机,通过设置各种参数实现不同的数据复制和保存效果,比如数据复制的映射关系、连续数据保护的保护策略和全副本的保留策略等。 恢复数据时,用户通过恢复管理菜单完成。控制台提供三种方式: 1)即时恢复,从灾备数据中将生产数据的实时副本恢复出来; 2)持续数据保护恢复,从数据备份历史中选择任意一个时间点实现细粒度的数据恢复,前提是创建复制规则的时候开启CDP选项; 3)快照恢复,即从数据生成的快照集合中,选择某一个快照所对应的数据切片进行恢复,前提是用户开启了快照选项(此快照功能针对Windows灾备机;Linux灾备机不支持此快照配置,建议使用CDP功能)。
        来自:
      • 查询存储池
        项目 描述 Storage Pool Name 存储池名称。 Pool Status 存储池状态: Normal:正常。 Deleting:删除中。 Fault Domain 存储池故障域级别: path:数据目录级别。 server:服务器级别。 rack:机架级别。 room:机房级别。 Base Pool 是否是基础存储池: true:是基础存储池。 false:不是基础存储池。 Total Capacity 存储池总容量。 Used Capacity 存储池已用容量。 Created Time 存储池创建时间。 Description 存储池描述信息。 LUN 卷相关信息,包含LUN for CachePool、LUN for Pool、status。 LUN LUN for CachePool 缓存存储池卷列表。 LUN LUN for Pool 存储池卷列表。 LUN status 卷的状态信息,包括卷的总数、总容量,以及各类型卷的个数及容量。 Data Health 存储池的数据健康度,包括:正常数据的比例(normal)、降级数据的比例(low redundancy)、错误数据的比例(error)。如果存在降级状态的数据,会给出数据重建进度(low redundancy reconstruction progress)。 Topology 存储池拓扑图,包括:Node Name、Node Type、Status、Disk Path(s)、Removing Details。 Topology Node Name 节点名称。 Topology Node Type 节点类型: path:数据目录。 server:服务器。 rack:机架。 room:机房。 Topology Status 节点健康状态: Healthy:节点处于健康状态,可正常读写。 Warning:节点处于警告状态,可读。 Error:节点处于错误状态,无法访问。 Topology Disk Path(s) 数据目录信息: No.:编号。 Path:数据目录。 Used Capacity:HBlock数据目录对应分区的已用容量。 Total Capacity:HBlock数据目录对应分区的总容量。 Used Capacity Quota:已用数据目录容量配额。 Capacity Quota:数据目录容量配额,当HBlock的使用空间一旦达到配额,就立刻阻止数据写入,不允许再使用超出配额的空间。 Health Status:数据目录的健康状态: Healthy:数据目录处于健康状态,可正常读写,且数据目录所在磁盘使用率未超过阈值(系统默认值为95%)。 Warning:数据目录处于警告状态,可读,但存在以下情况的任意一种:慢盘;数据目录所在磁盘使用率超过阈值(系统默认值为95%);磁盘剩余空间不足1GiB;HBlock对这个目录停写;数据目录配额使用率超过阈值(系统默认值为95%);数据目录配额为0。 Error:数据目录错误状态,无法访问,原因可能是:所在磁盘出现I/O错误导致无法读写,数据目录未正确挂载等。 Health Detail:数据目录健康状态详情。 如果健康状态为Healthy,此列为空。 如果健康状态为Warning或Error,显示警告或错误的详细信息。 Topology Removing Details 被移除节点的详细信息: No.:编号。 Path:节点的具体数据目录。 Stage:移除节点所处的阶段: Reconfiguration:重置中。 CheckingData:检查数据。 Executing:执行移除节点。 Details:详细数据: FaultDomains:故障域详情,包括:healthy(健康个数),warning(告警个数),error(错误个数)。 Data:safe(安全数据百分比),await reconstruction(需要重建的数据百分比),await more faultdomains(需要额外故障域才能够重建的数据百分比),singlecopy(单副本数据百分比),corrupted(已经损坏的数据百分比)。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        存储池操作(集群版)
        查询存储池
      • 术语解释
        分布式表(Distributed Table) 分布式表是云数据库ClickHouse中本地表的集合,将多个本地表抽象为一张统一的表,对外提供写入和查询功能。当写入分布式表时,数据会被自动分发到集合中的各个本地表中;当查询分布式表时,集合中的各个本地表都会被分别查询,最终结果会被汇总后返回。分布式表具备良好的横向扩展能力,可以利用多台服务器的存储和计算资源来处理大规模数据。 表引擎 表引擎即表类型,决定数据的存储方式和位置、支持的查询以及访问、索引、主备复制等特性。云数据库ClickHouse提供了多种表引擎,主要为以下4个系列。MergeTree系列:核心存储引擎,最通用和功能最强大的表引擎,支持数据Replicated和Distributed。Log系列:功能相对简单,主要用于快速写入小表(1百万行左右的表),然后全部读出的场景。Integration系列:主要用于将外部数据如Kafka、HDFS、Mysql导入到云数据库ClickHouse中,或者在云数据库ClickHouse中直接操作外部数据源。Special系列:为特定场景而定制,如数据内存存储、为目标表配置buffer、数据存本地文件等。 单机表 单机表的数据只会存储在当前机器上,不会被复制到其他机器。单机表适用于对数据的冗余存储要求较低的场景,适合小规模数据集的处理和分析。 复制表 复制表的数据会被自动复制到多台机器上,形成多个副本。复制表通过数据冗余和备份提高数据的可靠性和容错能力。当其中一个副本节点出现故障时,系统可以切换到其他副本节点,确保数据的持久性和可用性。复制表适用于对数据可靠性和冗余要求较高的场景,确保数据的安全性和高可用性。
        来自:
        帮助文档
        云数据库ClickHouse
        产品简介
        术语解释
      • 信封加密
        本文为您介绍信封加密场景中,如何通过用户主密钥、数据密钥实现数据离线加密。 信封加密(Envelope Encryption)是一种应对海量数据的高性能加解密方案。这种技术不再使用用户主密钥(CMK)直接加密和解密数据,而是通过生成加密数据的数据密钥(DEK),将其封入信封中(即通过CMK加密)存储、传递和使用,由KMS确保数据密钥的随机性和安全性。 实际使用时,用户无需将大量业务数据上传至KMS服务端,直接通过离线的数据密钥在本地实现加解密,有效避免安全隐患,保证了业务加密性能的要求。 场景示意图 操作流程 信封加密 1. 通过KMS控制台或者调用CreateKey接口,创建一个用户主密钥(CMK)。 2. 调用GenerateDataKey接口创建一个数据密钥。KMS会返回一个明文的数据密钥和一个经用户主密钥(CMK)加密的密文数据密钥。 3. 使用明文的数据密钥加密本地文件,产生密文文件,然后销毁内存中的明文数据密钥。 4. 用户将密文数据密钥和密文文件一同存储到持久化存储设备或服务中。 信封解密 1. 从本地文件中读取密文数据密钥。 2. 调用KMS服务的Decrypt接口,将密文数据解密为明文数据密钥。 3. 用明文数据密钥为本地密文文件解密,再销毁内存中的明文密钥。 相关API 您可以调用以下KMS API,实现对本地数据的加密或解密操作。 API名称 说明 createKey 创建用户主密钥(CMK) generateDataKey 生成信封加密的数据密钥,返回数据密钥的明文和经过指定用户主密钥加密的密文 decrypt 解密由generateDataKey接口生成的数据密钥密文,不需要指定CMK
        来自:
        帮助文档
        密钥管理
        用户指南
        对称密钥运算
        信封加密
      • 概念类问题
        备份和快照的区别是什么? 备份和快照为存储在云硬盘中的数据提供冗余备份,确保高可靠性,两者的主要区别如下表所示。 指标 存储方案 数据同步 容灾范围 业务恢复 备份 与云硬盘数据分开存储,存储在对象存储(OBS)中,可以实现在云硬盘存储损坏情况下的数据恢复 保存云硬盘指定时刻的数据,可以设置自动备份。如果将创建备份的云硬盘删除,那么对应的备份不会被同时删除 与云硬盘位于同一个AZ内 通过恢复备份至云硬盘,或者通过备份创建新的云硬盘,找回数据,恢复业务。数据持久性高。 快照 与云硬盘数据存储在一起 说明 备份由于数据搬迁会耗费一定的时间,创建快照和回滚快照数据的速度比备份快。 保存云硬盘指定时刻的数据。如果将创建快照的云硬盘删除,那么对应的快照也会被同时删除 与云硬盘位于同一个AZ内 通过回滚快照至云硬盘,或者通过快照创建新的云硬盘,找回数据,恢复业务。 云主机备份和云硬盘备份有什么区别? 两者的主要差异如下表所示。 对比维度 云主机备份 云硬盘备份 备份/恢复对象 服务器中的所有云硬盘(系统盘和数据盘) 指定的单个或多个磁盘(系统盘或数据盘) 推荐场景 需要对整个云主机进行保护 系统盘没有个人数据,因而只需要对部分的数据盘进行备份 优势 备份的同一个服务器下的所有磁盘数据具有一致性,即同时对所有云硬盘进行备份,不存在因备份创建时间差带来的数据不一致问题 保证数据安全的同时降低备份成本
        来自:
        帮助文档
        云主机备份 CSBS
        常见问题
        概念类问题
      • 主题设计
        参数名 说明 上级主题 上层主题的编码路径,以/分隔。 名称 中文名称。只允许除/、、<、>以外的字符。 编码 英文名称。只允许英文字母、数字、空格、下划线、中划线、左右括号以及&符号。 别名 主题对象的别名。 描述 主题对象的描述信息。 对于最低层级主题,此项参数为必选。您在导入文件中应补充最低层级主题的描述信息。 数据owner部门 数据的拥有者所在部门。 对于最低层级主题,此项参数为必选。您在导入文件中应补充最低层级主题的数据owner部门信息。 数据owner人员 数据的拥有者,支持填写多个,中间以逗号分隔。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        数据调研
        主题设计
      • 概念类
        沉默时间是什么? 在自定义告警规则时,如在”重复告警“下拉选择”1次/2次/3次“,则需要设定沉默时间。沉默时间指告警发生后,如果未恢复正常,间隔多久重复发送一次告警通知。如”重复告警“选择”不重复“,则无需设定沉默时间。 云监控服务支持哪些聚合方法? 云监控服务支持的聚合方法有以下四种: ● 平均值 聚合周期内指标数据的平均值。 ● 最大值 聚合周期内指标数据的最大值。 ● 最小值 聚合周期内指标数据的最小值。 ● 方差 聚合周期内指标数据的方差。 云监控数据保留多长时间? 云监控指标数据分为原始指标数据和聚合指标数据。 ● 原始指标数据是指原始采样指标数据,原始指标数据承诺保留15天,最长31天。 ● 聚合指标数据是指将原始指标数据经过聚合处理后的指标数据,聚合指标数据(1小时粒度)承诺保留31天,最长180天。 ● 上述原始指标数据及聚合指标数据,不同区域因存储因素影响,保留时长存在差异。 云监控服务哪些资源支持企业项目? 目前,云监控服务的主机监控与云服务监控列表、告警规则支持按企业项目分权分域。另外,云监控服务所覆盖的产品列表是否支持企业项目,与产品保持一致,您可在对应产品控制台查看。
        来自:
        帮助文档
        云监控服务
        常见问题
        概念类
      • 概念类(1)
        沉默时间是什么? 在自定义告警规则时,如在”重复告警“下拉选择”1次/2次/3次“,则需要设定沉默时间。沉默时间指告警发生后,如果未恢复正常,间隔多久重复发送一次告警通知。如”重复告警“选择”不重复“,则无需设定沉默时间。 云监控服务支持哪些聚合方法? 云监控服务支持的聚合方法有以下四种: ● 平均值 聚合周期内指标数据的平均值。 ● 最大值 聚合周期内指标数据的最大值。 ● 最小值 聚合周期内指标数据的最小值。 ● 方差 聚合周期内指标数据的方差。 云监控数据保留多长时间? 云监控指标数据分为原始指标数据和聚合指标数据。 ● 原始指标数据是指原始采样指标数据,原始指标数据承诺保留15天,最长31天。 ● 聚合指标数据是指将原始指标数据经过聚合处理后的指标数据,聚合指标数据(1小时粒度)承诺保留31天,最长180天。 ● 上述原始指标数据及聚合指标数据,不同区域因存储因素影响,保留时长存在差异。 云监控服务哪些资源支持企业项目? 目前,云监控服务的主机监控与云服务监控列表、告警规则支持按企业项目分权分域。另外,云监控服务所覆盖的产品列表是否支持企业项目,与产品保持一致,您可在对应产品控制台查看。
        来自:
      • 实现数据列的加解密
        本章节主要介绍最佳实践中实现数据列的加解密。 数据加密作为有效防止未授权访问和防护数据泄露的技术,在各种信息系统中广泛使用。作为信息系统的核心,GaussDB(DWS)数仓也提供数据加密功能,包括透明加密和使用SQL函数加密。本章节主要讨论SQL函数加密。 说明 DWS目前不支持从Oracle、Teradata和MySQL加密后到DWS解密。Oracle、Teradata和MySQL与DWS加解密有区别,需要非加密数据迁移到DWS后在DWS侧进行加解密。 技术背景 哈希函数 哈希函数又称为摘要算法,对于数据data,Hash函数会生成固定长度的数据,即Hash(data)result。这个过程是不可逆的,即Hash函数不存在反函数,无法由result得到data。在不应保存明文场景(比如口令password属于敏感信息),系统管理员用户也不应该知道用户的明文口令,就应该使用哈希算法存储口令的单向哈希值。 实际使用中会加入盐值和迭代次数,避免相同口令生成相同的哈希值,以防止彩虹表攻击。 哈希函数 对称密码算法 对称密码算法使用相同的密钥来加密和解密数据。对称密码算法分为分组密码算法和流密码算法。 分组密码算法将明文分成固定长度的分组,用密钥对每个分组加密。由于分组长度固定,当明文长度不是分组长度的整数倍时,会对明文做填充处理。由于填充的存在,分组密码算法得到的密文长度会大于明文长度。 流加密算法是指加密和解密双方使用相同伪随机加密数据流作为密钥,明文数据依次与密钥数据流顺次对应加密,得到密文数据流。实践中数据通常是一个位(bit)并用异或(xor)操作加密。流密码算法不需要填充,得到的密文长度等于明文长度。 对称密码算法
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        安全管理
        实现数据列的加解密
      • 设置数据存储
        对象存储 1、部署应用组件时,在“组件配置”界面,展开“高级设置 > 部署配置”。 2、选择“数据存储 > 云存储 > 添加云存储。 表 对象存储 参数 说明 :: 云存储类型 选择“对象存储”。 对象存储有标准存储和低频访问存储两个存储类型,主要适用于大数据分析、原生云应用程序数据、静态网站托管、备份/活跃归档等场景。 分配方式 使用已有存储选择已创建的存储。 自动分配存储 选择存储子类型。 对象存储子类型为标准存储、低频访问存储。 添加容器挂载 设置“挂载路径”:输入数据卷挂载到应用上的路径。 3、单击“确定”。 主机路径挂载 表示在应用组件上挂载宿主机上的文件或目录。 1、部署应用组件时,在“组件配置”界面,展开“高级设置 > 部署配置”。 2、选择“数据存储 > 本地磁盘 > 挂载本地磁盘”。 表 主机路径挂载 参数 说明 :: 本地存储类型 选择“主机路径挂载”。 主机路径 输入主机路径,如/etc/hosts。 容器挂载 设置“挂载路径”:输入数据卷挂载到应用上的路径。 3、单击“确定”。 临时路径挂载 适用于临时存储、灾难恢复、共享运行时数据等场景,应用组件实例的删除或者迁移会导致临时路径被删除。 1、部署应用组件时,在“组件配置”界面,展开“高级设置 > 部署配置”。 2、选择“数据存储 > 本地磁盘 > 挂载本地磁盘”。 表 临时路径挂载 参数 说明 :: 本地存储类型 选择“临时路径挂载”。 磁盘介质 若勾选“内存”,可以提高运行速度,但存储容量受内存大小限制。适用于数据量少,读写效率要求高的场景。 若不勾选“内存”,即存储在硬盘上,适用于数据量大,读写效率要求低的场景。 容器挂载 设置“挂载路径”:输入数据卷挂载到应用上的路径。 须知 请不要挂载在系统目录下,如“/”、“/var/run”等,会导致应用异常。建议挂载在空目录下,若目录不为空,请确保目录下无影响应用启动的文件,否则文件会被替换,导致应用启动异常,应用创建失败。 挂载高危目录的情况下 ,建议使用低权限帐号启动,否则可能会造成宿主机高危文件被破坏。 设置“权限”。 只读:只能读应用路径中的数据卷。 读写:可修改应用路径中的数据卷,应用迁移时新写入的数据不会随之迁移,会造成数据丢失。 3、单击“确定”。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        应用管理
        应用高级设置
        设置数据存储
      • 实例规格及规划建议
        实际场景举例 如:每天大概有500GB的日志数据写入,日志数据需要在线保存7天。根据存储容量规划公式,500GB的原始数据需要1500GB的磁盘空间。7天就是10TB。16 核 64G的数据节点单节点磁盘最大容量(日志)为2TB,所以需要购买5台规格为16 核 64G+2TB存储的Elasticsearch/OpenSearch实例。 规划节点类型 在订购天翼云云搜索服务时,正确规划集群节点类型非常重要。 目前天翼云云搜索服务支持数据节点、专属master节点、专属协调节点、冷数据节点四种节点类型。 数据节点 数据节点就是Elasticsearch/OpenSearch的data节点。数据节点是实例的核心数据存储和计算单元,负责分片存储、索引/搜索执行、聚合计算等基础操作。如果没有购买专属master节点,数据节点也会承担master节点的工作。 专属master节点 专属master节点负责集群元数据管理、分片分配、节点状态监控等核心控制任务,不存储数据。 部署必要性 小型实例(≤10节点):可不单独配置Master节点,由普通节点兼任。 中大型集群实例:必须独立部署,避免元数据操作与数据计算争抢资源导致性能抖动。 高可用配置 数量要求:至少3个且为奇数,防止单点故障和脑裂问题。 规格建议:选择低配机型(如 esearch4c16g),因其不参与数据计算,资源消耗较低。 专属协调节点 接收用户请求并分发至数据节点,汇总结果返回客户端,缓解数据节点的负载压力。
        来自:
        帮助文档
        云搜索服务
        计费说明
        实例规格及规划建议
      • 单机版初始化
        参数 描述 服务器 要初始化服务器的IP,支持IPv4和IPv6地址。 数据目录 服务器中,用于存储用户数据的绝对路径。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。 默认数据目录 创建卷时,可选择指定的数据目录进行数据存储。如不选择,将使用默认数据目录存储卷数据。 容量(可用/总) 数据目录所在磁盘的可用容量和总容量。 容量配额 数据目录的容量配额,即给HBlock分配的容量配额。一旦达到配额,就立刻阻止数据写入。 支持输入数字(默认单位为GiB),或者输入“数字+单位”,数字应精确到两位小数,单位可为KiB、MiB、GiB、TiB或者PiB,并且配额需要不大于数据目录总容量,0表示禁止写入,负数或者不填表示无限制。 操作 校验:校验数据目录是否可用。 移除:移除数据目录。
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        初始化HBlock
        单机版初始化
      • 重启集群
        本章节主要介绍云搜索服务如何重启集群。 集群停止工作时,您可通过重启集群恢复运行。处于“可用”或“异常”状态集群能执行重启操作,“处理中”或“创建中”的集群不能进行重启操作。 快速重启 确保集群处于“可用”或“异常”状态。 确认集群无执行中的任务,如导入数据、搜索数据等。 须知 快速重启集群过程中会导致集群不可用。如果快速重启失败,将有可能会丢失数据或导致集群不可用,请谨慎操作。 当集群处于可用状态时,请排查集群没有正在处理业务数据的任务,再执行快速重启操作。如果集群正在处理业务数据,如导入数据、搜索数据时,一旦快速重启集群,有可能导致数据丢失,如传输的数据丢失等。所以,建议停止所有集群任务后,再快速重启集群。 1.登录云搜索服务管理控制台。 2.单击“集群管理”进入集群列表界面,在对应集群的“操作”列中单击“更多>重启>快速重启”。 快速重启过程中,集群不可用。 3.重启集群后,请刷新页面,观察集群状态。重启过程中,集群状态为“处理中”,任务状态为“重启中”。如果集群状态变更为“可用”,表示集群已重启成功。如果集群状态变更为“异常”,建议联系管理员排查故障。 滚动重启 须知 滚动重启过程中可能出现数据丢失,请谨慎操作。建议您在业务空闲时操作。 只有当集群节点数大于等于3个时,才能支持滚动重启。 当数据量比较大时,滚动重启耗时较长。 1.登录云搜索服务管理控制台。 2.单击“集群管理”进入集群列表界面,在对应集群的“操作”列中单击“更多>重启>滚动重启”。 滚动重启过程中,集群可以提供服务,只有正在重启的节点不可用。如果客户端访问某个节点失败,可以访问其他节点。 3.重启集群后,请刷新页面,观察集群状态。重启过程中,集群状态为“处理中”,任务状态为“重启中”。如果集群状态变更为“可用”,表示集群已重启成功。如果集群状态变更为“异常”,建议联系管理员排查故障。
        来自:
        帮助文档
        云搜索服务
        用户指南
        使用Elasticsearch搜索数据
        管理Elasticsearch类型集群
        重启集群
      • 是否支持数据持久化?
        本文介绍分布式缓存服务Redis版数据持久化 支持,全部规格都支持RDB+AOF组合持久化策略,提升备份和恢复效率。 Redis 提供两种主要的持久化方式: RDB 持久化: Redis 可以周期性地将数据集快照写入磁盘。这个快照是一个二进制文件,包含了某个时间点上的数据集的副本。RDB 持久化是通过调用 SAVE 或 BGSAVE 命令来触发的,也可以配置自动触发快照的条件。RDB 文件对于备份和灾难恢复非常有用,但可能会导致一些数据丢失,因为数据只在指定的时间点进行持久化。 AOF 持久化: Redis 通过将写命令追加到一个文件(Append Only File,AOF 文件)的方式来记录每个写操作。AOF 持久化可以确保更小的数据丢失,因为每个写操作都会被记录。AOF 文件以文本形式存储,当服务器重新启动时,可以通过重新执行 AOF 文件中的命令来恢复数据。
        来自:
        帮助文档
        分布式缓存服务Redis版
        常见问题
        功能类
        是否支持数据持久化?
      • 创建灾备任务
        本节主要介绍创建灾备任务 使用场景 为了解决地区故障导致的业务不可用,数据复制服务推出灾备场景,为用户业务连续性提供数据库的同步保障。当主实例所在区域发生突发生自然灾害等状况无法连接时,可将异地灾备实例切换为主实例,在应用端修改数据库链接地址后,即可快速恢复应用的业务访问。数据复制服务提供的实时灾备功能,可实现主实例和跨区域的灾备实例之间的实时同步。 一次完整的数据灾备,是以任务作为导向,依次进行灾备进度观察、灾备日志分析、灾备数据一致性对比等多项操作。通过多项指标和数据的对比分析,可以帮助您实现不同业务系统间的数据同步。 使用流程 数据灾备的使用流程如下: 图 数据灾备流程 步骤一:创建灾备任务。根据需要,选择业务数据库和灾备数据库,创建灾备任务。 步骤二:查询灾备进度。灾备过程中,可以通过查看灾备进度了解数据灾备完成情况。 步骤三:查看灾备日志。灾备日志包含告警、错误和提示等类型的信息,可根据此类信息分析系统存在的问题。 步骤四:对比灾备项。数据灾备提供对比功能,可根据需要查看对象级对比、数据级对比等,来确保业务数据库和灾备数据库的数据一致性。 本章节将以MySQL到RDS for MySQL的灾备场景为示例,介绍在公网网络场景下,通过数据复制服务管理控制台配置数据灾备任务的流程,其他存储引擎的配置流程类似。 在数据复制服务中,数据库灾备是通过任务的形式完成的,通过创建任务,可以完成任务信息配置、任务创建。灾备任务创建成功后,您也可以通过数据复制服务管理控制台,对任务进行管理。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时灾备
        任务管理
        创建灾备任务
      • 1
      • ...
      • 85
      • 86
      • 87
      • 88
      • 89
      • ...
      • 449
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      聚力AI赋能 天翼云大模型专项

      大模型特惠专区·Token Plan 轻享包低至9.9元起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      镜像服务 IMS

      训推服务

      AI Store

      模型推理服务

      应用托管

      科研助手

      一站式智算服务平台

      知识库问答

      人脸实名认证

      推荐文档

      修改描述

      实例管理

      什么是服务器迁移

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号