活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      数据集成工具_相关内容
      • 为应用挂载数据卷
        本文介绍如何为应用挂载数据卷。 Docker镜像是由多个文件系统叠加而成,当启动一个容器的时候,Docker会加载只读镜像层并在上面添加一个读写层。当删除Docker容器并通过该镜像重新启动时,之前的更改将会丢失。为了能够保存数据以及共享容器间的数据,Docker提出了数据卷的概念。简单来说,数据卷就是目录或者文件,它可以绕过默认的联合文件系统,以正常的文件或者目录的形式存在于主机上。 在Docker中,数据卷只是磁盘或另一容器中的目录。其生命周期不受管理,且Docker现在提供的卷驱动程序功能非常有限。容器引擎CCE采用的是Kubernetes的数据卷的概念,Kubernetes数据卷具有完善的生命周期管理,支持多种类型的数据卷,同时实例可以使用任意数量的数据卷。 云容器引擎支持四类本地磁盘挂载类型:支持hostPath、emptyDir、configMap、secret。各类型说明如下: hostPath:指定主机中的文件或目录挂载到容器的某一路径中; EmptyDir:用于临时存储,生命周期与容器实例相同。容器实例消亡时,EmptyDir会被删除, 数据会永久丢失; ConfigMap:将配置文件中的key映射到容器中,可以用于挂载配置文件到指定容器目录; Secret:将密钥中的数据挂载到指定的容器路径。 操作步骤 1.在创建应用或升级应用流程中,进去容器设置步骤,点击【数据存储】,点击【添加本地磁盘】,进入本地磁盘添加页面; 1)卷类型选择hostPath,表示在容器上挂载宿主机上的文件或目录。通常用于“容器应用程序生成的日志文件需要永久保存”或者“需要访问宿主机上Docker引擎内部数据结构的容器应用”,具体参数说明如下所示: 参数 参数说明 存储类型 选择主机路径 主机路径 输入主机路径,如/tmp 挂载路径 数据卷挂载到容器上的路径 注意: 请不要挂载在系统目录下,如“/”、“/var/run”等,会导致容器异常。建议挂载在空目录下,若目录不为空,请确保目录下无影响容器启动的文件,否则文件会被替换,导致容器启动异常,应用创建失败 子路径 相对路径 权限 只读:只能读容器路径中的数据卷; 读写:可修改容器路径中的数据卷,容器迁移时新写入的数据不会随之迁移,会造成数据丢失; 2)卷类型选择emptyDir:容器分配到节点时系统将自动创建卷,初始内容为空。在同一个Pod中所有容器可以读写emptyDir中的相同文件。当Pod从节点上移除时,empryDir中的数据也会永久删除。通常用于临时数据的高速存储,具体参数说明如下所示: 参数 参数说明 存储类型 选择临时路径 磁盘介质 不勾选:存储在硬盘上,适用于数据量大,读写效率要求低的场景 勾选:存储在内存中,适用于数据量少,读写效率要求高的场景 挂载路径 数据卷挂载到容器上的路径。 注意: 请不要挂载在系统目录下,如“/”、“/var/run”等,会导致容器异常。建议挂载在空目录下,若目录不为空,请确保目录下无影响容器启动的文件,否则文件会被替换,导致容器启动异常,应用创建失败 权限 只读:只能读容器路径中的数据卷 可写:可修改容器路径中的数据卷,容器迁移时新写入的数据不会随之迁移,会造成数据丢失 3)卷类型选择configMap:平台提供应用代码和配置文件的分离,configMap用于处理应用配置参数。用户需要提前创建应用配置,操作步骤请参见创建配置项,临时数据的高速存储,具体参数说明如下所示: 参数 参数说明 存储类型 选择配置项 配置项 选择已经建立好的配置项 说明: configMap需要提前创建 挂载路径 数据卷挂载到容器上的路径 权限 只读:只能读容器路径中的数据卷 4)卷类型选择secret:用户需要提前创建私密凭据,操作步骤请参见创建私密凭据,临时数据的高速存储,具体参数说明如下所示: 参数 参数说明 存储类型 选择私密凭据 卷类型 选择已经创建好的私密凭据 说明: secret需要提前创建,请参见 创建私密凭据 挂载路径 数据卷挂载到容器上的路径 权限 只读:只能读容器路径中的数据卷 2.点击【添加容器挂载】,可新增挂载项,点击【删除】可删除之前的容器挂载配置; 3.点击【确定】,完成本地磁盘的添加。
        来自:
        帮助文档
        云容器引擎(旧版)
        用户指南
        应用资源
        应用创建配置
        为应用挂载数据卷
      • TeleDB数据管理服务
        本文为您介绍组成TeleDB管控数据管理服务的元数据管理、查询窗口、数据导入导出、慢查询分析、容量评估、会话管理和锁分析功能等模块。 TeleDB管控数据管理服务由元数据管理、查询窗口、数据导入导出、慢查询分析、容量评估、会话管理和锁分析功能等模块组成。它旨在为企业提供一套全面的数据管理解决方案,包括数据的存储、访问、分析和安全等核心环节。通过TeleDB管控数据管理模块,企业可以实现对数据的集中式管理和存储,从而简化了数据的访问和检索过程。 元数据管理模块 :提供对实例、数据库、模式、表和可编程对象等各级数据库对象的元数据管理,在数据库的创建、编辑、删除等常规操作需提供界面化操作支持,可以实时同步数据库的元数据信息。 查询窗口模块 :数据库开发者常用功能,提供功能丰富的SQL输入框,包括语法提示、脚本保存以及结果集的返回,支持对结果集进行界面可视化编辑进行数据更新。 数据导入导出模块 :支持多种文件格式的数据导入到数据库,以及从数据库中导出数据。支持的文件格式为:sql、txt和csv。支持不同层级的数据导入导出,分别支持库/模式以及表级的数据导出。同时,也支持不同层级数据库对象的结构导出。 慢查询分析 :慢查询统计、索引推荐主要和管控实例交互获取,慢查询分析、语句优化主要和业务实例交互获取,性能容量评估操作建议可联动慢查询分析,进行服务调用,实例元数据为服务入口,Agent代理主要用作网络跨区服务,ZooKeeper主要负责服务注册及发现的功能。 性能容量评估 :性能容量评估的监控指标数据主要和管控实例交互获取,实例元数据为服务入口,Agent代理主要用作网络跨区服务,ZooKeeper主要负责服务注册及发现的功能。 会话管理 :会话管理通过业务实例获取全局会话和异常会话的信息,并提供部分会话、全部会话的终止功能,实例元数据为服务入口,Agent代理主要用作网络跨区服务,ZooKeeper主要负责服务注册及发现的功能。 锁分析: 锁分析通过管控实例获取到业务实例最近一次发生死锁的信息,获取到死锁的事务环信息和回滚的事务信息并展示说明,实例元数据为服务入口,Agent代理主要用作网络跨区服务,ZooKeeper主要负责服务注册及发现的功能。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        方案简介
        TeleDB数据管理服务
      • 提交导入任务
        本页介绍天翼云TeleDB数据库提交导入任务相关操作。 1、在左侧导航栏,单击开发空间 > 数据导入,进入数据导入管理页面。 2、单击数据导入按钮,弹出数据导入工单填写弹窗,工单需要选择或输入的内容说明见下表。 3、填写完数据导入工单后,单击提交按钮,即完成工单的提交,进入数据导入后台执行阶段。 4、数据导入任务的工单状态,可在导入列表页面查看,如果导入失败,可单击详情查看原因。更多详细操作请查看导入工单列表章节。 输入内容 说明 目标数据库(必填) 数据库/模式选择列表,数据来源于 数据资产元数据管理 中添加的数据库实例,支持MySQL、PostgreSQL和TeleDB,其中MySQL可选择到库级别,PostgreSQL、TeleDB可选择到模式级别。当前仅支持单选一个目标库/模式。注意:如果未登录目标库/模式对应的实例,则选中目标库/模式后会弹出该实例的登录窗口。 文件类型(必填) 选择导入数据的上传文件类型:· SQL:目前支持INSERT,UPDATE,REPLACE语句。选择该文件类型则无法指定“目标表”和“写入方式”。· CSV:CSV文件中的分隔符为英文逗号,且文件第一行为表的列名称。· TXT:TXT文件格式与CSV类似,文件中的分隔符为英文逗号,且文件第一行为表的列名称。 目标表(必填) 在选择目标数据库下,筛选导入的目标表。仅支持CSV和TXT格式导入。 写入方式(必填) 选择导入文件的写入方式:· INSERT INTO:插入数据,数据库会检查主键(PrimaryKey),如果出现重复会报错。· INSERT IGNORE INTO:插入数据,数据库会检查主键(PrimaryKey),如果表中已经存在相同的记录,则忽略当前新数据。· REPLACE INTO:插入替换数据,数据库会检查主键(PrimaryKey),如果数据库已经存在数据,则用新数据替换,如果没有数据效果则和INSERT INTO一样。注意:· 为保证导入文件时数据库的性能,请尽可能选择INSERT操作。· 目前MySQL数据库类型支持INSERT INTO,INSERT IGNORE INTO,REPLACE INTO这3种导入方式,PostgreSQL、TeleDB数据库类型支持INSERT INTO的导入方式。 附件上传(必填) 单击上传文件,上传选中文件类型对应的文件。注意:· 目前支持SQL,CSV,TXT三种文件格式,上传前请检查文件名后缀是否符合要求。· 目前仅支持上传单个文件。· 上传文件大小最大限制为1GB,请控制好文件数据大小。 工单说明(选填) 描述工单备注内容。该内容将展示在工单详情弹窗页。
        来自:
      • 提交导入任务
        本页介绍天翼云TeleDB数据库提交导入任务相关操作。 1、在左侧导航栏,单击开发空间 > 数据导入,进入数据导入管理页面。 2、单击数据导入按钮,弹出数据导入工单填写弹窗,工单需要选择或输入的内容说明见下表。 3、填写完数据导入工单后,单击提交按钮,即完成工单的提交,进入数据导入后台执行阶段。 4、数据导入任务的工单状态,可在导入列表页面查看,如果导入失败,可单击详情查看原因。更多详细操作请查看导入工单列表章节。 输入内容 说明 目标数据库(必填) 数据库/模式选择列表,数据来源于 数据资产元数据管理 中添加的数据库实例,支持MySQL、PostgreSQL和TeleDB,其中MySQL可选择到库级别,PostgreSQL、TeleDB可选择到模式级别。当前仅支持单选一个目标库/模式。注意:如果未登录目标库/模式对应的实例,则选中目标库/模式后会弹出该实例的登录窗口。 文件类型(必填) 选择导入数据的上传文件类型:· SQL:目前支持INSERT,UPDATE,REPLACE语句。选择该文件类型则无法指定“目标表”和“写入方式”。· CSV:CSV文件中的分隔符为英文逗号,且文件第一行为表的列名称。· TXT:TXT文件格式与CSV类似,文件中的分隔符为英文逗号,且文件第一行为表的列名称。 目标表(必填) 在选择目标数据库下,筛选导入的目标表。仅支持CSV和TXT格式导入。 写入方式(必填) 选择导入文件的写入方式:· INSERT INTO:插入数据,数据库会检查主键(PrimaryKey),如果出现重复会报错。· INSERT IGNORE INTO:插入数据,数据库会检查主键(PrimaryKey),如果表中已经存在相同的记录,则忽略当前新数据。· REPLACE INTO:插入替换数据,数据库会检查主键(PrimaryKey),如果数据库已经存在数据,则用新数据替换,如果没有数据效果则和INSERT INTO一样。注意:· 为保证导入文件时数据库的性能,请尽可能选择INSERT操作。· 目前MySQL数据库类型支持INSERT INTO,INSERT IGNORE INTO,REPLACE INTO这3种导入方式,PostgreSQL、TeleDB数据库类型支持INSERT INTO的导入方式。 附件上传(必填) 单击上传文件,上传选中文件类型对应的文件。注意:· 目前支持SQL,CSV,TXT三种文件格式,上传前请检查文件名后缀是否符合要求。· 目前仅支持上传单个文件。· 上传文件大小最大限制为1GB,请控制好文件数据大小。 工单说明(选填) 描述工单备注内容。该内容将展示在工单详情弹窗页。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据管理服务操作指南
        数据导入
        提交导入任务
      • 修改数据复制方式
        关系数据库MySQL版支持切换主备实例的数据复制方式,以满足不同的业务需求。本文介绍如何修改关系数据库MySQL版实例的数据复制方式。 注意 仅II类型资源池支持该功能,具体支持情况以控制台页面展示为准。更多资源池信息,请参见功能概览。 背景信息 数据复制方式说明 您可以根据实际情况,切换主备实例的数据复制方式,支持切换为异步 或半同步,具体说明如下: 异步 应用更新数据时,主库执行完操作后立即向应用返回响应,然后就向备实例异步复制数据,这种数据复制方式通常具有较高的性能。 因此,在异步数据复制方式下,备实例不可用时不会影响主实例上的操作。而主实例异常不可用时可能会影响主备数据复制、导致主备实例数据不一致,极端情况下,可能会有数据丢失风险,请谨慎选择。 半同步 应用更新数据时,主库需要等待备库收到日志才向应用返回响应,这种方式提高了数据可靠性但对性能有一定影响: 可用性类型 是否退化 描述 可靠性 不退化(默认) 如果实例主库与其他所有备库通信故障,为保证数据一致性和完整性,主库将被设置为只读且不进行退化(一主一备实例默认设置可用性优先会退化),直至任一备节点恢复后可对外提供写服务。 可用性 退化(默认) 如果实例主库与其他所有备库通信故障,可能会导致退化(一主两备实例默认设置可靠性优先不退化),退化表现为主库等待备库响应数秒钟,在此期间会阻塞主库对业务写操作的响应,退化后,主库恢复正常、主库可正常写入数据。退化后的实例可能会有数据丢失风险,主备之间通信恢复正常后,实例重新转化为半同步状态。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        实例管理
        修改数据复制方式
      • 模式列表
        数据权限管理 点击列表操作栏的 数据权限管理 按钮,进入数据权限管理页面,对数据权限进行管理 当前用户需要具有访问数据权限管理的权限,详见数据权限管理 删除模式 点击模式列表操作菜单的 删除 按钮,二次确认无误后,即可完成对目标模式的删除。
        来自:
        帮助文档
        数据管理服务
        用户指南
        数据资产
        实例管理
        模式列表
      • 迁移本地盘云主机数据
        本文向您介绍本地盘云主机数据迁移的相关信息。 操作场景 本地盘云主机,同时具有本地盘和云盘两种数据存储的方式,当用户出现以下应用场景时,需要考虑自行迁移本地盘云主机数据: 需要切换数据到另一台主机。 需要扩大本地盘容量,但由于当前不支持本地盘的变配操作,故需要用户自行迁移数据至更大规格的本地盘中。 操作步骤 1. 创建云硬盘。 用户需要前往云硬盘产品控制台界面,根据迁移的数据量大小,购买合适大小的云硬盘。 2. 挂载云硬盘。 将新创建购买的云硬盘,挂载到当前需要进行数据迁移的本地盘云主机上,可在云硬盘控制台列表通过“挂载”操作执行。 3. 自行备份本地盘数据。 用户需要登陆到本地盘云主机,自行操作,将本地盘数据迁移至新挂载的云硬盘上。 至此用户已完成数据的迁移,用户继续将包含迁移数据的云硬盘挂载到其它主机上,以完成数据在不同主机间的迁移,步骤如下: 4. 创建云主机。 用户需要前往云主机产品控制台界面,根据迁移的数据量大小,购买合适大小的本地盘云主机。 5. 挂载云硬盘。 将云硬盘,挂载到新创建的云主机上,可通过控制台的"挂载"操作进行。 6. 迁移云盘数据。 将已挂载的云硬盘数据迁移到当前新创建的本地盘云主机中,进行存储。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        迁移
        迁移本地盘云主机数据
      • 连接诊断
        本页介绍数据传输服务DTS的数据同步实例在实例配置阶段如何进行源库和目标库的连接诊断。 功能介绍 在进行DTS同步操作之前,可使用测试连接功能判断DTS工作节点和源库、目标库的连通性,来确认是否使用了符合要求的网络环境和是否可执行正常的同步任务。 操作指引 数据同步实例的源库、目标库连接诊断操作步骤和方法与数据迁移实例源库、目标库连接诊断类似,依次进入数据传输服务DTS产品控制台 【数据同步】实例列表页面 点击“实例配置”进入配置页面 ,在配置源库及目标库信息步骤进行数据同步源库和目标库的连通性测试,具体操作可参照数据传输服务DTS 用户指南 数据迁移 连接诊断的操作。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        连接诊断
      • 数据脱敏是否对原始数据有影响?
        本章为您介绍 数据脱敏是否对原始数据有影响? 没有影响。数据脱敏功能只会对数据进行读取,脱敏后保存到您选择的目标位置,不会对源数据进行改动。
        来自:
        帮助文档
        数据安全中心
        常见问题
        数据识别和数据脱敏
        数据脱敏是否对原始数据有影响?
      • 数据取回费用
        计费项 含义 计费模式 低频存储数据取回流量费用 下载低频存储类型的数据时,会根据对象大小收取额外的数据取回流量费用。 按需计费 包年包月 归档存储数据取回流量费用 解冻归档存储类型的数据时,会根据对象大小收取额外的数据取回流量费用。 解冻后下载归档类型的文件不会产生数据取回流量费用,但会产生归档流出流量费用。 按需计费 包年包月 归档存储直读取回流量费用 开启归档直读后,下载归档存储类型的数据时,会根据对象大小收取额外的归档直读取回流量费用。 按需计费
        来自:
        帮助文档
        对象存储 ZOS
        计费说明
        计费项
        数据取回费用
      • 将PostgreSQL同步到PostgreSQL
        结构、全量过程中 请勿修改源库和目标库的端口号,请勿修改、删除源库和目标库连接用户的密码、权限,否则可能导致任务失败。 请勿在源库执行任何DDL,否则可能导致数据不一致或任务失败。 请勿在目标库做写入操作,否则可能导致数据不一致。 增量过程中 请勿修改源库和目标库的端口号,请勿修改、删除源库和目标库连接用户的密码、权限,否则可能导致任务失败。 请勿修改源数据库表的主键或者唯一键(主键不存在时),否则可能导致增量数据不一致或任务失败。 请勿修改源数据库中表的replica identity属性,否则可能导致增量数据不一致或任务失败。 请勿在目标库做写入操作,否则可能导致数据不一致。 库级同步时,源库新增无主键表时,请务必同时将该无主键表的replica identity属性设置为full,然后再写入数据,否则可能导致数据不一致或任务失败。 库级同步时,源库新增主键表时,如果主键列toast属性为main、external、extended时,请务必同时将该表的replica identity属性设置为full,然后再写入数据,否则可能导致数据不一致或任务失败。 若选择同步DDL,须注意源库执行DDL时,确保在目标库上是兼容的。 数据稽核 建议在源库的业务低峰期进行数据比对,防止误报不一致数据,以及减少对源库和DTS任务的冲击。 在增量同步过程中做对比时,源库若存在写入,则对比结果可能不一致。 操作步骤 1、购买DTS数据同步实例。 在管理控制台点击“创建实例”进入订购页面,“实例类型”选择“数据同步”,“目标库实例”的“数据库类型”选择PostgreSQL,选择实例,完成其他信息的填写并完成购买。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        入云
        将PostgreSQL同步到PostgreSQL
      • 标准快照功能概述(白名单开放)
        标准快照容量计算原理 云硬盘的快照总容量以快照链(一块云硬盘中所有快照组成的关系链)为单位进行统计,统计当前云硬盘所有快照的数据块占用的存储空间。云硬盘的单个快照容量不会超过云硬盘容量,但是随着快照的增加,快照链容量可能会大于云硬盘容量。 快照链增加快照容量计算 以下图中的场景为例,假设快照的数据块为固定大小2MiB,那么快照链增加快照后的容量计算如下: 创建快照1时,云硬盘的快照链中仅有快照1,快照链容量 快照1容量 数据块A容量 + 数据块B容量 + 数据块C容量 6MiB 创建快照2时,云硬盘的快照链中有快照1、快照2,快照链容量 快照1容量 + 快照2容量 6MiB + (数据块A1容量 + 数据块B1容量 + 数据块D容量) 12MiB 创建快照3时,云硬盘的快照链中有快照1、快照2、快照3,快照链容量 快照1容量 + 快照2容量 + 快照3容量 6MiB + 6MiB +(数据块A2容量 + 数据块C1容量 + 数据块E容量) 18MiB 快照链删除快照容量计算 删除快照时,会遍历快照元数据文件中的所有数据块信息,如下图所示,遵循以下删除原则: 数据块被下一个快照继承,该数据块不能删除。 数据块没有被下一个快照继承: 继承数据块:如果上一个快照未被删除,那么该继承数据块不能删除;否则可以删除。 修改数据块:可以删除。 新增数据块:可以删除。 以下通过举例说明删除快照后快照链容量计算。 以图65中的场景为例,在14:00删除快照2,在15:00删除快照3,那么快照链删除快照后的容量计算如下: 删除快照前,快照链容量 快照1容量 + 快照2容量 + 快照3容量 18MiB 14:00删除快照2,遍历快照2元数据文件中的所有数据块信息: 数据块A1:没有被快照3继承,且为快照1中的数据块A修改而来(修改数据块),因此数据块A1可以删除。 数据块B1:被快照3继承,数据块B1不能删除。 数据块C:没有被快照3继承,但继承于快照1(继承数据块)且快照1未被删除,因此数据块C不能删除。 数据块D:被快照3继承,因此数据块D不能删除。 删除快照2后,快照链容量 18MiB 数据块A1容量 16MiB 15:00删除快照3,遍历快照3元数据文件中的所有数据块信息: 数据块A2:没有被下一快照继承,且为快照2中的数据块A1修改而来(修改数据块),因此数据块A2可以删除。 数据块B1:没有被下一快照继承,但继承于快照2且快照2已被删除,因此数据块B1可以删除。 数据块C1:没有被下一快照继承,且为快照2中的数据块C修改而来,因此数据块C1可以删除。 数据块D:没有被下一快照继承,但继承于快照2且快照2已被删除,因此数据块D可以删除。 数据块E:没有被下一快照继承,且为快照3新增数据块,因此数据块E可以删除。 删除快照3后,快照链容量 16MiB 数据块A2容量 数据块B1容量 数据块C1容量 数据块D容量 数据块E容量 6MiB
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        管理快照
        标准快照(白名单开放)
        标准快照功能概述(白名单开放)
      • 数据安全中心是否会保存您的数据和文件?
        数据安全中心(DSC)不会保存您的数据和文件,在您授权访问数据源后,DSC会对数据进行识别、脱敏、或添加水印等操作。 数据安全中心(DSC)不会保存您的数据和文件,在您授权访问数据源后,DSC会对数据进行识别、脱敏、或添加水印等操作。 数据识别的结果将展示在DSC的控制台,如何查看敏感数据识别结果,请参见敏感数据识别结果。
        来自:
        帮助文档
        数据安全中心
        常见问题
        产品咨询类
        数据安全中心是否会保存您的数据和文件?
      • 基本概念
        关键词 说明 集群 集群指容器运行所需要的云资源组合,关联了若干服务器节点、负载均衡、专有网络等云资源。 专有版集群:需要创建1个Master(非高可用),或者3/5个Master(高可用)节点,以及若干Worker节点,可对集群基础设施进行更细粒度的控制,需要自行规划、维护、升级服务器集群。 托管版集群:只需创建Worker节点,Master节点由CCSE创建并托管,具备操作简单、低成本无需运维等特点。 节点 一台服务器(可以是虚拟机实例或者物理服务器)已经安装了Docker Engine,可以用于部署和管理容器。容器的Agent程序会被安装到节点上并注册到一个集群上。 专有网络VPC 专有网络VPC是您自己独有的云上私有网络。您可以完全掌控自己的专有网络,例如选择IP地址范围、配置路由表和网关等,您可以在自己定义的专有网络中使用天翼云资源如云服务器、云数据库和负载均衡等。 安全组 安全组是一种虚拟防火墙,具备状态检测和数据包过滤能力,用于在云端划分安全域。安全组是一个逻辑上的分组,由同一地域内具有相同安全保护需求并相互信任的实例组成。 应用目录 应用目录功能集成了Helm,提供了Helm的相关功能,并进行了相关功能扩展,例如提供图形化界面。 编排模板 编排模板是一种保存Kubernetes YAML格式编排文件的方式。 Kubernetes Kubernetes是一个开源平台,具有可移植性和可扩展性,用于管理容器化的工作负载和服务,简化了声明式配置和自动化。 容器(Container) 打包应用及其运行依赖环境的技术,一个节点可运行多个容器。 镜像(Image) 容器镜像是容器应用打包的标准格式,封装了应用程序及其所有软件依赖的二进制数据。 镜像仓库(Image Registry) 容器镜像仓库是一种存储库,用于存储Kubernetes和基于容器应用开发的容器镜像。 管理节点(Master Node) 管理节点是Kubernetes集群的管理者,运行着的服务包括kubeapiserver、kubescheduler、kubecontrollermanager、etcd组件,和容器网络相关的组件。 工作节点(Worker Node) 工作节点是Kubernetes集群中承担工作负载的节点,可以是虚拟机也可以是物理机。工作节点承担实际的Pod调度以及与管理节点的通信等。一个工作节点上的服务包括Docker运行时环境、kubelet、KubeProxy以及其它一些可选的组件。 命名空间(Namespace) 命名空间为Kubernetes集群提供虚拟的隔离作用。Kubernetes集群初始有3个命名空间,分别是默认命名空间default、系统命名空间kubesystem和kubepublic,除此以外,管理员可以创建新的命名空间以满足需求。 容器组(Pod) Pod是Kubernetes部署应用或服务的最小的基本单位。一个Pod封装多个应用容器(也可以只有一个容器)、存储资源、一个独立的网络IP以及管理控制容器运行方式的策略选项。 副本控制器(ReplicationController,RC) RC确保任何时候Kubernetes集群中有指定数量的Pod副本在运行。通过监控运行中的Pod来保证集群中运行指定数目的Pod副本。指定的数目可以是多个也可以是1个;少于指定数目,RC就会启动运行新的Pod副本;多于指定数目,RC就会终止多余的Pod副本。 副本集(ReplicaSet,RS) ReplicaSet(RS)是RC的升级版本,唯一区别是对选择器的支持,RS能支持更多种类的匹配模式。副本集对象一般不单独使用,而是作为Deployment的理想状态参数使用。 工作负载(Workload) 工作负载是在Kubernetes上运行的应用程序。 标签(Label) Labels的实质是附着在资源对象上的一系列Key/Value键值对,用于指定对用户有意义的对象的属性,标签对内核系统是没有直接意义的。标签可以在创建一个对象的时候直接赋予,也可以在后期随时修改,每一个对象可以拥有多个标签,但key值必须唯一。 服务(Service) Service是Kubernetes的基本操作单元,是真实应用服务的抽象,每一个服务后面都有很多对应的容器来提供支持,通过KubeProxy的ports和服务selector决定服务请求传递给后端的容器,对外表现为一个单一访问接口。 路由(Ingress) Ingress是授权入站连接到达集群服务的规则集合。您可以通过Ingress配置提供外部可访问的URL、负载均衡、SSL、基于名称的虚拟主机等。通过POST Ingress资源到API Server的方式来请求Ingress。Ingress Controller负责实现Ingress,通常使用负载均衡器,它还可以配置边界路由和其他前端,这有助于以高可用的方式处理流量。 配置项(ConfigMap) 配置项可用于存储细粒度信息如单个属性,或粗粒度信息如整个配置文件或JSON对象。您可以使用配置项保存不需要加密的配置信息和配置文件。 保密字典(Secret) 保密字典用于存储在Kubernetes集群中使用一些敏感的配置,例如密码、证书等信息。 卷(Volume) 和Docker的存储卷有些类似,Docker的存储卷作用范围为一个容器,而Kubernetes的存储卷的生命周期和作用范围是一个Pod。每个Pod中声明的存储卷由Pod中的所有容器共享。 存储卷(Persistent Volume,PV) PV是集群内的存储资源,类似节点是集群资源一样。PV独立于Pod的生命周期,可根据不同的StorageClass类型创建不同类型的PV。 存储卷声明(Persistent VolumeClaim,PVC) PVC是资源的使用者。类似Pod消耗节点资源一样,而PVC消耗PV资源。 存储类(StorageClass) 存储类可以实现动态供应存储卷。通过动态存储卷,Kubernetes将能够按照用户的需要,自动创建其所需的存储。 弹性伸缩(Autoscaling) 弹性伸缩是根据业务需求和策略,经济地自动调整弹性计算资源的管理服务。典型的场景包含在线业务弹性、大规模计算训练、深度学习GPU或共享GPU的训练与推理、定时周期性负载变化等。 可观测性(Observability) Kubernetes可观测性体系包含监控和日志两部分,监控可以帮助开发者查看系统的运行状态,而日志可以协助问题的排查和诊断。 Helm Helm是Kubernetes包管理平台。Helm将一个应用的相关资源组织成为Charts,然后通过Charts管理程序包。 节点亲和性(nodeAffinity) 节点亲和性指通过Worker节点的Label标签控制Pod部署在特定的节点上。 污点(Taints) 污点和节点亲和性相反,它使节点能够排斥一类特定的Pod。 容忍(Tolerations) 应用于Pod上,允许(但并不要求)Pod调度到带有与之匹配的污点的节点上。 应用亲和性(podAffinity) 应用亲和性决定应用Pod可以和特定Pod部署在同一拓扑域。例如,对于相互通信的服务,可通过应用亲和性调度,将其部署到同一拓扑域(例如同一个主机)中,以减少它们之间的网络延迟。 应用反亲和性(podAntiAffinity) 应用反亲和性决定应用Pod不与特性Pod部署在同一拓扑域。例如,将一个服务的Pod分散部署到不同的拓扑域(例如不同主机)中,以提高服务本身的稳定性。 服务网格(Istio) Istio是一个提供连接、保护、控制以及观测服务的开放平台,兼容社区Istio开源服务网格,用于简化服务的治理,包括服务调用之间的流量路由与拆分管理、服务间通信的认证安全以及网格可观测性能力。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        产品介绍
        基本概念
      • 提交版本并解锁
        版本详情查看 用户可以在版本列表中看到已经提交过的版本信息。 操作如下: 1. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2. 在数据开发主界面的左侧导航栏,选择“数据开发 > 作业开发”。 3. 在作业目录中,双击作业名称,进入作业开发页面。 4. 在页面右侧单击“版本”,查看版本提交记录,找到需要查看详情的版本单击“查看”即可。 点击查看,将会打开一个新窗口,展示出该版本的作业定义。查看窗口仅用于展示某个版本的作业属性,不可修改任何作业属性。 详见下图:版本详情查看 版本对比 1. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2. 在数据开发主界面的左侧导航栏,选择“数据开发 > 作业开发”。 3. 在作业目录中,双击作业名称,进入作业开发页面。 4. 在页面右侧单击“版本”,查看版本提交记录,勾选需要对比的版本单击“版本对比”即可。 若只勾选一个版本,则比较选中的版本和开发态的作业属性Json。若勾选两个版本,则比较两个版本的作业属性Json。 详见下图:对比版本操作界面
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        作业开发
        提交版本并解锁
      • 查看灾备数据
        本节主要介绍查看灾备数据 灾备数据记录了灾备任务完成的记录,您可以通过该功能,了解灾备的完整性。 数据复制服务支持通过管理控制台查看灾备数据的初始化进度及数据健康报告。 前提条件 已登录数据复制服务管理控制台。 已成功创建数据灾备任务。 操作步骤 说明 任务列表中,仅展示当前登录用户所创建的全部任务,同一租户下的不同用户之间的任务不可见。 步骤 1 在“实时灾备管理”页面,选择指定的灾备任务,单击任务名称。 步骤 2 页面跳转至“基本信息”页签,单击“灾备数据”页签。 初始化进度 仅展示了初次创建灾备环境时,历史数据导入的进度信息,帮助用户了解灾备环境创建进度,完成历史数据导入后,意味着初始化已完成,该模块数据将不再更新。 数据健康报告 支持用户修改对比策略,周期性展示主实例与备实例的数据一致性对比结果,用于帮助用户审视灾备环境的数据健康情况。 只有灾备中的任务才会进行健康对比。 仅保留最近30次健康对比报告。 数据健康报告是为了用户定期且长期掌握主实例与备实例的数据一致性,为避免长期对比对主实例的性能损耗,对于特大表(比如超亿行的表)的对比,建议使用对比灾备项。 修改对比策略 修改对比策略不会影响当前进行的健康对比任务,修改后的设置在下次生效。 1、在“数据健康报告”页签的“健康对比策略”区域,单击“修改对比策略”,进入修改对比策略界面。 2、在“修改对比策略”界面设置各个参数。 开启状态:关闭健康对比策略后,下一次的健康对比将不会再进行,历史健康报告仍可正常查看。 对比频率:提供“每周对比”和“每天对比”两种对比频率。 对比时间:对比频率选择“每周对比”时,可设置周一到周日的一天或多天为对比时间。 时区:默认为本地时区。 生效时间:设置对比策略生效的时间段,建议设置在业务低峰期进行对比。生效时间内未完成健康对比会自动中断,已完成的对比结果仍可查看。 对比类型:默认为行对比+用户对比+对象对比。 3、单击“确定”,完成修改对比策略。 修改成功后,将在生效时间启动对比任务,您可以取消进行中的任务,取消后,已经对比成功的健康报告仍可查看。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时灾备
        任务生命周期
        查看灾备数据
      • 测试数据生成
        数据管理服务DMS的测试数据生成功能支持为多表批量生成枚举、字符串、序列等类型的数据,可以大大减轻准备测试数据的负担。本文将介绍构建测试数据的方法。 前提条件 组织版本:基础版、企业版均可 支持的数据库类型:MySQL、PostgreSQL 背景信息 在测试环节,数据准备往往是最容易被忽视却又最耗时的部分。无论是功能测试还是性能压测,构造合适的数据集都至关重要。但现实中,常见的几种方式各有痛点: 从线上系统导出数据,存在较高的数据安全和合规风险,容易导致敏感信息泄露; 人工创建数据适用于简单场景,但在面对大规模或复杂结构数据时效率低下; 通过脚本生成数据具备一定的灵活性,但通用性差,维护成本较高; 在实际研发流程中,测试数据生成需要在效率、质量、安全之间取得平衡。为满足这一需求,DMS 提供了测试数据生成功能,支持高效生成数据集。通过该能力,开发与测试团队可以快速构建符合需求的测试数据,显著提升测试效率。 注意事项 支持按需操作单个/多个表 每张表的单次生成上限阈值为100万行 操作步骤 1. 登录DMS控制台。 2. 在左侧导航栏,单击开发空间>测试数据生成,进入测试数据生成页面。 3. 单击数据生成 按钮,弹出数据生成工单填写弹窗,工单需要选择或输入的内容说明见下表1。 4. 填写完数据生成工单后,单击提交按钮,即完成工单的提交。 5. 数据生成任务的工单状态与执行进度,可在工单详情页面查看。 表1 工单输入内容说明 输入内容 说明 目标数据库 选择测试数据生成的数据库/模式,数据来源于在DMS控制台中添加的数据库实例,其中MySQL可选择到库级别,PostgreSQL可选择到模式级别。当前仅支持单选一个目标库/模式。 生成对象 选择需要生成测试数据的表名,以及确定对应的生成行数。表的每一列都对应一个仿真规则,每个仿真规则都对应一个配置信息;也可以选择删除该列的仿真规则。 冲突处理 选项:遇到冲突中止、遇到冲突跳过。注意:当批次内出现冲突时,系统将跳过整个批次,而非仅跳过冲突行 并发数 范围:15。注意:并发数较高时可能给系统带来性能负担,影响其他服务的访问。请合理的配置并发数
        来自:
        帮助文档
        数据管理服务
        用户指南
        开发空间
        测试数据生成
      • 数据分类分级(1)
        本节介绍如何进入数据分类分级制台,及如何使用数据分类分级。 进入控制台 方式一: 1. 登录天翼云控制中心。 2. 在控制中心页面顶部选择区域。 3. 在产品服务列表页,选择“安全 > 云等保专区”,进入云等保专区控制台。 4. 在左侧导航栏,选择“数据分类分级”,跳转到数据分类分级控制台。 方式二: 1. 登录天翼云控制中心。 2. 在控制中心页面顶部选择区域。 3. 在产品服务列表页,选择“安全 > 数据安全专区”,进入数据分类分级控制台。 使用数据分类分级 请参见数据分类分级。
        来自:
      • 数据分类分级
        本节介绍如何进入数据分类分级制台,及如何使用数据分类分级。 进入控制台 方式一: 1. 登录天翼云控制中心。 2. 在控制中心页面顶部选择区域。 3. 在产品服务列表页,选择“安全 > 云等保专区”,进入云等保专区控制台。 4. 在左侧导航栏,选择“数据分类分级”,跳转到数据分类分级控制台。 方式二: 1. 登录天翼云控制中心。 2. 在控制中心页面顶部选择区域。 3. 在产品服务列表页,选择“安全 > 数据安全专区”,进入数据分类分级控制台。 使用数据分类分级 请参见数据分类分级。
        来自:
        帮助文档
        云等保专区
        用户指南
        数据分类分级
      • 数据导出工单列表
        本文介绍数据导出工单列表页相关操作,数据导出工单列表支持查看导出任务的工单状态与结果。 前提条件 登录DMS控制台。 注意事项 数据导出工单列表页仅展示自己提交的工单。 操作步骤 1. 登录数据管理服务DMS。 2. 在左侧导航栏,点击开发空间>数据导出 ,进入数据导出工单列表页。 数据导出工单列表页功能介绍 工单查询 输入查询条件点击查询按钮,执行查询操作。 数据导出 点击数据导出 按钮可添加新的数据导出任务,详见提交导出任务。 详情 在工单列表找到目标工单,在操作列点击详情按钮,在打开的工单详情页面可查看目标工单的详细信息。 数据导出工单详情页面,包含基础信息、任务状态、预检查、审批流程四个部分。 基础信息 以下表格为基础信息部分说明: 内容 说明 工单类型 展示工单是数据导出类型。 创建人 工单的创建用户。 工单状态 工单的当前状态。 工单号 系统生成的工单唯一id。 创建时间 工单保存到系统的时间。 最后操作时间 工单状态的最后更新时间。 库/模式信息 导出任务对应的目标库/模式信息。 导出类型 导出工单指定的类型,可在创建导出工单时选择。 表名 导出工单指定的数据库表名称,可在创建导出工单时选择。 导出文件类型 导出工单指定的文件类型,可在创建导出工单时选择。 工单说明 说明信息,可在创建导出工单时填写。
        来自:
        帮助文档
        数据管理服务
        用户指南
        开发空间
        数据导出
        数据导出工单列表
      • 查看实例
        参数 说明 内网连接地址 未开启公网访问时,连接实例的地址。 Web界面UI地址 未开启公网访问时,访问实例管理工具的地址。 公网访问 是否开启公网访问开关。 公网连接地址 开启公网访问后,连接实例的地址。 公网访问Web界面UI地址 开启公网访问后,访问实例管理工具的地址。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        实例日常管理
        查看实例
      • 数据集管理
        本节介绍数据集管理常见问题及其解决办法。 是否支持纳管私有数据集? 支持。可在控制台上传本地数据集和下载社区数据集。
        来自:
        帮助文档
        智算套件
        常见问题
        数据集管理
      • 将PostgreSQL迁移到MySQL
        结构、全量过程中 请勿修改源库和目标库的端口号,请勿修改、删除源库和目标库连接用户的密码、权限,否则可能导致任务失败。 请勿在源库执行任何DDL,否则可能导致数据不一致或任务失败。 请勿在目标库做写入操作,否则可能导致数据不一致。 增量过程中 请勿修改源库和目标库的端口号,请勿修改、删除源库和目标库连接用户的密码、权限,否则可能导致任务失败。 请勿修改源数据库表的主键或者唯一键(主键不存在时),否则可能导致增量数据不一致或任务失败。 请勿修改源数据库中表的replica identity属性,否则可能导致增量数据不一致或任务失败。 请勿在目标库做写入操作,否则可能导致数据不一致。 库级同步时,源库新增无主键表时,请务必同时将该无主键表的replica identity属性设置为full,然后再写入数据,否则可能导致数据不一致或任务失败。 库级同步时,源库新增主键表时,如果主键列toast属性为main、external、extended时,请务必同时将该表的replica identity属性设置为full,然后再写入数据,否则可能导致数据不一致或任务失败。 若选择同步DDL,须注意源库执行DDL时,确保在目标库上是兼容的。 操作步骤 1、购买DTS实例。 在管理控制台点击“创建实例”进入订购页面,“实例类型”选择“数据迁移”,”源数据库”选择Postgresql,“目标数据库”选择MySQL,完成其他信息的填写并完成购买。 2、进入实例配置页面。 DTS实例购买成功后,进入【数据迁移】实例列表页面,上一步骤购买成功的实例在实例列表中显示状态为“待配置”,进入实例配置页面的操作。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        入云
        将PostgreSQL迁移到MySQL
      • 敏感数据发现
        本章节为您介绍敏感数据发现的相关操作。 敏感数据发现功能内置多种发现规则,支持基于数据内容的识别,不仅依赖于用户的元数据管理系统、字段名或字段注释等信息。支持用户基于自身需求自定义规则,实现对敏感数据的自动发现和标识。 同时敏感数据发现功能可同数据分级分类功能进行对接,可基于行业或法律法规对敏感数据进行分类分级与梳理,便于用户按照不同级别进行脱敏算法的配置,有效避免数据的过度保护。 结构化发现 创建规则 1.使用系统管理员登录数据脱敏实例。 2.在左侧导航栏选择“敏感数据发现 > 结构化发现 ”,进入“结构化发现”页面。 3.单击页面右上角的“新增”按钮,跳转至“创建发现任务”页面,填写相关参数。 参数 参数说明 填写样例 任务名称 结构化任务的名称,系统会为您自动生成,您也可以自定义该任务名称。 Test 输入源 选择结构化发现任务的输入源IP,如果新增输入源可参考:数据资产管理章节。 192.168.0.1 脱敏模板 选择该任务需要使用的脱敏模板,如何新增脱敏模板可参考:脱敏模板章节。 默认模板 发现方式 根据该任务的需求选择以下两种发现方式: 全量发现:同步输入源中的所有数据。 增量发现:基于输入源中已存在数据脱敏实例中的数据,进行增量。 全量发现 输入数据 数据输入方式支持以下三种: 手动选择 全部选择 文件导入 手动选择 采样行数 从原始数据集中抽取一定数量的样本行,系统默认为:1000行,您可以根据自身业务需求填写。 1000 命中阈值 指在规则触发过程中的临界标准,默认值为:80,妮妮可以根据自身业务需求填写。 80 4.填写完成后,可选择“保存”或者“保存并运行”。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据脱敏操作指导
        敏感数据发现
      • 接入日志数据
        查看日志数据的存储位置 日志数据接入完成后,请前往安全分析的安全数据表页面查看接入的日志数据: 1. 在左侧导航栏选择“日志审计 > 安全数据”,进入安全分析页面。 2. 在左侧数据空间导航栏中,单击数据空间名称,展开数据管道列后,再单击管道名称,右侧将显示管道数据的检索页面。 在管道数据检索页面即可查看接入的日志数据。 相关操作 取消数据接入 1. 在云服务接入管理页面,单击待取消接入云服务产品所在行操作列的“设置”,右侧弹出日志接入设置配置页面。 2. 在设置页面,单击“日志接入”列的,关闭接入的云服务日志。 编辑数据接入生命周期 1. 在云服务接入管理页面,单击对应云服务产品所在行操作列的“设置”,右侧弹出日志接入设置配置页面。 2. 在设置页面,单击日志所在行操作列的“编辑”按钮。 3. 在弹出的编辑页面,修改“生命周期”配置,输入生命周期时间。 4. 修改完成后,单击“确定”。 取消自动转告警 1. 在云服务接入管理页面,单击对应云服务产品所在行操作列的“设置”,右侧弹出日志接入设置配置页面。 2. 在设置页面,单击“自动转告警”列的,关闭告警映射。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        日志审计
        云服务接入
        接入日志数据
      • 对待注入水印的源数据有什么要求?
        本章为您介绍对待注入水印的源数据有什么要求。 由于注入水印的原理是将水印原子信息嵌入到不同特征的数据中去,因此源数据特征越多,越能嵌入完整的水印信息、提高提取成功率,并且即使缺失部分数据也不影响水印提取。所以对需要注入水印的数据有如下要求: 待注入水印的源数据需要大于等于1000行。 小于1000行的源数据有可能因为特征不够导致提取水印失败。 尽量选取数据取值比较多样的列注入水印,如果该列的值是可枚举穷尽的,则有可能因为特征不够导致提取失败。 常见的适合嵌入水印的列如地址、姓名、UUID、金额、总数等。
        来自:
        帮助文档
        数据安全中心
        常见问题
        数据水印类
        对待注入水印的源数据有什么要求?
      • 管理中心
        本章节主要介绍管理中心常见问题。 创建数据连接需要注意哪些事项? 创建DWS/MRS Hive/RDS/SparkSQL类型的数据连接时,需要绑定由CDM集群提供的代理服务。 目前不支持低于1.8.6版本的CDM集群。 为什么DWS/Hive/HBase数据连接突然无法获取数据库或表的信息? 可能是由于CDM集群被关闭或者并发冲突导致,您可以通过切换agent代理来临时规避此问题。 建议您通过以下措施解决此问题: 1.检查CDM集群是否被关机。 是,将CDM集群开机后,确认管理中心的数据连接恢复正常。 否,跳转至下一步。 2.检查该CDM集群是否同时被用于数据迁移作业和管理中心连接代理。 是,您可以错开数据迁移作业和管理中心连接代理的使用时间,或再创建CDM集群,与原有CDM集群分开使用。、 否,跳转至下一步。 3.直接重启该CDM集群,释放连接池资源。确认管理中心的数据连接恢复正常。 为什么在创建数据连接的界面上MRS Hive/HBase集群不显示? 出现该问题的可能原因有: 创建MRS集群时未选择Hive/HBase组件。 创建MRS数据连接时所选择的CDM集群和MRS集群网络不互通。 CDM集群作为网络代理,与MRS集群需网络互通才可以成功创建基于MRS的数据连接。 创建DWS数据连接,开启SSL连接时测试连接失败? 可能是由于DWS集群的三权分立功能导致的。请在DWS控制台,点击进入对应的DWS集群后,选择“安全设置”,然后关闭三权分立功能。 详见下图:关闭DWS集群三权分立功能
        来自:
      • 最佳实践汇总
        本页汇总介绍数据传输服务的最佳实践。 本文汇总了数据传输服务DTS常见应用场景的操作实践,每个实践我们提供详细的方案描述和操作指导,用于指导您快速实现数据库迁移和同步。 最佳实践一览表如下: 模块 源数据库类型 目标数据库类型 相关文档 数据迁移 其他云MySQL RDS for MySQL []( for MySQL 数据迁移 本地MySQL RDS for MySQL []( for MySQL 数据迁移 其他云PostgreSQL RDS for PostgreSQL []( for PostgreSQL 数据迁移 本地PostgreSQL RDS for PostgreSQL []( for PostgreSQL 说明 目前,DTS数据同步只支持MySQL到MySQL、PostgreSQL到PostgreSQL的同步链路。进行数据同步需订购数据同步实例,操作方面其他云MySQL/PostgreSQL到RDS for MySQL/PostgreSQL、本地MySQL/PostgreSQL到RDS for MySQL/PostgreSQL的数据同步操作流程与数据迁移类似,不再赘述。
        来自:
        帮助文档
        数据传输服务DTS
        最佳实践
        最佳实践汇总
      • 数据空间管理
        本页介绍天翼云TeleDB数据库的数据空间管理相关操作。 操作场景 您可按照百分比或分片形式对数据节点上的数据进行迁移。数据迁移需要实例集群内部至少有两个数据节点组。 操作步骤 1. 切换至TeleDB控制台 ,在左侧导航树上,单击数据空间管理 ,进入数据空间管理页面。 2. 数据迁移 1. 选择数据迁移 页签,单击创建任务 ,出现创建迁移任务对话框。 2. 在创建迁移任务对话框,输入任务名称 、源节点 、目标节点 和迁移类型。 任务名称:根据自己的需求填写,可自定义。 源节点:根据实际情况选择。 目标节点:根据自己的实际情况选择。 迁移类型:分为shard迁移和百分比迁移。 Shard迁移:按照分片迁移,需要选择分片,单次可迁移的分片最大为1000。选择分片迁移需移动分片至已选shard。 百分比迁移:按照源节点上的数据百分比进行迁移,需要输入1100的整数。 3. 单击确定完成任务迁移。 3. 空间清理 说明 当数据被删除或更新时,TeleDB将其标记为无效,但并不立即回收相关的存储空间。需要定期执行空间清理操作,以检查并释放被标记为无效的数据所占用的空间。这样可以确保数据库在长时间运行后不会因为无效数据的积累而占用过多的磁盘空间。 1. 选择空间清理 页签,单击创建任务,出现创建清理任务 对话框。 2. 选择源节点 、清理开始时间 和清理结束时间 ,单击确定。 4. 空间回收 说明 经过空间清理任务后的实例并没有立即释放空间,用户可以通过空间回收任务对实例进行重建表和索引,自动释放被空间清理回收的空间。 1. 选择空间回收 页签,单击创建任务 ,出现创建回收任务 对话框。 2. 选择回收节点、设置回收开始时间和回收结束时间,单击确定完成空间回收。 5. 数据重平衡 说明 用户可以通过数据重平衡,依据磁盘使用率,把节点组原有的数据平均分布到节点组内各个节点上。该功能会自动生成迁移任务以及空间清理任务,用户可以在任务详情或者在对应功能页面查看任务具体执行情况。 1. 选择重平衡任务页签,单击创建任务,出现创建数据重平衡任务对话框。 输入任务名称,选择节点组,单击确定,完成数据重平衡。 6. 表空间管理 说明 用户通过对表空间进行管理,以组织数据存储,在物理设备上合理分配数据。 1. 创建表空间 1. 选择表空间管理 页签,单击创建表空间 ,出现创建表空间对话框。 2. 在创建空间表对话框,填写表空间名称 ,选择归属账号 ,填写挂载目录 ,并检测目录有效性 ,单击确定完成表空间的创建。 说明 表空间名字请参照以下格式: 1.不能以pg开头。 2.只支持大小写字母、数字和下划线。 3.只能以字母开头。 2. 修改表空间 单击编辑按钮,在弹出的编辑表空间可修改表空间或查看表空间。 3. 删除表空间 单击删除 按钮,在出现的警告提示框,单击确定即可删除表空间。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.1.0版本产品文档
        管理平台使用手册
        控制台操作指南
        数据空间管理
      • 数据同步/一致性相关问题
        本节介绍态势感知(专业版)数据同步、一致性相关问题。 为什么WAF、HSS中的数据和态势感知(专业版)中的数据不一致? 由于态势感知(专业版)中汇聚了WAF、HSS上报的所有历史告警数据,而WAF和HSS中展示的是实时告警数据,导致存在态势感知(专业版)与WAF、HSS中数据不一致的情况。 因此,建议您前往对应服务(WAF或HSS)进行查看并处理。 为什么总览页面中没有显示资产总数? 问题现象: 工作空间新增完成后,在工作空间内的“资产管理”页面中同步并已显示资产信息,但是“总览”页面中的资产总数仍然显示为0。 问题原因: 工作空间创建成功,且资产等数据信息接入完成后,态势感知(专业版)将在整点进行数据同步,请耐心等待同步后再进行查看。 解决方法: 请您耐心等待,同步会系统将更新资产等相关数据信息。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        常见问题
        产品咨询
        数据同步/一致性相关问题
      • 是否可以将存储桶A的数据迁移到存储桶B
        本文介绍是否可以将存储桶A的数据迁移到存储桶B。 可以,但针对不同场景,我们建议您使用不同的迁移能力。 场景一: 如果您的桶A和桶B均存储在天翼云媒体存储,您可以通过【存储桶复制】功能进行数据复制,将桶A的数据迁移复制到桶B,具体可参考:存储桶复制。 场景二: 如果您的桶A在第三方云厂商,桶B在天翼云媒体存储,您可通过媒体存储提供的数据迁移能力进行操作,将桶A的数据迁移到桶B,具体可参考:数据迁移。 注意 目前数据迁移服务暂不收取服务费用,但因迁移数据时会产生数据的上传下载以及API请求,所以会产生对应的下行流量费用以及API请求次数费用。 具体可参考: 。
        来自:
        帮助文档
        媒体存储
        常见问题
        存储桶常见问题
        是否可以将存储桶A的数据迁移到存储桶B
      • 恢复租户数据
        本章节主要介绍翼MapReduce的恢复租户数据操作。 操作场景 租户默认在Manager和集群组件中保存相关数据,在组件故障恢复或者卸载重新安装的场景下,所有租户的部分配置数据可能状态不正常,管理员需要通过FusionInsight Manager手动恢复配置数据。 操作步骤 1. 登录FusionInsight Manager,单击“租户资源”。 2. 在左侧租户列表,单击某个租户节点。 3. 检查租户数据状态。 在“概述”,查看“租户资源状态”,绿色表示租户可用,灰色表示租户不可用。 单击“资源”,查看“Yarn”或者“HDFS存储”左侧的圆圈,绿色表示资源可用,灰色表示资源不可用。 单击“服务关联”,查看关联的服务表格的“状态”列,“良好”表示组件可正常为关联的租户提供服务,“故障”表示组件无法为租户提供服务。 任意一个检查结果不正常,需要恢复租户数据,请执行步骤4。 4. 单击,在弹出的确认窗中输入当前登录的用户密码确认身份,单击“确定”。 5. 在“恢复租户资源数据”窗口,选择一个或多个需要恢复数据的组件,单击“确定”,等待系统自动恢复租户数据。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        使用Superior调度器的租户业务
        管理租户
        恢复租户数据
      • 1
      • ...
      • 78
      • 79
      • 80
      • 81
      • 82
      • ...
      • 447
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      GPU云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      训推服务

      AI Store

      公共算力服务

      应用托管

      知识库问答

      推荐文档

      重置操作系统

      MySQL

      客户端Linux版本安装

      产品定义

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号