活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 聚力AI赋能 天翼云大模型专项 大模型特惠专区·Token Plan 轻享包低至9.9元起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V4-Flash
  • GLM-5.1
  • Qwen3.5-122B-A10B
  • DeepSeek-V3.2(旗舰版)
  • GLM-5(正式版)
  • Qwen3.5-397B-A17B(正式版)
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      数据集成工具_相关内容
      • 管理配置中心
        标准模板管理 标准模板管理用于自定义数据标准的默认选项。首次进入数据架构的数据标准页面,也会显示制定数据标准模板的页面。 1.在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据架构”模块,进入数据架构页面。 2.在数据架构控制台,单击左侧导航树中的“配置中心”,进入相应页面后再单击“标准模板管理”。 3.如下图所示,在“可选项”中勾选所需要的选项,单击“新建”按钮可以添加自定义项,完成后单击“确定”。 说明 标准模板支持“是否可搜索”、“是否必填”。 保存模板后,在新建数据标准时需要设置此处模板中选中选项的参数值。 功能配置 功能配置用于自定义数据架构中的各项功能。 1.在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据架构”模块,进入数据架构页面。 2.在数据架构控制台,单击左侧导航树中的“配置中心”,进入相应页面后再单击“功能配置”。 3.在功能配置页面,可根据用户具体的功能需求配置参数,然后单击“确定”。如果单击“重置”可恢复默认设置。 −模型设计业务流程步骤 :此处勾选的流程,在关系建模或维度建模的对象发布上线时,系统会依次自动执行。一般建议全部勾选。 创建表 :当数据架构中的表发布并通过审核后,系统将自动在对应的数据源中创建相应的物理表。在表删除时,系统也会自动删除物理表。 同步技术资产 :关系建模或维度建模中的表发布后,同步表到数据目录模块作为技术资产,同时同步标签到对应技术资产。 同步业务资产 :同步逻辑模型到数据目录,作为业务资产,同时同步标签到对应业务资产。 资产关联 :实现业务资产与技术资产的关联。业务资产与技术资产同步完成后,在数据目录模块中查看对应的业务资产或技术资产详情时,可以看到相关联的技术资产或业务资产。该功能要求表信息中含有数据源信息。 创建质量作业 :当关系建模或维度建模中的表发布并通过审核后,对于关联数据标准(包含数据长度或允许值)或关联质量规则的表,系统将自动在DataArts Studio数据质量模块中创建一个质量作业。 创建数据开发作业 :汇总表发布后,自动生成端到端的全流程数据开发作业。 发布数据服务API :汇总表发布后,自动生成数据服务API,此功能仅当数据服务支持汇总表的数据连接时生效。 数据落库 :码表维度发布后,会自动将码表的数值填入维度表中。 说明 若开启“同步技术资产”功能,您必须预先在DataArts Studio数据目录模块中对表所属的数据库创建数据目录采集任务并采集成功,否则同步技术资产将会执行失败。 −模型下线流程 :选择当模型下线时,是否同步删除技术资产、业务资产、质量作业、数据开发作业。 −数据表更新方式 :当数据架构中的表在发布后进行了修改,是否同时更新数据库中的表。默认为“不更新”,但在配置中心可以依据自己的需求设置更新动作。依据DDL模板, 在模板里面配置对应的更新语句即可。 不更新 :不更新数据库中的表。 依据DDL 更新模板 :依据DDL模板管理中配置的DDL更新模板,更新数据库中的表,但能否更新成功是由底层数仓引擎的支持情况决定的。由于不同类型的数仓支持的更新表的能力不同,在数据架构中所做的表更新操作,如果数仓不支持,则无法确保数据库中的表和数据架构中的表是一致的。例如,DLI类型的表更新操作不支持删除表字段,如果在数据架构的表中删除了表字段,则无法在数据库中相应的删除表字段。如果线下数据库支持更新表结构语法,可以在DDL模板配置对应语法, 之后更新操作就可以通过DataArts Studio管控;如果线下数据库不支持更新, 那只有通过重建这种方式更新。 重建数据表 :先删除数据库中已有的表,再重新创建表。选择该选项可以确保数据库中的表和数据架构中的表是一致的,但是由于会先删除表,因此一般建议只在开发设计阶段或测试阶段使用该选项,产品上线后不推荐使用该选项。 −数据表不区分大小写 :对于选中的连接类型,在发布相应类型的表时,同步技术资产时名称将不区分大小写,找到相同的即认为已存在。 −业务表映射使用新版本 :系统默认为新版本映射。新版本映射功能支持join等操作,推荐使用新版本映射。 −汇总表自动汇聚 :发布衍生指标或复合指标时,系统支持自动生成汇总表,一个统计维度对应一个汇总表。自动生成的汇总表可在汇总表页面下选择“自动汇聚”页签查看。 −数据标准是否重名 :默认关闭,打开后数据标准可以重名。 −时间限定生成使用动态表达式 :开关打开后,则使用动态时间表达式;如开关关闭,则默认使用原有的静态时间表达式。例如时间限定设置为最近30天:如果使用静态表达式,如果当前为9月,生成的最近30天的数据就是8月,即使当前到了10月,生成的数据还是8月,不能自动更新;如果使用动态表达式,当前到了10月,最近30天自动更新为9月。动态表达式时间函数举例如下所示: 说明 如果第一次打开开关,需重置DLL模板中的衍生指标。如之前有修改过DLL模板,请先做好模板备份。重置模板会将原来修改过的模板覆盖,重置后需要将原来修改的内容重新编辑一次。 −信息架构页面表查询时,主题支持并列查询个数 :默认为1个,暂不支持设置。 −码表数据落库并行行数 :码表维度发布后,设置将码表的数值填入维度表中时的并行操作行数。当码表数值较多时,会导致落库失败,可以适当调小该参数。 −码表生成质量规则 :下拉选择即可。当码表的数据量较小时,选择“枚举值校验”即可;否则选择字段一致性校验。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        准备工作
        管理配置中心
      • AI云电脑投屏
        电脑端投屏 天翼AI云电脑电脑客户端作为投屏端,可以通过输入投屏码方式进行投屏操作。 操作步骤: 1.登录天翼AI云电脑客户端,在AI云电脑列表选择进入投屏的AI云电脑; 2.进入AI云电脑后,在顶部工具栏,点击“控制中心”“偏好设置””工具栏设置“,开启“翼投屏”功能(首次使用可选择显示入口或显示入口+投屏码); 3.开启后,在顶部工具栏,点击“控制中心”,可查看到翼投屏功能; 4.点“翼投屏”,弹出投屏界面,输入投屏码进行投屏; 5.输入后等待投屏显示即可,连接成功后投屏接收端会显示如下界面。
        来自:
        帮助文档
        天翼云电脑(政企版)
        特色功能
        AI云电脑投屏
      • 为应用挂载数据卷
        本文介绍如何为应用挂载数据卷。 Docker镜像是由多个文件系统叠加而成,当启动一个容器的时候,Docker会加载只读镜像层并在上面添加一个读写层。当删除Docker容器并通过该镜像重新启动时,之前的更改将会丢失。为了能够保存数据以及共享容器间的数据,Docker提出了数据卷的概念。简单来说,数据卷就是目录或者文件,它可以绕过默认的联合文件系统,以正常的文件或者目录的形式存在于主机上。 在Docker中,数据卷只是磁盘或另一容器中的目录。其生命周期不受管理,且Docker现在提供的卷驱动程序功能非常有限。容器引擎CCE采用的是Kubernetes的数据卷的概念,Kubernetes数据卷具有完善的生命周期管理,支持多种类型的数据卷,同时实例可以使用任意数量的数据卷。 云容器引擎支持四类本地磁盘挂载类型:支持hostPath、emptyDir、configMap、secret。各类型说明如下: hostPath:指定主机中的文件或目录挂载到容器的某一路径中; EmptyDir:用于临时存储,生命周期与容器实例相同。容器实例消亡时,EmptyDir会被删除, 数据会永久丢失; ConfigMap:将配置文件中的key映射到容器中,可以用于挂载配置文件到指定容器目录; Secret:将密钥中的数据挂载到指定的容器路径。 操作步骤 1.在创建应用或升级应用流程中,进去容器设置步骤,点击【数据存储】,点击【添加本地磁盘】,进入本地磁盘添加页面; 1)卷类型选择hostPath,表示在容器上挂载宿主机上的文件或目录。通常用于“容器应用程序生成的日志文件需要永久保存”或者“需要访问宿主机上Docker引擎内部数据结构的容器应用”,具体参数说明如下所示: 参数 参数说明 存储类型 选择主机路径 主机路径 输入主机路径,如/tmp 挂载路径 数据卷挂载到容器上的路径 注意: 请不要挂载在系统目录下,如“/”、“/var/run”等,会导致容器异常。建议挂载在空目录下,若目录不为空,请确保目录下无影响容器启动的文件,否则文件会被替换,导致容器启动异常,应用创建失败 子路径 相对路径 权限 只读:只能读容器路径中的数据卷; 读写:可修改容器路径中的数据卷,容器迁移时新写入的数据不会随之迁移,会造成数据丢失; 2)卷类型选择emptyDir:容器分配到节点时系统将自动创建卷,初始内容为空。在同一个Pod中所有容器可以读写emptyDir中的相同文件。当Pod从节点上移除时,empryDir中的数据也会永久删除。通常用于临时数据的高速存储,具体参数说明如下所示: 参数 参数说明 存储类型 选择临时路径 磁盘介质 不勾选:存储在硬盘上,适用于数据量大,读写效率要求低的场景 勾选:存储在内存中,适用于数据量少,读写效率要求高的场景 挂载路径 数据卷挂载到容器上的路径。 注意: 请不要挂载在系统目录下,如“/”、“/var/run”等,会导致容器异常。建议挂载在空目录下,若目录不为空,请确保目录下无影响容器启动的文件,否则文件会被替换,导致容器启动异常,应用创建失败 权限 只读:只能读容器路径中的数据卷 可写:可修改容器路径中的数据卷,容器迁移时新写入的数据不会随之迁移,会造成数据丢失 3)卷类型选择configMap:平台提供应用代码和配置文件的分离,configMap用于处理应用配置参数。用户需要提前创建应用配置,操作步骤请参见创建配置项,临时数据的高速存储,具体参数说明如下所示: 参数 参数说明 存储类型 选择配置项 配置项 选择已经建立好的配置项 说明: configMap需要提前创建 挂载路径 数据卷挂载到容器上的路径 权限 只读:只能读容器路径中的数据卷 4)卷类型选择secret:用户需要提前创建私密凭据,操作步骤请参见创建私密凭据,临时数据的高速存储,具体参数说明如下所示: 参数 参数说明 存储类型 选择私密凭据 卷类型 选择已经创建好的私密凭据 说明: secret需要提前创建,请参见 创建私密凭据 挂载路径 数据卷挂载到容器上的路径 权限 只读:只能读容器路径中的数据卷 2.点击【添加容器挂载】,可新增挂载项,点击【删除】可删除之前的容器挂载配置; 3.点击【确定】,完成本地磁盘的添加。
        来自:
        帮助文档
        云容器引擎(旧版)
        用户指南
        应用资源
        应用创建配置
        为应用挂载数据卷
      • TeleDB数据管理服务
        本文为您介绍组成TeleDB管控数据管理服务的元数据管理、查询窗口、数据导入导出、慢查询分析、容量评估、会话管理和锁分析功能等模块。 TeleDB管控数据管理服务由元数据管理、查询窗口、数据导入导出、慢查询分析、容量评估、会话管理和锁分析功能等模块组成。它旨在为企业提供一套全面的数据管理解决方案,包括数据的存储、访问、分析和安全等核心环节。通过TeleDB管控数据管理模块,企业可以实现对数据的集中式管理和存储,从而简化了数据的访问和检索过程。 元数据管理模块 :提供对实例、数据库、模式、表和可编程对象等各级数据库对象的元数据管理,在数据库的创建、编辑、删除等常规操作需提供界面化操作支持,可以实时同步数据库的元数据信息。 查询窗口模块 :数据库开发者常用功能,提供功能丰富的SQL输入框,包括语法提示、脚本保存以及结果集的返回,支持对结果集进行界面可视化编辑进行数据更新。 数据导入导出模块 :支持多种文件格式的数据导入到数据库,以及从数据库中导出数据。支持的文件格式为:sql、txt和csv。支持不同层级的数据导入导出,分别支持库/模式以及表级的数据导出。同时,也支持不同层级数据库对象的结构导出。 慢查询分析 :慢查询统计、索引推荐主要和管控实例交互获取,慢查询分析、语句优化主要和业务实例交互获取,性能容量评估操作建议可联动慢查询分析,进行服务调用,实例元数据为服务入口,Agent代理主要用作网络跨区服务,ZooKeeper主要负责服务注册及发现的功能。 性能容量评估 :性能容量评估的监控指标数据主要和管控实例交互获取,实例元数据为服务入口,Agent代理主要用作网络跨区服务,ZooKeeper主要负责服务注册及发现的功能。 会话管理 :会话管理通过业务实例获取全局会话和异常会话的信息,并提供部分会话、全部会话的终止功能,实例元数据为服务入口,Agent代理主要用作网络跨区服务,ZooKeeper主要负责服务注册及发现的功能。 锁分析: 锁分析通过管控实例获取到业务实例最近一次发生死锁的信息,获取到死锁的事务环信息和回滚的事务信息并展示说明,实例元数据为服务入口,Agent代理主要用作网络跨区服务,ZooKeeper主要负责服务注册及发现的功能。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        方案简介
        TeleDB数据管理服务
      • 计费说明
        本文介绍数据管理服务的费用相关信息。 数据管理服务DMS分基础版和企业版,目前为了让更多的用户体验到我们的服务,我们提供限时免费使用企业版,需要用户订购DMS服务,订购服务有多种方式: 通过天翼云官网首页搜索数据管理服务DMS,点击立即开通进行订购;若此前已订购,则会自动跳转数据管理服务DMS控制台。 若未订购数据管理服务DMS,打开DMS管理控制台,也将自动跳转订购页面。请根据指引完成订购。 您可以充分利用这一机会,免费尝试数据管理服务的各种功能,包括但不限于查询窗口、数据源管理、数据导入、数据导出、SQL变更审批、自定义审批流、数据权限管控、团队管理等。 此外,我们的数据管理服务还提供了用户友好的界面,让您可以轻松地进行数据库管理。 在试用期间,您还可以体验到我们专业的技术支持和客户服务,以确保您在使用过程中得到及时的帮助。 注意 我们鼓励您在试用期间充分了解和评估我们的数据管理服务,限时免费结束后,我们将根据实际情况调整价格策略。在启用付费功能后,我们将提前通过站内信、短信、电子邮件或其他方式发送计费说明给已使用付费功能的用户。
        来自:
        帮助文档
        数据管理服务
        计费说明
        计费说明
      • 提交导入任务
        本页介绍天翼云TeleDB数据库提交导入任务相关操作。 1、在左侧导航栏,单击开发空间 > 数据导入,进入数据导入管理页面。 2、单击数据导入按钮,弹出数据导入工单填写弹窗,工单需要选择或输入的内容说明见下表。 3、填写完数据导入工单后,单击提交按钮,即完成工单的提交,进入数据导入后台执行阶段。 4、数据导入任务的工单状态,可在导入列表页面查看,如果导入失败,可单击详情查看原因。更多详细操作请查看导入工单列表章节。 输入内容 说明 目标数据库(必填) 数据库/模式选择列表,数据来源于 数据资产元数据管理 中添加的数据库实例,支持MySQL、PostgreSQL和TeleDB,其中MySQL可选择到库级别,PostgreSQL、TeleDB可选择到模式级别。当前仅支持单选一个目标库/模式。注意:如果未登录目标库/模式对应的实例,则选中目标库/模式后会弹出该实例的登录窗口。 文件类型(必填) 选择导入数据的上传文件类型:· SQL:目前支持INSERT,UPDATE,REPLACE语句。选择该文件类型则无法指定“目标表”和“写入方式”。· CSV:CSV文件中的分隔符为英文逗号,且文件第一行为表的列名称。· TXT:TXT文件格式与CSV类似,文件中的分隔符为英文逗号,且文件第一行为表的列名称。 目标表(必填) 在选择目标数据库下,筛选导入的目标表。仅支持CSV和TXT格式导入。 写入方式(必填) 选择导入文件的写入方式:· INSERT INTO:插入数据,数据库会检查主键(PrimaryKey),如果出现重复会报错。· INSERT IGNORE INTO:插入数据,数据库会检查主键(PrimaryKey),如果表中已经存在相同的记录,则忽略当前新数据。· REPLACE INTO:插入替换数据,数据库会检查主键(PrimaryKey),如果数据库已经存在数据,则用新数据替换,如果没有数据效果则和INSERT INTO一样。注意:· 为保证导入文件时数据库的性能,请尽可能选择INSERT操作。· 目前MySQL数据库类型支持INSERT INTO,INSERT IGNORE INTO,REPLACE INTO这3种导入方式,PostgreSQL、TeleDB数据库类型支持INSERT INTO的导入方式。 附件上传(必填) 单击上传文件,上传选中文件类型对应的文件。注意:· 目前支持SQL,CSV,TXT三种文件格式,上传前请检查文件名后缀是否符合要求。· 目前仅支持上传单个文件。· 上传文件大小最大限制为1GB,请控制好文件数据大小。 工单说明(选填) 描述工单备注内容。该内容将展示在工单详情弹窗页。
        来自:
      • 提交导入任务
        本页介绍天翼云TeleDB数据库提交导入任务相关操作。 1、在左侧导航栏,单击开发空间 > 数据导入,进入数据导入管理页面。 2、单击数据导入按钮,弹出数据导入工单填写弹窗,工单需要选择或输入的内容说明见下表。 3、填写完数据导入工单后,单击提交按钮,即完成工单的提交,进入数据导入后台执行阶段。 4、数据导入任务的工单状态,可在导入列表页面查看,如果导入失败,可单击详情查看原因。更多详细操作请查看导入工单列表章节。 输入内容 说明 目标数据库(必填) 数据库/模式选择列表,数据来源于 数据资产元数据管理 中添加的数据库实例,支持MySQL、PostgreSQL和TeleDB,其中MySQL可选择到库级别,PostgreSQL、TeleDB可选择到模式级别。当前仅支持单选一个目标库/模式。注意:如果未登录目标库/模式对应的实例,则选中目标库/模式后会弹出该实例的登录窗口。 文件类型(必填) 选择导入数据的上传文件类型:· SQL:目前支持INSERT,UPDATE,REPLACE语句。选择该文件类型则无法指定“目标表”和“写入方式”。· CSV:CSV文件中的分隔符为英文逗号,且文件第一行为表的列名称。· TXT:TXT文件格式与CSV类似,文件中的分隔符为英文逗号,且文件第一行为表的列名称。 目标表(必填) 在选择目标数据库下,筛选导入的目标表。仅支持CSV和TXT格式导入。 写入方式(必填) 选择导入文件的写入方式:· INSERT INTO:插入数据,数据库会检查主键(PrimaryKey),如果出现重复会报错。· INSERT IGNORE INTO:插入数据,数据库会检查主键(PrimaryKey),如果表中已经存在相同的记录,则忽略当前新数据。· REPLACE INTO:插入替换数据,数据库会检查主键(PrimaryKey),如果数据库已经存在数据,则用新数据替换,如果没有数据效果则和INSERT INTO一样。注意:· 为保证导入文件时数据库的性能,请尽可能选择INSERT操作。· 目前MySQL数据库类型支持INSERT INTO,INSERT IGNORE INTO,REPLACE INTO这3种导入方式,PostgreSQL、TeleDB数据库类型支持INSERT INTO的导入方式。 附件上传(必填) 单击上传文件,上传选中文件类型对应的文件。注意:· 目前支持SQL,CSV,TXT三种文件格式,上传前请检查文件名后缀是否符合要求。· 目前仅支持上传单个文件。· 上传文件大小最大限制为1GB,请控制好文件数据大小。 工单说明(选填) 描述工单备注内容。该内容将展示在工单详情弹窗页。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据管理服务操作指南
        数据导入
        提交导入任务
      • 修改数据复制方式
        关系数据库MySQL版支持切换主备实例的数据复制方式,以满足不同的业务需求。本文介绍如何修改关系数据库MySQL版实例的数据复制方式。 注意 仅II类型资源池支持该功能,具体支持情况以控制台页面展示为准。更多资源池信息,请参见功能概览。 背景信息 数据复制方式说明 您可以根据实际情况,切换主备实例的数据复制方式,支持切换为异步 或半同步,具体说明如下: 异步 应用更新数据时,主库执行完操作后立即向应用返回响应,然后就向备实例异步复制数据,这种数据复制方式通常具有较高的性能。 因此,在异步数据复制方式下,备实例不可用时不会影响主实例上的操作。而主实例异常不可用时可能会影响主备数据复制、导致主备实例数据不一致,极端情况下,可能会有数据丢失风险,请谨慎选择。 半同步 应用更新数据时,主库需要等待备库收到日志才向应用返回响应,这种方式提高了数据可靠性但对性能有一定影响: 可用性类型 是否退化 描述 可靠性 不退化(默认) 如果实例主库与其他所有备库通信故障,为保证数据一致性和完整性,主库将被设置为只读且不进行退化(一主一备实例默认设置可用性优先会退化),直至任一备节点恢复后可对外提供写服务。 可用性 退化(默认) 如果实例主库与其他所有备库通信故障,可能会导致退化(一主两备实例默认设置可靠性优先不退化),退化表现为主库等待备库响应数秒钟,在此期间会阻塞主库对业务写操作的响应,退化后,主库恢复正常、主库可正常写入数据。退化后的实例可能会有数据丢失风险,主备之间通信恢复正常后,实例重新转化为半同步状态。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        实例管理
        修改数据复制方式
      • 提交版本并解锁
        版本详情查看 用户可以在版本列表中看到已经提交过的版本信息。 操作如下: 1. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2. 在数据开发主界面的左侧导航栏,选择“数据开发 > 作业开发”。 3. 在作业目录中,双击作业名称,进入作业开发页面。 4. 在页面右侧单击“版本”,查看版本提交记录,找到需要查看详情的版本单击“查看”即可。 点击查看,将会打开一个新窗口,展示出该版本的作业定义。查看窗口仅用于展示某个版本的作业属性,不可修改任何作业属性。 详见下图:版本详情查看 版本对比 1. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2. 在数据开发主界面的左侧导航栏,选择“数据开发 > 作业开发”。 3. 在作业目录中,双击作业名称,进入作业开发页面。 4. 在页面右侧单击“版本”,查看版本提交记录,勾选需要对比的版本单击“版本对比”即可。 若只勾选一个版本,则比较选中的版本和开发态的作业属性Json。若勾选两个版本,则比较两个版本的作业属性Json。 详见下图:对比版本操作界面
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        作业开发
        提交版本并解锁
      • 模式列表
        数据权限管理 点击列表操作栏的 数据权限管理 按钮,进入数据权限管理页面,对数据权限进行管理 当前用户需要具有访问数据权限管理的权限,详见数据权限管理 删除模式 点击模式列表操作菜单的 删除 按钮,二次确认无误后,即可完成对目标模式的删除。
        来自:
        帮助文档
        数据管理服务
        用户指南
        数据资产
        实例管理
        模式列表
      • 查看灾备数据
        本节主要介绍查看灾备数据 灾备数据记录了灾备任务完成的记录,您可以通过该功能,了解灾备的完整性。 数据复制服务支持通过管理控制台查看灾备数据的初始化进度及数据健康报告。 前提条件 已登录数据复制服务管理控制台。 已成功创建数据灾备任务。 操作步骤 说明 任务列表中,仅展示当前登录用户所创建的全部任务,同一租户下的不同用户之间的任务不可见。 步骤 1 在“实时灾备管理”页面,选择指定的灾备任务,单击任务名称。 步骤 2 页面跳转至“基本信息”页签,单击“灾备数据”页签。 初始化进度 仅展示了初次创建灾备环境时,历史数据导入的进度信息,帮助用户了解灾备环境创建进度,完成历史数据导入后,意味着初始化已完成,该模块数据将不再更新。 数据健康报告 支持用户修改对比策略,周期性展示主实例与备实例的数据一致性对比结果,用于帮助用户审视灾备环境的数据健康情况。 只有灾备中的任务才会进行健康对比。 仅保留最近30次健康对比报告。 数据健康报告是为了用户定期且长期掌握主实例与备实例的数据一致性,为避免长期对比对主实例的性能损耗,对于特大表(比如超亿行的表)的对比,建议使用对比灾备项。 修改对比策略 修改对比策略不会影响当前进行的健康对比任务,修改后的设置在下次生效。 1、在“数据健康报告”页签的“健康对比策略”区域,单击“修改对比策略”,进入修改对比策略界面。 2、在“修改对比策略”界面设置各个参数。 开启状态:关闭健康对比策略后,下一次的健康对比将不会再进行,历史健康报告仍可正常查看。 对比频率:提供“每周对比”和“每天对比”两种对比频率。 对比时间:对比频率选择“每周对比”时,可设置周一到周日的一天或多天为对比时间。 时区:默认为本地时区。 生效时间:设置对比策略生效的时间段,建议设置在业务低峰期进行对比。生效时间内未完成健康对比会自动中断,已完成的对比结果仍可查看。 对比类型:默认为行对比+用户对比+对象对比。 3、单击“确定”,完成修改对比策略。 修改成功后,将在生效时间启动对比任务,您可以取消进行中的任务,取消后,已经对比成功的健康报告仍可查看。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时灾备
        任务生命周期
        查看灾备数据
      • 迁移本地盘云主机数据
        本文向您介绍本地盘云主机数据迁移的相关信息。 操作场景 本地盘云主机,同时具有本地盘和云盘两种数据存储的方式,当用户出现以下应用场景时,需要考虑自行迁移本地盘云主机数据: 需要切换数据到另一台主机。 需要扩大本地盘容量,但由于当前不支持本地盘的变配操作,故需要用户自行迁移数据至更大规格的本地盘中。 操作步骤 1. 创建云硬盘。 用户需要前往云硬盘产品控制台界面,根据迁移的数据量大小,购买合适大小的云硬盘。 2. 挂载云硬盘。 将新创建购买的云硬盘,挂载到当前需要进行数据迁移的本地盘云主机上,可在云硬盘控制台列表通过“挂载”操作执行。 3. 自行备份本地盘数据。 用户需要登陆到本地盘云主机,自行操作,将本地盘数据迁移至新挂载的云硬盘上。 至此用户已完成数据的迁移,用户继续将包含迁移数据的云硬盘挂载到其它主机上,以完成数据在不同主机间的迁移,步骤如下: 4. 创建云主机。 用户需要前往云主机产品控制台界面,根据迁移的数据量大小,购买合适大小的本地盘云主机。 5. 挂载云硬盘。 将云硬盘,挂载到新创建的云主机上,可通过控制台的"挂载"操作进行。 6. 迁移云盘数据。 将已挂载的云硬盘数据迁移到当前新创建的本地盘云主机中,进行存储。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        迁移
        迁移本地盘云主机数据
      • 连接诊断
        本页介绍数据传输服务DTS的数据同步实例在实例配置阶段如何进行源库和目标库的连接诊断。 功能介绍 在进行DTS同步操作之前,可使用测试连接功能判断DTS工作节点和源库、目标库的连通性,来确认是否使用了符合要求的网络环境和是否可执行正常的同步任务。 操作指引 数据同步实例的源库、目标库连接诊断操作步骤和方法与数据迁移实例源库、目标库连接诊断类似,依次进入数据传输服务DTS产品控制台 【数据同步】实例列表页面 点击“实例配置”进入配置页面 ,在配置源库及目标库信息步骤进行数据同步源库和目标库的连通性测试,具体操作可参照数据传输服务DTS 用户指南 数据迁移 连接诊断的操作。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        连接诊断
      • 数据取回费用
        计费项 含义 计费模式 低频存储数据取回流量费用 下载低频存储类型的数据时,会根据对象大小收取额外的数据取回流量费用。 按需计费 包年包月 归档存储数据取回流量费用 解冻归档存储类型的数据时,会根据对象大小收取额外的数据取回流量费用。 解冻后下载归档类型的文件不会产生数据取回流量费用,但会产生归档流出流量费用。 按需计费 包年包月 归档存储直读取回流量费用 开启归档直读后,下载归档存储类型的数据时,会根据对象大小收取额外的归档直读取回流量费用。 按需计费
        来自:
        帮助文档
        对象存储 ZOS
        计费说明
        计费项
        数据取回费用
      • 数据集管理
        本节介绍数据集管理常见问题及其解决办法。 是否支持纳管私有数据集? 支持。可在控制台上传本地数据集和下载社区数据集。
        来自:
        帮助文档
        智算套件
        常见问题
        数据集管理
      • 端云协同客户端快速入门(1)
        数据导入 1. 个人模式实例 数据导入,详情可查看免登录场景 > 数据导入 ;智护模式实例 点击左侧图标,或顶部菜单栏任务列表 ,选择智护实例工单 ,可看到所有历史导入工单。 2. 新建工单 > 数据导入,输入相关信息,具体参数说明如下: 参数 说明 目标数据库 下拉列表选择需要导入的数据库,支持输入库名/模式名/实例名/实例地址进行模糊搜索 导入文件类型 当前支持四种文件类型:CSV /SQL / TXT /EXCEL 附件上传 上传需要导入的文件,当前支持.csv/.sql/.txt/.xlsx/.xls/.zip 格式,限5GB以内 文件编码 当前支持用户手动选择两种文件编码:UTF8 / GBK ,或是选择自动识别 导入行为 当前支持导入现有表或导入新建表。现有表不存在时,选择新建表,会根据上传文件的表字段,弹窗 支持自定义创建表 目标表 导入行为选择现有表时,下拉选择需要导入的目标表 写入方式 当前支持三种写入方式:INSERT INTO /INSERT IGNORE INTO 数据位置 用户选择,支持导入的文件首行 是列名 或者是数据 工单说明 备注数据导入工单情况 3. 点击确认后创建数据导入工单,用户可在任务列表 > 智护实例工单 查看数据导入工单执行状态和详细信息。
        来自:
      • 将PostgreSQL迁移到MySQL
        结构、全量过程中 请勿修改源库和目标库的端口号,请勿修改、删除源库和目标库连接用户的密码、权限,否则可能导致任务失败。 请勿在源库执行任何DDL,否则可能导致数据不一致或任务失败。 请勿在目标库做写入操作,否则可能导致数据不一致。 增量过程中 请勿修改源库和目标库的端口号,请勿修改、删除源库和目标库连接用户的密码、权限,否则可能导致任务失败。 请勿修改源数据库表的主键或者唯一键(主键不存在时),否则可能导致增量数据不一致或任务失败。 请勿修改源数据库中表的replica identity属性,否则可能导致增量数据不一致或任务失败。 请勿在目标库做写入操作,否则可能导致数据不一致。 库级同步时,源库新增无主键表时,请务必同时将该无主键表的replica identity属性设置为full,然后再写入数据,否则可能导致数据不一致或任务失败。 库级同步时,源库新增主键表时,如果主键列toast属性为main、external、extended时,请务必同时将该表的replica identity属性设置为full,然后再写入数据,否则可能导致数据不一致或任务失败。 若选择同步DDL,须注意源库执行DDL时,确保在目标库上是兼容的。 操作步骤 1、购买DTS实例。 在管理控制台点击“创建实例”进入订购页面,“实例类型”选择“数据迁移”,”源数据库”选择Postgresql,“目标数据库”选择MySQL,完成其他信息的填写并完成购买。 2、进入实例配置页面。 DTS实例购买成功后,进入【数据迁移】实例列表页面,上一步骤购买成功的实例在实例列表中显示状态为“待配置”,进入实例配置页面的操作。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        入云
        将PostgreSQL迁移到MySQL
      • 敏感数据发现
        本章节为您介绍敏感数据发现的相关操作。 敏感数据发现功能内置多种发现规则,支持基于数据内容的识别,不仅依赖于用户的元数据管理系统、字段名或字段注释等信息。支持用户基于自身需求自定义规则,实现对敏感数据的自动发现和标识。 同时敏感数据发现功能可同数据分级分类功能进行对接,可基于行业或法律法规对敏感数据进行分类分级与梳理,便于用户按照不同级别进行脱敏算法的配置,有效避免数据的过度保护。 结构化发现 创建规则 1.使用系统管理员登录数据脱敏实例。 2.在左侧导航栏选择“敏感数据发现 > 结构化发现 ”,进入“结构化发现”页面。 3.单击页面右上角的“新增”按钮,跳转至“创建发现任务”页面,填写相关参数。 参数 参数说明 填写样例 任务名称 结构化任务的名称,系统会为您自动生成,您也可以自定义该任务名称。 Test 输入源 选择结构化发现任务的输入源IP,如果新增输入源可参考:数据资产管理章节。 192.168.0.1 脱敏模板 选择该任务需要使用的脱敏模板,如何新增脱敏模板可参考:脱敏模板章节。 默认模板 发现方式 根据该任务的需求选择以下两种发现方式: 全量发现:同步输入源中的所有数据。 增量发现:基于输入源中已存在数据脱敏实例中的数据,进行增量。 全量发现 输入数据 数据输入方式支持以下三种: 手动选择 全部选择 文件导入 手动选择 采样行数 从原始数据集中抽取一定数量的样本行,系统默认为:1000行,您可以根据自身业务需求填写。 1000 命中阈值 指在规则触发过程中的临界标准,默认值为:80,妮妮可以根据自身业务需求填写。 80 4.填写完成后,可选择“保存”或者“保存并运行”。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据脱敏操作指导
        敏感数据发现
      • 管理中心
        本章节主要介绍管理中心常见问题。 创建数据连接需要注意哪些事项? 创建DWS/MRS Hive/RDS/SparkSQL类型的数据连接时,需要绑定由CDM集群提供的代理服务。 目前不支持低于1.8.6版本的CDM集群。 为什么DWS/Hive/HBase数据连接突然无法获取数据库或表的信息? 可能是由于CDM集群被关闭或者并发冲突导致,您可以通过切换agent代理来临时规避此问题。 建议您通过以下措施解决此问题: 1.检查CDM集群是否被关机。 是,将CDM集群开机后,确认管理中心的数据连接恢复正常。 否,跳转至下一步。 2.检查该CDM集群是否同时被用于数据迁移作业和管理中心连接代理。 是,您可以错开数据迁移作业和管理中心连接代理的使用时间,或再创建CDM集群,与原有CDM集群分开使用。、 否,跳转至下一步。 3.直接重启该CDM集群,释放连接池资源。确认管理中心的数据连接恢复正常。 为什么在创建数据连接的界面上MRS Hive/HBase集群不显示? 出现该问题的可能原因有: 创建MRS集群时未选择Hive/HBase组件。 创建MRS数据连接时所选择的CDM集群和MRS集群网络不互通。 CDM集群作为网络代理,与MRS集群需网络互通才可以成功创建基于MRS的数据连接。 创建DWS数据连接,开启SSL连接时测试连接失败? 可能是由于DWS集群的三权分立功能导致的。请在DWS控制台,点击进入对应的DWS集群后,选择“安全设置”,然后关闭三权分立功能。 详见下图:关闭DWS集群三权分立功能
        来自:
      • 数据安全中心是否会保存您的数据和文件?
        数据安全中心(DSC)不会保存您的数据和文件,在您授权访问数据源后,DSC会对数据进行识别、脱敏、或添加水印等操作。 数据安全中心(DSC)不会保存您的数据和文件,在您授权访问数据源后,DSC会对数据进行识别、脱敏、或添加水印等操作。 数据识别的结果将展示在DSC的控制台,如何查看敏感数据识别结果,请参见敏感数据识别结果。
        来自:
        帮助文档
        数据安全中心
        常见问题
        产品咨询类
        数据安全中心是否会保存您的数据和文件?
      • 配置OpenTSDB目的端参数
        参数名 说明 取值样例 指标 可选参数,输入指标名称,或选择OpenTSDB中已存在的指标。 city.temp 时间 可选参数,记录数据的时间点,格式为yyyyMMddHHmmdd的字符串或时间戳。 1598870800 标记 可选参数,可在这里自定义数据的标签。 tagk:tagv, tagk2:tagv2
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        配置作业目的端参数
        配置OpenTSDB目的端参数
      • 迁移文件时加解密
        本章节主要介绍迁移文件时加解密。 在迁移文件到文件系统时,CDM支持对文件加解密,目前支持以下加密方式: AES256GCM加密 KMS加密 AES256GCM加密 目前只支持AES256GCM(NoPadding)。该加密算法在目的端为加密,在源端为解密,支持的源端与目的端数据源如下。 源端支持的数据源:OBS、FTP、SFTP、HDFS(使用二进制格式传输时支持)、HTTP(适用于OBS共享文件的下载场景)。 目的端支持的数据源:OBS、FTP、SFTP、HDFS(使用二进制格式传输时支持)。 下面分别以OBS导出加密文件时解密、导入文件到OBS时加密为例,介绍AES256GCM加解密的使用方法。其它数据源的使用方法一样。 源端配置解密 创建从OBS导出文件的CDM作业时,源端数据源选择OBS后,在“源端作业配置”的“高级属性”中,配置如下参数。 a.加密方式:选择“AES256GCM”。 b.数据加密密钥:这里的密钥必须与加密时配置的密钥一致,否则解密出来的数据会错误,且系统不会提示异常。 c.初始化向量:这里的初始化向量必须与加密时配置的初始化向量一致,否则解密出来的数据会错误,且系统不会提示异常。 这样CDM从OBS导出加密过的文件时,写入目的端的文件便是解密后的明文文件。 目的端配置加密 创建CDM导入文件到OBS的作业时,目的端数据源选择OBS后,在“目的端作业配置”的“高级属性”中,配置如下参数。 a.加密方式:选择“AES256GCM”。 b.数据加密密钥:用户自定义密钥,密钥由长度64的十六进制数组成,不区分大小写但必须64位,例如“DD0AE00DFECD78BF051BCFDA25BD4E320DB0A7AC75A1F3FC3D3C56A457DCDC1B”。 c.初始化向量:用户自定义初始化向量,初始化向量由长度32的十六进制数组成,不区分大小写但必须32位,例如“5C91687BA886EDCD12ACBC3FF19A3C3F”。 这样在CDM导入文件到OBS时,目的端OBS上的文件便是经过AES256GCM算法加密后的文件。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        进阶实践
        迁移文件时加解密
      • 数据空间管理
        本页介绍天翼云TeleDB数据库的数据空间管理相关操作。 操作场景 您可按照百分比或分片形式对数据节点上的数据进行迁移。数据迁移需要实例集群内部至少有两个数据节点组。 操作步骤 1. 切换至TeleDB控制台 ,在左侧导航树上,单击数据空间管理 ,进入数据空间管理页面。 2. 数据迁移 1. 选择数据迁移 页签,单击创建任务 ,出现创建迁移任务对话框。 2. 在创建迁移任务对话框,输入任务名称 、源节点 、目标节点 和迁移类型。 任务名称:根据自己的需求填写,可自定义。 源节点:根据实际情况选择。 目标节点:根据自己的实际情况选择。 迁移类型:分为shard迁移和百分比迁移。 Shard迁移:按照分片迁移,需要选择分片,单次可迁移的分片最大为1000。选择分片迁移需移动分片至已选shard。 百分比迁移:按照源节点上的数据百分比进行迁移,需要输入1100的整数。 3. 单击确定完成任务迁移。 3. 空间清理 说明 当数据被删除或更新时,TeleDB将其标记为无效,但并不立即回收相关的存储空间。需要定期执行空间清理操作,以检查并释放被标记为无效的数据所占用的空间。这样可以确保数据库在长时间运行后不会因为无效数据的积累而占用过多的磁盘空间。 1. 选择空间清理 页签,单击创建任务,出现创建清理任务 对话框。 2. 选择源节点 、清理开始时间 和清理结束时间 ,单击确定。 4. 空间回收 说明 经过空间清理任务后的实例并没有立即释放空间,用户可以通过空间回收任务对实例进行重建表和索引,自动释放被空间清理回收的空间。 1. 选择空间回收 页签,单击创建任务 ,出现创建回收任务 对话框。 2. 选择回收节点、设置回收开始时间和回收结束时间,单击确定完成空间回收。 5. 数据重平衡 说明 用户可以通过数据重平衡,依据磁盘使用率,把节点组原有的数据平均分布到节点组内各个节点上。该功能会自动生成迁移任务以及空间清理任务,用户可以在任务详情或者在对应功能页面查看任务具体执行情况。 1. 选择重平衡任务页签,单击创建任务,出现创建数据重平衡任务对话框。 输入任务名称,选择节点组,单击确定,完成数据重平衡。 6. 表空间管理 说明 用户通过对表空间进行管理,以组织数据存储,在物理设备上合理分配数据。 1. 创建表空间 1. 选择表空间管理 页签,单击创建表空间 ,出现创建表空间对话框。 2. 在创建空间表对话框,填写表空间名称 ,选择归属账号 ,填写挂载目录 ,并检测目录有效性 ,单击确定完成表空间的创建。 说明 表空间名字请参照以下格式: 1.不能以pg开头。 2.只支持大小写字母、数字和下划线。 3.只能以字母开头。 2. 修改表空间 单击编辑按钮,在弹出的编辑表空间可修改表空间或查看表空间。 3. 删除表空间 单击删除 按钮,在出现的警告提示框,单击确定即可删除表空间。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.1.0版本产品文档
        管理平台使用手册
        控制台操作指南
        数据空间管理
      • MRS HDFS数据迁移到OBS
        创建OBS连接 1.单击CDM集群后的“作业管理”,进入作业管理界面,再选择“连接管理 > 新建连接”,进入选择连接器类型的界面。 详见下图:选择连接器类型 2.连接器类型选择“对象存储服务(OBS)”后,单击“下一步”配置OBS连接参数。 名称:用户自定义连接名称,例如“obslink”。 OBS服务器、端口:配置为OBS实际的地址信息。 访问标识(AK)、密钥(SK):登录OBS的AK、SK。 3.单击“保存”回到连接管理界面。 创建迁移作业 1.选择“表/文件迁移 > 新建作业”,开始创建从MRS HDFS导出数据到OBS的任务。 详见下图:创建MRS HDFS到OBS的迁移任务 作业名称:用户自定义便于记忆、区分的任务名称。 源端作业配置 −源连接名称:选择创建MRS HDFS连接中的“hdfsllink”。 −源目录或文件:待迁移数据的目录或单个文件路径。 −文件格式:传输数据时所用的文件格式,这里选择“二进制格式”。不解析文件内容直接传输,不要求文件格式必须为二进制。适用于文件到文件的原样复制。 −其他可选参数一般情况下保持默认即可,详细说明请参见 配置HDFS源端参数。 目的端作业配置 −目的连接名称:选择创建OBS连接中的“obslink”。 −桶名:待迁移数据的桶。 −写入目录:写入数据到OBS服务器的目录。 −文件格式:迁移文件类数据到文件时,文件格式选择“二进制格式”。 −高级属性里的可选参数一般情况下保持默认既可,详细说明请参见 配置OBS目的端参数。 2.单击“下一步”进入字段映射界面,CDM会自动匹配源和目的字段。 如果字段映射顺序不匹配,可通过拖拽字段调整。 CDM的表达式已经预置常用字符串、日期、数值等类型的字段内容转换。 3.单击“下一步”配置任务参数,一般情况下全部保持默认即可。 该步骤用户可以配置如下可选功能: 作业失败重试:如果作业执行失败,可选择是否自动重试,这里保持默认值“不重试”。 作业分组:选择作业所属的分组,默认分组为“DEFAULT”。在CDM“作业管理”界面,支持作业分组显示、按组批量启动作业、按分组导出作业等操作。 是否定时执行:如果需要配置作业定时自动执行,请参见 配置定时任务。这里保持默认值“否”。 抽取并发数:设置同时执行的抽取任务数。CDM支持多个文件的并发抽取,调大参数有利于提高迁移效率 是否写入脏数据:否,文件到文件属于二进制迁移,不存在脏数据。 作业运行完是否删除:这里保持默认值“不删除”。根据使用场景,也可配置为“删除”,防止迁移作业堆积。 4.单击“保存并运行”,回到作业管理界面,在作业管理界面可查看作业执行进度和结果。 5.作业执行成功后,单击作业操作列的“历史记录”,可查看该作业的历史执行记录、读取和写入的统计数据。 在历史记录界面单击“日志”,可查看作业的日志信息。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        使用教程
        MRS HDFS数据迁移到OBS
      • 恢复租户数据
        本章节主要介绍翼MapReduce的恢复租户数据操作。 操作场景 租户默认在Manager和集群组件中保存相关数据,在组件故障恢复或者卸载重新安装的场景下,所有租户的部分配置数据可能状态不正常,管理员需要通过FusionInsight Manager手动恢复配置数据。 操作步骤 1. 登录FusionInsight Manager,单击“租户资源”。 2. 在左侧租户列表,单击某个租户节点。 3. 检查租户数据状态。 在“概述”,查看“租户资源状态”,绿色表示租户可用,灰色表示租户不可用。 单击“资源”,查看“Yarn”或者“HDFS存储”左侧的圆圈,绿色表示资源可用,灰色表示资源不可用。 单击“服务关联”,查看关联的服务表格的“状态”列,“良好”表示组件可正常为关联的租户提供服务,“故障”表示组件无法为租户提供服务。 任意一个检查结果不正常,需要恢复租户数据,请执行步骤4。 4. 单击,在弹出的确认窗中输入当前登录的用户密码确认身份,单击“确定”。 5. 在“恢复租户资源数据”窗口,选择一个或多个需要恢复数据的组件,单击“确定”,等待系统自动恢复租户数据。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        使用Superior调度器的租户业务
        管理租户
        恢复租户数据
      • 恢复租户数据
        本章节主要介绍翼MapReduce的恢复租户数据操作。 操作场景 租户默认在Manager和集群组件中保存相关数据,在组件故障恢复或者卸载重新安装的场景下,所有租户的部分配置数据可能状态不正常,管理员需要通过FusionInsight Manager手动恢复配置数据。 操作步骤 1. 登录FusionInsight Manager,单击“租户资源”。 2. 在左侧租户列表,单击某个租户节点。 3. 检查租户数据状态。 在“概述”,查看“租户资源状态”,绿色表示租户可用,灰色表示租户不可用。 单击“资源”,查看“Yarn”和“HDFS存储”左侧的圆圈,绿色表示资源可用,灰色表示资源不可用。 单击“服务关联”,查看关联的服务表格的“状态”列,“良好”表示组件可正常为关联的租户提供服务,“故障”表示组件无法为租户提供服务。 任意一个检查结果不正常,需要恢复租户数据,请执行步骤4。 4. 单击,在弹出的确认窗中输入当前登录的用户密码确认身份,单击“确定”。 5. 在“恢复租户资源数据”窗口,选择一个或多个需要恢复数据的组件,单击“确定”,等待系统自动恢复租户数据。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        使用Capacity调度器的租户业务
        管理租户
        恢复租户数据
      • 测试数据生成
        数据管理服务DMS的测试数据生成功能支持为多表批量生成枚举、字符串、序列等类型的数据,可以大大减轻准备测试数据的负担。本文将介绍构建测试数据的方法。 前提条件 组织版本:基础版、企业版均可 支持的数据库类型:MySQL、PostgreSQL 背景信息 在测试环节,数据准备往往是最容易被忽视却又最耗时的部分。无论是功能测试还是性能压测,构造合适的数据集都至关重要。但现实中,常见的几种方式各有痛点: 从线上系统导出数据,存在较高的数据安全和合规风险,容易导致敏感信息泄露; 人工创建数据适用于简单场景,但在面对大规模或复杂结构数据时效率低下; 通过脚本生成数据具备一定的灵活性,但通用性差,维护成本较高; 在实际研发流程中,测试数据生成需要在效率、质量、安全之间取得平衡。为满足这一需求,DMS 提供了测试数据生成功能,支持高效生成数据集。通过该能力,开发与测试团队可以快速构建符合需求的测试数据,显著提升测试效率。 注意事项 支持按需操作单个/多个表 每张表的单次生成上限阈值为100万行 操作步骤 1. 登录DMS控制台。 2. 在左侧导航栏,单击开发空间>测试数据生成,进入测试数据生成页面。 3. 单击数据生成 按钮,弹出数据生成工单填写弹窗,工单需要选择或输入的内容说明见下表1。 4. 填写完数据生成工单后,单击提交按钮,即完成工单的提交。 5. 数据生成任务的工单状态与执行进度,可在工单详情页面查看。 表1 工单输入内容说明 输入内容 说明 目标数据库 选择测试数据生成的数据库/模式,数据来源于在DMS控制台中添加的数据库实例,其中MySQL可选择到库级别,PostgreSQL可选择到模式级别。当前仅支持单选一个目标库/模式。 生成对象 选择需要生成测试数据的表名,以及确定对应的生成行数。表的每一列都对应一个仿真规则,每个仿真规则都对应一个配置信息;也可以选择删除该列的仿真规则。 冲突处理 选项:遇到冲突中止、遇到冲突跳过。注意:当批次内出现冲突时,系统将跳过整个批次,而非仅跳过冲突行 并发数 范围:15。注意:并发数较高时可能给系统带来性能负担,影响其他服务的访问。请合理的配置并发数
        来自:
        帮助文档
        数据管理服务
        用户指南
        开发空间
        测试数据生成
      • 数据分类分级(1)
        本节介绍如何进入数据分类分级制台,及如何使用数据分类分级。 进入控制台 方式一: 1. 登录天翼云控制中心。 2. 在控制中心页面顶部选择区域。 3. 在产品服务列表页,选择“安全 > 云等保专区”,进入云等保专区控制台。 4. 在左侧导航栏,选择“数据分类分级”,跳转到数据分类分级控制台。 方式二: 1. 登录天翼云控制中心。 2. 在控制中心页面顶部选择区域。 3. 在产品服务列表页,选择“安全 > 数据安全专区”,进入数据分类分级控制台。 使用数据分类分级 请参见数据分类分级。
        来自:
      • 数据分类分级
        本节介绍如何进入数据分类分级制台,及如何使用数据分类分级。 进入控制台 方式一: 1. 登录天翼云控制中心。 2. 在控制中心页面顶部选择区域。 3. 在产品服务列表页,选择“安全 > 云等保专区”,进入云等保专区控制台。 4. 在左侧导航栏,选择“数据分类分级”,跳转到数据分类分级控制台。 方式二: 1. 登录天翼云控制中心。 2. 在控制中心页面顶部选择区域。 3. 在产品服务列表页,选择“安全 > 数据安全专区”,进入数据分类分级控制台。 使用数据分类分级 请参见数据分类分级。
        来自:
        帮助文档
        云等保专区
        用户指南
        数据分类分级
      • 数据导出工单列表
        本文介绍数据导出工单列表页相关操作,数据导出工单列表支持查看导出任务的工单状态与结果。 前提条件 登录DMS控制台。 注意事项 数据导出工单列表页仅展示自己提交的工单。 操作步骤 1. 登录数据管理服务DMS。 2. 在左侧导航栏,点击开发空间>数据导出 ,进入数据导出工单列表页。 数据导出工单列表页功能介绍 工单查询 输入查询条件点击查询按钮,执行查询操作。 数据导出 点击数据导出 按钮可添加新的数据导出任务,详见提交导出任务。 详情 在工单列表找到目标工单,在操作列点击详情按钮,在打开的工单详情页面可查看目标工单的详细信息。 数据导出工单详情页面,包含基础信息、任务状态、预检查、审批流程四个部分。 基础信息 以下表格为基础信息部分说明: 内容 说明 工单类型 展示工单是数据导出类型。 创建人 工单的创建用户。 工单状态 工单的当前状态。 工单号 系统生成的工单唯一id。 创建时间 工单保存到系统的时间。 最后操作时间 工单状态的最后更新时间。 库/模式信息 导出任务对应的目标库/模式信息。 导出类型 导出工单指定的类型,可在创建导出工单时选择。 表名 导出工单指定的数据库表名称,可在创建导出工单时选择。 导出文件类型 导出工单指定的文件类型,可在创建导出工单时选择。 工单说明 说明信息,可在创建导出工单时填写。
        来自:
        帮助文档
        数据管理服务
        用户指南
        开发空间
        数据导出
        数据导出工单列表
      • 桌面管理
        数据盘扩容 1.进入“AI云电脑(政企版)”控制台; 2.展开“AI云电脑管理”菜单栏,选择“桌面管理”,进入“桌面管理”页面; 3.在需要变更规格的桌面所在行,点击“管理”,点击“数据盘扩容”操作; 4.根据需求选择扩容的规格; 5.点击“立即创建”,即完成桌面的数据盘扩容。 注意 1、通过资源包开通的桌面,数据盘扩容会直接扣取资源包资源;通过单实例开通的桌面,数据盘扩容需要付费才能完成扩容。 2、数据盘扩容,系统将自动重启以完成配置。 添加数据盘 1.进入“AI云电脑(政企版)”控制台; 2.展开“AI云电脑管理”菜单栏,选择“桌面管理”,进入“桌面管理”页面; 3.在需要添加数据盘的桌面所在行,点击“管理”,点击“添加数据盘”操作; 4.根据需求选择添加数据盘的规格; 5.点击“立即创建”,即完成添加数据盘。 注意 1、通过资源包开通的桌面,添加数据盘会直接扣取资源包资源;通过单实例开通的桌面,需要付费才能完成添加数据盘。 2、添加数据盘,系统将自动重启以完成配置。 退订/删除数据盘 通过单实例开通的桌面添加数据盘后是支持退订操作,通过资源包开通的桌面添加数据盘后是支持删除操作。 1.进入“AI云电脑(政企版)”控制台; 2.展开“AI云电脑管理”菜单栏,选择“桌面管理”,进入“桌面管理”页面; 3.在需要退订/删除数据盘的桌面所在行,点击“管理”,点击“退订数据盘”或“删除数据盘”操作; 4.根据需求选择需退订/删除的数据盘; 5.点击“确定”,即完成数据盘的退订/删除。 注意 由于退订/删除操作会导致数据盘清理,数据盘数据将无法恢复,因此,在退订/删除前请您做好数据备份工作。 通过资源包开通的数据盘,进行删除数据盘会直接将存储资源释放回资源包; 通过单实例开通的数据盘,进行退订数据盘将根据使用时长扣除已消费金额,余额将原路返还到您的付款账户; 通过其他渠道开通的数据盘,如需退订数据盘请咨询对应受理渠道。
        来自:
        帮助文档
        天翼云电脑(政企版)
        管理员指南
        桌面管理
      • 接入日志数据
        查看日志数据的存储位置 日志数据接入完成后,请前往安全分析的安全数据表页面查看接入的日志数据: 1. 在左侧导航栏选择“日志审计 > 安全数据”,进入安全分析页面。 2. 在左侧数据空间导航栏中,单击数据空间名称,展开数据管道列后,再单击管道名称,右侧将显示管道数据的检索页面。 在管道数据检索页面即可查看接入的日志数据。 相关操作 取消数据接入 1. 在云服务接入管理页面,单击待取消接入云服务产品所在行操作列的“设置”,右侧弹出日志接入设置配置页面。 2. 在设置页面,单击“日志接入”列的,关闭接入的云服务日志。 编辑数据接入生命周期 1. 在云服务接入管理页面,单击对应云服务产品所在行操作列的“设置”,右侧弹出日志接入设置配置页面。 2. 在设置页面,单击日志所在行操作列的“编辑”按钮。 3. 在弹出的编辑页面,修改“生命周期”配置,输入生命周期时间。 4. 修改完成后,单击“确定”。 取消自动转告警 1. 在云服务接入管理页面,单击对应云服务产品所在行操作列的“设置”,右侧弹出日志接入设置配置页面。 2. 在设置页面,单击“自动转告警”列的,关闭告警映射。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        日志审计
        云服务接入
        接入日志数据
      • 1
      • ...
      • 79
      • 80
      • 81
      • 82
      • 83
      • ...
      • 449
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      聚力AI赋能 天翼云大模型专项

      大模型特惠专区·Token Plan 轻享包低至9.9元起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务 MDR

      GPU云主机

      天翼云CTyunOS系统

      训推服务

      公共算力服务

      科研助手

      一站式智算服务平台

      人脸实名认证

      推荐文档

      云服务器 ECS 购买须知

      获取机器码

      首次备案

      常见问题

      云课堂 第十六课:天翼云语音听写AI云服务测试Demo(Pyth

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号