活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      数据集成工具_相关内容
      • 查看数据集
        本文介绍如何在科研助手中查看数据集详情。 操作步骤 1. 登录科研助手管理控制台。 2. 在控制台左侧导航栏中,选择【数据存储】的【数据集管理】。 3. 在【数据集管理 】页面,点击左上角的【个人数据集】选项卡。 4. 选择一个数据集,在操作栏中单击【查看 】按钮。 注意:科研助手的数据集与专业版数据集通用,在科研助手的【数据集管理】中可以显示并操作专业版的数据集。 5. 此时可查看数据集中的存储的内容。 6. 以下为数据集详情页面展示的字段和功能说明: 参数 说明 刷新 刷新当前存储文件管理展示页面。 完整路径 在文件存储服务器中的路径,支持复制。 文件名 文件名或者文件夹名。 大小 若为文件夹时,不显示;若为具体文件时,为文件大小。 修改时间 文件的最后修改时间。 操作 下载
        来自:
        帮助文档
        科研助手
        用户指南
        科研版
        数据存储
        数据集管理
        查看数据集
      • 步骤四:初始化数据盘
        云硬盘挂载至云主机后,需要初始化云硬盘才可以正常使用。本文帮助您了解如何初始化数据盘。 操作场景 一块新创建的数据盘在挂载至云主机后,还不能直接存储数据,您需要为这块数据盘创建分区、格式化等初始化操作后才可以正常使用。 系统盘会自动初始化,无须手动再操作。 数据盘无论是随云主机一起创建的,还是后续购买手动创建的,都需手动初始化。 注意 磁盘分区和格式化被视为高风险操作,因此在进行初始化操作时必须保持谨慎。此操作仅适用于一块全新的数据盘,而不适用于已写入数据的盘。如果您决定格式化已写入数据的盘,请务必为该盘创建一个快照,以确保数据不会丢失。 前提条件 数据盘已挂载至云主机,且未初始化。 操作方法 专属云内磁盘操作同公有云中一样,数据盘需要初始化之后才可使用。初始化方法参见初始化数据盘。
        来自:
        帮助文档
        专属云(存储独享型)
        快速入门
        步骤四:初始化数据盘
      • 配置MongoDB连接
        本章节主要介绍数据治理中心的配置MongoDB连接功能。 MongoDB连接适用于第三方云MongoDB服务,以及用户在本地数据中心或ECS上自建的MongoDB,常用于从MongoDB同步数据到大数据平台。 连接本地MongoDB数据库时,相关参数详见下表:MongoDB连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。 mongodblink 服务器列表 MongoDB服务器地址列表,输入格式为“数据库服务器域名或IP地址:端口”。多个服务器列表间以“;”分隔。 192.168.0.1:7300;192.168.0.2:7301 数据库名称 要连接的MongoDB数据库名称。 DBmongodb 用户名 连接MongoDB的用户名。 cdm 密码 连接MongoDB的密码。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理连接
        配置MongoDB连接
      • 导入数据
        本章节主要介绍导入数据。 支持将OBS上的数据导入到DLI中创建的表中。 注意 创建OBS表时指定的路径必须是文件夹,若建表路径是文件将导致导入数据失败。 导入数据时只能指定一个路径,路径中不能包含逗号。 当OBS的目录下有同名文件夹和文件时,数据导入指向该路径会优先指向文件而非文件夹。 若将CSV格式数据导入分区表,需在数据源中将分区列放在最后一列。 不建议对同一张表并发导入数据,因为有一定概率发生并发冲突,导致导入失败。 导入文件支持CSV,Parquet,ORC,JSON和Avro格式,且文本格式仅支持UTF8。 前提条件 待导入的数据已存储到OBS上。 导入数据步骤 1. 导入数据的入口有两个,分别在“数据管理”和“SQL编辑器”页面。 在“数据管理”页面导入数据。 a. 在管理控制台的左侧,选择“数据管理”>“库表管理”。 b. 单击需导入数据的表对应的数据库名称,进入该数据库的“表管理”页面。 c. 在目标表“操作”栏中选择“更多”中的“导入”,弹出“导入数据”页面。 在“SQL编辑器”页面导入数据。 a. 在管理控制台的左侧,单击“SQL编辑器”。 b. 在“SQL编辑器”页面左侧导航栏选择“数据库”页签,鼠标左键单击需要导入数据的表对应的数据库名,进入“表”区域。 c. 鼠标左键单击对应表右侧的,在列表菜单中选择“导入”,弹出“导入数据”页面。 2. 在“导入数据”页面,参见下表填写相关信息。 详见下表:参数说明 参数名称 描述 示例 数据库 当前表所在的数据库。 表名称 当前表名称。 队列 选择队列。 文件格式 导入数据源的文件格式。导入支持CSV,Parquet,ORC,JSON,Avro格式。 CSV 数据源路径 直接输入路径或单击选择OBS的路径,若没有合适的桶可直接跳转OBS创建。 创建OBS表时指定的路径必须是文件夹,若建表路径是文件将导致导入数据失败 。 当OBS的目录下有同名文件夹和文件时,数据导入指向该路径会优先指向文件而非文件夹 。 说明 路径同时支持文件和文件夹。 obs://DLI/sampledata.csv 表头:无/有 当“文件格式”为“CSV”时该参数有效。设置导入数据源是否含表头。 选中“高级选项”,勾选“表头:无”前的方框,“表头:无”显示为“表头:有”,表示有表头;去勾选即为“表头:无”,表示无表头。 自定义分隔符 当“文件格式”为“CSV”,勾选自定义分隔符前的方框时,该参数有效。 支持选择如下分隔符。 逗号(,) 竖线(l) 制表符(t) 其他:输入自定义分隔符 默认值:(,) 自定义引用字符 当“文件格式”为“CSV”,勾选自定义引用字符前的方框时,该参数有效。 支持选择如下引用字符。 单引号(') 双引号(") 其他:输入自定义引用字符 默认值:单引号(') 自定义转义字符 当“文件格式”为“CSV”,并在自定义转义字符前的方框打勾时,该参数有效。 选中高级选项,支持选择如下转义字符。 反斜杠( ) 其他:输入自定义转义字符 默认值:反斜杠( ) 日期格式 当“文件格式”为“CSV”和“JSON”时此参数有效。 选中“高级选项”,该参数表示表中日期的格式,默认格式为“yyyyMMdd”。 20000101 时间戳格式 当“文件格式”为“CSV”和“JSON”时此参数有效。 选中“高级选项”,该参数表示表中时间戳的格式,默认格式为“yyyyMMdd HH:mm:ss”。 20000101 09:00:00 错误数据存储路径 当“文件格式”为“CSV”和“JSON”时此参数有效。 选中“高级选项”,该参数表示可将错误数据保存到对应的OBS路径中。 obs://DLI/ 3. 单击“确定”,系统开始导入数据。 4. 有两种方式可查看导入的数据。 说明 目前预览只显示导入的前十条数据。 在“数据管理”>“库表管理”页面,单击数据库名,在表管理界面对应表的“操作”栏选择“更多”中的“表属性”,在弹框的“预览”页签中,可查看导入的数据 在“SQL编辑器”的“数据库”页签中,单击数据库名称,进入对应的表列表,鼠标左键单击对应表右侧的 ,在列表菜单中选择“表属性”,在弹框的“预览”页签中,可查看导入的数据。 5. (可选)可以在“作业管理 > SQL作业”页面,查看该导入作业的状态以及执行结果。
        来自:
        帮助文档
        数据湖探索
        用户指南
        数据管理
        库表管理
        导入数据
      • 创建数据订阅任务
        本文为您介绍创建数据订阅任务的操作场景、前提条件和操作步骤。 操作场景 场景一:数据实时分析 使用云监控数据订阅功能,将业务进行异步解耦,在不影响源库业务的情况下,实时同步监控数据(指标、事件)或告警数据到客户自有分析系统中,帮助企业用户进行实时数据分析。 场景二:数据归档存储 使用云监控数据订阅功能,您可将资源监控或告警数据的增量更新数据,实时地推送到归档数据库或数据仓库。 说明 数据订阅功能当前为受限开放,如有需求可以联系客户经理为您开放此功能。 资源池下单个用户最多可创建10个数据订阅任务。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 注意 数据订阅功能数据类型支持指标数据、事件数据,订阅方式支持分布式消息服务及API方式。 指标数据订阅支持分布式消息服务(kafka)及remotewriteapi方式。 事件数据订阅支持分布式消息服务(kafka)及apipush方式。(事件订阅入口为:云监控服务>事件监控>事件订阅) 创建订阅任务需提前创建订阅渠道。 操作步骤 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,本文我们选择华东1。 3. 依次选择“管理与部署”,单击“云监控”,进入监控概览页面。 4. 单击左侧“数据订阅”菜单,进入数据订阅任务列表。 5. 单击“创建订阅任务”功能,进入数据订阅任务创建二级页面。 6. 创建订阅任务参数配置如下: 模块 参数 参数说明 配置示例 备注 选择订阅对象 服务维度 选择需要订阅数据的服务维度信息,支持多选 云主机云主机 选择订阅对象 监控对象类型 具体实例 选择订阅对象 选择对象 选择资源实例对象 具体实例 定义订阅方式 订阅通道 选择公网/内网 分布式消息服务 定义订阅方式 发送渠道 Kafka Kafka 定义订阅方式 订阅失败缓存时间 输入用户客户端地址 基础信息 订阅任务名称 填写自定义订阅任务名称 testtask 基础信息 描述 填写订阅任务描述信息 说明 关于告警数据订阅全部资源的场景,涉及两个周期: 订阅服务subscription同步订阅配置的周期,预计上线配置2分钟。 数据订阅配置全部资源,也需要周期同步全量的实例资源,预计线上配置3分钟。 因此,考虑极限情况,告警订阅服务在周期1 + 周期2之后产生的告警,订阅服务才能匹配消费到。
        来自:
        帮助文档
        云监控服务
        用户指南
        数据订阅
        创建数据订阅任务
      • 逆向数据库(维度建模)
        本章节主要介绍逆向数据库维度建模操作。 通过逆向数据库,您可以将其他数据源的数据库中的表导入到指定的关系模型中。 前提条件 在逆向数据库之前,请先在DataArts Studio数据目录模块中对数据库进行元数据采集,以便同步数据目录时可以同步成功,否则同步数据目录将执行失败。有关数据目录元数据采集的具体操作,请参见任务管理。 逆向数据库导入表到维度模型中 1. 在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据架构”模块,进入数据架构页面。 2. 在DataArts Studio数据架构控制台,单击左侧导航栏的“维度建模”进入维度建模页面。 3. 打开需要逆向数据库导入的维度或表的页签,然后单击列表上方的“逆向数据库”。 4. 在“逆向数据库”对话框中配置参数。 参数名称 说明 所属主题 单击“选择主题”按钮选择所属的主题信息。 数据连接类型 选择维度建模的逆向数据库。 数据连接 选择所需要的数据连接。 如需从其他数据源逆向数据库到关系模型中,需要先在DataArts Studio管理中心创建一个数据连接,以便连接数据源。创建数据连接的操作,请参见创建数据连接。 数据库 选择数据库。 队列 仅限DLI连接类型,需选择DLI队列。 Schema DWS或POSTGRESQL的模式。该参数在DWS或POSTGRESQL连接类型有效。 更新已有表 在导入时,只有创建或更新操作,不会删除已有的表。 不更新 :如果表已存在,将直接跳过,不更新。 更新 :如果表已存在,更新已有的表信息。如果表处于“已发布”状态,表更新后,您需要重新发布表,才能使更新后的表生效。 数据表 选择“全部”时,将数据库中的所有的表都导入。 选择“部分”时,请选择需要导入的表。 5. 单击“确定”开始执行逆向数据库操作。等待操作执行完成,即可在“上次逆向”中查看结果或者执行重新逆向操作。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        通用操作
        逆向数据库(维度建模)
      • ALM-25004 LdapServer数据同步异常
        本章节主要介绍ALM25004 LdapServer数据同步异常的告警。 告警解释 系统按30秒周期性检测LdapServer数据,如果连续12次检测,Manager的主备LdapServer的数据内容都不一致,产生该告警,当两者的数据一致时,对应告警恢复。 系统按30秒周期性检测LdapServer数据,如果连续12次检测,集群中的LdapServer的数据与Manager的LdapServer数据都不一致,产生该告警,当两者的数据一致时,对应告警恢复。 告警属性 告警ID 告警级别 是否自动清除 25004 紧急 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机节点信息。 对系统的影响 LdapServer数据不一致时,有可能是Manager上的LdapServer数据损坏,也有可能是集群上的LdapServer数据损坏,此时数据损坏的LdapServer进程将无法对外提供服务,影响Manager和集群的认证功能。 可能原因 LdapServer进程所在的节点网络故障。 LdapServer进程异常。 OS重启导致的LdapServer数据损坏。 处理步骤 检查LdapServer所在的节点网络是否故障 1.在FusionInsight Manager界面,选择“运维 > 告警 > 告警”。记录该告警定位信息中的“主机名”的IP地址为IP1(若出现多个告警,则分别记录其中的IP地址为IP1、IP2、IP3等)。 2.联系运维人员,登录IP1节点,在这个节点上使用ping命令检查该节点与主OMS节点的管理平面IP是否可达。 是,执行步骤4。 否,执行步骤3。 3.联系网络管理员恢复网络,然后查看“LdapServer数据同步异常”告警是否恢复。 是,处理完毕。 否,执行步骤4。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-25004 LdapServer数据同步异常
      • 卸载云主机的数据盘
        本节介绍了卸载云主机的数据盘的操作场景、前提条件、操作步骤。 操作场景 如果创建私有镜像所使用的原云主机挂载了多个数据盘,可能导致由私有镜像创建的新云主机无法使用。因此在创建私有镜像前,需要卸载原云主机中挂载的所有数据盘。 本节介绍如何卸载云主机中挂载的所有数据盘。 前提条件 已登录到创建Linux私有镜像所使用的云主机。 操作步骤 1. 查询是否挂载数据盘。 执行以下命令,检查云主机挂载的磁盘块数。 fdisk l − 磁盘块数>1,表示云主机挂载有数据盘,执行2。 − 磁盘块数1,表示云主机未挂载数据盘,执行3。 2. 执行以下命令,检查当前云主机挂载的数据分区。 mount − 回显不包含数据盘分区的信息时,无需进行卸载数据盘的操作。 /dev/vda1 on / type ext4 (rw,relatime,dataordered) − 回显包含类似如下信息,请执行3。 /dev/vda1 on / type ext4 (rw,relatime,dataordered) /dev/vdb1 on /mnt/test type ext4 (rw,relatime,dataordered) 3. 清理“fstab”文件中的配置信息。 a. 执行以下命令编辑“fstab”文件。 vi /etc/fstab b. 删除相关数据盘在“fstab”文件中的配置信息。 “/etc/fstab”文件中记录了系统启动时自动挂载的文件系统和存储设备的信息,需要删除,如下图中最后一行是数据盘在“fstab”中的配置信息。 数据盘在fstab文件中的配置信息 4. 执行如下命令,卸载已挂载的数据盘。 卸载前请确认数据盘上没有任何数据读写,否则会导致卸载失败。 umount /dev/vdb1 5. 执行以下命令,再次查看当前云主机挂载的数据分区。 mount 回显信息中不再包含数据盘分区的信息时,则表示卸载成功。
        来自:
        帮助文档
        镜像服务 IMS
        用户指南
        Linux操作系统相关操作
        卸载云主机的数据盘
      • 新建一个作业对账实例
        本章节主要介绍新建一个对账作业实例的操作。 场景说明 数据对账对于数据开发和数据迁移流程中的数据一致性至关重要,而跨源数据对账的能力是检验数据迁移或数据加工前后是否一致的关键指标。本章分别以DLI和DWS作为数据源,介绍如何通过DataArts Studio中的数据质量模块实现跨源数据对账的基本一致性校验。 环境准备 需要准备好对账的数据源,即通过管理中心分别创建数据连接,用于跨源数据对账。 操作步骤 1.建立跨源数据连接。 a.创建DLI数据连接。在DataArts Studio管理中心模块,单击创建数据连接,数据连接类型选择“数据湖探索(DLI)”,输入数据连接名称,单击“测试”,提示连接成功,单击“确定”。 b.创建DWS数据连接。在DataArts Studio管理中心模块,单击创建数据连接,数据连接类型选择“数据仓库服务(DWS)”,输入数据连接名称,设置其他参数,如下图所示,单击“测试”,提示连接成功,单击“确定”。 2.创建对账作业。 a.在DataArts Studio数据质量模块,单击左侧导航菜单“对账作业”。 b.单击“新建”,配置对账作业的基本信息,如下图所示。 c.单击“下一步”,进入规则配置页面。您需要点击规则卡片中的,然后配置对账规则,如下图所示。 说明 要分别配置源端和目的端的信息。 配置告警条件,其中点击左侧的表行数 (${11})表示左侧源端选中表的行数,点击右侧表行数 (${21})表示目的端表行数。此处配置告警条件为 ${11}!${21},表示当左侧表行数与右侧表行数不一致时,触发报警并显示报警状态。 d.单击“下一步”,配置订阅信息,如下图所示。 说明 勾选触发告警表示作业报警时发送通知到对应的smn主题,勾选运行成功表示不报警时发送通知到SMN主题。 e.单击“下一步”,配置调度方式,如下图所示。 说明 单次调度表示需要手动触发运行,周期性调度表示会按照配置定期触发作业运行。此处以当天配置为例,设置每15分钟触发运行一次对账作业为例的配置。 3.查看对账作业 a.单击对应的对账作业操作列中的运行链接,运行对账作业后,自动跳转到运维管理页面。 b.单击结果&日志查看运行结果和运行日志,等待作业运行结束后,如下图所示。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据质量
        使用教程
        新建一个作业对账实例
      • 数据架构示例
        新建数据标准并发布 在本示例中,您需要新建如表所示的3个数据标准: 下表为数据标准 目录 标准名称 标准编码(自定义) 数据类型 数据长度 引用码表 码表字段 描述 付款方式 付款方式 paymenttype 长整型(BIGINT) 无 付款方式 付款方式编码 无 供应商 供应商 vendor 长整型(BIGINT) 无 供应商 供应商id 无 费率 费率代码 ratecode 长整型(BIGINT) 无 费率代码 费率id 无 1. 在数据架构控制台,单击左侧导航树中的“数据标准”,进入数据标准页面。 2. 首次进入“数据标准”页面,需要定制模板,定制的模板后续可以在配置中心进行更改。本示例需要额外勾选“引用码表”,如图所示。 3. 请参考以下步骤,分别新建3个数据标准的目录:付款方式、供应商、费率。 在数据标准页面的目录树上方,单击新建目录,然后在弹出框中输入目录名称“付款方式”并选择目录,单击“确定”完成目录的新建。 4. 请参考以下步骤,分别新建3个数据标准:付款方式、供应商、费率。 a.在数据标准页面的目录树中,选中所需要的目录,然后在右侧页面中单击“新建”。 b.在新建数据标准页面中,3个数据标准可分别参考如下配置,配置完成后单击“保存”。在本示例中,数据标准模板只选取了几个参数,您可以参考用户指南中的“数据架构> 管理配置中心”的“标准模板管理”定制数据标准模板。 5. 返回数据标准页面后,在列表中勾选刚才新建的3个数据标准,然后单击“发布”发布数据标准。 6. 在“批量发布”对话框中选择审核人,再单击“确认提交”,等待审核人员审核通过后,数据标准发布成功。如果当前帐号具备审核人权限,也可以勾选“自助审批”,直接提交即可以审核通过。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        使用教程
        数据架构示例
      • 通用类
        本章节介绍通用类问题 数据管理服务支持哪些数据源 数据管理服务支持多种数据源。目前,数据管理服务支持MySQL、DDS、PostgreSQL、SQL Server、DRDS等引擎。 数据管理服务是否支持跨Region访问 暂不支持。目前仅支持本region访问关系型数据库,如需跨region,要切换console region。 使用DAS登录PostgreSQL ,数据库一栏填写什么 数据库一栏填写postgres。 开启SQL执行记录后,会保存到哪里 登录数据管理服务时,在登录界面开启SQL执行记录。开启SQL执行记录后,会保存到数据管理服务的管理主机。
        来自:
        帮助文档
        数据管理服务
        常见问题
        通用类
      • 源端增量数据迁移方案
        本文为您介绍如何通过多次迁移,实现对源端增量数据的迁移。 操作场景 对象存储迁移服务ZMS在执行任务时,会先进行源端数据扫描,若您的源端持续增加新数据,则每次执行迁移任务时,无法确保迁移源端实时新增的数据。本方案将介绍通过规划任务的多次迁移,逐步实现将您的源端增量数据迁移至天翼云ZOS。 源端增量数据包含以下情况: 源端存量数据的修改:后续业务对源端已有的存量数据进行修改。 对源端新写入的数据:源端数据不存在,后续业务在源端新写入的数据。 迁移方案的原理 要实现对源端增量数据的迁移,需要每次执行迁移时,对不需要重复迁移的数据进行跳过,仅迁移增量数据。 对象存储迁移服务ZMS提供“ 按最后修改时间 ”选项,支持对进行同名文件是否覆盖的判断。该配置实现以下效果: 对源端和目的端的同名文件:若源端该文件的最后修改时间(Lastmodified)比目的端新,则用源端更新的文件覆盖目的端较旧的文件,实现将源端存储数据的最新修改同步至目的端。 对源端新写入的文件:源端新写入的文件在目的端无同名文件,会直接将该新写入文件迁移至目的端,实现对源端新写入文件的迁移。 因此,配置“ 按最后修改时间 ”进行迁移,既可以将对源端新写入的数据全部进行迁移,又可以对源端和目的端都存在的同名文件按最后修改时间判断,将源端最新修改(不包含删除)过的存量数据也进行迁移。 注意 若您的源端存量数据存在删除的情况,迁移服务不会将您的源端删除操作同步至目的端,若您需要将目的端的已迁移数据也进行删除,请自行操作目的端对象存储。 该方案对增量数据的迁移无法确保时效性,不适用对增量数据的迁移有很强的时效性的情况。
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        对象存储迁移服务
        不同场景的迁移方案
        源端增量数据迁移方案
      • 管理数据加工任务
        本文主要介绍云日志服务中如何管理数据加工任务。 本文介绍如何在云日志服务控制台上管理数据加工任务,包括查看任务详情与状态,修改、启动、停止和删除任务,设置告警等操作。 查看任务详情 1. 登录云日志服务控制台。 2. 左侧点击【日志加工】菜单,进入日志加工列表页面。 3. 在加工任务列表中,点击目标加工任务名称进入加工任务概览页面,即可查看加工任务各详情状态。 停止任务 对于状态为运行中的任务,您可在数据加工概览页面,单击停止,即可停止当前加工任务。 启动任务 对于状态为已终止的任务,您可在数据加工概览页面,单击启动,即可启动当前加工任务。 重新执行 任何状态的任务都支持重新执行。您可在在数据加工概览页面,点击重新执行按钮,数据加工任务将会重新执行。 修改加工规则 1. 在数据加工概览页面,点击修改规则按钮。 2. 在修改页面,您可根据需求修改数据加工规则,步骤请参考创建数据加工任务。 删除任务 在数据加工概览页面,点击删除,即可删除当前数据加工任务。
        来自:
      • 监控安全风险
        本页为您介绍数据传输服务DTS如何监控安全风险。 数据传输服务为用户提供监控告警能力,使您了解数据迁移和数据同步的运行状况,并及时监控到异常告警做出反应,保证业务顺畅运行。 DTS提供基于迁移/同步流量BPS、迁移/同步性能RPS、迁移/同步网络延时、迁移/同步SQL执行RT(响应时间)等指标的监控能力。通过设置数据迁移/同步的告警规则,用户可自定义告警规则、设置通知邮件地址,及时了解数据传输服务的运行状况,从而起到预警作用。 监控告警支持用户和实例维度的告警,选择“用户”,表示告警范围为用户所有的DTS实例;选择“实例”,表示告警范围为指定的DTS实例。 监控告警按设置的告警间隔进行告警,一个监控周期的时间为30s,支持配置告警间隔为监控周期的整倍数。 数据迁移/数据同步如何创建告警规则,具体请参见数据迁移监控告警和数据同步监控告警。
        来自:
        帮助文档
        数据传输服务DTS
        产品概述
        安全
        监控安全风险
      • 提交版本并解锁
        前提条件 已完成脚本开发任务。 提交版本并解锁 “提交”会将当前开发态的最新脚本保存并提交为版本,并覆盖之前的脚本版本。为了便于后续其他开发者对此脚本进行修改,建议您在“提交”后通过“解锁”解除该脚本锁定。 1.登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2.在数据开发主界面的左侧导航栏,选择“数据开发 > 脚本开发”。 3.在脚本目录中,双击已开发完成的脚本名称,进入脚本开发页面。 4.在脚本编辑器上方单击“提交”,提交版本描述内容长度最多为128个字符,并勾选是否在下个调度周期使用新版本,不勾选则无法点击确认。 详见下图:提交 5.“提交”后在脚本编辑器上方单击“解锁”,解除锁定,便于后续其他开发者对此脚本进行修改更新。 详见下图:解锁 版本回滚 提交版本后,可以在版本列表中看到已经提交过的版本信息(当前最多保存最近10条版本信息)。点击“回滚”,可以回退到任意一个已提交的版本。 回滚内容包括: DLI:数据连接、数据库、资源队列、脚本内容。 DWS:数据连接、数据库、脚本内容。 HIVE:数据连接、数据库、资源队列、脚本内容。 SPARK:数据连接、数据库、脚本内容。 SHELL:主机连接、参数、交互式参数、脚本内容。 RDS:数据连接、数据库、脚本内容。 PRESTO:数据连接、模式、脚本内容。 PYTHON:主机连接、参数、交互式参数、脚本内容。 FLINK:脚本内容。 操作如下: 1. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2. 在数据开发主界面的左侧导航栏,选择“数据开发 > 脚本开发”。 3. 在脚本目录中,双击脚本名称,进入脚本开发页面。 4. 在页面右侧单击“版本”,查看版本提交记录,找到需要回滚的版本单击“回滚”即可。 如果当前有开发态的编辑内容没有提交,将会被覆盖。回滚之后需要重新提交才能生效,调度默认使用最新提交的版本进行调度。 详见下图:版本回滚
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        脚本开发
        提交版本并解锁
      • 配置分库连接
        本章节主要介绍数据治理中心的配置分库连接功能。 分库指的是同时连接多个后端数据源,该连接可作为作业源端,将多个数据源的数据合一迁移到其他数据源上。详见下表:分库连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。 mylink 用户名 待连接数据库的用户。 仅当“数据源列表”中某个后端数据库A未配置用户名密码时,该配置对A生效。如果后端数据库B已配置用户名密码,此处配置不对B生效。 cdm 密码 待连接数据库的用户密码。 仅当“数据源列表”中某个后端数据库A未配置用户名密码时,该配置对A生效。如果后端数据库B已配置用户名密码,此处配置不对B生效。 使用Agent 是否选择通过Agent从源端提取数据。 是 Agent 单击“选择”,选择管理Agent中已创建的Agent。 后端数据源 输入后端数据库的类型,当前仅支持MYSQL。 MYSQL 数据源列表 输入后端数据库的IP、端口、数据库名称、账户名、密码,以“:”隔开。即ip:port:dbs:username:password,其中username:password可以不填,此时以“用户名”、“密码”配置为准。 如果此处有多个后端数据库,需要确保表结构一致,并使用“l”分隔数据源。如果密码包含“l”或者“:”,可使用“”转义。 例如 “192.168.2.1:3306:cdm192.168.2.2:3306:cdm:user:password”表示,第一个后端数据库IP为192.168.2.1,端口为3306,数据库名称为cdm,账户名密码以“用户名”、“密码”处配置为准;第二个后端数据库IP为192.168.2.2,端口为3306,数据库名称为cdm,账户名为“user”、密码为“password”。 192.168.2.1:3306:cdm192.168.2.2:3306:cdm:user:password 一次请求行数 可选参数,单击“显示高级属性”后显示。 指定每次请求获取的行数,根据数据源和作业数据规模的大小配置该参数。如果配置过大或过小,可能影响作业的时长。 1000 连接属性 可选参数,单击“添加”可增加多个指定数据源的JDBC连接器的属性,参考对应数据库的JDBC连接器说明文档进行配置。 sslmoderequire 引用符号 可选参数,连接引用表名或列名时的分隔符号,参考对应数据库的产品文档进行配置。 '
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理连接
        配置分库连接
      • Oracle数据库初始化
        本节为Oracle RAC搭建最佳实践的Oracle数据库初始化进行说明。 静默安装 与grid和database安装相同,预先准备response文件,然后以静默安装的方式进行Oracle数据库的配置。 response文件位于:/u01/app/oraclehome/assistants/dbca/dbca.rsp 。 切换到oracle用户,并切换到 /u01/app/oraclehome ,执行dbca命令: [oracle@racnode01 oraclehome]$ dbca silent createDatabase responseFile assistants/dbca/dbca.rsp 以上安装命令可能会失败,需要检查执行日志文件,处理失败项,然后跳过非关键问题后继续执行: [oracle@racnode01 oraclehome]$ dbca silent ignorePrereqFailure createDatabase responseFile assistants/dbca/dbca.rsp 检查状态 检查配置的ora.racdb.db是否正常 ONLINE 。 [root@racnode01 ~] crsctl stat res t ... ora.racdb.db 1 ONLINE ONLINE racnode01 Open,HOME/u01/app/o raclehome,STABLE 2 ONLINE ONLINE racnode02 Open,HOME/u01/app/o raclehome,STABLE 安装完成之后,可以通过Oracle相关测试工具(如 swingbench ),进行功能、性能、稳定性测试。
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        弹性裸金属ORACLE RAC搭建最佳实践
        Oracle软件配置安装
        Oracle数据库初始化
      • 应用场景
        安全办公场景 场景特点: 需要对员工行为做一定约束,对敏感岗位的电脑数据安全需要做到事前防控和事后审计,需要较丰富的管理功能。 推荐方案: 开通天翼AI云电脑(政企版)+ 管控策略+翼甲卫士(需要单独开通,详见翼甲卫士帮助指导)。 方案优势: 1、按需提供基于私网、公网的接入方式。 2、通过精细到品牌、型号的外设管控策略,防止未经授权的设备接入AI云电脑。 3、通过包括翼加密、屏幕水印、登录鉴权、登录审计在内的方式,加强信息泄露的事前威慑、事中管控、事后审计。 4、通过应用黑白名单、安全组、翼甲上网行为管理等组件,强化敏感岗位的员工行为管理。 5、提供包括文件剪切板权限、桌面工具栏权限、关机还原在内的其他个性化策略,帮助企业实现更多精细化、个性化的数据安全管理。 用户场景图:
        来自:
        帮助文档
        天翼云电脑(政企版)
        产品介绍
        应用场景
      • 创建Nacos实例
        本章节介绍如何创建一个 Nacos引擎实例 概述 Nacos引擎包括配置中心和注册中心,提供动态配置、服务发现和服务健康监测等简单易用的特性,经过实践检验具备高性能和高可用性,帮助用户管理配置、注册和发现微服务,更加快捷方便地构建、交付和管理微服务平台。 为了方便您开通实例,从天翼云官网控制中心> 微服务工具与平台 > 微服务引擎MSE,点击进入产品页面,点击左侧菜单栏的注册配置中心>实例列表,进入注册配置中心控制台。本文将介绍如何创建一个Nacos引擎实例。 操作步骤 1. 进入微服务引擎控制台,并在左上方选中您需要开通产品的资源池。点击“注册配置中心”页签,进入“实例列表”页签; 2. 点击页面左上方的“创建实例”按钮,进入实例开通页面; 3. 选择开通配置,配置项详细说明如下: 计费模式:目前可选择“包年包月”或“按需付费”,具体计费模式和规则可点击右侧的“查看产品定价”查看; 系列:目前可选择“单机版”或“集群版”或“企业版”,推荐您开通集群版或企业版,以保障实例的高可用性,企业版目前支持通过白名单方式开放订购,若您需要订购使用,请联系客户经理或提工单进行解决。 引擎类型:若您需要开通Nacos引擎,则选中“Nacos”; 实例名称:输入该实例的名称,实例名称是帮助您区分不同实例的重要标识; 实例规格:可选择将实例搭载在指定CPU、内存规格的机器上; 节点数量:可选择开通实例的节点数,节点数越大,实例越高可用; 部署模式和可用区:可选择将多节点实例部署在不同可用区,进一步提高可用性; 虚拟私有云:选择将实例开通在指定的虚拟私有云(VPC)下; 所在子网:选择将实例开通在该虚拟私有云指定的子网下; 安全组:为该实例绑定指定的安全组规则; 购买时长和自动续期:若您选择“包年包月”,则需要选择您购买的周期,并选中到期时是否自动续期; 4. 配置确认后,点击右下方的“下一步”按钮,进入开通配置确认页面,确认无误后,点击“提交订单”,进入订单结算页面。完成支付后,等待5至10分钟,即可完成开通; 5. 开通完成后,您可以在微服务引擎控制台的“注册配置中心”页签下找到您开通的实例。
        来自:
        帮助文档
        微服务引擎
        快速入门
        注册配置中心
        创建Nacos实例
      • 产品功能
        日志和监控 提供调用函数的监控指标和运行日志的采集和展示,实时的图形化监控指标展示,在线查询日志,方便用户查看函数运行状态和定位问题。 初始化功能 引入initializer接口: 分离初始化逻辑和请求处理逻辑,程序逻辑更清晰,让用户更易写出结构良好,性能更优的代码。 用户函数代码更新时,系统能够保证用户函数的平滑升级,规避应用层初始化冷启动带来的性能损耗。新的函数实例启动后能够自动执行用户的初始化逻辑,在初始化完成后再处理请求。 在应用负载上升,需要增加更多函数实例时,系统能够识别函数应用层初始化的开销,更精准的计算资源伸缩的时机和所需的资源量,让请求延时更加平稳。 函数流 函数流是用来编排FunctionGraph函数的工具,可以将多个函数编排成一个协调多个分布式函数任务执行的工作流。 用户通过在可视化的编排页面,将事件触发器、函数和流程控制器通过连线关联在一个流程图中,每个节点的输出作为连线下一个节点的输入。编排好的流程会按照流程图中设定好的顺序依次执行,执行成功后支持查看工作流的运行记录,方便您轻松地诊断和调试。 函数流功能特性和优势: 功能特性 函数可视化编排 函数流执行引擎 错误处理 可视化监控 优势 使用更少代码快速构建应用程序函数流允许用户将函数组合编排成一个完整的应用程序,而无需进行代码编写。可以实现快速构建,快速上线。当业务调整时,可以快速调整流程,完成快速上线,无需编写任何代码。 完善的错误处理机制。支持对流程中发生的错误进行捕获和重试,用户可以进行灵活的异常处理。 可视化的编排和监控体验。通过拖拽进行流程编排,学习成本低,可以快速上手。监控页面使用流程可视化的查看方式,可以做到快速识别问题位置。 HTTP函数 HTTP函数专注于优化 Web 服务场景,用户可以直接发送 HTTP 请求到 URL 触发函数执行。在函数创建编辑界面增加类型。HTTP函数只允许创建APIG/APIC的触发器类型,其他触发器不支持。 自定义镜像 支持用户直接打包上传容器镜像,由平台加载并启动运行,调用方式与HTTP函数类似。与原本上传代码方式相比,用户可以使用自定义的代码包,不仅灵活也简化了用户的迁移成本。
        来自:
        帮助文档
        函数工作流
        产品简介
        产品功能
      • 编码解码函数
        函数 说明 urlencoding 对数据进行URL编码。 urldecoding 对数据进行URL解码。 strencode 按照指定的编码格式对字符串进行编码。 strdecode 按照指定的编码格式对传入值进行解码。 base64encoding 对数据进行base64编码。 base64decoding 对数据进行base64解码。 md5encoding 对数据进行MD5编码。 sha1encoding 对数据进行SHA1编码。 crc32encoding 计算数据的循环冗余校验码。
        来自:
        帮助文档
        云日志服务
        用户指南
        数据加工
        数据加工语法
        编码解码函数
      • DTS如何保护用户的数据
        本页为您介绍数据传输服务DTS如何保护用户的数据。 数据传输服务DTS通过多种数据保护手段和特性,保障传输中数据的安全性和完整性。 断点续传 当用户暂停任务,或源库发生异常不可连接时,DTS数据传输服务会记录最后迁移的位点,待用户重新启动任务、源库恢复正常时,继续从当前位点开始迁移,保障用户迁移数据的完整性。 回收任务完成资源 在用户的迁移、同步任务完成后,DTS数据传输服务将会销毁迁移、同步的工作节点,不保留任何用户数据,充分保障用户的数据安全。 安全的云服务 DTS数据传输服务构建在高效、可靠、安全的弹性云主机和云存储上,结合其能力,保证迁移、同步任务稳定运行。
        来自:
        帮助文档
        数据传输服务DTS
        产品概述
        安全
        DTS如何保护用户的数据
      • 数据分类
        本章主要介绍如何创建数据分类规则。 只有在创建数据分类规则之后,您才可以创建数据脱敏策略进行数据脱敏。 前提条件 数据密级定义已完成,请参见上篇数据密级。 新建分类规则 1. 在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据目录”模块,进入数据目录页面。 详见下图:选择数据目录 2. 选择“数据安全 > 数据分类”,在“分类规则”页签中,单击“新建”。 系统弹出“新建分类”对话框,填写相关配置,完成创建分类规则。支持按模板创建(内置)规则和自定义规则两种方式。 详见下图:配置分类规则 配置分类规则参数说明 配置 说明 分类类型 即规则所属分类,支持内置(按模板添加)和自定义添加。 密级 对配置的数据进行等级划分。如果现有的分级不满足需求,请进入数据密级管理页面进行设置,详情请参见上篇数据密级。 分类模板 分类类型选择“内置”,呈现此参数。如果选择“内置”,用户可以根据实际需要选择系统内置的敏感数据识别定义模板,例如:时间、手机号、车牌号。 分类名称 分类类型选择“内置”,分类名称自动关联分类模板生成。 分类类型选择“自定义”,用户可以自行填写分类名称。 说明 定义数据分类规则,名称必须唯一。 识别规则 分类类型选择“自定义”,呈现此参数,支持正则表达式。 正则表达式 内容识别:提供的数据识别方式之一,自定义正则表达式。 列名识别:提供字段名精确匹配和模糊匹配方式,支持多个字段匹配。 描述 对当前规则进行简单描述。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据目录
        数据安全(待下线)
        数据分类
      • 恢复DBService数据
        本章主要介绍翼MapReduce的恢复DBService数据功能。 操作场景 在用户意外修改、删除或需要找回数据时,系统管理员对DBService进行重大操作(如升级、重大数据调整等)后,系统数据出现异常或未达到预期结果,模块全部故障无法使用,或者迁移数据到新集群的场景中,需要对DBService进行恢复数据操作。 系统管理员可以通过FusionInsight Manager创建恢复DBService任务。只支持创建任务手动恢复数据。 须知 只支持进行数据备份时的系统版本与当前系统版本一致时的数据恢复。 当业务正常时需要恢复数据,建议手动备份最新管理数据后,再执行恢复数据操作。否则会丢失从备份时刻到恢复时刻之间的DBService数据。 MRS集群中默认使用DBService保存Hive、Hue、Loader、Spark、Oozie的元数据。恢复DBService的数据将恢复全部相关组件的元数据。 对系统的影响 数据恢复后,会丢失从备份时刻到恢复时刻之间的数据。 数据恢复后,依赖DBService的组件可能配置过期,需要重启配置过期的服务。 前提条件 如果需要从远端HDFS恢复数据,需要准备备集群。如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 检查DBService主备实例状态是否正常。如果不正常,不能执行恢复操作。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        恢复数据
        恢复DBService数据
      • 模拟访问测试
        本文介绍如何模拟访问测试及前提须知。 在客户控制台成功添加加速域名后,为保障DNS解析顺利切换且不影响客户的现有业务,建议先模拟访问进行功能验收,验收无误后,再切换DNS解析。 前提须知 1. 客户在天翼云控制台新增域名时,需先通过域名归属权验证。详见:验证域名归属权。 2. 通过域名归属权验证后,可前往天翼云控制台,在“添加域名”界面点击验证,验证通过就可以正常操作新增域名。详见:添加加速域名。 3. 客户在控制台【域名管理】中添加的域名源站可正常访问。 操作步骤 1. 在天翼云客户控制台的【域名管理】【域名列表】,复制加速域名对应的CNAME记录值。 2. 通过ping(Windows)或dig(MAC) CNAME记录的方式,如 ping .ctdns.cn 获取该CNAME解析出来的天翼云已为您分配的某个节点IP,即为可测试验证功能的线上节点IP。 3. 修改本地电脑的HOSTS文件,添加一条记录,如:“IP 加速域名”,让本地电脑访问加速域名时,强制绑定解析到该节点IP,由该节点IP进行服务,从而可以通过本地电脑来验证加速域名对应的相关业务功能和场景。 4. 验证内容: 成功绑定HOSTS文件后,您可以打开浏览器,在本地电脑访问加速域名进行连通性测试,测试结果可通过浏览器自带的开发者工具(F12)查看。如果浏览器访问到的IP和您在HOSTS文件中绑定的IP一致,表示HOSTS文件配置正确。 在电脑本地成功访问加速域名绑定的IP后,您可以基于自己的测试用例URL,或者必要的核验步骤,验证相关功能的准确性。例如在浏览器中访问一个源站存在的URL,查看对应URL返回的状态码是否200;一般首次访问全站加速节点,如全站加速节点可正常回源获取该文件,则会返回200状态码至客户端。如果返回状态码非200或其他功能验证不符合预期,请提交工单联系天翼云客服处理。
        来自:
        帮助文档
        全站加速
        快速入门
        启用全站加速服务
        模拟访问测试
      • 重装/切换操作系统/变更规格对磁盘数据有影响吗
        本文介绍重装/切换操作系统/变更规格对磁盘数据有影响吗 对系统盘数据的影响 重装系统(linux)会清除系统盘数据,包括系统盘的系统分区和所有其他分区挂载点配置,请做好数据备份; 重装系统(windows)会清除系统盘数据,包括系统盘的系统分区和所有其他分区挂载点配置,软件安装后的注册表信息,请做好数据备份。 变更规格对系统盘没有影响。 对数据盘的影响 重装系统(windows),相关软件需要试用可能造成程序不可用,需要重新安装,但是之前程序在数据盘的数据会保留。 变更规格对数据盘没有影响。
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        操作系统管理
        重装操作系统
        重装/切换操作系统/变更规格对磁盘数据有影响吗
      • 产品咨询类
        本文罗列了使用数据管理服务时可能遇到的一些问题。 数据管理服务如何计费? 数据管理服务目前仍处于限时免费阶段,暂不收费,用户可以免费使用。 目前提供免费使用是为了广泛收集用户反馈,不断优化和完善服务,以提供更加优质的数据管理体验。随着数据管理服务的发展和成熟,未来可能会根据市场需求和用户需求进行收费。 数据管理服务支持哪些数据库? 目前已支持MySQL、PostgreSQL、SQL Server、DRDS、MongoDB、DDS等,更多数据库类型支持正在上线中。 您可以在添加新实例页面查看数据管理服务目前已支持的数据库类型,目前在DMS控制台添加新实例的路径有以下几种: 点击菜单数据资产>实例管理,点击页面左上方添加实例按钮。 点击菜单实例列表,在实例列表点击右上角添加实例按钮。 点击菜单安全协作>团队管理,点击团队实例管理标签页,点击页面左上方添加实例至团队按钮。 数据管理服务支持哪些数据库来源? 目前已支持天翼云数据库、公网/直连数据库、AOne环境数据库等数据库来源,更多来源支持正在上线中。 您可以在添加新实例页面查看数据管理服务目前已支持的数据库来源,目前在DMS控制台添加新实例的路径有以下几种: 点击菜单数据资产>实例管理,点击页面左上方添加实例按钮。 点击菜单实例列表,在实例列表点击右上角添加实例按钮。 点击菜单安全协作>团队管理,点击团队实例管理标签页,点击页面左上方添加实例至团队按钮。
        来自:
        帮助文档
        数据管理服务
        常见问题
        产品咨询类
      • DTS安全白皮书
        本页为数据传输服务DTS的安全白皮书。 天翼云DTS是一种集数据迁移和数据实时同步于一体的数据传输服务。它支持关系型数据库间的数据传输,致力于解决远距离、毫秒级异步数据传输难题。 DTS秉承天翼云对用户的安全承诺,通过完善的账号权限体系、网络隔离与防护、数据加密传输、断点续传、数据校验,保障用户在进行数据迁移、同步过程中的安全性、可用性和数据一致性。 完善的账号权限体系 DTS在天翼云完善的账号权限体系的基础上,为用户提供严格的租户隔离,以及对各种资源进行了精细的权限控制,保障了用户的账号、数据和进行各项操作的安全性。 网络隔离与防护 DTS借助天翼云的Web应用防火墙和主机安全,以及基于HTTPS加密传输,实现了可靠的网络防护和Web访问的安全性。DTS实例通过VPC实现不同用户资源的网络隔离,以及通过网络ACL和安全组实现了资源粒度,如ECS、数据库实例的严格、精细的出入流量控制,保障了资源访问的安全性。 数据加密传输 DTS对于数据传输的源端和目标端之间的连接,提供了可选的SSL加密传输的连接方式,保障了数据迁移、同步过程中数据传输的安全性。 断点续传 DTS实现了断点续传功能,保障了数据迁移、同步的稳定性和高效性。
        来自:
        帮助文档
        数据传输服务DTS
        安全白皮书
        DTS安全白皮书
      • 使用数据订阅
        数据订阅功能支持您订阅指标或者告警数据,配置订阅任务后可以将数据转发到您配置的Topic或URL地址。 操作场景 对于实时指标/告警数据,您如需要进行二次消费使用,可以通过数据订阅功能配置订阅任务,实现数据的实时订阅消费, 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 说明 数据订阅功能当前为受限开放阶段,仅支持部分资源池,如有需要可以联系客户经理提单开通。 创建数据订阅任务前提需先创建订阅渠道。 管理数据订阅任务 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,本文我们选择华东1。 3. 依次选择“管理与部署”,单击“云监控服务”,进入监控概览页面。 4. 选择“数据订阅”菜单,即可进入数据订阅任务列表页面。
        来自:
        帮助文档
        云监控服务
        快速入门
        使用数据订阅
      • 数据权限简介
        本章节主要介绍数据治理中心的数据目录的数据权限简介。 为确保数据使用安全可控,使用数据表需要先申请权限。数据权限模块为用户提供便捷的权限管控能力,提供可视化申请审批流程,并可以进行权限的审计和管理。提高数据安全的同时,还可以方便用户进行数据权限管控。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据目录
        数据权限
        数据权限简介
      • 通过DMS登录SQL Server实例
        本页介绍如何通过数据管理服务DMS登录关系数据库SQL Server版实例。 操作场景 创建关系数据库SQL Server版实例后,可以通过登录数据管理服务DMS对数据库实例进行数据管理、用户授权、SQL审计、数据可视化等管理操作。 前置条件 创建数据库和账号。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 关系数据库SQL Server版】,进入关系数据库SQL Server产品页面。然后单击【管理控制台】,进入TeleDB数据库【概览】页面。 2. 在左侧导航栏,选择【SQL Server > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 您有三种方式可以进入数据管理服务DMS。 1. 在实例列表上方,单击【进入数据管理服务】,即可进入到DMS的首页,根据提示信息填写相关信息,即可登入DMS。 2. 在实例列表中,单击目标实例名称,进入实例【基本信息】页面,单击右上角的【登录数据库】,即可进入该实例的DMS登录页面。 3. 在实例列表中,找到目标实例,在【操作】列选择【更多 > 登录数据库】,即可进入该实例的DMS登录页面。 4. 登入DMS后,即可对相应实例的数据库实例进行管理。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        数据库工具
        通过DMS登录SQL Server实例
      • 配置DDS连接
        本章节主要介绍数据治理中心的配置DDS连接功能。 DDS连接适用于云上的文档数据库服务,常用于从DDS同步数据到大数据平台。 连接云服务DDS时,相关参数详见下表: DDS连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。 ddslink 服务器列表 服务器地址列表,输入格式为“数据库服务器域名或IP地址:端口”。多个服务器列表间以“;”分隔。 192.168.0.1:7300;192.168.0.2:7301 数据库名称 要连接的DDS数据库名称。 DBdds 用户名 连接DDS的用户名。 cdm 密码 连接DDS的密码。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理连接
        配置DDS连接
      • 1
      • ...
      • 76
      • 77
      • 78
      • 79
      • 80
      • ...
      • 449
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务 MDR

      GPU云主机

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      应用托管

      一站式智算服务平台

      智算一体机

      推荐文档

      导入数据

      客户端下载安装

      产品优势

      《工业和信息化部关于进一步落实网站备案信息真实性核验工作方案(试行)》工信部电管〔2010〕64号

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号