活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      数据集成工具_相关内容
      • 配置DDS连接
        本章节主要介绍数据治理中心的配置DDS连接功能。 DDS连接适用于云上的文档数据库服务,常用于从DDS同步数据到大数据平台。 连接云服务DDS时,相关参数详见下表: DDS连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。 ddslink 服务器列表 服务器地址列表,输入格式为“数据库服务器域名或IP地址:端口”。多个服务器列表间以“;”分隔。 192.168.0.1:7300;192.168.0.2:7301 数据库名称 要连接的DDS数据库名称。 DBdds 用户名 连接DDS的用户名。 cdm 密码 连接DDS的密码。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理连接
        配置DDS连接
      • 删除数据集
        本文介绍如何在科研助手中删除数据集。 操作步骤 1. 登录科研助手管理控制台。 2. 在控制台左侧导航栏中,选择【数据存储】 3. 在【数据存储】弹出的选项中,选择【数据集管理】。 4. 选择一个数据集,在操作栏中单击【删除】按钮。注意:已被开发环境/作业挂载的数据集无法删除。 5. 此时弹出【删除数据集】页面,确认信息无误后,单击弹窗的【确认删除】按钮,删除数据集。
        来自:
        帮助文档
        科研助手
        用户指南
        数据存储
        数据集管理
        删除数据集
      • 通过DMS登录SQL Server实例
        本页介绍如何通过数据管理服务DMS登录关系数据库SQL Server版实例。 操作场景 创建关系数据库SQL Server版实例后,可以通过登录数据管理服务DMS对数据库实例进行数据管理、用户授权、SQL审计、数据可视化等管理操作。 前置条件 创建数据库和账号。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 关系数据库SQL Server版】,进入关系数据库SQL Server产品页面。然后单击【管理控制台】,进入TeleDB数据库【概览】页面。 2. 在左侧导航栏,选择【SQL Server > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 您有三种方式可以进入数据管理服务DMS。 1. 在实例列表上方,单击【进入数据管理服务】,即可进入到DMS的首页,根据提示信息填写相关信息,即可登入DMS。 2. 在实例列表中,单击目标实例名称,进入实例【基本信息】页面,单击右上角的【登录数据库】,即可进入该实例的DMS登录页面。 3. 在实例列表中,找到目标实例,在【操作】列选择【更多 > 登录数据库】,即可进入该实例的DMS登录页面。 4. 登入DMS后,即可对相应实例的数据库实例进行管理。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        数据库工具
        通过DMS登录SQL Server实例
      • 恢复Hive业务数据
        本章主要介绍翼MapReduce的恢复Hive业务数据功能。 操作场景 在用户意外修改、删除或需要找回数据时,系统管理员对Hive进行重大操作(如升级、重大数据调整等)后,系统数据出现异常或未达到预期结果,模块全部故障无法使用,或者迁移数据到新集群的场景中,需要对Hive进行恢复数据操作。 系统管理员可以通过FusionInsight Manager创建恢复Hive任务并恢复数据。只支持创建任务手动恢复数据。 Hive备份恢复功能不支持识别用户的Hive表、索引、视图等对象在业务和结构上存在的关联关系。用户在执行备份恢复任务时,需要根据业务场景管理统一的恢复点,防止影响业务正常运行。 须知 只支持进行数据备份时的系统版本与当前系统版本一致时的数据恢复。 当业务正常时需要恢复数据,建议手动备份最新管理数据后,再执行恢复数据操作。否则会丢失从备份时刻到恢复时刻之间的Hive数据。 对系统的影响 恢复过程中会停止用户认证,用户无法开始新的连接。 数据恢复后,会丢失从备份时刻到恢复时刻之间的数据。 数据恢复后,需要重新启动Hive的上层应用。 前提条件 如果需要从远端HDFS恢复数据,需要准备备集群。如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 规划好恢复数据保存表的数据库,数据表在HDFS的保存位置,以及访问恢复数据的用户清单。 检查Hive备份文件保存路径。 停止Hive的上层应用。 登录FusionInsight Manager,请参见登录管理系统。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        恢复数据
        恢复Hive业务数据
      • 导入数据至DLI表的方式
        本章节主要介绍导入数据至DLI表的方式。 通过OBS导入数据 在DLI管理控制台,将存储在OBS服务上的数据导入DLI表中入口有两个,分别在“数据管理”>“库表管理”>“表管理”页面和“SQL编辑器”页面。具体操作请参考导入数据。 通过CDM导入数据 通过数据迁移服务(CDM)将OBS上的数据导入到DLI,导入需要创建CDM队列。 具体操作请参见《数据治理中心 DataArts Studio用户指南》中的的“OBS数据迁移到DLI服务”章节。 在操作过程中请注意以下关键配置: DLI所在的VPC与CDM队列的VPC一致。 需要创建两个连接,即DLI连接,OBS连接。 传输数据的文件格式支持“CSV格式”和“JSON格式”。
        来自:
        帮助文档
        数据湖探索
        用户指南
        其他常用操作
        导入数据至DLI表的方式
      • 投递日志数据至OBS桶
        本章节介绍如何投递日志数据至OBS桶。 约束与限制 跨账号投递仅支持投递到其他账号管道中,不支持投递到其他云服务。 如果新增的数据投递为跨账号投递,则需要登录目的账号进行授权操作。 步骤一:创建数据投递任务 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间> 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“日志审计 > 安全数据”,进入安全分析页面。 5. 在左侧数据空间导航栏中,单击数据空间名称,展开数据管道后,单击目标管道名称后的“更多 > 投递”,右侧弹出现在数据投递设置页面。 6. (可选)在弹出的授权提示中,确认无误后,单击“确定”,完成授权。 首次投递到目的投递类型需要进行授权,如果已经授权,则无需执行此步骤。 7. 在新增投递配置页面中,配置数据投递相关参数。 1. 配置基本信息。 参数名称 参数说明 投递名称 自定义投递名称。 投递资源消耗 默认生成,无需配置。 2. 配置数据源。 数据源配置中,显示当前管道数据的详细信息,无需配置。 参数名称 参数说明 投递类型 数据投递类型,默认显示为PIPE,即默认从态势感知(专业版)管道投递数据。 区域 当前管道所在区域。 工作空间 当前管道所属的工作空间。 数据空间 当前管道所属的数据空间。 管道 管道的名称。 数据位置策略 当前管道中数据位置的策略。 读取身份 数据源读取身份信息说明。 3. 配置数据目的,请根据投递目的进行配置。 OBS:将当前管道数据投递到OBS服务。 投递到OBS中,需要已有一个桶策略为私有、公共读或公共读写的可用的桶(暂不支持并行文件桶)。 参数名称 参数说明 账号类型 选择数据投递目的地的账号类型。投递到OBS服务仅支持选择“本账号”类型。 投递类型 选择投递类型,此处选择OBS。 桶名称 选择目的OBS桶名称。 写入身份 默认生成,无需配置。 4. 在“访问授权”中,查看步骤6中授予的权限。 投递请求需要获取访问您云资源的读写权限,授权后,投递任务才能拥有对您云资源相应的访问权限。 8. 单击“确定”。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        日志审计
        数据投递
        投递日志数据至OBS桶
      • 创建数据集
        本文介绍如何在科研助手中创建数据集。 操作步骤 1. 登录科研助手管理控制台。 2. 在控制台左侧导航栏中,选择【数据存储】的【数据集管理】。 3. 在【数据集管理 】页面,点击左上角的【个人数据集 】选项卡。 4. 在【个人数据集】页面,点击左上角的【创建数据集】按钮。 5. 在弹出的【创建数据集 】页面中,存储类型选择【SFS 】,配置参数。创建数据集页面如下: 6. 点击右下角的【确认】,即可完成数据集的创建。 7. 具体参数如下表所示: 参数 说明 是否必选 名称 作业名称。要求如下:长度范围为4~36个字符。名称由小写字母、数字、中划线()组成。以小写字母开头。以小写字母或数字结尾。 是 可用区 开发机可选的可用区。 是 存储类型 数据集使用的存储类型,默认为SFS。 是 选择IO类型 IO类型,默认为超高IO云硬盘。 是 存储容量 数据集的存储容量大小,要求输入为数字,单位为GiB。 是
        来自:
        帮助文档
        科研助手
        用户指南
        科研版
        数据存储
        数据集管理
        创建数据集
      • 概述
        关于媒体存储数据迁移的能力概述。 适用场景 媒体存储为客户提供在线迁移服务,客户可以通过在线迁移服务实现以下数据迁移场景: 将同个账号的媒体存储的某个bucket数据迁移至另一个bucket。 跨不同的天翼云账号迁移媒体存储间的数据。 将第三方数据,如阿里云、AWS等数据迁移到媒体存储。 说明 目前数据迁移为内测能力,如有需要,可联系客户经理或 功能说明 数据迁移具备以下能力: 用户可以通过媒体存储控制台页面,快速配置数据迁移策略;可指定需要迁移的对象范围、覆盖方式。 提供任务管理页面,用户可随时掌握迁移进度,管理迁移任务。 采用HTTPS数据加密通道,保证迁移传输安全;服务会自动比对数据,保证迁移数据的准确性。 提供迁移报告,用户可直观了解迁移总数、成功数、失败数,支持失败对象一键重试。 使用方式 操作途径 使用方式 控制台 可参考:创建迁移任务。
        来自:
        帮助文档
        媒体存储
        用户指南
        数据迁移
        概述
      • 数据迁移后sql执行速度慢
        本文主要介绍MySQL数据迁移后sql执行速度慢的原因分析及解决方案。 场景描述 数据迁移至MySQL实例后,sql语句执行明显慢于原数据库。 原因分析 数据迁移至MySQL实例后,第一次执行的sql比在原数据库执行的性能差, 是由MySQL的bufferpool机制决定的:sql语句第一次执行时,由于执行计划和查询数据等信息未加载至bufferpool中,需要生成执行计划,并从磁盘加载数据,磁盘IO读写性能明显差于内存bufferpool的读写性能,因为第一次执行速度会慢很多;sql第一次执行完后,读取的数据会被存放于内存的bufferpool中,当第二次执行相同语句时,数据直接从bufferpool中读取,因此数据的访问速度明显快于第一次从磁盘访问数据速度。 该场景中,在原数据库中执行sql读取的数据一般来源于bufferpool,访问速度极快。当数据迁移到云上MySQL时,第1次执行同样的sql语句,需要从磁盘读取,就会访问较慢,当再次执行相同sql会从内存读取,执行速度就会恢复正常。 解决方案 该场景属于正常现象,在同一个数据库中,第1次执行sql时很慢,但再次执行由于数据已经被加载到bufferpool中,执行速度会明显提升。
        来自:
        帮助文档
        关系数据库MySQL版
        故障排查
        性能资源类
        数据迁移后sql执行速度慢
      • 密钥概述
        用户主密钥包括“对称密钥”和“非对称密钥”。对称密钥加密是最常用的数据加密保护方式,相比对称密钥加密,非对称密钥通常用于在信任程度不对等的系统之间,实现数字签名验签或者加密传递敏感信息。用户主密钥包括“对称密钥”和“非对称密钥”。 对称密钥加密是最常用的数据加密保护方式,相比对称密钥加密,非对称密钥通常用于在信任程度不对等的系统之间,实现数字签名验签或者加密传递敏感信息。非对称密钥由一对公钥和私钥组成,他们互相关联,其中的公钥可以被分发给任何人,而私钥必须被安全的保护起来,只有受信任者可以使用。 使用非对称密钥生成数字签名以及验证签名:签名者将验签公钥分发给消息接收者,使用签名私钥,对数据产生签名,并将数据以及签名传递给消息接收者。消息接收者获得数据和签名后,使用公钥针对数据验证签名的合法性。 KMS支持的密钥算法类型 钥类型 算法类型 密钥规格 说明 用途 对称密钥 AES AES256 AES对称密钥 小量数据的加解密或用于加解密数据密钥。 对称密钥 SM4 SM4 国密SM4对称密钥 小量数据的加解密或用于加解密数据密钥。 非对称密钥 RSA RSA204 8RSA3072 RSA4096 RSA非对称密钥 小量数据的加解密或数字签名。 非对称密钥 ECC ECP256 ECP384 椭圆曲线密码,使用NIST推荐的椭圆曲线 数字签名。 非对称密钥 SM2 SM2 国密SM2非对称密钥 小量数据的加解密或数字签名。
        来自:
      • 查看质量报告
        查看数据质量评分 质量评分的满分可设置为5分,10分,100分。默认为5分制,是以表关联的规则为基础进行评分的。而表、数据库等不同维度的评分均基于规则评分,本质上是基于规则评分在不同维度下的加权平均值进行计算的。 您可以查询所创建数据连接下数据库、数据库下的数据表以及数据表所关联规则的评分,具体评分对象的计算公式,请参见下表。 对象评分计算公式 对象 评分计算公式 规则 创建质量作业时,作业关联的规则中结果说明列包含“比率”、“值率”的系统内置规则及用户自定义规则可以生成质量评分报告。 包含“比率”、“值率”的规则可以分为正向规则及反向规则,正向规则即比值越高,代表数据质量越好;反向规则即比值越高,则数据质量越差。 正向规则包含唯一值率、重复值率、合法比率规则,反向规则包含空值率规则。 正向规则评分满足规则的数据行数/数据总行数满分(5,10,100)。 反向规则评分(1满足规则的数据行数/数据总行数)满分(5,10,100)。 数据表 表评分计算公式:∑(表关联的所有规则评分规则权重)/∑规则权重 数据库 数据库下所有数据表评分的加权求平均值,即:∑数据库下所有数据表评分/表的数量。 1.在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据质量”模块,进入数据质量页面。 选择数据质量 2.选择“数据质量监控 > 质量报告”。 3.在“技术报告”页签,选择数据连接及截至日期,查询截至日期前7天的数据质量评分,如下图所示。 选择数据连接 说明 以评分满分为5分为例。其中45分评价为优秀,34分为良好,23分为不及格,12分为较差,01分为极差。 当天质量评分数据在次日凌晨生成。 质量评分历史趋势中的实线为截至日期前7天质量评分组成的连线,虚线为这7天质量评分的平均分。 若一天多次运行该作业,当天的质量评分为最后一次的得分。 4.单击“表评分”列的评分值链接,展开该表关联的规则评分。 5.单击“规则评分”列的评分值链接,展开该规则关联的字段评分,如下图所示。 表关联规则评分界面
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据质量
        数据质量监控
        查看质量报告
      • ALM-38008 Kafka数据目录状态异常
        本章节主要介绍ALM38008 Kafka数据目录状态异常的告警。 告警解释 系统每60秒周期性检测Kafka数据目录状态,当检测到某数据目录状态异常时产生该告警。 平滑次数为1,当数据目录状态恢复正常后,告警恢复。 告警属性 告警ID 告警级别 是否自动清除 38008 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名称。 目录名 产生告警的目录名称。 Trigger Condition Kafka数据目录状态异常。 对系统的影响 Kafka数据目录状态异常,会导致该数据目录上所有Partition的当前副本下线,多个节点同时出现数据目录状态异常,可能会导致部分Partition不可用。 可能原因 数据目录权限被篡改。 数据目录所在磁盘故障。 处理步骤 检查故障的数据目录权限 根据告警提示的主机信息,登录到该节点上。 1. 查看告警详细信息中所提示的数据目录及其子目录,属组是否为omm:wheel。 是,记录当前节点主机名,并执行步骤4。 否,执行步骤3。 2. 恢复数据目录及其子目录的属组为omm:wheel。 检查数据目录所在磁盘是否故障 使用omm用户,在所提示的数据目录的上一级目录下,进行创建、删除文件测试,看能够正常读写磁盘。 是,执行步骤6。 否,执行步骤5。 3. 更换或者修复数据目录所在磁盘,保证其可以正常读写。 4. 在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Kafka > 实例”,进入Kafka实例页面,重启步骤2中主机名上的Broker实例。 5. 等待Broker启动完成之后,观察界面告警是否清除。 是,处理完毕。 否,执行步骤8。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-38008 Kafka数据目录状态异常
      • 导入导出
        数据导出 前提条件 您已经在MySQL数据库管理服务控制台中创建用户库。详情请参见首页新建数据库。 操作场景 由于数据查询只限于服务少量数据的实时查询,数据量大时,需要分页查看,此时,您可通过数据导出功能,快捷获得一次查询的所有数据信息;或者当进行数据备份或迁移时,您也可通过数据导出功能,获取完整的数据信息。 操作步骤 1. 在云服务登录页面,输入账号及密码,登录管理控制台。 2. 单击管理控制台左上角的,选择区域和项目。 3. 在服务列表页面,选择“数据库 > 数据管理服务”,进入数据管理服务信息页面。 4. 选择需要登录的数据库,单击操作栏的“登录”。进入MySQL数据库管理服务首页。 5. 在顶部菜单栏选择“导入·导出”>“导出”。 6. 在导出页面,单击左上角“新建任务”,您可根据需要选择“导出数据库”或“导出SQL结果集”。下文以导出数据库为例,导出SQL集同理。 您也可通过单击“快速导出”,选择目标数据库,在创建快速导出任务弹窗中选择存储位置,并单击“确定”。 7. 在导出数据库弹出页面,您可按需选填“基本信息”及“高级选项”,并在页面右侧选择需要导出的表。 说明 SQL结果集导出任务中,执行SQL的最大限制是5M。 数据库分用户库和系统库,系统库不支持导出功能。如需导出,您需把创建用户数据库,业务部署到用户库,然后再执行导出操作。 DAS在执行导出操作时,会连接到您的备库进行导出,可以有效规避导出时对主库的性能影响,但当备库复制延迟较大时,会存在“导出的数据不是最新数据“的可能性。 8. 设置完导出任务信息,单击弹出页面下部“确定”,创建导出任务。 9. 在导出任务列表页面,您可查看任务ID、任务类型、任务状态、进度等信息。 10. 您可在列表操作栏,单击“查看详情”,在任务详情弹出页面,查看本次导出任务执行的详情信息。
        来自:
        帮助文档
        数据管理服务
        用户指南
        MySQL数据库管理(开发工具)
        导入导出
      • 数据架构使用流程
        本章节主要介绍数据架构使用流程。 DataArts Studio数据架构的流程如下: 1.准备工作 : −添加审核人 :在数据架构中,业务流程中的步骤都需要经过审批,因此,需要先添加审核人。只有工作空间管理员角色的用户才具有添加审核人的权限。 −管理配置中心 :数据架构中提供了丰富的自定义选项,统一通过配置中心提供,您需要根据自己的业务需要进行自定义配置。 2.数据调研 :基于现有业务数据、行业现状进行数据调查、需求梳理、业务调研,输出企业业务流程以及数据主题划分。 −主题设计 :通过分层架构表达对数据的分类和定义,帮助厘清数据资产,明确业务领域和业务对象的关联关系。 主题域分组 :基于业务场景对主题域进行分组。 主题域 :互不重叠数据的高层面的数据分类,用于管理其下一级的业务对象。 业务对象 :指企业运作和管理中不可缺少的重要人、事、物信息。 −流程设计 :针对流程的一个结构化的整体框架,描述了企业流程的分类、层级以及边界、范围、输入/输出关系等,反映了企业的商业模式及业务特点。 3.标准设计 :新建码表&数据标准。 −新建码表 :通常只包括一系列允许的值和附加文本描述,与数据标准关联用于生成值域校验质量监控。 −新建数据标准 :用于描述公司层面需共同遵守的属性层数据含义和业务规则。其描述了公司层面对某个数据的共同理解,这些理解一旦确定下来,就应作为企业层面的标准在企业内被共同遵守。 4.模型设计: 应用关系建模和维度建模的方法,进行分层建模。 −关系建模 :基于关系建模,新建SDI层和DWI层两个模型。 SDI :Source Data Integration,又称贴源数据层。SDI是源系统数据的简单落地。 DWI :Data Warehouse Integration,又称数据整合层。DWI整合多个源系统数据,对源系统进来的数据进行整合、清洗,并基于三范式进行关系建模。 −维度建模 :基于维度建模,新建DWR层模型并发布维度和事实表。 DWR :Data Warehouse Report,又称数据报告层。DWR基于多维模型,和DWI层数据粒度保持一致。 维度 :维度是用于观察和分析业务数据的视角,支撑对数据进行汇聚、钻取、切片分析,用于SQL中的GROUP BY条件。 事实表 :归属于某个业务过程的事实逻辑表,可以丰富具体业务过程所对应事务的详细信息。 5.指标设计 :新建业务指标和技术指标,技术指标又分为原子指标、衍生指标和复合指标。 −指标 :指标一般由指标名称和指标数值两部分组成,指标名称及其涵义体现了指标质的规定性和量的规定性两个方面的特点,指标数值反映了指标在具体时间、地点、条件下的数量表现。 业务指标用于指导技术指标,而技术指标是对业务指标的具体实现。 −原子指标 :原子指标中的度量和属性来源于多维模型中的维度表和事实表,与多维模型所属的业务对象保持一致,与多维模型中的最细数据粒度保持一致。 原子指标中仅含有唯一度量,所含其它所有与该度量、该业务对象相关的属性,旨在用于支撑指标的敏捷自助消费。 −衍生指标 :是原子指标通过添加限定、维度卷积而成,限定、维度均来源于原子指标关联表的属性。 −复合指标 :由一个或多个衍生指标叠加计算而成,其中的维度、限定均继承于衍生指标。 注意,不能脱离衍生指标、维度和限定的范围,去产生新的维度和限定。 6.数据集市建设 :新建DM层并发布汇总表。 −DM (Data Mart) :又称数据集市。DM面向展现层,数据有多级汇总。 −汇总表 :汇总表是由一个特定的分析对象(如会员)及其相关的统计指标组成的。组成一个汇总逻辑表的统计指标都具有相同的统计粒度(如会员),汇总逻辑表面向用户提供了以统计粒度(如会员)为主题的所有统计数据(如会员主题集市)。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        数据架构使用流程
      • 新建指标
        本章节主要介绍新建指标的操作。 管理所有业务指标,包括指标的来源、定义等,使用目录维护业务指标。 注意,数据质量模块的指标与数据架构模块的业务指标、技术指标当前是相互独立的,不支持交互。 前提条件 在DataArts Studio控制台的“实例 > 进入控制台 > 空间管理 > 数据质量 > 业务指标监控 > 指标管理”页面创建归属目录。基于某个数据连接创建指标,需要选择指标目录,请参见以下创建归属目录。 新建指标的归属目录 下表是导航栏按键说明 序号 说明 1 新建目录。 2 刷新目录。 3 选择全部,单击右键,可新建目录、重命名目录和删除目录。 新建指标 1.在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据质量”模块,进入数据质量页面。 2.选择“业务指标监控 > 指标管理”。 3.单击“新建”,在弹出的对话框中,参见下表配置相关参数。 下表为配置业务指标参数 参数名 说明 指标名称 业务指标的名称,只能包含中文、英文字母、数字、“”,且长度为1~64个字符。 数据连接 从下拉列表中选择已创建的数据连接。 说明 支持的数据连接类型:DWS、PostgreSQL、MRS Hive、DLI和MySql。 指标都是基于数据连接的,所以在建立指标之前需要先到元数据管理模块中建立数据连接。 数据库/队列 选择指标运行的数据库。 说明 当数据源为DLI时,需要选择运行的队列。 描述 为更好的识别业务指标 ,此处加以描述信息。描述信息长度不能超过4096个字符。 所属目录 业务指标的存储目录,可选择已创建的目录。 来源类型 支持“自定义”。 用户自定义SQL语句,定义指标的来源。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据质量
        业务指标监控
        新建指标
      • 数据盘空间分配说明
        本文主要介绍数据盘空间分配说明。 本章节将详细介绍节点数据盘空间分配的情况,以便您根据业务实际情况配置数据盘大小。 在创建节点时,您需要配置节点数据盘,且数据盘容量不小于100G。您可“单击展开高级配置”,自定义节点数据盘的空间分配。 自定义容器引擎空间大小说明]:CCE 将数据盘空间划分为两块:一块用于存放容器引擎 (Docker/Containerd) 工作目录、容器镜像的数据和镜像元数据;另一块用于Kubelet组件和EmptyDir临时存储等。容器引擎空间的剩余容量将会影响镜像下载和容器的启动及运行。 容器引擎和容器镜像空间(默认占90%):用于容器运行时工作目录、存储容器镜像数据以及镜像元数据。 Kubelet组件和EmptyDir临时存储(默认占10%):用于存储Pod配置文件、密钥以及临时存储EmptyDir等挂载数据。 自定义Pod容器空间大小:即容器的basesize设置,每个工作负载下的容器组 Pod 占用的磁盘空间设置上限(包含容器镜像占用的空间)。合理的配置可避免容器组无节制使用磁盘空间导致业务异常。建议此值不超过容器引擎空间的 80%。该参数与节点操作系统和容器存储Rootfs相关,部分场景下不支持设置。
        来自:
        帮助文档
        云容器引擎
        用户指南
        节点管理
        节点概述
        数据盘空间分配说明
      • 修改数据目录的容量配额
        参数 类型 描述 是否必须 path String 指定要修改容量配额的数据目录。 是 capacityQuota Long 指定数据目录的容量配额,即针对加入到服务器中的每个数据目录,HBlock可写入的数据总量。当HBlock的使用空间一旦达到配额,就立刻阻止数据写入,不允许再使用超出配额的空间。 取值:小于数据目录所在磁盘的总容量,单位是bytes。负整数表示无限制写入,0表示禁止写入。默认不限制写入。 注意 如果相同的数据目录出现多次,以第一次出现的数据目录的容量配额为准。 是
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        服务器管理
        修改数据目录的容量配额
      • 查看/修改服务器
        iSCSI目标信息 若服务器与客户端不在同一网段(如服务器位于内网,客户端位于外网),通过NAT设备(如路由器)进行连接,则需要将NAT设备的外网地址和端口添加到服务器,而使得外网的客户端可以正常与该服务器的Target建立iSCSI连接。 项目 描述 门户IP iSCSI目标门户IP。 取值:IPv4或IPv6格式。 端口 iSCSI目标端口号。 取值:整型,取值为[1, 65535]。 是否启用iSCSI目标门户 可以根据下拉选项,启用或禁用iSCSI目标门户IP和端口。 删除 点击“删除”,可以删除iSCSI目标门户IP和端口。 数据目录信息 数据目录:服务器中,用于存储用户数据的绝对路径,点击“+”按钮,可以添加数据目录。 说明 对于新增的数据目录,建议设置开机自动挂载,或使用已设置自动挂载的目录或子目录。 注意 数据目录中不能包含逗号(,)。每台服务器最多只能添加100个数据目录。 项目 描述 数据目录 数据目录的具体路径。 容量 数据目录的容量。 已用容量配额 数据目录已用容量配额,当HBlock的使用空间一旦达到配额,就立刻阻止数据写入,不允许再使用超出配额的空间。 容量配额 数据目录的容量配额。可以点击“修改”按钮,修改容量配额。 健康状态 数据目录的健康状态: 健康:数据目录可正常读写,且数据目录所在磁盘使用率未超过阈值(系统默认值为95%)。 警告:数据可读,但存在以下情况的任意一种:慢盘;数据目录所在磁盘使用率超过阈值(系统默认值为95%);磁盘剩余空间不足1GiB;HBlock对这个目录停写;数据目录配额使用率超过阈值(系统默认值为95%);数据目录配额为0。 错误:数据目录无法访问,原因可能是:所在磁盘出现I/O错误导致无法读写,数据目录未正确挂载等。 说明 如果“健康状态”为“警告”或“错误”,显示警告或错误的详细信息。 默认数据目录 是否是默认存储LUN数据的数据目录(仅单机版支持)。 存储池 数据目录所属的存储池(仅集群版支持)。 数据服务 数据目录对应的ds进程(仅集群版支持)。 说明 数据目录加入存储池后才会展示ds进程。 操作 点击“修改”,可以修改数据目录的容量配额。 点击“默认路径”,可以修改数据默认存储的数据目录(仅单机版支持)。 点击“移除”,可以移除数据目录。 注意 对于单机版,如果要移除的数据目录为默认数据目录,需要先指定其他数据目录为默认数据目录,才可以移除该目录。 强制移除数据目录,有产生数据丢失风险。 如果执行日志采集后,产生的日志保存在HBlock的数据目录内,移除数据目录时删除数据目录上的HBlock数据,该日志将被删除。 有数据目录正在移除时,不能再移除其他数据目录。如果必须移除,请使用强制移除,但有丢数据风险。
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        服务器
        查看/修改服务器
      • 容器安全告警事件概述(1)
        事件类型 告警事件 原理说明 恶意软件 未分类恶意软件 通过程序特征、行为检测,结合AI图像指纹算法以及云查杀,有效识别后门、木马、挖矿软件、蠕虫和病毒等恶意程序,也可检测出容器中未知的恶意程序和病毒变种。 恶意软件 勒索软件 检测来自网页、软件、邮件、存储介质等介质捆绑、植入的勒索软件。 勒索软件用于锁定、控制您的文档、邮件、数据库、源代码、图片、压缩文件等多种数据资产,并以此作为向您勒索钱财的筹码。 恶意软件 Webshell 检测容器中Web目录中的文件,判断是否为Webshell木马文件,支持检测常见的PHP、JSP等后门文件类型。 恶意软件 黑客工具 检测利用漏洞或者黑客工具的恶意行为,一旦发现进行告警上报。 漏洞利用 漏洞逃逸攻击 HSS监控到容器内进程行为符合已知漏洞的行为特征时(例如:“脏牛”、“bruteforce”、“runc”、“shocker”等),触发逃逸漏洞攻击告警。 漏洞利用 文件逃逸攻击 HSS监控发现容器进程访问了宿主机系统的关键文件目录(例如:“/etc/shadow”、“/etc/crontab”),则认为容器内发生了逃逸文件访问,触发告警。即使该目录符合容器配置的目录映射规则,HSS仍然会触发告警。 系统异常行为 反弹Shell 支持对TCP、UDP、ICMP等协议的检测。 您可以在“策略管理”的“恶意文件检测”策略中配置反弹Shell检测,HSS会实时检测执行的可疑指令、主机被远程控制执行任意命令等。 系统异常行为 文件提权 检测利用SUID、SGID程序漏洞进行root提权的行为,一旦发现进行告警上报。 系统异常行为 进程提权 当黑客成功入侵容器后,会尝试利用漏洞进行root提权或者文件提权,从而达到非法创建和修改系统账号的权限或者篡改文件的目的。 HSS支持检测以下异常提权操作: 利用SUID程序漏洞进行root提权。 利用内核漏洞进行root提权。 对文件的提权。 系统异常行为 关键文件变更 实时监控系统关键文件(例如:ls、ps、login、top等),对修改文件内容的操作进行告警,提醒用户关键文件可能被篡改。 对于关键文件变更,HSS只检测文件内容是否被修改,不关注是人为还是进程进行的修改。 系统异常行为 进程异常行为 检测各个主机的进程信息,包括进程ID、命令行、进程路径、行为等。 对于进程的非法行为、黑客入侵过程进行告警。 进程异常行为可以监控以下异常行为: 监控进程CPU使用异常。 检测进程对恶意IP的访问。 检测进程并发连接数异常等。 系统异常行为 高危系统调用 Linux系统调用是用户进程进入内核执行任务的请求通道。CGS监控容器进程,如果发现进程使用了危险系统调用(例如:“openbyhandleat”、“ptrace”、“setns”、“reboot”等),触发高危系统调用告警。 系统异常行为 高危命令执行 实时检测容器系统中执行的高危命令,当发生高危命令执行时触发告警。 系统异常行为 容器进程异常 容器恶意程序 HSS监控容器内启动的容器进程的行为特征和进程文件指纹,如果特征与已定义的恶意程序吻合则触发容器恶意程序告警。 容器异常进程 容器业务通常比较单一。如果您能够确定容器内只会运行某些特定进程,可以在“策略管理”设置“容器进程白名单”并将策略关联容器镜像。 对于已关联的容器镜像启动的容器,HSS只允许白名单进程启动,如果容器内存在非白名单进程,触发容器异常程序告警。 系统异常行为 敏感文件访问 HSS监控容器内已配置文件保护策略的容器镜像文件状态。如果发生文件修改事件则触发文件异常告警。 系统异常行为 容器异常启动 HSS监控新启动的容器,对容器启动配置选项进行检测,当发现容器权限过高存在风险时触发告警。容器环境检测触发的告警只是提醒容器启动风险,并不是发生实际攻击。如果黑客利用容器配置风险执行了真实攻击,仍然会触发HSS容器安全的其他检测告警。 HSS支持以下容器环境检测: 禁止启动特权容器(privileged:true) 特权容器是指容器以最大权限启动,类似与操作系统的root权限,拥有最大能力。docker run启动容器时携带“–privilegedtrue”参数,或者kubernates POD配置中容器的“securityContext”配置了“privileged:true”,此时容器会以特权容器方式启动。 告警内容中提示:“privileged:true”,表示该容器以特权容器模式启动。 需要限制容器能力集(capabilities:[xxx]) Linux系统将系统权限做了分类,通过授予特定的权限集合,能控制容器进程的操作范围,避免出现严重问题。容器启动时默认开启了一些常用能力,通过修改启动配置可以放开所有系统权限。 告警内容中提示:“capabilities:[xxx]”,表示该容器启动时拥有所有能力集过大,存在风险。 建议启用seccomp(seccompunconfined) Seccomp(secure computing mode)是Linux的一种内核特性,用于限制进程能够调用的系统调用,减少内核的攻击面。如果容器启动时设置“seccompunconfined”,将不会对容器内的系统调用执行限制。 告警内容中提示:“seccompunconfined”,表示该容器启动时没有启动seccomp,存在风险。 说明 启用seccomp后,由于每次系统调用Linux内核都需要执行权限校验,如果容器业务场景会频繁使用系统调用,开启seccomp对性能会有一定影响。具体影响建议在实际业务场景测试分析。 限制容器获取新的权限(nonewprivileges:false) 进程可以通过程序的suid位或者sgid位获取附加权限,通过sudo提权执行更高权限的操作。容器默认配置限制不允许进行权限提升。 如果容器启动时指定了“–nonewprivilegesfalse”,则该容器拥有权限提升的能力。 告警内容中提示:“nonewprivileges:false”,表示该容器关闭了提权限制,存在风险。 危险目录映射(mounts:[...]) 容器启动时可以将宿主机目录映射到容器内,方便容器内业务直接读写宿主机上的资源。这是一种存在风险的使用方式,如果容器启动时映射了宿主机操作系统关键目录,容易造成从容器内破坏宿主机系统的事件。 HSS监控到容器启动时mount了宿主机危险路径时触发告警,定义的宿主机危险目录包括:“/boot”,“/dev”,“/etc”,“/sys”,“/var/run”等。 告警内容中提示:“mounts:[{"source":"xxx","destination":"yyy"...]”,表示该容器映射的文件路径存在风险。 说明 对于docker容器常用的需要访问的宿主文件如“/etc/hosts”、“/etc/resolv.conf”不会触发告警。 禁止启动命名空间为host的容器 容器的命名空间需要与主机隔离开,如果容器配置了与主机相同的命名空间,则该容器可以访问并修改主机上的内容,易造成容器逃逸的安全事件,存在安全风险。因此HSS会检测容器的pid,network,ipc命名空间是否为host。 告警名称为“容器命名空间”,告警内容中提示“容器pid命名空间模式”、“容器ipc命名空间模式”、“容器网络命名空间模式”,表示启动了命名空间为host的容器,需要按照告警中的提示排查容器的启动选项,如果存在业务需要,可以将该告警事件忽略。 容器镜像阻断 在Docker环境中容器启动前,HSS检测到中指定的不安全容器镜像运行时触发告警。 说明 需安装Docker插件。 用户异常行为 非法系统账号 黑客可能通过风险账号入侵容器,以达到控制容器的目的,需要您及时排查系统中的账户。 HSS检查系统中存在的可疑隐藏账号、克隆账号;如果存在可疑账号、克隆账号等,则触发告警。 用户异常行为 暴力破解 检测容器场景下“尝试暴力破解”和“暴力破解成功”等暴破异常行为,发现暴破行为时触发告警。 支持检测容器场景下SSH、Web和Enumdb暴破行为。 说明 目前暂仅支持Docker容器运行时的暴力破解检测告警。 用户异常行为 用户密码窃取 检测到通过非法手段获取用户密钥行为,一旦发现进行告警上报。 网络异常访问 异常外联行为 检测到服务器存在异常外联可疑IP的行为,一旦发现进行告警上报。 网络异常访问 端口转发检测 检测到利用可疑工具进行端口转发行为,一旦发现进行告警上报。
        来自:
      • 查询指引
        管理结果集 为了叙述方便,下面的说明皆以MySQL实例为标准。 搜索结果集 在结果集右上角的搜索框中,输入查询关键字,此时与输入内容模糊匹配的数据都会被高亮显示。 编辑结果集 单击开启编辑 按钮,可以对结果集进行新增、编辑、删除 等操作,编辑完成后,需单击提交编辑 。 注意 当结果集具有非空主键或唯一键的情况下,才可以进行编辑。 新增数据:新增空数据行在结果集的最后一行,此时可输入待增加的数据。 编辑数据:单击单元格可进行编辑操作,被编辑的表格左上角将出现红色角标。对于一些特殊的二进制字段,不支持直接编辑,提供上传功能。 删除数据:选中某一行数据,单击删除行 ,然后单击提交编辑 。 取消编辑:在进行新增、编辑或删除操作后,如果不想进行修改,可以单击取消编辑按钮取消修改。 提交编辑:在完成新增、编辑或删除操作后,才可使用提交修改功能。单击提交编辑 后会生成预览SQL,单击执行按钮后,修改的数据才会生效。 导出结果集 SELECT等查询类语句支持导出结果集功能。 单击导出结果集 按钮,可以将结果集导出为SQL文件、CSV文件、TXT文件或者Excel文件,默认导出当前页的数据,当导出范围选择更多数据时,会跳转到数据导出页面进行导出。 当进行多表联合查询并且导出文件类型为SQL时,可以自定义导出的目标表名。 当导出的结果集包含一些特殊字段时,会跳转到数据导出页面进行导出。 复制结果集 对于结果集,支持单个字段、单行的复制。复制单行数据时,可以选择复制为SQL、CSV、JSON、XML格式。在单个字段上,鼠标右键复制行 或复制行为即可看到相关的菜单。
        来自:
        帮助文档
        数据管理服务
        用户指南
        开发空间
        查询窗口
        查询指引
      • 运行历史
        本章节主要介绍数据开发的运行历史。 运行历史功能可支持查看脚本、作业和节点的一周(7天)内用户的运行记录。 前提条件 运行历史功能依赖于OBS桶,若要使用该功能,必须先配置OBS桶。请参考配置OBS桶进行配置。 脚本运行历史 1. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2. 在数据开发主界面的左侧导航栏,选择“数据开发 > 脚本开发”。 3. 在左侧目录上方,单击运行历史图标,显示该登录用户历史7天的脚本、作业的运行记录。 4. 在过滤框中选择“脚本”,展示历史7天的脚本运行记录。 5. 单击某一条运行记录,可查看当时的脚本信息和运行结果。 作业运行历史 1. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2. 在数据开发主界面的左侧导航栏,选择“数据开发 > 作业开发”。 3. 在左侧目录上方,单击运行历史图标,显示该登录用户历史7天的脚本、作业的运行记录。 4. 在过滤框中选择“作业”,展示历史7天的作业运行记录。 5. 单击某一条运行记录,可查看当时的作业信息和日志信息。 说明 如果该作业当时只有部分节点执行测试,则运行历史只展示参与测试运行的节点信息和日志信息。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        运行历史
      • 使用DAS的导出和导入功能迁移RDS for MySQL数据
        数据导出 前提条件 您已经在MySQL数据库管理服务控制台中创建用户库。 操作场景 由于数据查询只限于服务少量数据的实时查询,数据量大时,需要分页查看,此时,您可通过数据导出功能,快捷获得一次查询的所有数据信息;或者当进行数据备份或迁移时,您也可通过数据导出功能,获取完整的数据信息。 操作步骤 1、在云服务登录页面,输入账号及密码,登录管理控制台。 2、单击管理控制台左上角的,选择区域和项目。 3、在服务列表页面,选择“数据库 > 数据管理服务”,进入数据管理服务信息页面。 4、选择需要登录的数据库,单击操作栏的“登录”。进入MySQL数据库管理服务首页。 5、在顶部菜单栏选择“导入·导出”>“导出”。 6、在导出页面,单击左上角“新建任务”,您可根据需要选择“导出数据库”或“导出SQL结果集”。下文以导出数据库为例,导出SQL集同理。您也可通过单击“快速导出”,选择目标数据库,在创建快速导出任务弹窗中选择存储位置,并单击“确定”。 7、在导出数据库弹出页面,您可按需选填“基本信息”及“高级选项”,并在页面右侧选择需要导出的表。 说明 SQL结果集导出任务中,执行SQL的最大限制是5M。 数据库分用户库和系统库,系统库不支持导出功能。如需导出,您需把创建用户数据库,业务部署到用户库,然后再执行导出操作。 DAS在执行导出操作时,会连接到您的备库进行导出,可以有效规避导出时对主库的性能影响,但当备库复制延迟较大时,会存在“导出的数据不是最新数据“的可能性。 8、设置完导出任务信息,单击弹出页面下部“确定”,创建导出任务。 9、在导出任务列表页面,您可查看任务ID、任务类型、任务状态、进度等信息。 10、您可在列表操作栏,单击“查看详情”,在任务详情弹出页面,查看本次导出任务执行的详情信息。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据库迁移实例
        使用DAS的导出和导入功能迁移RDS for MySQL数据
      • 复制名称与重命名脚本
        本章节主要介绍(可选)管理脚本的复制名称与重命名脚本。 您可以通过复制名称功能复制当前脚本名称,通过重命名功能修改当前脚本名称。 前提条件 已完成脚本开发。如何开发脚本,请参见开发脚本。 复制名称 1. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2. 在数据开发主界面的左侧导航栏,选择“数据开发 > 脚本开发”。 3. 在脚本目录中选择需要复制名称的脚本,右键单击脚本名称,选择“复制名称”,即可复制名称到剪贴板。 重命名脚本 1. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2. 在数据开发主界面的左侧导航栏,选择“数据开发 > 脚本开发”。 3. 在脚本目录中选择需要重命名的脚本,右键单击脚本名称,选择“重命名”。 说明 已经打开了的脚本文件不支持重命名。 4. 在弹出的“重命名脚本名称”页面,配置新脚本名称。 详见下图:重命名脚本名称 重命名脚本参数 参数 说明 脚本名称 脚本的名称,只能包含字符:英文字母、数字、中文、中划线、下划线和点号,且长度小于等于128个字符。 5. 单击“确定”,重命名脚本。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        脚本开发
        (可选)管理脚本
        复制名称与重命名脚本
      • 网盘数据集
        本文介绍科研助手提供百度网盘进行数据给本地盘供训练使用。 概述 科研助手支持从百度网盘同步数据,供本地盘训练使用。 操作步骤 1.登录科研助手管理控制台。 2.在控制台左侧导航栏中,选择【数据存储】选项的【数据集管理】。 3.选中具体的数据集文件,进入【文件管理】,点击【网盘同步】。 4.点击【更新授权】,点击【获取授权码】。 进入百度账号页面,登陆后复制授权码,填写至【更新授权】中,确认无误点击【授权】。 5.授权完成后,点击【浏览文件】,可浏览查看网盘的相关文件集数据信息。 7.勾选数据并点击【确认】,进行下载给本地盘。 8.等待数据同步完成,即可完成百度网盘数据同步。
        来自:
        帮助文档
        科研助手
        用户指南
        科研版
        数据存储
        数据集管理
        网盘数据集
      • 申请数据权限
        本文介绍申请数据权限功能,使用户可以快速熟悉申请数据权限页面的相关操作,以及如何申请数据权限。 前提条件 用户需要具有进入申请数据权限页面的功能权限。 注意事项 申请数据权限功能仅限企业版。 用户仅限申请已加入团队内实例的相关数据权限。 每次申请仅限一种类型的资源粒度,资源粒度从大到小依次是实例、库/模式、表。 数据权限支持按资源粒度继承,即用户拥有大粒度资源的数据权限时,则默认拥有该大粒度资源下所有小粒度资源的数据权限。 用户多次申请同一资源、同一权限后,最后一次申请的结果会覆盖之前申请的结果。 操作步骤 用户可以在个人中心>我的权限 页面中点击“申请数据权限”按钮进入申请数据权限页面,也可以在安全协作>工单列表>数据权限工单页面中点击“申请数据权限”按钮进入申请数据权限页面。 申请数据权限的具体流程如下: 1. 选择资源的粒度。进入申请数据权限页面后,默认选择库/模式授权,也可以点击其他标签,切换到其他资源粒度,每次申请仅限一种类型的资源粒度。 2. 选择申请的资源。在左侧”请选择“框内勾选想要申请的资源的复选框,然后点击中间的”>“按钮,即可将当前页选中的资源加入到右侧”已选择“框内。如果想要删除右侧“已选择”框内的资源,可以勾选想要删除的资源的复选框,然后点击中间的“<”按钮,即可将右侧“已选择”框内的资源删除。每次申请可以同时选择多个资源。 3. 选择权限的类型,根据用户需要,勾选对应权限类型的复选框。每次申请可以同时选择多种权限。 4. 选择权限的有效期。权限有效期默认为1个月,根据用户需要,可以选择3个月、半年或者1年,也可以点击时间栏,直接指定权限的到期时间。 5. 确定信息无误后,点击页面右下角的“提交申请”按钮即可提交工单,并跳转到数据权限工单页面,查看当前工单的流程。
        来自:
        帮助文档
        数据管理服务
        用户指南
        个人中心
        我的权限
        申请数据权限
      • Windows操作系统云主机看不到挂载的数据盘怎么办?
        本节介绍了Windows操作系统云主机看不到挂载的数据盘怎么办的问题描述、可能原因等内容。 问题描述 登录Windows操作系统云主机看不到挂载的数据盘。 注意 格式化磁盘会造成数据丢失,请提前对数据盘创建备份,避免数据丢失。 可能原因 新添加的数据盘未进行分区和初始化。 切换操作系统或变更规格导致的磁盘脱机。 新添加的数据盘未进行分区和初始化 新的数据盘默认是没有分区和文件系统的,因此在资源管理器中不会显示,需要先手动执行初始化操作。 切换操作系统或变更规格导致的磁盘脱机 切换操作系统后可能会由于文件系统不一致导致数据盘无法显示;Windows云主机器变更规格后,可能会发生磁盘脱机。 1. 登录云主机,打开cmd运行窗口,并输入“diskmgmt.msc”打开磁盘管理。 查看磁盘状态,磁盘可能显示为“脱机”。 2. 将磁盘设置为“联机”状态。 在磁盘列表中,单击脱机的磁盘,并选择“联机”,将脱机磁盘进行联机。 图 磁盘联机 3. 再次在“计算机”中查询数据盘是否显示正常。 如上述操作后磁盘仍未显示,可以重新进行磁盘初始化和分区的操作。格式化磁盘会造成数据丢失,请提前对数据盘创建备份,避免数据丢失。
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        磁盘管理
        磁盘分区与虚拟内存类
        Windows操作系统云主机看不到挂载的数据盘怎么办?
      • 系统统计报表
        本章节为您介绍系统统计报表相关功能。 数据资产分析 “数据资产分析”页面的功能是让用户知道自己有哪些资产,哪些资产更加敏感,哪些资产经常做数据脱敏等,刚进入本页面时,页面会展示系统自动更新过的数据。 数据安全专区会在每天凌晨自动更新数据。但是您也可以选择点击手动更新按钮来获得当前时间最新的数据。 1.使用系统管理员登录数据脱敏实例。 2.在左侧导航栏选择“系统统计报表 > 数据资产分析 ”,进入“数据资产分析”页面,即可查看数据资产情况。 本页信息一共展示了任务运行概述、数据源类型分布、数据源和schema粒度的敏感程度排名top10、敏感标签词云以及资产统计清单这些数据分析内容。 脱敏任务分析 “脱敏任务分析”页面的功能是让用户知道脱敏任务运行是否正常,整体任务运行质量如何(比如错误数的变化),任务调度分配是否合理等。 数据安全专区会实时更新本页面的大部分数据,其中任务属性是针对任务进行统计,任务运行是针对实例进行统计,而且脱敏任务分析只对结构化任务的数据进行分析。 1.使用系统管理员登录数据脱敏实例。 2.在左侧导航栏选择“系统统计报表 > 脱敏任务分析 ”,进入“脱敏任务分析”页面,即可查看脱敏任务分析情况。 说明 页面左侧可针对任务运行时间(即实例运行时间)进行搜索,包括最近7天(默认)、最近15天、最近30天和自定义。 页面都带“导出”功能,单击后可导出页面内容,支持PDF和HTML两种文件格式。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据脱敏操作指导
        系统统计报表
      • 数据脱敏是否对原始数据有影响?
        本章为您介绍 数据脱敏是否对原始数据有影响? 没有影响。数据脱敏功能只会对数据进行读取,脱敏后保存到您选择的目标位置,不会对源数据进行改动。
        来自:
        帮助文档
        数据安全中心
        常见问题
        数据识别和数据脱敏
        数据脱敏是否对原始数据有影响?
      • AI云电脑投屏
        电脑端投屏 天翼AI云电脑电脑客户端作为投屏端,可以通过输入投屏码方式进行投屏操作。 操作步骤: 1.登录天翼AI云电脑客户端,在AI云电脑列表选择进入投屏的AI云电脑; 2.进入AI云电脑后,在顶部工具栏,点击“控制中心”“偏好设置””工具栏设置“,开启“翼投屏”功能(首次使用可选择显示入口或显示入口+投屏码); 3.开启后,在顶部工具栏,点击“控制中心”,可查看到翼投屏功能; 4.点“翼投屏”,弹出投屏界面,输入投屏码进行投屏; 5.输入后等待投屏显示即可,连接成功后投屏接收端会显示如下界面。
        来自:
        帮助文档
        天翼云电脑(政企版)
        特色功能
        AI云电脑投屏
      • 标准快照功能概述(白名单开放)
        标准快照容量计算原理 云硬盘的快照总容量以快照链(一块云硬盘中所有快照组成的关系链)为单位进行统计,统计当前云硬盘所有快照的数据块占用的存储空间。云硬盘的单个快照容量不会超过云硬盘容量,但是随着快照的增加,快照链容量可能会大于云硬盘容量。 快照链增加快照容量计算 以下图中的场景为例,假设快照的数据块为固定大小2MiB,那么快照链增加快照后的容量计算如下: 创建快照1时,云硬盘的快照链中仅有快照1,快照链容量 快照1容量 数据块A容量 + 数据块B容量 + 数据块C容量 6MiB 创建快照2时,云硬盘的快照链中有快照1、快照2,快照链容量 快照1容量 + 快照2容量 6MiB + (数据块A1容量 + 数据块B1容量 + 数据块D容量) 12MiB 创建快照3时,云硬盘的快照链中有快照1、快照2、快照3,快照链容量 快照1容量 + 快照2容量 + 快照3容量 6MiB + 6MiB +(数据块A2容量 + 数据块C1容量 + 数据块E容量) 18MiB 快照链删除快照容量计算 删除快照时,会遍历快照元数据文件中的所有数据块信息,如下图所示,遵循以下删除原则: 数据块被下一个快照继承,该数据块不能删除。 数据块没有被下一个快照继承: 继承数据块:如果上一个快照未被删除,那么该继承数据块不能删除;否则可以删除。 修改数据块:可以删除。 新增数据块:可以删除。 以下通过举例说明删除快照后快照链容量计算。 以图65中的场景为例,在14:00删除快照2,在15:00删除快照3,那么快照链删除快照后的容量计算如下: 删除快照前,快照链容量 快照1容量 + 快照2容量 + 快照3容量 18MiB 14:00删除快照2,遍历快照2元数据文件中的所有数据块信息: 数据块A1:没有被快照3继承,且为快照1中的数据块A修改而来(修改数据块),因此数据块A1可以删除。 数据块B1:被快照3继承,数据块B1不能删除。 数据块C:没有被快照3继承,但继承于快照1(继承数据块)且快照1未被删除,因此数据块C不能删除。 数据块D:被快照3继承,因此数据块D不能删除。 删除快照2后,快照链容量 18MiB 数据块A1容量 16MiB 15:00删除快照3,遍历快照3元数据文件中的所有数据块信息: 数据块A2:没有被下一快照继承,且为快照2中的数据块A1修改而来(修改数据块),因此数据块A2可以删除。 数据块B1:没有被下一快照继承,但继承于快照2且快照2已被删除,因此数据块B1可以删除。 数据块C1:没有被下一快照继承,且为快照2中的数据块C修改而来,因此数据块C1可以删除。 数据块D:没有被下一快照继承,但继承于快照2且快照2已被删除,因此数据块D可以删除。 数据块E:没有被下一快照继承,且为快照3新增数据块,因此数据块E可以删除。 删除快照3后,快照链容量 16MiB 数据块A2容量 数据块B1容量 数据块C1容量 数据块D容量 数据块E容量 6MiB
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        管理快照
        标准快照(白名单开放)
        标准快照功能概述(白名单开放)
      • 基础数据集
        创建数据集 1. 创建普通存储数据集:登录智算服务控制台,单击左侧菜单栏的“智算资产”>“我的数据集”菜单项进入我的数据集模块,点击“基础数据集“菜单,选择“普通/智算存储”,点击【+创建普通/智算存储数据集】,进入创建页面 2. 填写相关配置并提交。基础数据集创建目前仅支持使用自有存储,创建完成后,自动为您创建拼接此数据后缀的容器内挂载路径。 类型 字段 说明 存储基本信息 数据集名称 数据集名称,不超过25个字符 存储基本信息 描述 数据集描述信息 权限配置 可见范围 读写权限范围,支持设置仅文件所有者可见、指定工作空间内的算法开发角色可见两种权限策略 存储位置 自有ZOS存储 您租户账号下的自有ZOS存储,若您还未创建,您可点击【去创建】跳转到存储控制台进行创建。 存储桶:选择您自有的ZOS存储桶名称; 数据源路径:您对应存储的具体的目录路径,您可根据提示示例进行填写,平台会对您填写路径的存在性进行校验,若校验不通过会进行提示,并禁止提交。对于管理员用户,此项选填;对于普通子用户,此项必填。 存储位置 自有HPFS存储 您租户账号下的自有HPFS存储,若您还未创建,您可点击【去创建】跳转到存储控制台进行创建。 HPFS名称:选择您自有的HPFS名称; 数据源路径:您对应存储的具体的目录路径,您可根据提示示例进行填写,平台会对您填写路径的存在性进行校验,若校验不通过会进行提示,并禁止提交。对于管理员用户,此项选填;对于普通子用户,此项必填。 存储位置 自有其他存储 您租户账号下的自有其他存储。 数据源路径:您对应存储的具体的目录路径,您可根据提示示例进行填写,此项必填。 特殊配置 设为保密数据集 仅存储委托的自有ZOS与自有HPFS类型支持该功能。 对于某些行业客户,在大模型训练时会涉及到保密数据的处理问题,比如需要避免用户下载到本地造成数据泄漏,针对这类问题,平台推出了特色的数据保密功能,以应对用户下载或拷贝保密数据的行为。相关配置仅对管理员用户开放,且此功能会增加操作复杂度和资源占用,建议您只在需要的时候使用。 开启此按钮后,可将本数据集设置为保密数据集。开启保密后,此数据集将:1)仅支持读操作,禁止写操作,运行后的输出将单独写入到保密输出路径;2)数据挂载到容器时禁止访问外网。 特殊配置 设为保密数据集的输出路径 若您已设置保密数据集,您还需再创建一个保密输出数据集,专门用于存储保密数据集的输出,并谨慎设置相关权限:1)若您使用了自有存储,建议您只给自己或管理者读写权限(需前往对应存储控制台设置),即您需要确保这是由您完全可控的存储;2)此数据集的可见范围(在本页面的权限配置设置),建议您只对需要的用户设置。 特殊配置 云审计 您设置好保密输出路径后,会自动弹出云审计设置,此设置对使用了对应保密输出数据集的任务生效。开启云审计后,使用此保密输出数据集的任务在容器内的命令操作将会被记录并发送到云审计,并标识拷贝等高危操作。 特殊配置 审计频率 您开启云审计后,会弹出审计频率设置。审计频率是指审计上报的时间间隔,支持输入11440的整数。如果您设置的时间间隔太短,频繁扫描将会增加损耗,如时间太长,上报的事件信息较密集,建议您根据业务实际情况填写合适的时间。
        来自:
        帮助文档
        训推服务
        用户指南
        智算资产
        我的数据集
        基础数据集
      • 恢复租户数据
        本章节主要介绍恢复租户数据。 操作场景 租户的数据默认在Manager和集群组件中保存相关数据,在组件故障恢复或者卸载重新安装的场景下,所有租户的部分配置数据可能状态不正常,需要手动恢复。 操作步骤 在MRS Manager,单击“租户管理”。 1. 在左侧租户列表,单击某个租户节点。 2. 检查租户数据状态。 a.在“概述”,查看“基本信息”左侧的圆圈,绿色表示租户可用,灰色表示租户不可用。 b.单击“资源”,查看“Yarn”或者“HDFS存储”左侧的圆圈,绿色表示资源可用,灰色表示资源不可用。 c.单击“服务关联”,查看关联的服务表格的“状态”列,“良好”表示组件可正常为关联的租户提供服务,“故障”表示组件无法为租户提供服务。 d.任意一个检查结果不正常,需要恢复租户数据,请执行步骤4。 3. 单击“恢复租户数据”。 4. 在“恢复租户数据”窗口,选择一个或多个需要恢复数据的组件,单击“确定”,等待系统自动恢复租户数据。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        租户管理
        恢复租户数据
      • 1
      • ...
      • 77
      • 78
      • 79
      • 80
      • 81
      • ...
      • 447
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务 MDR

      天翼云CTyunOS系统

      训推服务

      公共算力服务

      模型推理服务

      应用托管

      科研助手

      一站式智算服务平台

      推荐文档

      首页

      客户端Linux版本安装

      新建用户

      产品优势

      如何修改发票抬头

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号