云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      数据集成工具_相关内容
      • 如何测试云硬盘的性能
        本实践介绍使用FIO工具测试云硬盘性能的方法。 实践概述 天翼云提供的云硬盘根据磁盘类型的不同拥有不同的性能和价格,详细信息请参见磁盘类型及性能介绍。 FIO 是对磁盘性能进行压力测试和验证的常用工具,本实践将使用FIO工具,介绍云硬盘性能测试的方法。 操作前准备 本节主要介绍在进行具体操作之前用户需要做的准备工作,包括测试前检查、工具安装和FIO参数介绍。 本文以 “CentOS Stream 8 64位” 操作系统为例,介绍使用 FIO 工具进行性能测试的相关操作。由于不同操作系统在系统配置、内核版本及工具支持方面可能存在差异,因此格式化或配置步骤可能有所不同。本文内容仅供参考,具体操作请以对应操作系统的官方产品文档为准,以确保测试过程的准确性与稳定性。 测试前检查 进行测试前,请首先完成云硬盘的挂载和初始化,操作请参考挂载云硬盘和初始化云硬盘。 注意 测试磁盘性能时,建议直接测试裸数据盘(如 /dev/vdb),但有可能会破坏磁盘上的文件系统结构,请在测试前提前做好数据备份。 强烈建议您不要将系统盘或者含有重要数据的数据盘作为测试对象。建议您在空白的数据盘上测试性能,避免造成数据丢失。 登录到测试云主机,执行以下命令,查询待测试的磁盘分区是否已经4KiB对齐。 plaintext sudo fdisk lu 若返回结果中待测试磁盘的Start值能被8整除即是4KiB对齐。下图中的回显表示该磁盘分区已4KiB对齐。 如Start值不能被8整除,则表示未4KiB对齐,那么请删除原有分区后再继续测试,重新按照4KiB对齐选择初始磁柱编号。
        来自:
        帮助文档
        云硬盘 EVS
        最佳实践
        如何测试云硬盘的性能
      • AWS S3数据迁移到OOS
        本节主要介绍如何将数据从AWS S3迁移到OOS中。 应用场景 将数据从AWS S3的Bucket迁移到OOS的Bucket。 注意 在线迁移会占用源地址和目的地址的网络资源。若您的业务比较重要,建议您对迁移任务设置限速(设置system.conf中的maxThroughput),或在空闲时间启动迁移任务。 从AWS S3迁移到OOS的文件(Object),仅迁移当前可读取到的文件,不支持按object version Id 迁移。 前提条件 Windows7 及以上版本或 Linux CentOS 7.x 及以上版本。 Java 1.8 及以上版本。 迁移工具所在的服务器可以访问AWS S3资源池和OOS资源池。 具体操作 确定目标Bucket 在OOS中创建目标Bucket,具体操作请参见创建存储桶(Bucket)或PUT Bucket,用于存放迁移的数据。也可以使用已存在的Bucket。 下载安装迁移工具 1. 下载数据迁移工具。 2. 解压缩安装包 对于Windows客户端,直接解压缩迁移工具zip 包即可。 对于Linux客户端,执行 unzip 解压缩安装包。 迁移工具解压后的目录结果如下: CTYUNOOSImportversionid config log4j2.xml migrate.conf system.conf lib import.sh import.bat 修改配置文件 更新迁移任务配置文件migrate.conf,配置源和目的资源池信息、迁移配置项。您可根据需要配置system.conf和 log4j2.xml文件,具体参数介绍参见常用工具OOS数据迁移工具迁移步骤。其中: srcType需填写为:S3,代表AmazonS3。 srcEndpoint为s3.amazonaws.com。 S3的region可在S3控制台存储桶列表中查看源Bucket所在的区域。 S3 AccessKey和SecretKey需要至少拥有源Bucket的读权限,OOS的AccessKeyID和SecretAccessKey需要至少拥有目的Bucket的写权限。 migrate.conf配置示例如下: { "srcType":"S3", 从S3迁移文件 "srcEndpoint":"s3.amazonaws.com", S3的Endpoint "srcAccessKey":"your s3 accessKey", S3的AccessKey "srcSecretKey":"your s3 secretKey", S3的SecretKey "srcBucket":"s3bucket", S3的bucket "srcRegionName":"useast1",S3的region,请根据实际填写 "srcPrefix":"logs/", S3上要迁移文件的前缀,请根据实际填写 "srcMarker":"", 从第一个文件开始迁移 "srcStopObject":"", S3上要迁移的截止文件 "destEndpoint":"ooscn.ctyunapi.cn", OOS的Endpoint "destAccessKey":"AccessKeyID", OOS的AccessKeyID "destSecretKey":"SecretAccessKey", OOS的SecretAccessKey "destBucket":"BucketName", OOS的Bucket名称 "isSkipExistFile":false 是否跳过目标资源池中已有的文件 }
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        数据迁移
        AWS S3数据迁移到OOS
      • 阿里云OSS数据迁移到OOS
        本节主要介绍如何将数据从阿里云OSS迁移到OOS中。 应用场景 将数据从阿里云OSS的Bucket迁移到OOS的Bucket。 注意 在线迁移会占用源地址和目的地址的网络资源。若您的业务比较重要,建议您对迁移任务设置限速(设置system.conf中的maxThroughput),或在空闲时间启动迁移任务。 从阿里云OSS迁移到OOS的文件,仅迁移当前可读取到的文件,不支持按object version Id 迁移。 前提条件 Windows7 及以上版本或 Linux CentOS 7.x 及以上版本。 Java 1.8 及以上版本。 迁移工具所在的服务器可以访问阿里云OSS资源池和OOS资源池。 具体操作 确定目标Bucket 在OOS中创建目标Bucket,具体操作请参见创建存储桶(Bucket)或PUT Bucket,用于存放迁移的数据。也可以使用已存在的Bucket。 下载安装迁移工具 1. 下载数据迁移工具。 2. 解压缩安装包 对于Windows客户端,直接解压缩迁移工具zip 包即可。 对于Linux客户端,执行 unzip 解压缩安装包。 迁移工具解压后的目录结果如下: CTYUNOOSImportversionid config log4j2.xml migrate.conf system.conf lib import.sh import.bat 修改配置文件 更新迁移任务配置文件 migrate.conf,配置源和目的资源池信息、迁移配置项。您可根据需要配置system.conf和 log4j2.xml文件,具体参数介绍参见常用工具OOS数据迁移工具迁移步骤。其中: srcType需填写为:OSS,代表阿里云。 srcEndpoint为阿里云Bucket的Endpoint,您可在阿里云控制台Bucket概览中进行查看。 OSS AccessKey和SecretKey需要至少拥有源Bucket的读权限,OOS的AccessKeyID和SecretAccessKey需要至少拥有目的Bucket的写权限。 migrate.conf配置示例如下: { "srcType":"OSS", 从阿里云迁移文件 "srcEndpoint":"osscnhangzhou.aliyuncs.com", 阿里云的Endpoint,请根据实际填写 "srcAccessKey":"your oss accessKey",阿里云的AccessKey "srcSecretKey":"your oss secretKey", 阿里云的SecretKey "srcBucket":"ossbucket", 阿里云的Bucket "srcPrefix":"logs/", 阿里云上要迁移文件的前缀,请根据实际填写 "srcMarker":"", 从第一个文件开始迁移 "srcStopObject":"", 阿里云上要迁移的截止文件 "destEndpoint":"ooscn.ctyunapi.cn", OOS的Endpoint "destAccessKey":"AccessKeyID", OOS的AccessKeyID "destSecretKey":"SecretAccessKey", OOS的SecretAccessKey "destBucket":"BucketName", OOS的Bucket名称 "isSkipExistFile":false 是否跳过目标资源池中已有的文件 }
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        数据迁移
        阿里云OSS数据迁移到OOS
      • Redis到GeminiDB Redis的迁移
        前提条件 部署迁移工具drsredis。 保证迁移工具drsredis、源端Redis和目标端GeminiDB Redis网络互通。 操作步骤 如需进行Redis到GeminiDB Redis的迁移,您可以在管理控制台右上角,选择“工单 > 新建工单”,联系技术支持进行处理。 迁移性能参考 环境:源端单节点Redis和迁移工具drsredis部署在8U32GB的弹性云服务器上,目标端为4U16GB,3节点GeminiDB Redis实例。 场景一: 源端replication buffer采用默认值(slave 268435456 67108864 60),该默认值表示缓存积压数据超过268435456bytes(256MB),或超过67108864bytes(64MB)且持续60s,源端会主动断开与从节点的连接。 源端写入速率5MB/s,迁移过程可持续进行,不会产生源端buffer满造成的同步失败。 迁移工具读取数据的速率和源端写入速率一致。 场景二: 源端replication buffer不做限制(config set "clientoutputbufferlimit" "slave 0 0 0")。 源端写入速率10MB/s,容量充足的情况下,迁移持续进行。 迁移工具读取数据的速率和源端写入速率一致。 结论: 在环境上,使用8U32GB弹性云服务器部署迁移工具,若源端replication buffer采用默认值,迁移可在源端5MB/s的写入速率下进行;若源端对replication buffer不做限制,迁移可在源端10MB/s的写入速率下进行。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        数据迁移
        Redis到GeminiDB Redis的迁移
      • 云服务通过KMS实现服务端加密
        本文为您介绍通过KMS实现云硬盘、对象存储、弹性文件等云服务的数据加密最佳实践。 密钥管理系统与天翼云产品无缝集成,在云产品中,仅需要选择在KMS中托管的主密钥,即可轻松实现对云产品数据的服务端加密。 云产品通过集成KMS实现对云上数据的加密存储,密钥由KMS托管,满足监管合规要求。整个服务端加密过程对用户透明无感知,只需要开启加密功能并指定密钥即可。同时用户无须自定构建和维护密钥管理基础设施,节省开发成本。 用户可以选择KMS为云产品自动创建的默认主密钥加密,也可以选择通过KMS创建的用户主密钥。其中默认密钥不收取密钥托管费用。 场景示意图 云产品开启服务端加密流程 加密云硬盘 在创建云硬盘页面,选择开启“磁盘加密”,并在密钥列表中选择加密密钥。 加密对象存储 在创建对象存储Bucket页面,选择开启“服务端加密”,并在密钥列表中选择加密密钥。 加密弹性文件 在创建文件系统页面,选择开启KMS加密,并在密钥列表中选择加密密钥。
        来自:
        帮助文档
        密钥管理
        最佳实践
        云服务通过KMS实现服务端加密
      • AOne iOS SDK接入文档
        2.2.2.隧道插件/SDK配置 请注意SDK和插件的嵌入方式,参考截图: 2.2.3.配置NE插件的目标 2.2.4.配置APP的plist字段 plist文件增加com.wireguard.ios.appgroupid的配置,用于配置AppGroup的配置字段,对应的Groupid为客户集成项目自身的GroupId,请不要配置错误(重要重要重要)。 2.3.NE插件重签名流程补充说明 1. 选择给到的TyyAppResign.app的签名工具打开如下图。 2. Input File:选择给到的开发SDK中的LXRVPNNetworkExtension.appex插件。 3. 选择开发者的签名证书。 4. 选择开发者的签名描述文件(需要具备前面章节描述的权限的描述文件)。 5. VPN APP Groups ID 配置为当前appid配置的groupid。 6. 点击start完成重改签名。 3.整体流程介绍
        来自:
        帮助文档
        边缘安全加速平台
        公共服务
        天翼云AOne SDK使用指南
        AOne iOS SDK接入文档
      • 容量大于2TB,初始化Linux数据盘(parted)
        本文为您介绍当容量大于2TB时,如何在Linux环境下适用parted分区工具初始化数据盘。 操作场景 本文以“CentOS 7.6 64位”操作系统为例,介绍当磁盘容量大于2TB时,如何使用parted分区工具在Linux操作系统中为数据盘设置分区,操作回显仅供参考。 前提条件 已挂载数据盘至云主机或物理机,且数据盘还没有被初始化。 操作步骤 当新增云硬盘容量大于2TB,使用parted工具进行Linux数据盘初始化共分为五步,具体步骤如下: 登录弹性云主机。 查看新增数据盘:查看新增数据盘是否已成功挂载至此台云主机,并查看其容量。 创建GPT分区:为新增数据盘创建独立的逻辑分区,以便更好地组织和管理数据,当磁盘容量大于2TB时,必须创建GPT分区。 创建文件系统并挂载:为新建分区创建文件系统,可以使用独立的文件系统来存储数据。 设置开机自动挂载磁盘:云主机系统启动时可自动挂载磁盘。 登录弹性云主机 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域,此处我们选择华东1。 3. 单击选择“计算>弹性云主机”,进入云主机列表页面。 4. 单击需要初始化数据盘的云主机所在行的“操作>远程登录”,登录此台云主机,具体操作可参见登录Linux弹性云主机。
        来自:
        帮助文档
        云硬盘 EVS
        快速入门
        初始化数据盘
        容量大于2TB,初始化Linux数据盘(parted)
      • 节点概述
        本章节主要介绍节点参考的节点概述。 节点定义对数据执行的操作。数据开发模块提供数据集成、计算&分析、数据库操作、资源管理等类型的节点,您可以根据业务模型选择所需的节点。 节点的参数支持使用EL表达式,EL表达式的使用方法详见表达式概述。 节点间的连接方式支持串行和并行。 串行连接:按顺序逐个执行节点,当A节点执行完成后,再执行B节点。 并行连接:A节点和B节点同时执行。 详见下图:连接示意图
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        节点参考
        节点概述
      • 签名工具
        本文介绍签名工具的使用方法。 Header签名工具 对象存储ZOS提供Header V2签名工具。您可以在可视化界面中填入指定参数,为GET、POST、PUT、DELETE和HEAD类的请求生成签名。 使用方法 通过Header V2签名工具生成签名的步骤如下: 1. 点击进入Header V2签名工具。 2. 填写对象存储的Access Key和Secret Key。如何获取请参见获取访问密钥(AK/SK)获取对象存储AK/SK。 3. 参考下表填写各项参数。 参数 是否必选 说明 请求方法 是 请求方法包括GET、POST、PUT、DELETE和HEAD,您根据调用的API选择。 GET:获取目标资源,如查询桶策略、下载对象等。 POST:新增资源或执行特殊操作,如生成预签名URL等。 PUT:更新目标资源,如设置桶策略、上传对象等。 DELETE:删除目标资源,如删除桶、删除对象等。 HEAD:返回资源的头部信息,如获取对象的元数据等。 ContentMD5 否 请求数据的MD5值,可以为空。ContentMD5是通过MD5算法计算数据的128位摘要,并将base64编码放入头部的字符串。设置此值可用于检查信息的一致性。 ContentType 否 请求内容的类型,例如image/png,可以为空。 Date 是 请求生成的时间。点击后出现弹窗,选择日期和时间,时间为北京时间。 bucket 否 希望访问的对象存储桶的名称,可以为空。 object 否 希望访问的对象存储对象的名称,可以为空。 4. 点击“生成Header签名”。右侧会生成结果,您可以复制签名字段、签名调用函数和请求头。
        来自:
        帮助文档
        对象存储 ZOS
        常用工具
        自助工具
        签名工具
      • 初始化Linux数据盘(parted)
        本文为您介绍使用parted分区工具初始化Linux数据盘的操作步骤。 操作场景 本文以“CentOS 7.6 64位”操作系统为例,介绍如何使用parted分区工具为数据盘设置分区,操作回显仅供参考。 前提条件 已挂载数据盘至云主机或物理机,且数据盘还没有被初始化。 操作步骤 当新增云硬盘的容量小于2TB,使用parted工具进行Linux数据盘初始化共分为五步,具体步骤如下: 登录弹性云主机。 查看新增数据盘:查看新增数据盘是否已成功挂载至此台云主机,并查看其容量。 创建GPT分区:为新增数据盘创建独立的逻辑分区,以便更好地组织和管理数据。 创建文件系统并挂载:为新建分区创建文件系统,可以使用独立的文件系统来存储数据。 设置开机自动挂载磁盘:云主机系统启动时可自动挂载磁盘。 登录弹性云主机 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域,此处我们选择华东1。 3. 单击选择“计算>弹性云主机”,进入云主机列表页面。 4. 单击需要初始化数据盘的云主机所在行的“操作>远程登录”,登录此台云主机,具体操作可参见登录Linux弹性云主机。 查看新增数据盘 执行命令 fdisk l,查看新增数据盘。回显如下: 当前的云主机有两块磁盘,“/dev/vda”是默认的系统盘,“/dev/vdb”是本次新增需要初始化的数据盘,容量为30G。
        来自:
        帮助文档
        云硬盘 EVS
        快速入门
        初始化数据盘
        初始化Linux数据盘(parted)
      • 可以对OOS Bucket进行重命名吗?是否支持Object迁移?
        不支持OOS Bucket重命名。若需要其他名称,建议您创建新的Bucket,将原Bucket的文件(Object)迁移到新创建的Bucket后,删除原文件(Object)和原存储桶(Bucket)即可。 若您原Bucket内的文件较少,您可以通过复制文件的方式迁移您的数据,详见复制文件或PUT Object Copy。 若您原Bucket内的文件较多,可以使用OOS数据迁移工具来迁移您的数据,详见OOS数据迁移工具。
        来自:
        帮助文档
        对象存储(经典版)I型
        常见问题
        存储桶(Bucket)和文件(Object)类
        可以对OOS Bucket进行重命名吗?是否支持Object迁移?
      • 产品定义
        本章节主要介绍翼MapReduce服务的产品定义、架构与优势。 产品定义 翼MapReduce(简称:“翼MR”),是基于当前开源新版本大数据组件进行产品化封装,可以为客户提供快速部署、便捷维护的HDFS、YARN、Spark、Flink、Hive、Doris、Kafka、HBase等高性能的大数据组件以及运维管理平台,同时产品默认提供强安全验证能力,具备高安全、高扩展、快捷运维等特色,支持批量数据处理、流式数据处理、离线数据分析、在线查询等场景。 产品架构 翼MR集群各个版本组件情况请参见版本概述。 详见下图:翼MR架构图 翼MR架构包括了基础设施和大数据处理流程各个阶段的能力。 ● 基础设施 基于天翼云弹性云主机CTECS构建的大数据集群,整体集群的高可靠和高安全能力可以得到虚拟化底层的充分保证。 虚拟私有云(CTVPC)为每个租户提供虚拟的内部网络,默认与其他网络隔离,同时通过配套的安全组访问控制确保网络层面的安全性。 云硬盘(CTEVS)提供不同规格和性能表现的高可靠存储能力。 弹性云主机(CTECS)提供的弹性可扩展虚拟服务器,结合上述的CTVPC、安全组、CTEVS数据多副本和灾备能力为客户打造一个高效、可靠、安全的业务集群环境。 物理机服务(CTDPS)是基于天翼云软硬结合技术研发的一款拥有极致性能的裸金属服务器,兼具云主机的灵活弹性、物理机的稳定,提供算力强劲的计算类服务,提供专属的云上物理服务器,为大数据、核心数据库、高性能计算等业务提供服务稳定、数据安全、性能卓越的算力服务。 ● 数据集成 数据集成层提供了客户的数据集成进翼MR集群的能力,包括:Kafka、Logstash、SeaTunnel、Flume,支持各种数据源导入数据到翼MR大数据集群中。 ● 数据存储 翼MR支持结构化和非结构化数据在集群中的存储,并且支持多种高效的格式来满 足不同计算引擎的要求。 – HDFS是大数据上通用的分布式文件系统。 – Doris是实时数据仓库服务,具有高并发、低延迟的特点。 – HBase支持带索引的数据存储,适合高性能基于索引查询的场景。 – Elasticsearch支持结构化/非结构化数据的检索、分析场景。 ● 数据调度和计算处理 – 翼MR提供多种主流计算引擎:MapReduce(批处理)、 Spark(内存计算)、Flink(流计算),满足多种离线或实时大数据应用场景,将数据进行结构和逻辑的转换,转化成满足业务目标的数据模型。 – 基于预设的数据模型,使用易用SQL的数据分析,用户可以选择Hive(数据仓库),SparkSQL以及Trino交互式查询引擎。 ● 翼MR Manager 为确保大数据组件服务的高可用性,以Hadoop为基础的大数据生态的各种组件均需要以分布式的方式进行部署,涉及其中的部署、管理和运维复杂度要求较高。翼MR提供了统一的运维管理平台翼MR Manager,包括可视化引导式部署集群能力。同时翼MR Manager还提供了租户与资源管理能力,以及翼MR中各类大数据组件的运维,并提供监控、告警、配置等一站式运维能力。
        来自:
        帮助文档
        翼MapReduce
        产品介绍
        产品定义
      • 初始化Linux数据盘(parted)
        本文为您介绍初始化Linux数据盘(parted)。 操作场景 本文以物理机的操作系统为“CentOS 7.6 64位”为例,采用parted分区工具为数据盘设置分区。 说明 物理机的不同操作系统的格式化操作可能不同,本文仅供参考,具体操作步骤和差异请参考对应操作系统的产品文档。 前提条件 已登录物理机。 挂载至物理机的云盘数据盘或者物理机的本地数据盘还没有被初始化。 划分分区并挂载磁盘 本操作以该场景为例,当物理机挂载了一块新的数据盘时,采用parted分区工具为数据盘设置分区,分区形式设置为GPT,文件系统设为ext4格式,挂载在“/mnt/sdc”下,并设置开机启动自动挂载。 操作步骤 1. 执行以下命令,查看新增数据盘。 lsblk 回显类似如下信息: [root@testsharedDisk ~] lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT vda 252:0 0 100G 0 disk ├─vda1 252:1 0 1G 0 part ├─vda2 252:2 0 3G 0 part /boot/efi ├─vda3 252:3 0 5G 0 part /boot ├─vda4 252:4 0 80G 0 part / └─vda5 252:5 0 10G 0 part vdc 252:32 0 30G 0 disk 表示当前的服务器有两块磁盘,“/dev/vda”是系统盘,“/dev/vdc”是新增数据盘。 2. 执行以下命令,进入fdisk分区工具,开始对新增数据盘执行分区操作。 parted新增数据盘 以新挂载的数据盘“/dev/vdc”为例: parted /dev/vdc 回显类似如下信息: [root@testsharedDisk ~]
        来自:
        帮助文档
        物理机 DPS
        用户指南
        磁盘
        初始化数据盘
        初始化Linux数据盘(parted)
      • 工具迁移
        应用场景 适用于用户的数据存储在对象存储ZOS中,且需要准备迁移服务器可下载ZOS数据,并和HPFS网络互通,保证可挂载文件系统的场景下。 准备工作 创建迁移服务器,如果目标HPFS文件系统是NFS协议,迁移服务器可选择弹性云主机。如果目标HPFS文件系统是HPFSPOSIX协议,迁移服务器需要选择物理机(GPU裸金属)。具体限制请参考操作系统限制。 迁移服务器需要能访问ZOS进行下载数据,能够将云上 ZOS 中的对象文件下载到HPFS的指定文件夹。 将HPFS文件系统挂载至物理机或弹性云主机,具体操作请参考挂载文件系统。 操作步骤 具体操作请参考对象存储文件上云迁移工具,参考文档中云上迁移到本地场景: 云上迁移到本地的操作的配置,只需要将 migrations.conf 中的 reverse 参数配置为 true。 并在迁移工具中 migrations.conf 中 srcpath 指的是将云上文件迁移到本地后存放的文件夹,设置为HPFS文件系统的挂载目录。 注意 迁移工具将不会对该路径进行检测,如果指定的路径不存在,将会默认创建。
        来自:
        帮助文档
        并行文件服务 HPFS
        用户指南
        数据迁移
        工具迁移
      • 产品优势
        本节介绍天翼云印刷文字识别产品的优势。 识别精度高 通过海量标注样本训练,配合国内领先的人工智能算法,针对文字识别的特点,能够快速、准确地处理输入的图像数据,提取出关键的文字信息,满足不同业务场景下的文字识别需求,识别精度高。 数据安全 天翼云印刷文字识别通过先进的算法和训练模型,大大减少了人工干预,能够自动处理和纠正一些常见的误识问题,同时降低隐私风险,保护数据资产。此外在文字识别过程中,采用了一系列加密和安全传输措施,确保用户数据在传输和存储过程中的安全。 快速高效 传统的文字识别方法往往依赖于人工操作,不仅效率低下,而且容易出错。天翼云印刷文字识别产品提供24小时全天候服务,无论白天还是夜晚,都可以随时上传图像进行文字识别。这种不间断的服务模式确保了用户在任何时间都能获得及时的响应,大大提高了工作效率。 使用便捷 为了满足不同用户的需求,我们提供了标准API接口,使用户可以轻松地将印刷文字识别集成到现有的业务流程或系统中。这种便捷的集成方式降低了技术门槛,减少了开发成本,使产品能够快速适应各种应用场景。 使用场景丰富 印刷文字识别产品在各个行业和领域中都有广泛的应用。根据客户需求,精心设计了车牌识别、身份证识别、营业执照识别等使用场景,以满足不同领域的文字识别需求,提供高效、准确的文字识别解决方案。
        来自:
        帮助文档
        印刷文字识别
        产品介绍
        产品优势
      • 使用Redis-cli迁移自建Redis(RDB文件)
        本文介绍使用Rediscli迁移自建Redis(RDB文件) 迁移介绍 Rediscli 是 Redis 自带的命令行客户端工具,它允许用户通过命令行与 Redis 服务器进行交互 如果 Redis 服务不支持获取 AOF 文件,你可以尝试使用 Rediscli 工具获取 RDB 文件,并通过其他工具(如 RedisShake)将其导入到 DCS 缓存实例中。 说明 源Redis实例必须支持“SYNC”命令,因为使用Rediscli导出RDB文件依赖SYNC命令。 步骤1:导出前准备 对于主备或集群实例,由于数据写入 RDB 文件存在一定的时延,你可以在迁移之前先了解待迁移 Redis 实例的 RDB 策略配置(策略配置位于 redis.conf 文件中) 为确保 RDB 文件包含完整的缓存数据,建议先暂停业务系统 步骤2:导出RDB文件 说明 建议业务空闲时间进行迁移操作。 待导出的源Redis为集群模式时,需要对集群的每个节点逐一执行导出操作,然后再逐一导入到目标Redis中。 使用如下命令导出RDB文件: ./rediscli h {redisaddress} p {redisport} a {password} rdb {output.rdb} 执行命令后回显"Transfer finished with success.",表示文件导出成功。 步骤3:上传RDB文件至天翼云ECS 为节省传输时间,请先压缩RDB文件再传输。 将压缩文件(如以SFTP/SCP等方式)上传到天翼云ECS。 说明 ECS需保证有足够的磁盘空间,供数据文件存储,同时需要与缓存实例网络互通,通常要求相同VPC和相同子网,且安全组规则不限制访问端口。 步骤4:导入数据 可借助RedisShake工具完成数据导入。 步骤5:迁移后验证 数据导入成功后,请连接DCS缓存实例,通过dbsize命令,确认数据是否导入成功 如果导入不成功,需要分析原因,修正导入语句,然后使用flushall或者flushdb命令清理实例中的缓存数据,并重新导入。
        来自:
        帮助文档
        分布式缓存服务Redis版
        数据迁移指南
        自建Redis迁移到DCS
        使用Redis-cli迁移自建Redis(RDB文件)
      • 添加目标节点
        本节为您介绍云迁移服务CMS数据迁移工具添加目标节点操作。 1. 进入“数据迁移工具”,点击“数据源管理”界面。 2. 点击 “添加数据源”按钮,进入“添加数据源”界面,选择“目标节点”。 3. 输入数据源名称,选择数据源类型,输入数据源对应的连接方式 。 4. 填写信息完成后,点击“添加数据源”按钮,完成添加,平台显示“添加成功”。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据迁移服务模块
        添加目标节点
      • 操作类
        为什么写入文件系统的中文字符在客户端显示为乱码? 问题描述: 在跨平台的环境中,例如在Linux或Windows客户端向弹性文件系统写入中文字符(文件名、内容等),可能会导致在另一个平台的客户端上显示为乱码的问题。 问题原因: Windows客户端默认使用GBK字符集进行中文编解码,而Linux客户端默认使用UTF8字符集进行中文编解码。当数据写入弹性文件系统时,会以各自平台对应字符集编码后的内容进行存储。当在另一个平台上读取这些数据时,由于两个平台使用的字符集不兼容,无法正确解码,导致显示的内容变成了乱码。 解决方案: 建议您在Windows客户端上使用CIFS协议挂载弹性文件系统,在Linux客户端上使用NFS协议挂载文件系统。通过这种方式,可以避免平台不兼容的问题,确保中文字符能够正常显示和解码。 当弹性文件系统无法结束进程时,如何清理客户端泄露的句柄? 如果需要释放CIFS文件系统的所有连接并释放所有句柄,可以使用以下工具进行操作。 Windows客户端可使用tcpview工具来断开CIFS文件系统的所有连接,具体操作如下: 1. 下载并安装tcpview工具。 2. 打开tcpview工具。 3. 在工具中找到与CIFS文件系统相关的连接。 4. 右键点击连接,并选择"Close Connection"来断开连接。 Linux客户端可使用killcx工具来断开CIFS文件系统的所有连接,具体操作如下请参考
        来自:
        帮助文档
        弹性文件服务 SFS
        常见问题
        操作类
      • 使用咨询
        本章节主要介绍SQL作业相关问题中有关使用咨询的问题。 DLI是否支持创建临时表? 问题描述 临时表主要用于存储临时中间结果,当事务结束或者会话结束的时候,临时表的数据可以自动删除。例如MySQL中可以通过:“create temporary table ...” 语法来创建临时表,通过该表存储临时数据,结束事务或者会话后该表数据自动清除。当前DLI是否支持该功能? 解决措施 当前DLI不支持创建临时表功能,只能根据当前业务逻辑控制来实现相同功能。 可以本地连接DLI吗?支持远程工具连接吗? 暂不支持。 请在控制台提交作业。 DLI SQL作业超过12h会被kill掉吗? 默认情况下,为了保障队列的稳定运行,超过12h的SQL作业会被系统按超时取消处理。 用户可以通过dli.sql.job.timeout(单位是秒)参数配置超时时间。 DLI支撑本地测试Spark作业吗? DLI暂不支持本地测试Spark作业。 您可以安装DLI Livy工具,通过Livy工具提供的交互式会话能力调测Spark作业。 DLI 表(OBS表 / DLI 表 )数据支持删除某行数据吗? DLI 表(OBS表 / DLI 表 )数据暂不支持删除某行数据。
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        SQL作业相关问题
        使用咨询
      • 入门指导
        本文介绍如何快速入门实时云渲染产品。 接入前的准备 1. WebRTC兼容性测试 操作云渲染应用的前提是您的 浏览器兼容WebRTC ,接入云渲染前建议您通过工具检测设备浏览器是否能正常运行 WebRTC 应用。 2. 接入前须知 应用接入相关 iOS浏览器保护策略 微信 WebView 限制,需要有 User Action 才会播放音视频,小程序接入JS SDK前您需要做如下操作: iOS 15.4以下版本暂不支持自动播放,若通过Safari或微信内置浏览器打开应用,需要在用户进入推流页面时监听> WeixinJSBridgeReady,引导客户交互页面(通过点击弹窗、按钮)。 待收到用户交互后回调 init SDK。 低电量模式容易自动播放失败,需要有用户交互的同时调用replay接口。 云渲染通信原理说明 云渲染已集成了一套实时通信流程,您可以联系您的客户经理获取云渲染SDK,即可实现H5和应用端的实时网络通信,如需了解更多,请联系客户经理。 实时云渲染平台接入 1. 开通云渲染服务 接入平台前需要您注册天翼云账号,并通过天翼云账号开通云渲染服务。开通云渲染服务后,进入控制台,开始使用云渲染平台功能。 实时云渲染服务暂未对外开放试用功能,若需试用体验云渲染产品,可联系客户经理申请。
        来自:
        帮助文档
        实时云渲染(文档停止维护)
        快速入门
        入门指导
      • 如何自定义可自动扩容root分区的Linux私有镜像?
        本节介绍了自定义可自动扩容root分区的Linux私有镜像的方法。 约束条件 根分区文件系统为xfs的镜像不支持自动扩容。 有LVM分区的镜像不支持自动扩容。 推荐使用文件系统为ext3、ext4的单分区镜像。 说明: 版本太老的OS分区扩容成功后需要重启,文件系统才能刷新。 不同OS的growpart安装方式 为了支持私有镜像自动扩容root分区,需要安装growpart工具,不同操作系统的安装方式如下。 不同操作系统growpart安装包 操作系统 工具包 :: Debian/Ubuntu cloudinit、cloudutils、cloudinitramfsgrowroot Fedora/CentOS cloudinit、cloudutils、cloudutilsgrowpart SUSE/openSUSE cloudinit、growpart 说明: Debian 9请优先使用“方法一”安装growpart,如安装失败,请参考“方法二”的操作步骤完成安装。 方法一: Debian 9请执行如下命令安装growpart工具。 aptget install y f cloudinit cloudutils cloudinitramfsgrowroot 方法二: 如使用“方法一”安装失败,可能是由于Debian 9.0.0的安装源有问题,故需自行下载依赖包cloudutils和cloudinitramfsgrowroot后安装。 1. 执行以下命令下载依赖包: wget 包下载地址 可从如下地址获取依赖包: < 2. 执行以下命令修复依赖: apt fixbroken install 3. 执行以下命令进行安装: dpkg i cloudutils包路径 cloudinitramfsgrowroot包路径 例如:dpkg i /root/cloudutils0.291all.deb /root/cloudinitramfsgrowroot0.18.debian5all.deb Debian其他系列请执行以下命令安装: aptget update;aptget install cloudutils cloudinitramfsgrowroot 操作步骤 私有镜像磁盘分区方式以如下两种场景为例: 当root分区在最末尾分区的情况请参考root分区在末尾分区。 当root分区在非末尾分区的情况请参考root分区在非末尾分区。 说明: parted命令无法使用时,请确保OS已经安装parted工具,请按照如下方式安装: CentOS系列,请执行以下命令: yum install parted Debian系列,请执行以下命令: aptget install parted root 分区在末尾分区(例如:/dev/xvda1: swap ,/dev/xvda2: root ) 以CentOS 6.5 64bit系统盘为40GB为例,介绍root分区在末尾分区时如何自定义可自动扩容root分区的Linux私有镜像的配置方法。 a. 执行如下命令查看/dev/xvda的磁盘分区。 parted l /dev/xvda 回显信息如下所示,此时root分区为第二分区,大小为38.7GB。 Model: Xen Virtual Block Device (xvd) Disk /dev/xvda: 42.7GB Sector size (logical/physical): 512B/512B Partition Table: msdos Number Start End Size Type File system Flags 1 1049kB 4296MB 4295MB primary linuxswap(v1) 2 4296MB 42.9GB 38.7GB primary ext4 boot b. 为了支持镜像自动扩容到root分区,请安装growpart工具。 执行以下命令完成growpart安装。 yum install cloud 说明: growpart可能集成在cloudutilsgrowpart/cloudutils/cloudinitramfstools/cloudinit包里,可以直接执行上述命令并确保growpart命令可用。 c. 执行如下命令,获取文件系统类型和UUID。 blkid 回显信息如下所示。 /dev/xvda1: UUID"25ec3bdbba244561bcdc802edf42b85f" TYPE"swap" /dev/xvda2: UUID"1a1ce4dee56a4e1f864d31b7d9dfb547" TYPE"ext4" d. 关闭云主机转成私有镜像。 [root@sluoecse6dcresizefs ~]
        来自:
        帮助文档
        镜像服务 IMS
        常见问题
        Cloud-init操作类
        如何自定义可自动扩容root分区的Linux私有镜像?
      • 任务日志管理
        本节为您介绍数据迁移工具任务日志管理。 任务日志列表查看 数据库迁移工具可以获取当前用户发起的任务的日志信息,如日志关联的任务名、日志采集状态、日志时间等信息。 任务日志搜索 数据库迁移工具提供任务日志搜索功能,用户可根据任务名称、任务状态、日志时间筛选出想要采集或下载的任务日志。 任务日志采集 数据库迁移工具可以采集当前用户发起的任务的日志文件,采集后的日志文件才能下载到本地,进行查看。 操作步骤 1. 进入“数据库迁移工具”,点击“日志管理”展开菜单,点击“任务日志管理”。 2. 可以看到未采集的任务日志状态为“未采集”。 3. 单击要进行采集的任务的“采集”按钮,并点击“确定”。等待日志采集完成。 4. 当日志状态变为“采集完成”,可根据需要下载对应的日志文件。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        日志管理
        任务日志管理
      • 用户场景
        本节主要介绍用户场景 作为一款线下云迁移工具,云迁移工具RDA主要应用于以下几种场景: 本地数据中心迁移上云 本地数据中心物理机或者虚拟机快速迁移到天翼云弹性云主机上,从而帮助客户轻松把服务器上的应用和数据迁移到天翼云。 云上资源迁移 不同天翼云账号,不同资源池下的主机资源整合到一个天翼云账号下;其他公有云主机迁移到天翼云ECS。
        来自:
        帮助文档
        云迁移工具RDA
        产品介绍
        用户场景
      • 常见问题
        本文介绍Aiuse云电脑功能的常见问题 Q:如果我的企业希望体验 Aiuse 云电脑功能,应该如何开通使用? A:感谢您对 Aiuse 云电脑的关注!目前,您可以通过发送申请邮件至 zhangyh65@chinatelecom.cn 进行开通申请,我们的专属客服人员将在收到邮件后尽快与您联系,协助完成使用资格开通。后续也将提供自助开通渠道方便使用。 开通使用后,如何获取云电脑调用工具包及开发接入指引? 开通使用后,您可参阅++SDK 接入指南++,其中涵盖工具包下载、环境配置及完整的开发接入说明,帮助您快速完成集成。如在接入过程中遇到问题,欢迎随时联系我们的技术支持团队。 Q:目前 AccessKey 最多可以创建多少个?绑定的云电脑数量是否有上限? A:当前每个租户最多可创建 10 个 AccessKey,每个 AccessKey 所绑定的云电脑数量不设上限。为便于统一管理及实现数据隔离,建议为不同业务场景或团队分配独立的 AccessKey,并分别绑定对应的云电脑资源。 Q:如何将 Accesskey 绑定到桌面? A:Accesskey 的绑定操作请前往++桌面管理++页面进行配置,页面中提供了详细的操作步骤说明。如需进一步帮助,请参阅相关操作文档或联系客服人员。 Q:SDK 中输入的 desktopCode 是指什么? A:desktopCode 是指桌面编码,用于唯一标识您的云电脑桌面实例。请注意,desktopCode 与桌面 ID 是两个不同的概念,请勿混淆,务必确认填写的是正确的桌面编码。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        Aluse云电脑
        服务支持
        常见问题
      • 教育资源导航
        本文介绍学术加速里提供的教育资源白名单。 学术加速提供合规海外教育资源加速功能,目前加速名单和分类如下,如需增加更多教育资源,请提交工单进行反馈。 注意 友情提示:我们对国内可访问的国外教育资源进行加速,但国内不可访问的网站或部分网页嵌套了国内不能访问的元素不做加速(如Google/Gmail/Facebook/YouTube/Twitter/Instagram等)。 教育资源白名单 学术&协同工具 小类 网站信息 编程工具 Github NpmJs Python Pypi Spring GoLang Electron AWS 学术工具 Quillbot Grammarly Turnitin Mendeley Academia Zotero Wordtune GingerSoftware DeepL Quizlet Citethisforme Researcher 协同工具 Office365 ResearchGate 其他工具 香港快运 捷星 越捷 台湾虎航 星雀航空 酷航 乐桃 pConbox 学术搜索引擎 小类 网站信息 数据库 SemanticScholar EngineeringVillage DOAJ Frontiersin WebOfScience AnnualReviews WVS数据库 世界数据图册 ACMDigitalLibrary 文献检索 Base学术搜索引擎 ScienceDirect WileyOnlineLibrary PLOSONE TheLens PubMed Elsevier JSTOR arXiv IDC
        来自:
        帮助文档
        边缘安全加速平台
        学术加速
        教育资源导航
      • 安装Cloud-Init工具
        本节介绍了安装CloudInit工具的操作场景、前提条件、安装步骤说明等内容。 操作场景 为了保证使用私有镜像创建的新云主机可以通过“用户数据注入”功能注入初始化自定义信息(例如为云主机设置登录密码),请在创建私有镜像前安装CloudInit工具。 安装CloudInit工具时需要从官网下载并安装,因此,需要提前为云主机绑定弹性公网IP。 不安装CloudInit工具,将无法对云主机进行自定义配置,只能使用镜像原有密码登录云主机。 使用公共镜像创建的云主机,默认已经安装CloudInit,不需要执行安装及配置操作。 用户导入镜像创建的云主机,请按照指导安装及配置CloudInit。配置CloudInit操作请参考配置CloudInit工具章节。 前提条件 已为云主机绑定弹性公网IP。 已登录云主机。 云主机的网卡属性为DHCP方式。 安装步骤说明 1. 请先检查是否已安装CloudInit工具。 具体操作请参考下文“检查是否已经安装CloudInit工具”。 2. 安装CloudInit工具。 CloudInit安装方式分为:采用官方提供的包源安装CloudInit工具(优先推荐)、采用官方提供的CloudInit源码包通过pip方式安装CloudInit工具和采用源码编译安装方法,如下文。 检查是否已经安装CloudInit工具 请先执行如下步骤检查是否已安装CloudInit工具。 在不同的操作系统下,查看是否已经安装CloudInit工具的方法不同,以CentOS 6系列为例,执行以下命令查看是否安装CloudInit工具。 rpm qa grep cloudinit 回显类似如下,表示已经安装CloudInit工具,无需重复安装。 cloudinit0.7.510.el6.centos.2.x8664 如果已安装CloudInit工具,还需要执行以下操作: 请确认当前云主机操作系统中的证书是否继续使用。如果不再使用该证书,请删除证书。 − root用户对应目录下的文件(如 “/$path/$to/$root/.ssh/authorizedkeys”),执行以下命令: cd /root/.ssh rm authorizedkeys − 非root用户对应目录下的证书文件(如 “/$path/$to/$noneroot/.ssh/authorizedkeys”),执行以下命令: cd /home/centos/.ssh rm authorizedkeys 执行以下命令,清除CloudInit工具产生的缓存,确保使用该私有镜像创建的云主机可以使用证书方式登录。 sudo rm rf /var/lib/cloud/ 说明: 设置完成后请勿重启云主机,否则,需重新设置。
        来自:
        帮助文档
        镜像服务 IMS
        用户指南
        Linux操作系统相关操作
        安装Cloud-Init工具
      • 查看告警事件历史(1)
        在事件列表页面,可以筛选并查看所有告警事件。 功能入口 1. 登录【应用性能监控控制台】。 2. 在左侧导航栏选择告警管理>告警事件历史。 事件列表 事件列表页面显示了未恢复告警和已恢复告警的事件名称、通知策略、创建时间、事件数量、事件状态、事件对象。 在事件列表页面,您可以执行以下操作: 设置筛选字段,然后单击搜索,可以查看对应的告警事件。 字段 说明应用性能监控 事件名称 创建的告警规则的名称。 事件状态 告警事件的状态,共有以下3种状态: 告警中:告警事件持续被触发。 静默:在设置的自动恢复告警事件的时间内,和第一条告警事件名称和等级相同的告警事件的状态为静默。 已恢复:在设置的时间内,告警事件不再触发。 事件对象 监控任务名称或集群名称。 集成类型 告警事件对应的集成类型。 单击事件名称,查看目标事件的详细信息。更多信息,请参见下方【事件详情】。 事件详情 事件详情面板显示了事件的基本信息、监控数据和扩展字段。
        来自:
      • 应用场景
        场景特点 用于海量大型数据或对性能敏感数据的加密保护,保证业务访问体验。 优势 高效易用:通过创建数据密钥,实现本地数据的离线加密,避免移动大量数据产生安全隐患。 双重加密:通过主密钥和数据密钥两级密钥结构,确保数据密钥的随机性和安全性,保证数据加密性能。 场景示意图 云产品透明加密 密钥管理服务(KMS)与多种云产品集成,提供服务端加密能能力,加密功能一键开启,加密过程透明无感知。 场景特点 为云上IT设施数据安全环境提供基础保障。 优势 服务端自动加密:无需用户自行实现复杂的加密能力,免改造。 安全保障:加密密钥通过KMS主密钥加密保护,满足安全合规要求。 场景示意图
        来自:
        帮助文档
        密钥管理
        产品介绍
        应用场景
      • 安装Cloud-Init工具
        本文主要介绍如何安装CloudInit工具 操作场景 为了保证使用私有镜像创建的新云主机可以通过“用户数据注入”功能注入初始化自定义信息(例如为云主机设置登录密码),请在创建私有镜像前安装CloudInit工具。 安装CloudInit工具时需要从官网下载并安装,因此,需要提前为云主机绑定弹性公网IP。 不安装CloudInit工具,将无法对云主机进行自定义配置,只能使用镜像原有密码登录云主机。 使用公共镜像创建的云主机,默认已经安装CloudInit,不需要执行安装及配置操作。 用户导入镜像创建的云主机,请按照指导安装及配置CloudInit。配置CloudInit操作请参考配置CloudInit工具章节。 前提条件 已为云主机绑定弹性公网IP。 已登录云主机。 云主机的网卡属性为DHCP方式。 安装步骤说明 1.请先检查是否已安装CloudInit工具。 具体操作请参考检查是否已经安装CloudInit工具。 2.安装CloudInit工具。 CloudInit安装方式分为:采用官方提供的包源安装CloudInit工具(优先推荐)、采用官方提供的CloudInit源码包通过pip方式安装CloudInit工具和采用源码编译安装方法。 检查是否已经安装CloudInit工具 请先执行如下步骤检查是否已安装CloudInit工具。 在不同的操作系统下,查看是否已经安装CloudInit工具的方法不同,以CentOS 6系列为例,执行以下命令查看是否安装CloudInit工具。 rpm qa grep cloudinit 回显类似如下,表示已经安装CloudInit工具,无需重复安装。 cloudinit0.7.510.el6.centos.2.x8664 无回显信息表示未安装CloudInit工具。 说明: 由于CloudInit工具存在多种安装方法,如果无回显信息,请再次使用rpm qa grep cloudinit命令进行检查。which cloudinit和rpm qa grep cloudinit任何一个命令显示已安装,表示操作系统已安装CloudInit工具。 如果已安装CloudInit工具,还需要执行以下操作: 请确认当前云主机操作系统中的证书是否继续使用。如果不再使用该证书,请删除证书。 −root用户对应目录下的文件(如“/path/to/$root/.ssh/authorizedkeys”),执行以下命令: cd /root/.ssh rm authorizedkeys −非root用户对应目录下的证书文件(如“/path/to/$noneroot/.ssh/authorizedkeys”),执行以下命令: cd /home/centos/.ssh rm authorizedkeys 执行以下命令,清除CloudInit工具产生的缓存,确保使用该私有镜像创建的云主机可以使用证书方式登录。 sudo rm rf /var/lib/cloud/ 说明: 设置完成后请勿重启云主机,否则,需重新设置。
        来自:
        帮助文档
        镜像服务 IMS
        最佳实践
        基于VirtualBox使用ISO创建Linux镜像
        配置虚拟机
        安装Cloud-Init工具
      • ROMA FDI Job
        本章节主要介绍节点参考的ROMA FDI Job。 功能 通过ROMA FDI Job节点执行一个预先定义的ROMA Connect数据集成任务,实现源端到目标端的数据集成转换。 原理 该节点方便用户启动或者查询FDI任务是否正在运行。 参数 ROMA FDI Job的参数配置,请参考以下内容: 属性参数 参数 是否必选 说明 ROMA实例 是 选择一个已存在的ROMA实例。 FDI任务 是 选择一个已存在的ROMA FDI任务。 节点名称 是 节点名称,可以包含中文、英文字母、数字、“”、“”、“/”、“ ”等各类特殊字符,长度为1~128个字符。 高级参数 参数 是否必选 说明 节点执行的最长时间 是 设置节点执行的超时时间,如果节点配置了重试,在超时时间内未执行完成,该节点将不会再重试,直接置为失败状态。 失败重试 是 节点执行失败后,是否重新执行节点。 是:重新执行节点,请配置以下参数。 − 最大重试次数 − 重试间隔时间(秒) 否:默认值,不重新执行节点。 说明 如果作业节点配置了重试,并且配置了超时时间,该节点执行超时后将不会再重试,直接置为失败状态。 失败策略 是 节点执行失败后的操作: 终止当前作业执行计划:停止当前作业运行,当前作业实例状态显示为“失败”。 继续执行下一节点:忽略当前节点失败,当前作业实例状态显示为“忽略失败成功”。 挂起当前作业执行计划:暂停当前作业运行,当前作业实例状态显示为“等待运行”。 终止后续节点执行计划:停止后续节点的运行,当前作业实例状态显示为“失败”。 空跑 否 如果勾选了空跑,该节点不会实际执行,将直接返回成功。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        节点参考
        ROMA FDI Job
      • 任务参数配置
        本节为您介绍数据库迁移工具任务参数配置。 1. 进入“数据库迁移工具”,点击“数据传输”展开菜单,点击“数据订阅”。 2. 点击“创建订阅”按钮,跳转至任务参数配置界面。 名称 任务的名称,用于更好地识别订阅任务 启动时间 订阅任务的启动时间。配置后订阅任务会在预定的时间开始运行 迁移选择 可选择全量迁移、增量迁移和稽核修复中的一个或多个,根据需求组合 并发数 配置一组订阅线程中包含的表数量 单表数据延迟预警阈值 表数据从产生到被获取到的的时间延迟,超过这个值则产生告警 单表数据堆积预警阈值 表数据获取到后没有被消费,形成堆积,堆积数量超过这个阈值,则产生告警
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据同步
        数据订阅
        任务创建
        任务参数配置
      • 云主机安装Cloud-Init可以做什么?
        本节介绍了云主机CloudInit及安装方法。 CloudInit介绍 CloudInit是开源的云初始化工具,使用安装了CloudInit的镜像创建云主机时可以通过“用户数据注入”功能,注入初始化自定义信息(例如为云主机设置登录密码);还可以通过查询、使用元数据,对正在运行的云主机进行配置和管理。不安装CloudInit工具,将无法对云主机进行自定义配置,只能使用镜像原有密码登录云主机。 安装方法 建议您在创建私有镜像前先安装CloudInit/CloudbaseInit,安装方法如下: 如果是Windows操作系统,请下载并安装CloudbaseInit。 安装CloudbaseInit相关操作请参考安装并配置CloudbaseInit工具。 如果是Linux操作系统,请下载并安装CloudInit。 安装CloudInit相关操作请参考安装CloudInit工具。 配置CloudInit相关操作请参考配置CloudInit工具。
        来自:
        帮助文档
        镜像服务 IMS
        常见问题
        Cloud-init操作类
        云主机安装Cloud-Init可以做什么?
      • 1
      • ...
      • 7
      • 8
      • 9
      • 10
      • 11
      • ...
      • 427
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      弹性高性能计算 E-HPC

      训推服务

      公共算力服务

      一站式智算服务平台

      智算一体机

      推荐文档

      支持的监控指标

      迁移准备

      客户端Linux版本安装

      常见问题

      性能瓶颈定界

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号