云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      数据集成工具_相关内容
      • 功能特性
        容器监控 Prometheus监控服务和云容器引擎默认实现了产品能力集成,可将您创建的容器集群无缝接入到Prometheus监控平台中,实现集群及工作负载的一体化监测。 自定义监控 支持添加自定义服务发现集成,实现自定义采集接入,并可查看相关指标、监控大盘及告警信息。同时,提供Remote Write标准接口,允许通过该接口远程接入开源Prometheus的监控数据,从而在Prometheus监控服务上收集和展示这些自定义数据。 服务发现 提供默认服务发现、ServiceMonitor、PodMonitor和自定义服务发现。使用这些服务发现机制,可以优化用户对容器集群的监控范围控制,确保采集到所需的指标数据,以便对不同的服务和Pod进行监控和分析。 聚合实例 聚合实例能够将当前地域内的所有Prometheus实例整合为一个虚拟聚合视图。通过该实例,用户可以集中执行统一的指标查询和告警管理。 告警规则 通过创建Prometheus监控告警规则,用户可以设定针对特定Prometheus实例的告警规则。当告警规则设置的条件满足后,系统会产生对应的告警事件。如果想要收到通知,需要进一步配置对应的通知策略以生成告警并且以短信、邮件、或Webhook等方式发送通知。 告警规则模板 当用户需要为多个Prometheus实例统一配置相同告警规则时,可通过Prometheus告警规则模板功能实现标准化管理。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        Prometheus监控
        产品概述
        功能特性
      • 什么是边缘安全加速平台
        安全策略检测 登录成功后将进行安全检测,分为客户端检测、边缘节点检测,不同检测位置对应不同场景。 若是客户端检测,在客户端层开辟沙箱隔离区进行终端数据安全管控,此外将持续进行检测终端环境,异常情况进行及时处置,比如发现存在异常进程,则会断开内网连接,要求进行处置。 若是边缘节点检测,登录成功的用户将就近与边缘节点进行建立连接,边缘节点集成DDoS、WAF防护插件,将优先进行大规模流量清洗以及WAF安全检测,正常流量转发至零信任网关进行横向扫描防护等,发现异常及时进行处置。 聚合加速回源 安全检测策略通过后将CDN智能选路、中转收敛,将访问转发给客户连接器,通过聚合加速方式来减轻源站连接器并发压力,提高访问速度。 边缘接入服务 AOne边缘接入服务,基于优质的边缘网络资源和应用安全加速能力,为企业网络提供安全、高性能网络连接、TCP/UDP协议加速、私有协议加速等服务。客户可以将任意位置的数据资源安全连接到边缘网络入口,通过高速通道、智能路由及安全防护技术,实现数据高速、稳定、安全的跨地域传输,帮助客户解决全球访问卡顿、延迟过高问题,为客户快速集成一个交付即用、按需弹性且安全的网络环境。
        来自:
        帮助文档
        边缘安全加速平台
        产品介绍
        产品简介
        什么是边缘安全加速平台
      • 服务月报
        数据类型 说明 采集和存储方式 数据用途 服务工单数据 技术类、业务类工单清单。 工单的编号、描述、问题分类、创建时间、解决时间等工单信息。 经自动化工具调用工单API查询结果,中途不存储数据,月报结果按照租户隔离存储。 自动化统计分析,生成月报“服务工单”内容。 云服务资源实例数据 客户创建的资源列表,各资源数量。 资源id、名称、状态、规格、创建时间、IP地址、使用量及服务资源相关的基本配置信息。 经自动化工具调用云服务API查询结果,中途不存储数据,月报结果按照租户隔离存储。 自动化统计分析,生成月报“资源概况”内容。 资源负载监控数据 CPU使用率、内存使用率、磁盘使用率、磁盘读写速率、 IP出口带宽、IP入口带宽、并发连接数、新建连接数、网络延迟、网络丢包率等资源监控指标。 经自动化工具调用云服务API查询结果,中途不存储数据,月报结果按照租户隔离存储。 自动化统计分析,生成月报“资源概况”内容。
        来自:
        帮助文档
        客户支持计划
        产品简介
        服务内容
        服务月报
      • 初始化Linux数据盘(fdisk)
        本节介绍了初始化Linux数据盘(fdisk)的操作场景、前提条件、划分分区并挂载磁盘、设置开机自动挂载磁盘分区。 操作场景 本文以云主机的操作系统为“CentOS 7.4 64位”为例,采用fdisk分区工具为数据盘设置分区。 MBR支持的磁盘最大容量为2 TB,GPT最大支持的磁盘容量为18 EB,因此当您初始化容量大于2 TB的磁盘时,分区形式请采用GPT。对于Linux操作系统而言,当磁盘分区形式选用GPT时,fdisk分区工具将无法使用,需要采用parted工具。关于磁盘分区形式的更多介绍,请参见场景及磁盘分区形式介绍。 不同云主机的操作系统的格式化操作可能不同,本文仅供参考,具体操作步骤和差异请参考对应的云主机操作系统的产品文档。 前提条件 ● 已挂载数据盘至云主机,且该数据盘未初始化。 ● 已登录云主机。 划分分区并挂载磁盘 本操作以该场景为例,当云主机挂载了一块新的数据盘时,使用fdisk分区工具将该数据盘设为主分区,分区形式默认设置为MBR,文件系统设为ext4格式,挂载在“/mnt/sdc”下,并设置开机启动自动挂载。 步骤 1 执行以下命令,查看新增数据盘。 fdisk l 回显类似如下信息: [root@ecstest0001 ~] fdisk l Disk /dev/vda: 42.9 GB, 42949672960 bytes, 83886080 sectors Units sectors of 1 512 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk label type: dos Disk identifier: 0x000bcb4e Device Boot Start End Blocks Id System /dev/vda1 2048 83886079 41942016 83 Linux Disk /dev/vdb: 107.4 GB, 107374182400 bytes, 209715200 sectors Units sectors of 1 512 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes 表示当前的云主机有两块磁盘,“/dev/vda”是系统盘,“/dev/vdb”是新增数据盘。 步骤 2 执行以下命令,进入fdisk分区工具,开始对新增数据盘执行分区操作。 fdisk 新增数据盘 以新挂载的数据盘“/dev/vdb”为例: fdisk /dev/vdb 回显类似如下信息: [root@ecstest0001 ~]
        来自:
        帮助文档
        云硬盘 EVS
        快速入门
        初始化数据盘
        初始化Linux数据盘(fdisk)
      • 使用MirrorMaker跨集群数据同步
        实施步骤 (1)购买一台弹性云主机,确保弹性云主机与源集群、目标集群网络互通。 (2)登录弹性云主机,安装Java JDK,并配置JAVAHOME与PATH环境变量。其中“/usr/local/java/jdk1.8.0161”为JDK的安装路径,请根据实际情况修改。 exportJAVAHOME/usr/local/java/jdk1.8.0161 exportPATH$JAVAHOME/bin:$PATH (3)下载安装kafka 下载页面: (4)进入kafka安装目录,修改“config/connectmirrormaker.properties”配置文件,在配置文件中指定源集群和目标集群的IP地址和端口以及其他配置。 (5)在kafka安装目录下,启动MirrorMaker,进行数据同步。 ./bin/connectmirrormaker.sh config/connectmirrormaker.properties 验证数据是否同步 要验证MirrorMaker是否成功同步数据,可以采取以下几种方法: 1. 检查目标集群的主题和分区: 在目标集群上使用Kafka命令行工具或管理工具,查看MirrorMaker复制的主题和分区是否存在。确保目标集群上有与源集群相同的主题和分区。 2. 检查消息偏移量: 使用Kafka消费者API或命令行工具,从目标集群中消费复制的消息。验证消息的偏移量是否与源集群中的消息偏移量一致。如果偏移量相同,表示数据同步成功。 3. 检查消息内容: 从目标集群中消费复制的消息,并与源集群中的消息进行比较。验证消息内容是否一致。可以使用Kafka消费者API或命令行工具来消费消息,并进行比较。 4. 监控MirrorMaker的指标: 在MirrorMaker节点上启用监控,收集关于复制进度、延迟和吞吐量等指标的数据。通过监控指标,可以了解MirrorMaker的工作状态和性能表现,进一步验证数据同步的情况。 5. 进行端到端测试: 在源集群中发送一些测试消息,并在目标集群中验证这些消息是否被成功复制。可以使用Kafka生产者API或命令行工具发送测试消息,并使用Kafka消费者API或命令行工具从目标集群中消费并验证消息。 通过以上方法,可以验证MirrorMaker是否成功同步数据,并确保数据在源集群和目标集群之间的一致性。根据实际需求,可以选择适合的验证方法或组合多种方法来进行验证。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        使用MirrorMaker跨集群数据同步
      • 使用rsync工具迁移NFS文件系统
        2. 安装迁移工具 执行以下命令安装迁移工具rsync和tmux。rsync负责执行复制,tmux是帮助查看进度的工具。 plaintext sudo yum install y rsync tmux 3. 迁移存量数据 依次执行以下两条命令,将源文件系统中的存量数据同步到目标文件系统中。 plaintext tmux plaintext sudo rsync avP /mnt/src/ /mnt/dst/ 您还可以利用rsync并发拷贝迁移数据,命令如下: plaintext threads ; src ; dest ; rsync av f"+ /" f" " $src $dest && (cd $src && find . type f print0 xargs 0 n1 P$threads I% rsync av % $dest/%) 说明 rsync命令中的源路径结尾必须带有斜杠“/”,否则同步后数据路径不能匹配。 4. 迁移增量数据 在存量数据迁移过程中,如果源文件系统被其它云主机上运行的业务应用写入,那么在存量数据迁移结束后,需要进行增量数据同步。 1)停止业务应用:为了避免不断有新数据写入,需要在同步增量数据之前,在所有云主机客户端上停止使用源文件系统的业务应用。 注意 客户端停止业务应用使用后,请不要手动删除源文件系统的任何数据,否则在下一步会造成数据丢失。 请妥善选择业务低峰期间操作,可使用fuser mv 命令找到读写NFS文件系统的进程。 2)执行rsync命令,将存量数据迁移开始后的增量数据同步到目标文件系统。 plaintext rsync avP delete /mnt/src/ /mnt/dst/
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        数据迁移
        NAS文件系统之间的迁移
        使用rsync工具迁移NFS文件系统
      • 初始化Linux数据盘(fdisk)
        本章介绍初始化Linux数据盘(fdisk)。 操作场景 本文以物理机的操作系统为“CentOS 7.0 64位”为例,采用fdisk分区工具为数据盘设置分区。 MBR格式分区支持的磁盘最大容量为2 TB,GPT分区表最大支持的磁盘容量为18 EB,因此当为容量大于2 TB的磁盘分区时,请采用GPT分区方式。对于Linux操作系统而言,当磁盘分区形式选用GPT时,fdisk分区工具将无法使用,需要采用parted工具。关于磁盘分区形式的更多介绍,请参见初始化数据盘场景及磁盘分区形式介绍。 不同服务器的操作系统的格式化操作可能不同,本文仅供参考,具体操作步骤和差异请参考对应的服务器操作系统的产品文档。 前提条件 已登录物理机。 已挂载数据盘至物理机,且该数据盘未初始化。 划分分区并挂载磁盘 本操作以该场景为例,当物理机挂载了一块新的数据盘时,使用fdisk分区工具将该数据盘设为主分区,分区形式默认设置为MBR,文件系统设为ext4格式,挂载在“/mnt/sdc”下,并设置开机启动自动挂载。 1. 执行以下命令,查看新增数据盘。 plaintext fdisk l 回显类似如下信息: plaintext [root@bmsb656 test] fdisk l Disk /dev/sda: 42.9 GB, 42949672960 bytes, 83886080 sectors Units sectors of 1 512 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk label type: dos Disk identifier: 0x000cc4ad Device Boot Start End Blocks Id System /dev/xvda1 2048 2050047 1024000 83 Linux /dev/xvda2 2050048 22530047 10240000 83 Linux /dev/xvda3 22530048 24578047 1024000 83 Linux /dev/xvda4 24578048 83886079 29654016 5 Extended /dev/xvda5 24580096 26628095 1024000 82 Linux swap / Solaris Disk /dev/sdb: 10.7 GB, 10737418240 bytes, 20971520 sectors Units sectors of 1 512 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes 表示当前的服务器有两块磁盘,“/dev/sda”是系统盘,“/dev/sdb”是新增数据盘。 2. 执行以下命令,进入fdisk分区工具,开始对新增数据盘执行分区操作。 plaintext fdisk 新增数据盘 以新挂载的数据盘“/dev/sdb”为例: plaintext fdisk /dev/sdb 回显类似如下信息: plaintext [root@ecsb656 test]
        来自:
        帮助文档
        物理机 DPS
        快速入门
        登录物理机服务
        初始化数据盘
        初始化Linux数据盘(fdisk)
      • 任务列表查看
        本节为您介绍数据库迁移工具任务列表查看。 数据库迁移工具可以获取当前用户发起的数据同步类型任务,如任务名、源端配置信息、目标端配置信息、任务开始时间、任务执行状态等信息。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据同步
        任务列表查看
      • 任务搜索
        本节为您介绍数据库迁移工具任务搜索。 数据库迁移工具提供数据同步搜索功能,用户可根据任务ID、任务名称、任务状态、时间、是否是异常任务筛选出想要查看的数据同步任务。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据同步
        任务搜索
      • 源端归档数据迁移方案
        方式一:控制台操作解冻 您可以登录您源端云服务商的控制中心,通过对象存储的控制界面,对待迁移的源端数据直接进行解冻操作。 您可以登录您源端云服务商的控制中心,通过对象存储的控制界面,配置生命周期规则,对待迁移的数据修改存储类型实现解冻。该方式耗时较长,一般不推荐。 方式二:命令行工具操作解冻 若您的源端为其他云服务商,您可以使用源端云服务商的对象存储提供的命令行工具,例如:腾讯云COSCMD工具、华为云obsutil、阿里云ossutil等。 注意 若您设置对象存储的生命周期管理规则,请务必确保迁移数据期间源端数据不会再被转为归档存储。 后续操作 创建迁移任务 源端数据解冻完成后,您可以在迁移任务列表创建迁移任务。 具体操作,您可阅读不同的源端云服务商的迁移教程:各云服务商迁移至ZOS教程。 注意 迁移任务结束后,您可以手动在您的目的端对象存储的存储桶中查看已经迁移完成的数据。
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        对象存储迁移服务
        不同场景的迁移方案
        源端归档数据迁移方案
      • 产品咨询
        关于CMSSMS大型整机及数据库的迁移有何注意事项? 1. 能否迁移 CMSSMS理论上具备迁移整机和数据库的能力。但对于大型整机(系统总待迁移量2T以上且存在大量大小文件)以及大型库(数据库+系统200G以上且增量大于500r/s),需提前对风险及预期效果进行预估和调整。其中,大型数据库不建议使用CMSSMS迁移,因其涉及数据量大、增量变化快、数据一致性要求高等复杂因素,CMSSMS可能难以满足性能和稳定性需求。 2. 专业迁移工具推荐 对于大型数据库迁移,建议使用数据库专业迁移工具。这些工具针对数据库迁移场景进行了优化,能更好地应对数据量大、增量变化快等问题,确保迁移过程高效且数据一致。 3. 使用CMSSMS迁移大型整机及数据库的注意事项 4. 若因特殊原因必须使用CMSSMS进行大型整机及数据库迁移,需特别注意以下事项: (1)停止相关应用进程:在“停止增量”步骤前,务必停止相关应用进程,避免迁移过程中数据发生变化,影响迁移结果。 (2)迁移测试与全流程预估: 迁移测试:提前测试迁移过程中可能出现的卡慢问题(如迁移准备遍历、全量过程遍历大小文件、增量传输数据变化等),评估迁移工具的性能和稳定性。 全流程预估:根据测试结果,实际预估全流程迁移时长,制定合理的迁移计划,避免影响迁移项目进程。 5. 总结 对于大型整机及数据库的迁移,不建议使用CMSSMS工具。若因特殊原因必须使用,需严格遵循上述注意事项,做好迁移测试和全流程预估,以降低迁移风险。
        来自:
        帮助文档
        云迁移服务CMS
        常见问题
        服务器迁移服务模块
        产品咨询
      • 初始化容量大于2TB的Linux数据盘(parted)
        本节介绍了初始化容量大于2TB的Linux数据盘(parted)的相关内容。 操作场景 本文以云主机的操作系统为“CentOS 7.4 64位”、磁盘容量为3 TB举例,采用Parted分区工具为容量大于2 TB的数据盘设置分区。 MBR支持的磁盘最大容量为2 TB,GPT最大支持的磁盘容量为18 EB,因此当您初始化容量大于2 TB的磁盘时,分区形式请采用GPT。对于Linux操作系统而言,当磁盘分区形式选用GPT时,fdisk分区工具将无法使用,需要采用parted工具。关于磁盘分区形式的更多介绍,请参见“初始化数据盘场景及磁盘分区形式介绍”。 不同云主机的操作系统的格式化操作可能不同,本文仅供参考,具体操作步骤和差异请参考对应的云主机操作系统的产品文档。 注意 首次使用磁盘时,如果您未参考本章节对磁盘执行初始化操作,主要包括创建分区和文件系统等操作,那么当后续扩容磁盘时,新增容量部分的磁盘可能无法正常使用。 前提条件 已挂载数据盘至云主机,且该数据盘未初始化。 已登录云主机。 弹性云主机请参见《弹性云主机用户指南》。 物理机服务器请参见《物理机用户指南》。 划分分区并挂载磁盘 本操作以该场景为例,当云主机挂载了一块新的数据盘时,采用parted分区工具为数据盘设置分区,分区形式设置为GPT,文件系统设为ext4格式,挂载在“/mnt/sdc”下,并设置开机启动自动挂载。 1.执行以下命令,查看新增数据盘。 lsblk 回显类似如下信息: [root@ecscentos74 ~]
        来自:
        帮助文档
        专属云(存储独享型)
        快速入门
        步骤四:初始化数据盘
        初始化容量大于2TB的Linux数据盘(parted)
      • 迁移管理
        本节为您介绍迁移管理相关问题。 迁移管理工具列表有哪些? 服务器迁移服务(CMSSMS)、 数据库迁移服务(CMSDMS)、数据迁移工具(CMSZMS)。 迁移管理工具是否区分同构与异构迁移工具? 区分。 云迁移服务提供工具中心管理功能,您可以在工具管理中心选择对应工具通过相应概述作为工具结构区分,也可以直接帮助中心查看对应相关引导。 迁移管理工具兼容性如何? 云迁移管理工具,具备高效、稳定、易用等特点;支持阿里云、腾讯云、华为云多家云厂商,拥有迁移一体化平台、生命周期可视化界面表达。 云迁移各工具是否具备使用说明书? 具备。 云迁移服务平台提供工具管理中心功能,你可以根据迁移工具概述选择,您也可以在云迁移服务工具中心中选择对应工具的帮助中心查阅信息。 调度管理中心调度任务能否支持显示调度状态? 支持。 进入迁移中心调度管理页面详情中,调度任务列表可以显示调度状态信息。 创建调度任务需要几步操作? 基本信息填写包括(调度名称、调度时间、重复规则、调度规则、问题错误处理); 调度规则选项(继续任务、暂停任务、带宽限制、CPU限制、停止增量、开始核查、引导修复、取消何查) 错误处理(继续并发资源调度、中止并发资源调度) 资源选取,在列表中选择对应资源信息; 资源确认; 调度任务如何查看是否成功? 查看调度任务具体步骤: 1. 左菜单栏进入调度管理; 2. 进入调度页,选择创建调度计划任务; 3. 查看计划任务调度状态; 4. 查看错误处理报告; 5. 点击操作栏中“日志”可以进入查看;
        来自:
        帮助文档
        云迁移服务CMS
        常见问题
        云迁移服务模块
        迁移管理
      • 使用DataArts Studio前的准备
        1.创建数据库 在使用DataArts Studio数据集成将数据迁移上云之前,我们需要在目的端数据湖中创建目标数据库。根据数据湖治理落地流程,建议您在数据湖中为SDI层、DWI层、DWR层和DM层分别创建一个数据库,从而对数据进行分层分库。数据分层是后面在数据架构中将涉及到的概念,此处可先简单了解,在数据架构时将深入了解与操作。 您可以参考以下任一一种方式在数据湖中创建数据库。 您可以在DataArts Studio数据开发模块中,可视化方式创建数据库,具体操作请参见“数据开发 > 数据管理 > 新建数据库”章节。 您可以通过在DataArts Studio数据开发模块或数据湖产品的SQL编辑器上,开发并执行用于创建数据库的SQL脚本,从而创建数据库。在DataArts Studio数据开发模块开发脚本的具体操作请参见“数据开发 > 脚本开发 > 开发脚本> 开发SQL脚本”章节;数据湖产品的SQL编辑器上的具体操作请参见对应数据湖产品的帮助文档。 2.创建数据表 在使用DataArts Studio数据集成将数据迁移上云之前,我们需要在目的端数据湖的SDI层数据库中创建一个目标表,用于存储原始数据。批量数据迁移场景下,关系型数据库之间的迁移和关系型数据库到Hive的迁移支持自动创建目标表,这种情况下可以不预先在目的端数据库中创建目标表。 您可以参考以下任一一种方式在数据湖中创建原始数据表。如果表字段个数较多,建议使用编写SQL脚本的方式创建表。 您可以在DataArts Studio数据开发模块中,可视化方式创建数据表,具体操作请参见“数据开发 > 数据管理 > 新建数据表”章节。 您可以通过在DataArts Studio数据开发模块或数据湖产品的SQL编辑器上,开发并执行用于创建数据表的SQL脚本,从而创建数据表。在DataArts Studio数据开发模块开发脚本的具体操作请参见“数据开发 > 脚本开发 > 开发脚本> 开发SQL脚本”章节;数据湖产品的SQL编辑器上的具体操作请参见对应数据湖产品的帮助文档。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        使用DataArts Studio前的准备
      • 作业管理
        本章节主要介绍翼MapReduce服务的作业管理功能。 作业管理为用户提供向集群提交作业的入口,支持包括MapReduce、Spark、HiveQL和SparkSQL等类型的作业。结合数据湖治理中心(DataArts Studio),提供一站式的大数据协同开发环境、全托管的大数据调度能力,帮助用户快速构建大数据处理中心。 通过数据湖治理中心(DataArts Studio),用户可以先在线开发调试MRS HiveQL/SparkSQL脚本、拖拽式地开发MRS作业,完成MRS与其他20多种异构数据源之间的数据迁移和数据集成;通过强大的作业调度与灵活的监控告警,轻松管理数据作业运维。
        来自:
        帮助文档
        翼MapReduce
        产品简介
        功能特性
        作业管理
      • 存储概述
        对比维度 云硬盘EVS 弹性文件服务SFS 对象存储OBS 极速文件存储SFS Turbo 概念 云硬盘(Elastic Volume Service)可以为云主机提供高可靠、高性能、规格丰富并且可弹性扩展的块存储服务,可满足不同场景的业务需求,适用于分布式文件系统、开发测试、数据仓库以及高性能计算等场景。 SFS为用户提供一个完全托管的共享文件存储,能够弹性伸缩至PB规模,具备高可用性和持久性,为海量数据、高带宽型应用提供有力支持。适用于多种应用场景,包括HPC、媒体处理、文件共享、内容管理和Web服务等。 对象存储服务(Object Storage Service,OBS)提供海量、安全、高可靠、低成本的数据存储能力,可供用户存储任意类型和大小的数据。适合企业备份/归档、视频点播、视频监控等多种数据存储场景。 SFS Turbo为用户提供一个完全托管的共享文件存储,能够弹性伸缩至320TB规模,具备高可用性和持久性,为海量的小文件、低延迟高IOPS型应用提供有力支持。适用于多种应用场景,包括高性能网站、日志存储、压缩解压、DevOps、企业办公、容器应用等。 存储数据的逻辑 存放的是二进制数据,无法直接存放文件,如果需要存放文件,需要先格式化文件系统后使用。 存放的是文件,会以文件和文件夹的层次结构来整理和呈现数据。 存放的是对象,可以直接存放文件,文件会自动产生对应的系统元数据,用户也可以自定义文件的元数据。 存放的是文件,会以文件和文件夹的层次结构来整理和呈现数据。 访问方式 只能在ECS/BMS中挂载使用,不能被操作系统应用直接访问,需要格式化成文件系统进行访问。 在ECS/BMS中通过网络协议挂载使用。需要指定网络地址进行访问,也可以将网络地址映射为本地目录后进行访问。 可以通过互联网或专线访问。需要指定桶地址进行访问,使用的是HTTP和HTTPS等传输协议。 提供标准的文件访问协议NFS(仅支持NFSv3),用户可以将现有应用和工具与SFS Turbo无缝集成。 静态数据卷 支持 支持 支持 支持 动态数据卷 支持 支持 支持 不支持 主要特点 非共享存储,每个云盘只能在单个节点挂载。 共享存储,可提供高性能、高吞吐存储服务。 共享存储,用户态文件系统。 高性能、高带宽、共享存储。 应用场景 HPC高性能计算、企业核心集群应用、企业应用系统和开发测试等。说明高性能计算:主要是高速率、高IOPS的需求,用于作为高性能存储,比如工业设计、能源勘探等。 HPC高性能计算、媒体处理、内容管理和Web服务、大数据和分析应用程序等。说明高性能计算:主要是高带宽的需求,用于共享文件存储,比如基因测序、图片渲染等。 大数据分析、静态网站托管、在线视频点播、基因测序、智能视频监控、备份归档、企业云盘(网盘)等。 高性能网站、日志存储、DevOps、企业办公等。 容量 TB级别 PB级别 EB级别 TB级别 时延 1~2ms 3~20ms 10ms 1~2ms IOPS/TPS 单盘33K 2K 千万级 100K 带宽 MB/s级别 GB/s级别 TB/s级别 GB/s级别
        来自:
        帮助文档
        云容器引擎
        用户指南
        存储管理
        存储概述
      • 边缘虚拟机挂载数据盘
        为大于2TB数据盘创建GPT分区 MBR只支持处理不大于2 TB的容量,且只支持划分4个主区。如果您需要使用大于2 TB的数据盘,您必须采用GPT格式。 1. 通过控制台远程连接,运行以下命令安装Parted工具: yum install y parted 2. 查看实例上的数据盘信息。 运行以下命令: fdisk l 运行结果如下所示: 3. 使用Parted工具为数据盘进行分区。 运行以下命令开始分区: parted /dev/vdb 在Parted工具的交互式界面中,运行以下命令将默认的MBR分区格式转换为GPT分区格式: mklabel gpt 运行以下命令,划分一个主分区,并设置分区的开始位置和结束位置: mkpart primary 1 100% 运行以下命令,检查分区是否对齐: aligncheck optimal 1 运行结果如下所示: 1 aligned 说明 如果返回的是1 not aligned,说明分区未对齐,建议您运行以下命令 ,再根据(+)/的公式计算出最佳分区模式的起始扇区值。 cat /sys/block/vdb/queue/optimaliosize cat /sys/block/vdb/queue/minimumiosize cat /sys/block/vdb/alignmentoffset cat /sys/block/vdb/queue/physicalblocksize 假设1024为计算得出的推荐扇区值,则您可以运行mkpart primary 1024s 100%重新划分一个主分区。 运行以下命令,查看分区表: print 运行以下命令,退出Parted工具: quit Parted工具分区结果如下所示。 4. 运行以下命令,使系统重读分区表: partprobe
        来自:
        帮助文档
        智能边缘云
        最佳实践
        边缘虚拟机挂载数据盘
      • 创建迁移任务
        本节为您介绍数据库迁移工具中创建迁移任务。 1. 在数据库迁移工具首页,点击“数据传输”列表中的“数据迁移”页签。然后在数据迁移页面点击右上角的创建任务按钮,进行数据迁移任务创建 2. 当点击完创建任务按钮后,可看到添加任务页面,如下:
        来自:
        帮助文档
        云迁移服务CMS
        最佳实践
        数据库全流程迁移演示
        创建迁移任务
      • 节点概述
        本章节主要介绍节点参考的节点概述。 节点定义对数据执行的操作。数据开发模块提供数据集成、计算&分析、数据库操作、资源管理等类型的节点,您可以根据业务模型选择所需的节点。 节点的参数支持使用EL表达式,EL表达式的使用方法详见表达式概述。 节点间的连接方式支持串行和并行。 串行连接:按顺序逐个执行节点,当A节点执行完成后,再执行B节点。 并行连接:A节点和B节点同时执行。 详见下图:连接示意图
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        节点参考
        节点概述
      • 产品规格
        共享盘类型选择 安全需求优先 NAS 共享盘:如果您极其重视数据安全,且希望数据仅在天翼AI云电脑环境内流转,不暴露在公网环境中,NAS 共享盘是匹配高密级数据场景的选择。它只能通过AI云电脑挂载访问,这种特性极大地降低了数据在公网环境下可能面临的安全风险,为数据提供了更可靠的安全保障。例如,对于一些对数据保密性要求极高的企业,如金融、科研等行业,其核心数据的存储和共享使用 NAS 共享盘能有效防止数据泄露。 网络共享盘:虽然网络共享盘也具备一定的安全措施,但由于支持公网访问,相比之下,数据面临的安全风险会略高一些。不过,它的权限管控和访问审计功能非常强大,能通过细致的权限设置和全面的操作记录,对企业内部的数据访问进行严格管理和监控,从而在一定程度上保障数据安全。适用于对合规性管理要求较高的大型企业,即便数据在公网环境下有访问需求,也能通过严格的权限和审计机制降低风险。 功能需求侧重 NAS 共享盘:主要功能在于满足基本的文件共享存储需求。在企业内部,员工可以便捷地共享办公文档、项目资料等,提供一个集中的文件管理平台。如果您的企业或团队主要需求是简单高效地进行文件共享,对其他复杂功能需求较少,NAS 共享盘完全可以满足日常工作中的文件协作需求。 网络共享盘:除了文件共享功能外,更强调权限管控、访问审计以及与其他企业系统的集成功能。对于大型企业而言,不同部门和职位对数据的访问和操作权限有严格要求,网络共享盘能够设置细致的权限,满足这种精细化管理需求。同时,与 ERP、CRM 等系统的集成功能,能实现企业数据的无缝流通,提高整体信息化管理水平,促进业务流程的自动化和数据的统一管理,适合业务流程复杂、信息化程度高的大型企业。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        翼共享
        产品规格
      • 通用类
        如何提升云硬盘的性能? 用户可以通过LVM管理云硬盘以及为云硬盘构建RAID磁盘阵列来提升云硬盘的性能。 详情请参见: 通过LVM创建逻辑卷,并格式化文件系统 使用云硬盘构建RAID磁盘阵列 数据盘容量是否可与系统盘容量合并? 不支持合并。 您可以通过扩容云硬盘来扩展数据盘或系统盘的容量大小,以增加存储空间。 MBR和GPT分区形式有什么不同? MBR(Master Boot Record主引导记录)和GPT(Globally Unique Identifier Partition Table GUID分区表)是两种不同的磁盘分区形式,选择哪种分区形式取决于磁盘的容量,具体的区别如下表: 分区方式 支持最大磁盘容量 支持分区数量 分区工具 MBR 2TB 4个主分区 3个主分区和1个扩展分区 Linux 操作系统:fdisk 工具或parted 工具 GPT 18EB(目前云硬盘支持的最大容量为32TB) 不限制分区数量 Linux 操作系统:parted 工具 云硬盘格式化后还能恢复数据吗? 不能。云硬盘格式化后无法再恢复数据。 建议您在格式化前先创建云硬盘快照,以备份未格式化前的云硬盘数据,在您有需要时可通过快照回滚操作恢复数据。
        来自:
        帮助文档
        云硬盘 EVS
        常见问题
        通用类
      • 云服务通过KMS实现服务端加密
        本文为您介绍通过KMS实现云硬盘、对象存储、弹性文件等云服务的数据加密最佳实践。 密钥管理系统与天翼云产品无缝集成,在云产品中,仅需要选择在KMS中托管的主密钥,即可轻松实现对云产品数据的服务端加密。 云产品通过集成KMS实现对云上数据的加密存储,密钥由KMS托管,满足监管合规要求。整个服务端加密过程对用户透明无感知,只需要开启加密功能并指定密钥即可。同时用户无须自定构建和维护密钥管理基础设施,节省开发成本。 用户可以选择KMS为云产品自动创建的默认主密钥加密,也可以选择通过KMS创建的用户主密钥。其中默认密钥不收取密钥托管费用。 场景示意图 云产品开启服务端加密流程 加密云硬盘 在创建云硬盘页面,选择开启“磁盘加密”,并在密钥列表中选择加密密钥。 加密对象存储 在创建对象存储Bucket页面,选择开启“服务端加密”,并在密钥列表中选择加密密钥。 加密弹性文件 在创建文件系统页面,选择开启KMS加密,并在密钥列表中选择加密密钥。
        来自:
        帮助文档
        密钥管理
        最佳实践
        云服务通过KMS实现服务端加密
      • 任务批量删除
        本节为您介绍数据库迁移工具任务批量删除操作。 数据库迁移工具提供任务批量删除功能,用户可勾选要删除任务,再点击“批量删除”按钮,一次性删除多个同步任务。 操作步骤 1. 进入“数据库迁移工具”,点击“数据传输”展开菜单,点击“数据同步” 2. 用户可通过选择处于“已取消”或“失败”的任务,点击同步任务的“批量删除”按钮,删除选中任务。 3. 点击“确定”之后,选中的任务信息被移除。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据同步
        任务批量删除
      • 向量检索
        本文为您介绍天翼云云搜索服务的向量检索能力及使用方法。 功能简介 支持向量检索(Vector Search)是搜索引擎的一个高级功能,它允许用户在高维向量空间中进行相似性搜索,而不仅仅是基于传统的关键词匹配。 向量检索的核心在于,它通过将文本、图像或其他数据转换为向量(即一组多维的数值表示),基于这些向量之间的距离来查找相似的项目。与传统的基于关键字的检索方法相比,向量检索更适合处理复杂的数据类型,如自然语言处理、推荐系统和计算机视觉等场景。 在搜索引擎中,支持向量检索的功能通过集成高效的向量索引结构(如近似最近邻搜索算法)实现。这使得搜索引擎能够在处理大规模数据集时,依然保持高效的查询速度和准确性。通过向量检索,用户可以在海量数据中快速找到与查询向量最相似的结果,从而提升搜索体验和应用的智能化水平。 天翼云云搜索服务提供的OpenSearch和Elasticsearch都可以支持向量检索能力。OpenSearch 2.19.1版本在向量检索能力上相比Elasticsearch 7.10.2(搭配早期OpenDistro插件)有明显提升。其内置的KNN插件持续演进,升级集成了更高版本的FAISS库,在构建索引速度、内存管理、查询性能等方面有较大优化。这些改进使得OpenSearch 2.19.1更适用于大规模、高并发的向量检索场景。
        来自:
        帮助文档
        云搜索服务
        用户指南
        增强特性
        向量检索
      • 产品优势
        本章节主要介绍数据治理中心DataArts Studio产品的优势。 一站式数据运营平台 贯穿数据全流程的一站式治理运营平台,提供全域数据集成、标准规范设计、连接并萃取数据价值、全流程数据质量监控、统一数据资产管理、数据开发服务等,帮助企业构建完整的数据中台解决方案。 丰富的数据开发类型 支持多人在线协作开发,脚本开发可支持SQL、Shell在线编辑、实时查询;作业开发可支持CDM、SQL、MR、Shell、MLS、Spark等多种数据处理节点,提供丰富的调度配置策略与海量的作业调度能力。 统一调度和运维 全面托管的调度,支持按时间、事件触发的任务触发机制,支持分钟、小时、天、周和月等多种调度周期。 可视化的任务运维中心,监控所有任务的运行,支持配置各类报警通知,便于责任人实时获取任务的情况,保证业务正常运行。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        产品简介
        产品优势
      • 数据库迁移
        本页介绍了数据库迁移的常见问题及解决方法。 为什么要采用mysqldump等工具迁移数据库 mysqldump是一种常用的数据库迁移工具,其操作简单但会造成数据库较长时间停机,适用于数据量不大的数据迁移。 天翼云关系数据库MySQL版提供的服务兼容原数据库,将本地数据库迁移至云数据库的过程和将数据库从一台服务器迁移另一台服务器一样。您也可以根据您的需要使用其他数据库迁移方案进行数据库迁移。 数据库实例迁移中产生binlog文件导致存储空间不足怎么办 数据库实例会定期清理过期的binlog,但数据库实例在迁移过程中,短时间内产生大量binlog文件,导致存储空间不足,会影响业务正常运行 。所以在订购实例和进行数据库迁移之前,请参看以下建议: 及时清理过期数据。 建议用户在选择实例存储空间大小时不仅仅考虑数据文件的大小,同时还要考虑日志文件的大小以及给存储空间保留一定的冗余。 若原来申请的数据库磁盘容量不足,建议用户扩容磁盘空间,确保磁盘空间足够。操作方法请参考用户指南实例管理存储空间扩容。 怎样将其他数据库引擎的数据导入到MySQL实例 相同引擎数据库之间数据导入导出,称之为同构型数据库之间数据导入导出。同构型数据库导入导出可以使用数据库迁移工具来实现如mysqldump。 不同引擎数据库之间数据导入导出,称之为异构型数据库之间数据导入导出。异构型数据库之间由于格式不同,一般不支持直接导入导出,通常需要第三方软件,通过数据复制的方式来实现。比如,先使用工具从Oracle中,以文本的格式导出表记录,然后利用Load语句导入到InnoDB引擎。
        来自:
        帮助文档
        关系数据库MySQL版
        常见问题
        其他类
        数据库迁移
      • 非天翼云用户数据迁移至弹性文件服务
        本文介绍非天翼云用户数据如何迁移至云上弹性文件服务。 应用场景 在第三方云厂商存储大量数据的用户,如果想要将数据迁移至天翼云弹性文件服务,若使用传统的方法,需要先将存储在第三方云厂商上的数据下载到本地,再手动将数据上传到弹性文件服务,整个过程耗时又耗力,容易存在漏传、误传等问题。 本文推荐您配置一个弹性云主机实例挂载文件系统作为数据传输的中转节点,然后通过迁移工具迁移数据至天翼云弹性文件服务,迁移工具可以选择SFTP客户端。仅需简单配置,即可把数据从第三方云厂商轻松、平滑地迁移至SFS。 工具介绍 本实践以FileZilla作为SFTP客户端作为指导示例。 迁移工具 特点 应用场景 SFTP客户端 支持众多操作系统平台,提供图形化操作界面。 少量文件需要一次性上传至NFS文件系统。 将NFS文件系统内的数据下载到本地。 前提条件 具备一个NFS协议弹性文件系统,且务必确认文件系统容量高于待迁移的数据总量。若此时未购买弹性文件服务,则需新购。 具备一台与文件系统在同一VPC网络下的Linux弹性云主机,上传下载文件数据需要占用弹性云主机公网带宽,因此需要为弹性云主机配置弹性IP。 准备工作 下载安装迁移客户端工具,根据页面提示安装即可。 文件系统为接收数据的目标文件系统,应根据实际需求选择容量规格,具体操作参考创建文件系统。 本次操作实践中,需要创建弹性云主机作为非天翼云数据迁移至天翼云弹性文件服务的中转节点。建议配置如下: 说明 本操作中的云主机仅作为数据迁移的“中转站”,而非用于业务实际使用,为节省成本,建议订购按量付费的弹性云主机和弹性IP进行数据中转,计费说明参见 高规格高带宽的云主机迁移速率更快,相应的费用也略高,请根据实际情况酌情选择。整体迁移速率同时受文件系统性能影响,详见 参数 说明 付费方式 按量付费。 规格 通用型。高规格的云主机迁移速率较快,例如4C8G的迁移速率大于1C1G的迁移速率,根据实际情况选择即可。 镜像 CentOS 7.8 弹性IP 自动分配 IP版本 IPv4 带宽 5M。高带宽的迁移速率较快,例如10M的迁移速率大于5M的迁移速率,根据实际情况选择即可。 登录方式 密码>立即创建
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        数据迁移
        非天翼云用户数据迁移至弹性文件服务
      • 使用Redis-cli迁移自建Redis(AOF文件)
        本文介绍使用Rediscli迁移自建Redis(AOF文件) 迁移介绍 Rediscli 是 Redis 自带的命令行客户端工具,它允许用户通过命令行与 Redis 服务器进行交互。 在本章节中,我们将重点介绍如何使用 Rediscli 工具以 AOF 文件的方式,将自建的 Redis 数据迁移到 DCS 缓存实例。 说明 进行迁移操作前,建议暂停相关业务,以避免数据丢失或不完整。 建议业务空闲时间进行迁移操作。 步骤1:生成AOF文件 使用以下命令来开启缓存持久化并生成 AOF 持久化文件: ./rediscli h {redisaddress} p {redisport} a {password} config set appendonly yes 如果 AOF 文件的大小不再变化,说明AOF文件为全量缓存数据。 说明 使用 Rediscli 工具登录 Redis 实例,输入命令“config get dir”可以查找生成的AOF文件保存路径。如果没有进行特殊指定,该文件的文件名默认为 appendonly.aof。 如果需要关闭同步,可以使用 Rediscli 工具登录 Redis 实例,并输入命令 “config set appendonly no” 来关闭同步。 步骤2:上传AOF文件至天翼云ECS 为节省传输时间,请先压缩AOF文件再传输。 将压缩文件(如以SFTP/SCP等方式)上传到天翼云ECS。 说明 ECS需保证有足够的磁盘空间,供数据文件存储,同时需要与缓存实例网络互通,通常要求相同VPC和相同子网,且安全组规则不限制访问端口。 步骤3:导入数据 ./rediscli h {redisaddress} p {redisport} a {password} pipe < appendonly.aof 步骤4:迁移后验证 数据导入成功后,连接DCS缓存实例,通过dbsize命令,确认数据是否导入成功 如果导入不成功,需要分析原因,修正导入语句,然后使用flushall或者flushdb命令清理实例中的缓存数据,并重新导入。
        来自:
        帮助文档
        分布式缓存服务Redis版
        数据迁移指南
        自建Redis迁移到DCS
        使用Redis-cli迁移自建Redis(AOF文件)
      • AWS S3数据迁移到OOS
        本节主要介绍如何将数据从AWS S3迁移到OOS中。 应用场景 将数据从AWS S3的Bucket迁移到OOS的Bucket。 注意 在线迁移会占用源地址和目的地址的网络资源。若您的业务比较重要,建议您对迁移任务设置限速(设置system.conf中的maxThroughput),或在空闲时间启动迁移任务。 从AWS S3迁移到OOS的文件(Object),仅迁移当前可读取到的文件,不支持按object version Id 迁移。 前提条件 Windows7 及以上版本或 Linux CentOS 7.x 及以上版本。 Java 1.8 及以上版本。 迁移工具所在的服务器可以访问AWS S3资源池和OOS资源池。 具体操作 确定目标Bucket 在OOS中创建目标Bucket,具体操作请参见创建存储桶(Bucket)或PUT Bucket,用于存放迁移的数据。也可以使用已存在的Bucket。 下载安装迁移工具 1. 下载数据迁移工具。 2. 解压缩安装包 对于Windows客户端,直接解压缩迁移工具zip 包即可。 对于Linux客户端,执行 unzip 解压缩安装包。 迁移工具解压后的目录结果如下: CTYUNOOSImportversionid config log4j2.xml migrate.conf system.conf lib import.sh import.bat 修改配置文件 更新迁移任务配置文件migrate.conf,配置源和目的资源池信息、迁移配置项。您可根据需要配置system.conf和 log4j2.xml文件,具体参数介绍参见常用工具OOS数据迁移工具迁移步骤。其中: srcType需填写为:S3,代表AmazonS3。 srcEndpoint为s3.amazonaws.com。 S3的region可在S3控制台存储桶列表中查看源Bucket所在的区域。 S3 AccessKey和SecretKey需要至少拥有源Bucket的读权限,OOS的AccessKeyID和SecretAccessKey需要至少拥有目的Bucket的写权限。 migrate.conf配置示例如下: { "srcType":"S3", 从S3迁移文件 "srcEndpoint":"s3.amazonaws.com", S3的Endpoint "srcAccessKey":"your s3 accessKey", S3的AccessKey "srcSecretKey":"your s3 secretKey", S3的SecretKey "srcBucket":"s3bucket", S3的bucket "srcRegionName":"useast1",S3的region,请根据实际填写 "srcPrefix":"logs/", S3上要迁移文件的前缀,请根据实际填写 "srcMarker":"", 从第一个文件开始迁移 "srcStopObject":"", S3上要迁移的截止文件 "destEndpoint":"ooscn.ctyunapi.cn", OOS的Endpoint "destAccessKey":"AccessKeyID", OOS的AccessKeyID "destSecretKey":"SecretAccessKey", OOS的SecretAccessKey "destBucket":"BucketName", OOS的Bucket名称 "isSkipExistFile":false 是否跳过目标资源池中已有的文件 }
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        数据迁移
        AWS S3数据迁移到OOS
      • 阿里云OSS数据迁移到OOS
        本节主要介绍如何将数据从阿里云OSS迁移到OOS中。 应用场景 将数据从阿里云OSS的Bucket迁移到OOS的Bucket。 注意 在线迁移会占用源地址和目的地址的网络资源。若您的业务比较重要,建议您对迁移任务设置限速(设置system.conf中的maxThroughput),或在空闲时间启动迁移任务。 从阿里云OSS迁移到OOS的文件,仅迁移当前可读取到的文件,不支持按object version Id 迁移。 前提条件 Windows7 及以上版本或 Linux CentOS 7.x 及以上版本。 Java 1.8 及以上版本。 迁移工具所在的服务器可以访问阿里云OSS资源池和OOS资源池。 具体操作 确定目标Bucket 在OOS中创建目标Bucket,具体操作请参见创建存储桶(Bucket)或PUT Bucket,用于存放迁移的数据。也可以使用已存在的Bucket。 下载安装迁移工具 1. 下载数据迁移工具。 2. 解压缩安装包 对于Windows客户端,直接解压缩迁移工具zip 包即可。 对于Linux客户端,执行 unzip 解压缩安装包。 迁移工具解压后的目录结果如下: CTYUNOOSImportversionid config log4j2.xml migrate.conf system.conf lib import.sh import.bat 修改配置文件 更新迁移任务配置文件 migrate.conf,配置源和目的资源池信息、迁移配置项。您可根据需要配置system.conf和 log4j2.xml文件,具体参数介绍参见常用工具OOS数据迁移工具迁移步骤。其中: srcType需填写为:OSS,代表阿里云。 srcEndpoint为阿里云Bucket的Endpoint,您可在阿里云控制台Bucket概览中进行查看。 OSS AccessKey和SecretKey需要至少拥有源Bucket的读权限,OOS的AccessKeyID和SecretAccessKey需要至少拥有目的Bucket的写权限。 migrate.conf配置示例如下: { "srcType":"OSS", 从阿里云迁移文件 "srcEndpoint":"osscnhangzhou.aliyuncs.com", 阿里云的Endpoint,请根据实际填写 "srcAccessKey":"your oss accessKey",阿里云的AccessKey "srcSecretKey":"your oss secretKey", 阿里云的SecretKey "srcBucket":"ossbucket", 阿里云的Bucket "srcPrefix":"logs/", 阿里云上要迁移文件的前缀,请根据实际填写 "srcMarker":"", 从第一个文件开始迁移 "srcStopObject":"", 阿里云上要迁移的截止文件 "destEndpoint":"ooscn.ctyunapi.cn", OOS的Endpoint "destAccessKey":"AccessKeyID", OOS的AccessKeyID "destSecretKey":"SecretAccessKey", OOS的SecretAccessKey "destBucket":"BucketName", OOS的Bucket名称 "isSkipExistFile":false 是否跳过目标资源池中已有的文件 }
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        数据迁移
        阿里云OSS数据迁移到OOS
      • 产品定义
        本章节主要介绍翼MapReduce服务的产品定义、架构与优势。 产品定义 翼MapReduce(简称:“翼MR”),是基于当前开源新版本大数据组件进行产品化封装,可以为客户提供快速部署、便捷维护的HDFS、YARN、Spark、Flink、Hive、Doris、Kafka、HBase等高性能的大数据组件以及运维管理平台,同时产品默认提供强安全验证能力,具备高安全、高扩展、快捷运维等特色,支持批量数据处理、流式数据处理、离线数据分析、在线查询等场景。 产品架构 翼MR集群各个版本组件情况请参见版本概述。 详见下图:翼MR架构图 翼MR架构包括了基础设施和大数据处理流程各个阶段的能力。 ● 基础设施 基于天翼云弹性云主机CTECS构建的大数据集群,整体集群的高可靠和高安全能力可以得到虚拟化底层的充分保证。 虚拟私有云(CTVPC)为每个租户提供虚拟的内部网络,默认与其他网络隔离,同时通过配套的安全组访问控制确保网络层面的安全性。 云硬盘(CTEVS)提供不同规格和性能表现的高可靠存储能力。 弹性云主机(CTECS)提供的弹性可扩展虚拟服务器,结合上述的CTVPC、安全组、CTEVS数据多副本和灾备能力为客户打造一个高效、可靠、安全的业务集群环境。 物理机服务(CTDPS)是基于天翼云软硬结合技术研发的一款拥有极致性能的裸金属服务器,兼具云主机的灵活弹性、物理机的稳定,提供算力强劲的计算类服务,提供专属的云上物理服务器,为大数据、核心数据库、高性能计算等业务提供服务稳定、数据安全、性能卓越的算力服务。 ● 数据集成 数据集成层提供了客户的数据集成进翼MR集群的能力,包括:Kafka、Logstash、SeaTunnel、Flume,支持各种数据源导入数据到翼MR大数据集群中。 ● 数据存储 翼MR支持结构化和非结构化数据在集群中的存储,并且支持多种高效的格式来满 足不同计算引擎的要求。 – HDFS是大数据上通用的分布式文件系统。 – Doris是实时数据仓库服务,具有高并发、低延迟的特点。 – HBase支持带索引的数据存储,适合高性能基于索引查询的场景。 – Elasticsearch支持结构化/非结构化数据的检索、分析场景。 ● 数据调度和计算处理 – 翼MR提供多种主流计算引擎:MapReduce(批处理)、 Spark(内存计算)、Flink(流计算),满足多种离线或实时大数据应用场景,将数据进行结构和逻辑的转换,转化成满足业务目标的数据模型。 – 基于预设的数据模型,使用易用SQL的数据分析,用户可以选择Hive(数据仓库),SparkSQL以及Trino交互式查询引擎。 ● 翼MR Manager 为确保大数据组件服务的高可用性,以Hadoop为基础的大数据生态的各种组件均需要以分布式的方式进行部署,涉及其中的部署、管理和运维复杂度要求较高。翼MR提供了统一的运维管理平台翼MR Manager,包括可视化引导式部署集群能力。同时翼MR Manager还提供了租户与资源管理能力,以及翼MR中各类大数据组件的运维,并提供监控、告警、配置等一站式运维能力。
        来自:
        帮助文档
        翼MapReduce
        产品介绍
        产品定义
      • 常见问题(1)
        本文介绍Aiuse云电脑功能的常见问题 Q:如果我的企业希望体验 Aiuse 云电脑功能,应该如何开通使用? A:感谢您对 Aiuse 云电脑的关注!目前,您可以通过发送申请邮件至 zhangyh65@chinatelecom.cn 进行开通申请,我们的专属客服人员将在收到邮件后尽快与您联系,协助完成使用资格开通。后续也将提供自助开通渠道方便使用。 开通使用后,如何获取云电脑调用工具包及开发接入指引? 开通使用后,您可参阅++SDK 接入指南++,其中涵盖工具包下载、环境配置及完整的开发接入说明,帮助您快速完成集成。如在接入过程中遇到问题,欢迎随时联系我们的技术支持团队。 Q:目前 AccessKey 最多可以创建多少个?绑定的云电脑数量是否有上限? A:当前每个租户最多可创建 10 个 AccessKey,每个 AccessKey 所绑定的云电脑数量不设上限。为便于统一管理及实现数据隔离,建议为不同业务场景或团队分配独立的 AccessKey,并分别绑定对应的云电脑资源。 Q:如何将 Accesskey 绑定到桌面? A:Accesskey 的绑定操作请前往++桌面管理++页面进行配置,页面中提供了详细的操作步骤说明。如需进一步帮助,请参阅相关操作文档或联系客服人员。 Q:SDK 中输入的 desktopCode 是指什么? A:desktopCode 是指桌面编码,用于唯一标识您的云电脑桌面实例。请注意,desktopCode 与桌面 ID 是两个不同的概念,请勿混淆,务必确认填写的是正确的桌面编码。
        来自:
      • 1
      • ...
      • 6
      • 7
      • 8
      • 9
      • 10
      • ...
      • 427
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      轻量型云主机

      弹性高性能计算 E-HPC

      训推服务

      人脸属性识别

      动作活体识别

      身份证识别

      iBox边缘盒子

      云硬盘 EVS

      推荐文档

      删除

      邀请参会方

      删除

      开票月账单金额与消费记录金额不一致怎么办?

      篡改防护

      分布式消息服务相关术语解释

      配置目的端

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号