爆款云主机低至25.83元/年
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 云聚517 · 好价翼起拼 NEW 爆款云主机低至25.83元/年,参与拼团享更多优惠,拼成得额外优惠券
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 聚力AI赋能 天翼云大模型专项 大模型特惠专区·Token Plan 轻享包低至9.9元起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 企业出海解决方案 NEW 助力您的业务扬帆出海,通达全球!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
Token服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V4-Flash
  • GLM-5.1
  • Qwen3.5-122B-A10B
  • DeepSeek-V3.2(旗舰版)
  • GLM-5(正式版)
智算一体机
  • 智算一体机
智能体引擎
  • 智能体引擎
智算安全专区
  • 大模型安全评测
  • 大模型安全护栏
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      数据集成工具_相关内容
      • 常见的数据导入导出方法
        本页介绍了使用 MongoDB 官方工具进行数据导入导出的方法。 文档数据库服务支持使用 MongoDB 官方工具进行数据导入导出。用户可以下载 mongoexport/mongoimport 或者 mongodump/mongorestore 工具完成导入导出操作。 mongoexport/mongoimport 操作方法 mongoexport 将指定表中的数据导出为 JSON 格式。 使用 mongoexport 导出某个表的数据: mongoexport host port username password authenticationDatabaseadmin db collection outxxx.json 执行完成后会在指定的输出文件中看到 JSON 格式的数据。 导出来的 JSON 数据可以通过 mongoimport 工具导入到其他实例或者其他表。 使用 mongoimport 将 JSON 数据导入到某个表中: mongoimport host port username password authenticationDatabaseadmin db collection xxx.json 导入完成后,登录到目标实例上可以看到对应的库表中已经成功插入了数据。 mongodump/mongorestore 操作方法 mongodump 将指定实例或者库表中的数据导出为 BSON 格式,并且支持导出索引和 oplog, 支持指定 gzip 进行数据压缩。 使用 mongodump 导出单个表的数据: mongodump host port username password authenticationDatabaseadmin db collection out 导出完成后,会在指定的目录下看到对应的库表目录和文件。 如果不指定表名,则会导出指定数据库下的所有表数据: mongodump host port username password authenticationDatabaseadmin db out 如果不指定数据库名和表名,则会导出整实例的所有库表数据,包括系统自带的 admin 数据库: mongodump host port username password authenticationDatabaseadmin out mongorestore 工具能够将 mongodump 导出的数据恢复到文档数据库服务实例中。 例如,将上述 mongodump 备份出来的数据恢复到指定实例上: mongorestore host port username password authenticationDatabaseadmin
        来自:
        帮助文档
        文档数据库服务
        最佳实践
        常见的数据导入导出方法
      • 任务管理
        本节为您介绍数据库迁移工具任务管理。 任务暂停/启动 数据库迁移工具提供对启动状态的任务暂停,对暂停的任务进行启动。 暂停 暂停任务的读取、写入操作。暂停读取源库增量变更,以及目标的增量写入。 启动 启动任务的读取、写入。启动读取源库的增量变更,以及目标的增量写入。 任务取消 数据库迁移工具提供对暂停状态的任务取消功能,执行取消操作后,任务状态将被标记为取消。 任务复制 数据库迁移工具提供对已有任务参数信息的复制功能,复制后可重新启动一个新的订阅任务。 复制 复制旧任务的所有参数信息,如源库的IP、端口,目标的IP端口等所有参数。 任务终结 数据库迁移工具提供对执行中的任务进行终结,移除当前任务信息。 任务释放 数据库迁移工具提供任务释放功能,用户可通过点击迁移任务的“释放”按钮,完全移除订阅任务数据。该操作不可逆,数据将无法找回。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移模块
        数据传输
        数据同步
        数据订阅
        任务管理
      • 证书管理概述
        本文为您介绍证书管理功能模块详情。 证书管理组件为您提供高可用、高安全的密钥和证书托管能力,您可以通过KMS提供的云原生接口实现签名验签运算。 证书生命周期管理 证书管理模块提供高可用、高安全的密钥和证书托管能力,您可以通过控制台或API集中管理证书。 功能 说明 证书托管 支持管理密钥和证书,可以生成证书请求、导入证书和证书链、启用/禁用证书、吊销或删除证书等。 密钥安全存储 证书管家使用托管密码机保障证书密钥的产生、存储安全。 API便于集成 支持多个API接口,帮助在开发环境高效集成证书服务,快速进行产品部署,为您提供快速开发上线证书相关功能的能力。 支持的证书类型 证书类型 说明 数字证书(含私钥) 支持通过证书管理服务生成证书请求,导入或导出数字证书及其证书链,证书私钥由KMS硬件安全模块保护。 Ukey证书(不含私钥) 支持将Ukey中的证书(不含私钥)导出并存入KMS,由KMS统一托管,并支持调用KMS提供的接口实现身份认证中的验签运算。 证书运算API KMS提供云原生的证书运算类API,帮助在开发环境高效集成证书服务,快速实现证书调用。 功能 说明 参考文档 加密解密 证书公钥运算:使用指定证书加密数据。 证书私钥运算:使用指定证书解密数据。 证书公钥加密 证书私钥解密 签名验签 证书私钥运算:使用指定证书生成数字签名。 证书公钥运算:使用指定证书验证数字签名。 证书私钥签名 证书公钥验签
        来自:
        帮助文档
        密钥管理
        用户指南
        证书管理
        证书管理概述
      • 初始化数据盘场景及磁盘分区形式介绍
        本节介绍了初始化数据盘场景及磁盘分区形式。 操作场景 磁盘挂载至云主机后,需要登录云主机初始化磁盘,即格式化磁盘,之后磁盘才可以正常使用。 系统盘 系统盘不需要初始化,创建云主机时会自带系统盘并且自动初始化,默认磁盘分区形式为主启动记录分区(MBR, Master boot record)。 数据盘 创建云主机时直接创建数据盘,数据盘会自动挂载至云主机。 单独创建数据盘,然后将该数据盘挂载至云主机。 以上两种情况创建的数据盘挂载至云主机后,均需要初始化后才可以使用,请您根据业务的实际规划选择合适的分区方式。 约束与限制 从数据源创建的磁盘无需初始化。该磁盘在初始状态就具有数据源中的数据,初始化有丢失数据的风险。 磁盘分区形式 常用的磁盘分区形式如下表所示,并且针对Linux操作系统,不同的磁盘分区形式需要选择不同的分区工具。 表 磁盘分区形式 磁盘分区形式 支持最大磁盘容量 支持分区数量 Linux分区工具 :::: 主启动记录分区(MBR) 2 TB 4个主分区 3个主分区和1个扩展分区 MBR分区包含主分区和扩展分区,其中扩展分区里面可以包含若干个逻辑分区。扩展分区不可以直接使用,需要划分成若干个逻辑分区才可以使用。以创建6个分区为例,以下两种分区情况供参考: 3个主分区,1个扩展分区,其中扩展分区中包含3个逻辑分区。 1个主分区,1个扩展分区,其中扩展分区中包含5个逻辑分区。 以下两种工具均可以使用: fdisk工具 parted工具 全局分区表 (GPT, Guid Partition Table) 18 EB 1 EB 1048576 TB 不限制分区数量 GPT格式下没有主分区、扩展分区以及逻辑分区之分。 parted工具 注意 MBR支持的磁盘最大容量为2 TB,GPT最大支持的磁盘容量为18 EB,当前数据盘支持的最大容量为32 TB,如果您需要使用大于2 TB的磁盘容量,分区形式请采用GPT。 当磁盘已经投入使用后,此时切换磁盘分区形式时,磁盘上的原有数据将会清除,因此请在磁盘初始化时谨慎选择磁盘分区形式。
        来自:
        帮助文档
        云硬盘 EVS
        快速入门
        初始化数据盘
        初始化数据盘场景及磁盘分区形式介绍
      • 初始化容量大于2TB的Linux数据盘(parted)
        本章介绍初始化容量大于2TB的Linux数据盘(parted)的方法。 操作场景 本文以物理机的操作系统为“CentOS 7.4 64位”、云硬盘容量为3 TB举例,采用Parted分区工具为容量大于2 TB的数据盘设置分区。 MBR格式分区支持的磁盘最大容量为2 TB,GPT分区表最大支持的磁盘容量为18 EB,因此当为容量大于2 TB的磁盘分区时,请采用GPT分区方式。对于Linux操作系统而言,当磁盘分区形式选用GPT时,fdisk分区工具将无法使用,需要采用parted工具。关于磁盘分区形式的更多介绍,请参见初始化数据盘场景及磁盘分区形式介绍。 不同服务器的操作系统的格式化操作可能不同,本文仅供参考,具体操作步骤和差异请参考对应的服务器操作系统的产品文档。 前提条件 已登录物理机。 已挂载数据盘至物理机,且该数据盘未初始化。 划分分区并挂载磁盘 本操作以该场景为例,当物理机挂载了一块新的数据盘时,采用parted分区工具为数据盘设置分区,分区形式设置为GPT,文件系统设为ext4格式,挂载在“/mnt/sdc”下,并设置开机启动自动挂载。 1. 执行以下命令,查看新增数据盘。 plaintext lsblk 回显类似如下信息: plaintext [root@bmscentos74 ~] lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT vda 253:0 0 40G 0 disk ├─vda1 253:1 0 1G 0 part /boot └─vda2 253:2 0 39G 0 part / vdb 253:16 0 3T 0 disk 表示当前的服务器有两块磁盘,“/dev/vda”是系统盘,“/dev/vdb”是新增数据盘。 2. 执行以下命令,进入parted分区工具,开始对新增数据盘执行分区操作。 plaintext parted 新增数据盘 以新挂载的数据盘“/dev/vdb”为例: plaintext parted /dev/vdb 回显类似如下信息: plaintext [root@bmscentos74 ~]
        来自:
        帮助文档
        物理机 DPS
        快速入门
        登录物理机服务
        初始化数据盘
        初始化容量大于2TB的Linux数据盘(parted)
      • 查看Topic
        介绍分布式消息服务Kafka主题列表功能操作内容。 场景描述 Kafka主题列表是Kafka消息队列中的一个重要概念,用于列出所有可用的主题。以下是一些Kafka主题列表的应用场景的描述: 监控和管理:通过查看Kafka主题列表,管理员可以了解当前系统中存在的所有主题。他们可以监控主题的状态、分区数量和副本分布,并进行必要的管理操作,如创建、删除和修改主题。 数据消费者选择:Kafka主题列表可以帮助数据消费者选择他们感兴趣的主题。消费者可以浏览主题列表,找到包含他们需要的数据的主题,并订阅这些主题以接收数据。 数据集成和数据流转:Kafka主题列表可以帮助数据集成和数据流转的过程。数据源可以查看主题列表,确定将数据写入哪些主题。而数据接收方可以查看主题列表,选择他们需要的主题来消费数据。 监控数据流:通过查看Kafka主题列表,监控系统可以了解当前系统中的所有数据流。监控系统可以根据主题列表中的信息,监控每个主题的数据流量、延迟和健康状况,并进行实时的监控和报警。 系统调试和故障排查:Kafka主题列表可以帮助开发人员进行系统调试和故障排查。他们可以查看主题列表,确定消息是否正确地写入和消费,并检查主题的状态和分区情况,以解决潜在的问题。 总之,Kafka主题列表提供了对Kafka消息队列中所有主题的全局视图,帮助管理员、数据消费者和开发人员进行监控、管理和调试。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“Topic管理”后即可查看所有Topic的信息。 (5)右上角输入Topic名称,可查询对应Topic。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        查看Topic
      • 场景及注意事项
        前提条件 已挂载数据盘至云主机或物理机,且该数据盘未初始化。 注意事项 磁盘分区和格式化是高风险行为,请慎重操作。本文操作仅适用于处理一块全新的数据盘。从数据源创建的云硬盘无需初始化,这类云硬盘在初始状态就具有数据源中的数据,如果您要格式化已写入数据的数据盘,请先备份该云硬盘的数据,避免数据丢失。 MBR分区只能识别小于或等于2TB的分区,GPT分区可以识别大于2TB的分区,因此当为容量大于2TB的磁盘分区时,请采用GPT分区方式。具体两种分区方式区别如下表: 分区方式 支持最大磁盘容量 支持分区数量 分区工具 MBR 2TB 4个主分区 3个主分区和1个扩展分区 Linux 操作系统:fdisk 工具或parted 工具 GPT 18EB(目前云硬盘支持的最大容量为32TB) 不限制分区数量 Linux 操作系统:parted 工具 当云硬盘已经投入使用后,此时切换云硬盘分区形式时,云硬盘上的原有数据将会清除,因此请在云硬盘初始化时谨慎选择云硬盘分区形式。切换GPT分区形式前,请对云硬盘数据备份后,再格式化硬盘。 一块新创建的共享云硬盘挂载至第一台云主机后,需进行初始化之后使用。后续挂载至其他云主机,无需再进行初始化。初始化会丢失已有数据,请您谨慎操作。
        来自:
        帮助文档
        云硬盘 EVS
        快速入门
        初始化数据盘
        场景及注意事项
      • 功能简介
        功能概述 依托中电信量子安全加密体系,深度集成量子安全服务平台,基于“量子软模块/量子安全盾+云电脑”,提供更高级别的量子安全防护。 客户端(V3.1.1版本以上)已全面集成量子安全软模块,用户可通过管理控制台免费开通。 开通后,即可享受两大核心安全升级: 量子级身份认证:结合量子安全介质,为终端接入提供量子安全级身份认证保障; 动态量子加密传输:采用"一次一密"量子会话密钥机制,每次连接使用一个量子会话密钥,会话结束后立即销毁,保障端到端数据传输安全。 功能优势 量子身份认证:结合量子软模块/安全盾,提供终端接入的量子身份认证保护。 “一次一密”量子加密保护:每次连接使用一个量子会话密钥,会话结束后立即销毁,从根本上杜绝暴力破解风险。 使用场景 政务领域:XC、党政办公 政务领域涉及大量国家机密、政策文件及敏感数据,安全要求高; 金融领域:金融办公、服务外包办公 金融行业涉及客户数据、交易记录、财务信息等高度敏感数据,需更高的安全保护; 科研领域:高校、科研办公 科研机构对知识产权保护有更高要求,近年来科研数据泄露成重灾区。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        量子安全加密
        功能简介
      • 产品定义
        本章节主要介绍翼MapReduce服务的产品定义、架构与优势。 产品定义 翼MapReduce(简称:“翼MR”),基于当前开源新版本大数据组件进行产品化封装,为客户提供快速部署、易维护的HDFS、YARN、Spark、Flink、Hive、Doris、Kafka、HBase等高性能的大数据组件以及运维管理平台,同时产品默认提供强安全验证能力,具备高安全、高扩展、快捷运维等特色,支持批量数据处理、流式数据处理、离线数据分析、在线查询等场景。 产品架构 翼MR架构包括了基础设施和大数据处理流程各个阶段的能力,详见下图: ● 基础设施 基于天翼云主机构建大数据集群,集群的高可靠与高安全能力得到底层的充分保证。 弹性云主机(CTECS)提供的弹性可扩展虚拟服务器,结合CTVPC、安全组、CTEVS数据多副本和灾备能力为客户打造一个高效、可靠、安全的业务集群环境。 物理机服务(CTDPS)是基于天翼云软硬结合技术研发的一款拥有极致性能的裸金属服务器,兼具云主机的灵活弹性、物理机的稳定,提供算力强劲的计算类服务,提供专属的云上物理服务器,为大数据、核心数据库、高性能计算等业务提供服务稳定、数据安全、性能卓越的算力服务。 云硬盘(CTEVS)提供不同规格和性能表现的高可靠存储能力。 虚拟私有云(CTVPC)为每个租户提供虚拟的内部网络,默认与其他网络隔离,同时通过配套的安全组访问控制确保网络层面的安全性。 ● 数据集成 数据集成层提供了客户的数据集成进翼MR集群的能力,包括:Kafka、SeaTunnel、Flume、Sqoop,支持各种数据源导入数据到翼MR大数据集群中。 ● 数据存储 翼MR提供多种存储形式,如HDFS、Hudi、Iceberg、Paimon、Lance等,支持结构化和非结构化数据在集群中的存储,并且支持多种高效的格式来满足不同计算引擎的要求。 ● 数据调度和计算处理 – 翼MR提供多种主流计算引擎:MapReduce(批处理)、 Spark(内存计算)、Flink(流计算)等,满足多种离线或实时大数据应用场景,将数据进行结构和逻辑的转换,转化成满足业务目标的数据模型。 – 基于预设的数据模型,使用易用SQL的数据分析,用户可以选择Hive(数据仓库),SparkSQL以及Trino交互式查询引擎。 ● 翼MR Manager 为确保大数据组件服务的高可用性,以Hadoop为基础的大数据生态的各种组件均需要以分布式的方式进行部署,涉及其中的部署、管理和运维复杂度要求较高。翼MR提供了统一的运维管理平台翼MR Manager,包括可视化引导式部署集群能力。同时翼MR Manager还提供了租户与资源管理能力,支持对翼MR中各类大数据组件的运维管理,提供监控、告警、配置等一站式运维能力。
        来自:
        帮助文档
        翼MapReduce
        产品介绍
        产品定义
      • 初始化容量大于2TB的Linux数据盘(parted)
        本节介绍了初始化容量大于2TB的Linux数据盘(parted)的操作场景、前提条件、划分分区并挂载磁盘、设置开机自动挂载磁盘分区等内容。 操作场景 本文以云主机的操作系统为“CentOS 7.4 64位”、磁盘容量为3 TB举例,采用Parted分区工具为容量大于2 TB的数据盘设置分区。 MBR支持的磁盘最大容量为2 TB,GPT最大支持的磁盘容量为18 EB,因此当您初始化容量大于2 TB的磁盘时,分区形式请采用GPT。对于Linux操作系统而言,当磁盘分区形式选用GPT时,fdisk分区工具将无法使用,需要采用parted工具。关于磁盘分区形式的更多介绍,请参见场景及磁盘分区形式介绍。 不同云主机的操作系统的格式化操作可能不同,本文仅供参考,具体操作步骤和差异请参考对应的云主机操作系统的产品文档。 前提条件 已挂载数据盘至云主机,且该数据盘未初始化。 已登录云主机。 划分分区并挂载磁盘 本操作以该场景为例,当云主机挂载了一块新的数据盘时,采用parted分区工具为数据盘设置分区,分区形式设置为GPT,文件系统设为ext4格式,挂载在“/mnt/sdc”下,并设置开机启动自动挂载。 步骤 1 执行以下命令,查看新增数据盘。 lsblk 回显类似如下信息: [root@ecscentos74 ~]
        来自:
        帮助文档
        弹性云主机 ECS
        快速入门
        初始化数据盘
        初始化容量大于2TB的Linux数据盘(parted)
      • zosfs介绍及下载
        本文为您介绍zosfs的主要功能和使用场景等信息。 工具简介 zosfs是一个通过FUSE技术,将天翼云对象存储ZOS的bucket(存储桶)挂载为本地目录的工具。 zosfs利用gorountine,通过异步的并发操作,实现对本地文件的高效上传、对云端对象的高效下载,同时,zosfs也优化了对目录列举的操作,提升目录列举的效率。 使用场景 zosfs主要支持模型训练、模型推理等计算密集型场景,解决密集计算对存储数据加载和写入的特殊需要。具体而言,这类场景对存储数据操作以顺序读取、随机读取、顺序(追加)写入为主。 主要功能 兼容基础的POSIX语义操作,能有效利用ZOS的服务端读写能力。 针对计算密集的数据读写需要,提供高效的大文件顺序读写能力。 适配环境 计算平台:X86计算平台、ARM计算平台 操作系统:ctyunOS 23.01、ctyunOS 2.0.1、ctyunOS 22.06 使用限制 zosfs为特定挂载场景优化,因此存在一定的使用限制,请使用前仔细阅读zosfs使用限制章节,了解工具的限制条件。 注意 我们建议您在使用zosfs工具前,了解工具的使用限制,并对工具进行使用测试,避免对您的业务产生影响。 获取zosfs 适配X86计算平台 点击下载工具:zosfs0.6.1x86.tar.gz 适配ARM计算平台 点击下载工具:zosfs0.6.1arm.tar.gz 说明 此处提供的zosfs工具包,解压后无需安装即可运行。
        来自:
        帮助文档
        对象存储 ZOS
        常用工具
        zosfs(预览版)
        zosfs介绍及下载
      • 迁移常见问题
        是否支持Memcached和Redis之间实例数据的迁移? 不支持,Memcached和Redis属于不同的缓存数据库, Memcached 和 Redis 在协议和数据格式上存在明显差异,无法兼容。 使用RedisShake工具迁移数据,执行出错 RedisShake工具的使用问题,请参考RedisShake官网。 创建迁移任务失败的原因? 1. 源Redis与目标Redis网络不通或者网络不稳定。 2. 源Redis或者目标Redis实例为主备架构时,发生了主从切换。 3. 源Redis或者目标Redis的账号密码错误。 4. 源Redis或者目标Redis的账号无DBA管理员权限。 5. 高版本Redis迁移数据至低版本Redis,出现了命令不兼容问题。 是否支持低版本Redis迁移到高版本Redis? 支持,高版本Redis命令兼容低版本Redis命令。 一个Redis能同时迁移至多个目标Redis么? 不能,建议创建多个迁移任务。 DCS实例迁移下云 推荐方案: 使用DCS控制台在线迁移功能;操作参考: 使用在线迁移自建Redis,目标Redis填写实例连接地址。 使用RDB进行数据迁移;通过Rediscli导出DCS的RDB文件> 通过RedisShake工具导入RDB文件至新集群;操作参考:使用RedisShake工具迁移自建Redis Cluster集群。
        来自:
        帮助文档
        分布式缓存服务Redis版
        数据迁移指南
        迁移常见问题
      • 迁移方案说明
        工具/命令/服务 特点 说明 DCS控制台数据迁移功能 操作简单,同时支持全量同步+增量同步 数据迁移涉及到SYNC/PSYNC命令,当源Redis实例开放了SYNC/PSYNC命令时, 支持全量同步+增量同步,否则仅支持全量同步 Rediscli Redis自带命令行工具,支持将RDB文件、AOF文件整库导入 RedisShake 在线迁移和离线迁移均支持的一款开源工具。 自行开发迁移脚本 灵活,可根据实际场景进行定制化适配
        来自:
        帮助文档
        分布式缓存服务Redis版
        数据迁移指南
        迁移方案说明
      • 使用Redis-Shake工具在线迁移自建Redis Cluster集群
        本文主要介绍使用RedisShake工具迁移自建Redis Cluster集群 RedisShake是一款开源的Redis迁移工具,支持Cluster集群的在线迁移与离线迁移(备份文件导入)。DCS Cluster集群与Redis Cluster集群设计一致,数据可平滑迁移。 本文以Linux系统环境为例,介绍如何使用RedisShake工具进行Cluster集群数据迁移。 约束与限制 使用RedisShake工具将自建的Redis Cluster在线迁移到DCS Cluster集群,需要源Redis与目标Redis网络连通,或者通过一台中转云主机连通两端的Cluster集群实例。 前提条件 如果您还没有目标Redis,请先创建目标Redis,具体操作请参考创建实例。 如果您已有目标Redis,则不需要重复创建,为了对比迁移前后数据及预留足够的内存空间,建议在数据迁移之前清空目标实例数据,清空操作请参考清空实例数据。如果没有清空实例数据,数据迁移后,目标Redis与源Redis实例重复的数据迁移后会被覆盖,源Redis没有、目标Redis有的数据会保留。 已创建弹性云主机ECS。 ECS请选择与DCS Cluster集群实例相同虚拟私有云、子网和安全组,并且需要绑定弹性公网IP。 自建的源Redis Cluster集群如果是在本地或者其他云厂商的服务器上自建,需要允许被公网访问。 获取源Redis和目标Redis节点信息 1. 分别连接源端和目标端Redis。连接Redis的方法请参考使用rediscli连接Redis实例。 2. 在线迁移Cluster集群时需要将Cluster集群各个节点数据分别迁移。执行如下命令分别查询源端和目标Cluster集群的所有节点的IP地址与端口: rediscli h {redisaddress} p {redisport} a {redispassword} cluster nodes {redisaddress}为Redis的连接地址,{redisport}为Redis的端口,{redispassword}为Redis的连接密码。 在命令返回的结果中,获取所有master节点的IP端口。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        数据迁移指南
        自建Redis迁移至DCS
        使用Redis-Shake工具在线迁移自建Redis Cluster集群
      • 存储概述
        对比维度 云硬盘EVS 弹性文件服务SFS 对象存储OBS 极速文件存储SFS Turbo 概念 云硬盘(Elastic Volume Service)可以为云主机提供高可靠、高性能、规格丰富并且可弹性扩展的块存储服务,可满足不同场景的业务需求,适用于分布式文件系统、开发测试、数据仓库以及高性能计算等场景。 SFS为用户提供一个完全托管的共享文件存储,能够弹性伸缩至PB规模,具备高可用性和持久性,为海量数据、高带宽型应用提供有力支持。适用于多种应用场景,包括HPC、媒体处理、文件共享、内容管理和Web服务等。 对象存储服务(Object Storage Service,OBS)提供海量、安全、高可靠、低成本的数据存储能力,可供用户存储任意类型和大小的数据。适合企业备份/归档、视频点播、视频监控等多种数据存储场景。 SFS Turbo为用户提供一个完全托管的共享文件存储,能够弹性伸缩至320TB规模,具备高可用性和持久性,为海量的小文件、低延迟高IOPS型应用提供有力支持。适用于多种应用场景,包括高性能网站、日志存储、压缩解压、DevOps、企业办公、容器应用等。 存储数据的逻辑 存放的是二进制数据,无法直接存放文件,如果需要存放文件,需要先格式化文件系统后使用。 存放的是文件,会以文件和文件夹的层次结构来整理和呈现数据。 存放的是对象,可以直接存放文件,文件会自动产生对应的系统元数据,用户也可以自定义文件的元数据。 存放的是文件,会以文件和文件夹的层次结构来整理和呈现数据。 访问方式 只能在ECS/BMS中挂载使用,不能被操作系统应用直接访问,需要格式化成文件系统进行访问。 在ECS/BMS中通过网络协议挂载使用。需要指定网络地址进行访问,也可以将网络地址映射为本地目录后进行访问。 可以通过互联网或专线访问。需要指定桶地址进行访问,使用的是HTTP和HTTPS等传输协议。 提供标准的文件访问协议NFS(仅支持NFSv3),用户可以将现有应用和工具与SFS Turbo无缝集成。 静态数据卷 支持 支持 支持 支持 动态数据卷 支持 支持 支持 不支持 主要特点 非共享存储,每个云盘只能在单个节点挂载。 共享存储,可提供高性能、高吞吐存储服务。 共享存储,用户态文件系统。 高性能、高带宽、共享存储。 应用场景 HPC高性能计算、企业核心集群应用、企业应用系统和开发测试等。说明高性能计算:主要是高速率、高IOPS的需求,用于作为高性能存储,比如工业设计、能源勘探等。 HPC高性能计算、媒体处理、内容管理和Web服务、大数据和分析应用程序等。说明高性能计算:主要是高带宽的需求,用于共享文件存储,比如基因测序、图片渲染等。 大数据分析、静态网站托管、在线视频点播、基因测序、智能视频监控、备份归档、企业云盘(网盘)等。 高性能网站、日志存储、DevOps、企业办公等。 容量 TB级别 PB级别 EB级别 TB级别 时延 1~2ms 3~20ms 10ms 1~2ms IOPS/TPS 单盘33K 2K 千万级 100K 带宽 MB/s级别 GB/s级别 TB/s级别 GB/s级别
        来自:
        帮助文档
        云容器引擎
        用户指南
        存储管理
        存储概述
      • 迁移步骤
        执行迁移 对于Windows客户端,执行import.bat启动迁移,步骤如下: 1. 打开“开始”菜单,搜索“cmd”,打开命令提示符窗口。 2. cd到压缩工具所在的目录下,例如 cd c:CTYUNOOSImport1.3.2。 3. 执行import.bat。 对于Linux客户端,执行import.sh启动迁移,步骤如下: 1. 为import.sh增加执行权限,执行命令:chmod +x import.sh。 2. 运行import.sh,执行命令:./import.sh。 断点续传 数据迁移工具支持断点续传,如果迁移过程中程序被终止了,可以重新启动迁移任务,从之前中断的位置继续开始迁移。继续迁移的步骤如下: 1. 保留上次迁移执行过程中产生的backup文件。如果是在另外一台服务器上重新开始迁移任务,需要将backup文件拷贝到新服务器的迁移工具所在目录下。 2. (可选)查看nextMarker.txt文件中记录的上次数据迁移位置。修改migrate.conf,设置srcMarker为上次迁移位置。 日志 数据迁移工具执行过程中,会生成一个migratelog文件夹,用于记录迁移情况。日志类型分为异常日志、成功日志、跳过文件(Object)日志、其他日志。 运行日志生成在logs/migrate文件夹下,根据log4j2.xml配置可生成server.log、error.log、dubug.log等。
        来自:
      • 对象迁移工具
        该工具提供将其他对象存储迁移至对象存储ZOS的迁移服务。 工具介绍: 对象存储(CTZOS,Zettabyte Object Storage)数据迁移工具是一款用于将存储在其他对象存储服务中的数据,迁移至天翼云 ZOS 的命令行迁移工具。 主要功能: 适配多源端:支持多种数据源端,包括:亚马逊 S3、阿里云 OSS、华为云 OBS(包含合营的OBS)、腾讯云 COS、天翼云 ZOS、天翼云 OOS 和 其他遵循标准 S3 协议的对象存储服务。 源端配置 源端整桶迁移:支持整桶文件迁移。 源端过滤规则:支持指定源端文件夹、文件、前缀进行迁移;支持通过对象列表文件(.txt格式)指定源端迁移对象。 源端指定时间区间:支持迁移源桶内指定时间区间内的文件。 目的端配置 目的端指定前缀:支持指定迁移至目的端的对象统一新增前缀,若为目录前缀则会将数据迁移至该目录下。 目的端存储类型及访问控制:支持设置迁移至目的端的对象的存储类型和访问控制;支持设置对象迁移到ZOS为归档存储。 高级配置 同名文件处理策略:支持处理同名文件的策略配置。 流量控制:支持对任务进行限流。 自定义分片:支持自定义分片大小。 数据一致性校验:支持迁移过程中的一致性校验(按最后修改时间和 size)。 失败记录及重试:支持记录迁移失败对象以及重试失败对象的迁移;支持记录对象迁移失败原因。 并行传输和续传:支持对象并行下载和上传,支持断点续传。 迁移进度与日志:支持实时查询迁移进度,支持日志记录。 多任务迁移:支持自动按序执行迁移任务。您可一次创建多个任务配置文件,让工具自动执行这些任务。 注意 各源端厂商可能基于标准S3协议进行定制化改动,而非完全遵循标准S3协议,因此,非以上厂商的对象存储服务,请您以实际支持情况为准。 为避免您的损失,迁移前我们建议您尝试进行小部分数据迁移进行测试。
        来自:
        帮助文档
        对象存储 ZOS
        常用工具
        对象迁移工具
      • 功能特性
        容器监控 Prometheus监控服务和云容器引擎默认实现了产品能力集成,可将您创建的容器集群无缝接入到Prometheus监控平台中,实现集群及工作负载的一体化监测。 自定义监控 支持添加自定义服务发现集成,实现自定义采集接入,并可查看相关指标、监控大盘及告警信息。同时,提供Remote Write标准接口,允许通过该接口远程接入开源Prometheus的监控数据,从而在Prometheus监控服务上收集和展示这些自定义数据。 服务发现 提供默认服务发现、ServiceMonitor、PodMonitor和自定义服务发现。使用这些服务发现机制,可以优化用户对容器集群的监控范围控制,确保采集到所需的指标数据,以便对不同的服务和Pod进行监控和分析。 聚合实例 聚合实例能够将当前地域内的所有Prometheus实例整合为一个虚拟聚合视图。通过该实例,用户可以集中执行统一的指标查询和告警管理。 告警规则 通过创建Prometheus监控告警规则,用户可以设定针对特定Prometheus实例的告警规则。当告警规则设置的条件满足后,系统会产生对应的告警事件。如果想要收到通知,需要进一步配置对应的通知策略以生成告警并且以短信、邮件、或Webhook等方式发送通知。 告警规则模板 当用户需要为多个Prometheus实例统一配置相同告警规则时,可通过Prometheus告警规则模板功能实现标准化管理。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        Prometheus监控
        产品概述
        功能特性
      • 主机运维
        前提条件 已获取“主机运维”模块管理权限。 已获取资源访问控制权限,即已被关联访问控制策略或访问授权工单已审批通过。 已在本地安装客户端工具。 资源主机网络连接正常,且资源账户登录帐号和密码无误。 操作步骤 1 登录云堡垒机系统。 2 选择“运维 > 主机运维”,进入主机运维列表页面。 3 选择数据库协议类型的主机,单击“登录”,弹出客户端工具选择窗口。 首次登录数据库资源,弹出SsoDBSettings下载窗口,可下载SsoDBSettings工具。 选择客户端工具 4 选择本地已安装客户端工具,单击“确定”。 自动调用本地数据库客户端工具。 5 登录数据库资源进行操作。 配置SSO单点客户端 以Navicat客户端为例,示例配置客户端路径。 1 打开本地SsoDBSettings单点登录工具。 单点登录工具界面 2 在“Navicat路径”栏后,单击路径配置。 3 根据本地Navicat客户端安装的绝对路径,选中Navicat工具的exe文件后,单击“打开”。 查找本地工具绝对路径 4 返回SsoDBSettings单点登录工具配置界面,可查看已选择的Navicat客户端路径。 确认配置路径 5 单击“保存”,返回云堡垒机“主机运维”列表页面,即可登录数据库资源。 批量登录主机进行运维 通过Web浏览器支持批量登录主机,提供“文件传输”、“文件管理”和“预置命令”等功能。用户在主机上执行的所有操作,被云堡垒机记录并生成审计数据。 本小节主要介绍如何通过Web浏览器批量登录主机。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        运维管理
        主机运维
      • 初始化Linux数据盘(fdisk)
        本节介绍了初始化Linux数据盘(fdisk)的操作场景、前提条件、划分分区并挂载磁盘、设置开机自动挂载磁盘分区。 操作场景 本文以云主机的操作系统为“CentOS 7.4 64位”为例,采用fdisk分区工具为数据盘设置分区。 MBR支持的磁盘最大容量为2 TB,GPT最大支持的磁盘容量为18 EB,因此当您初始化容量大于2 TB的磁盘时,分区形式请采用GPT。对于Linux操作系统而言,当磁盘分区形式选用GPT时,fdisk分区工具将无法使用,需要采用parted工具。关于磁盘分区形式的更多介绍,请参见场景及磁盘分区形式介绍。 不同云主机的操作系统的格式化操作可能不同,本文仅供参考,具体操作步骤和差异请参考对应的云主机操作系统的产品文档。 前提条件 ● 已挂载数据盘至云主机,且该数据盘未初始化。 ● 已登录云主机。 划分分区并挂载磁盘 本操作以该场景为例,当云主机挂载了一块新的数据盘时,使用fdisk分区工具将该数据盘设为主分区,分区形式默认设置为MBR,文件系统设为ext4格式,挂载在“/mnt/sdc”下,并设置开机启动自动挂载。 步骤 1 执行以下命令,查看新增数据盘。 fdisk l 回显类似如下信息: [root@ecstest0001 ~] fdisk l Disk /dev/vda: 42.9 GB, 42949672960 bytes, 83886080 sectors Units sectors of 1 512 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk label type: dos Disk identifier: 0x000bcb4e Device Boot Start End Blocks Id System /dev/vda1 2048 83886079 41942016 83 Linux Disk /dev/vdb: 107.4 GB, 107374182400 bytes, 209715200 sectors Units sectors of 1 512 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes 表示当前的云主机有两块磁盘,“/dev/vda”是系统盘,“/dev/vdb”是新增数据盘。 步骤 2 执行以下命令,进入fdisk分区工具,开始对新增数据盘执行分区操作。 fdisk 新增数据盘 以新挂载的数据盘“/dev/vdb”为例: fdisk /dev/vdb 回显类似如下信息: [root@ecstest0001 ~]
        来自:
        帮助文档
        云硬盘 EVS
        快速入门
        初始化数据盘
        初始化Linux数据盘(fdisk)
      • 使用MirrorMaker跨集群数据同步
        实施步骤 (1)购买一台弹性云主机,确保弹性云主机与源集群、目标集群网络互通。 (2)登录弹性云主机,安装Java JDK,并配置JAVAHOME与PATH环境变量。其中“/usr/local/java/jdk1.8.0161”为JDK的安装路径,请根据实际情况修改。 exportJAVAHOME/usr/local/java/jdk1.8.0161 exportPATH$JAVAHOME/bin:$PATH (3)下载安装kafka 下载页面: (4)进入kafka安装目录,修改“config/connectmirrormaker.properties”配置文件,在配置文件中指定源集群和目标集群的IP地址和端口以及其他配置。 (5)在kafka安装目录下,启动MirrorMaker,进行数据同步。 ./bin/connectmirrormaker.sh config/connectmirrormaker.properties 验证数据是否同步 要验证MirrorMaker是否成功同步数据,可以采取以下几种方法: 1. 检查目标集群的主题和分区: 在目标集群上使用Kafka命令行工具或管理工具,查看MirrorMaker复制的主题和分区是否存在。确保目标集群上有与源集群相同的主题和分区。 2. 检查消息偏移量: 使用Kafka消费者API或命令行工具,从目标集群中消费复制的消息。验证消息的偏移量是否与源集群中的消息偏移量一致。如果偏移量相同,表示数据同步成功。 3. 检查消息内容: 从目标集群中消费复制的消息,并与源集群中的消息进行比较。验证消息内容是否一致。可以使用Kafka消费者API或命令行工具来消费消息,并进行比较。 4. 监控MirrorMaker的指标: 在MirrorMaker节点上启用监控,收集关于复制进度、延迟和吞吐量等指标的数据。通过监控指标,可以了解MirrorMaker的工作状态和性能表现,进一步验证数据同步的情况。 5. 进行端到端测试: 在源集群中发送一些测试消息,并在目标集群中验证这些消息是否被成功复制。可以使用Kafka生产者API或命令行工具发送测试消息,并使用Kafka消费者API或命令行工具从目标集群中消费并验证消息。 通过以上方法,可以验证MirrorMaker是否成功同步数据,并确保数据在源集群和目标集群之间的一致性。根据实际需求,可以选择适合的验证方法或组合多种方法来进行验证。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        使用MirrorMaker跨集群数据同步
      • 对象存储触发器
        本文介绍函数计算支持的对象存储触发器的使用限制、事件类型及触发规则。 对象存储与函数计算集成后,对象存储事件能触发相关函数执行,实现对对象存储中的数据的自定义处理。 背景信息 对象存储和函数计算通过对象存储触发器实现无缝集成,可以编写函数对对象存储事件进行自定义处理,当对象存储捕获到指定类型的事件后,对象存储事件触发相应的函数执行。例如,可以设置函数来处理PutObject事件,当上传图片到对象存储后,相关联的函数会自动被触发来处理该图片。 对象存储和函数计算集成后,可以自由地调用各种函数处理图像或音频数据,再把结果写回到多种存储服务中。整个架构中,只需要专注于函数逻辑的编写,系统将以实时的、可靠的、大规模并行的方式处理海量的数据。 对象存储事件定义 当对象存储系统捕获到相关事件后,会将事件信息编码为JSON字符串,传递给事件处理函数。 已支持的对象存储事件定义如下表所示。 事件类型 说明 s3:ObjectCreated:Put 原子上传对象到Bucket。 s3:ObjectCreated:Post Post上传对象到Bucket。 s3:ObjectCreated:CompleteMultipartUpload 分段上传对象到Bucket。 s3:ObjectCreated:Copy 拷贝上传。 s3:ObjectRemoved:Delete 删除Bucket中对象。 s3:ObjectRemoved:DeleteMarkerCreated 不指定版本号删除多版本Bucket中对象。 s3:ObjectRestore:Post 对象解冻。 触发器触发规则 避免循环触发 使用对象存储触发器时,请注意避免循环触发。例如,一个典型的循环触发场景是对象存储的某个bucket上传文件事件触发函数执行,此函数执行完成后又生成了一个或多个文件再写回到对象存储的bucket里,这个写入动作又触发了函数执行,形成了链状循环。 为了避免循环触发函数产生不必要的费用,建议配置文件前缀或文件后缀,例如将触发函数的文件的文件前缀设置为 src,函数执行完成后生成文件的文件前缀设置为 dst,生成的文件将不会再次触发函数。如果不设置文件前缀和文件后缀,表示匹配任意文件前缀和文件后缀。 配置对象存储触发器
        来自:
        帮助文档
        函数计算
        用户指南
        事件触发
        事件总线类触发器
        对象存储触发器
      • 基本概念
        四、工作流集成 云工作流实现了天翼云在OpenAPI门户的几乎所有产品的API集成。在云工作流中编排使用天翼云产品OpenAPI主要有两种集成方式:普通集成和优化集成。 普通集成 普通集成是指允许云工作流直接调用云产品的OpenAPI服务接口,不对这些服务接口做任何包装处理和实现优化,共计可使用多达上万条API服务接口。更多信息,请参见普通集成。 优化集成 优化集成是指对部分高频使用的云产品服务接口进行包装和优化处理,简化接口使用难度,方便用户在云工作流中编排使用。更多信息,请参见集成简介。 在云工作流下可以按照三种集成模式去进行调用集成其他云服务,只有在标准工作流下可以选择不同的集成模式去调用云服务, 快速工作流只能是请求响应模式去调用其他云服务: 请求响应模式(RequestComplete) 调用其他云服务后, 同步等待响应返回后方可进行下一个执行状态。 等待系统回调(WaitForSystemCallback) 指定等待系统回调后, 工作流会进入到TaskSubmitted状态, 工作流系统自身会查询到目标调用集成服务的执行状态(成功或者失败)从而将工作流从TaskSubmitted等待状态转换为TaskSuccess状态或者TaskFailed状态, 继续工作流执行执行下一个状态。 等待任务令牌(WaitForTaskToken) 指定等待任务令牌后, 工作流会进入到TaskSubmitted状态。用户可通过OpenAPI在用户自定义的业务逻辑中回调通知工作流当前任务的执行结果(成功或者失败)从而工作流从TaskSubmitted等待状态转换为TaskSuccess状态或者TaskFailed状态, 继续工作流执行下一个状态。可以理解的一个场景是业务审批场景, 在业务审批节点通过或者拒绝后, 审批流程继续执行或者终止执行。
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        功能简介
        基本概念
      • 初始化Linux数据盘(fdisk)
        本章介绍初始化Linux数据盘(fdisk)。 操作场景 本文以物理机的操作系统为“CentOS 7.0 64位”为例,采用fdisk分区工具为数据盘设置分区。 MBR格式分区支持的磁盘最大容量为2 TB,GPT分区表最大支持的磁盘容量为18 EB,因此当为容量大于2 TB的磁盘分区时,请采用GPT分区方式。对于Linux操作系统而言,当磁盘分区形式选用GPT时,fdisk分区工具将无法使用,需要采用parted工具。关于磁盘分区形式的更多介绍,请参见初始化数据盘场景及磁盘分区形式介绍。 不同服务器的操作系统的格式化操作可能不同,本文仅供参考,具体操作步骤和差异请参考对应的服务器操作系统的产品文档。 前提条件 已登录物理机。 已挂载数据盘至物理机,且该数据盘未初始化。 划分分区并挂载磁盘 本操作以该场景为例,当物理机挂载了一块新的数据盘时,使用fdisk分区工具将该数据盘设为主分区,分区形式默认设置为MBR,文件系统设为ext4格式,挂载在“/mnt/sdc”下,并设置开机启动自动挂载。 1. 执行以下命令,查看新增数据盘。 plaintext fdisk l 回显类似如下信息: plaintext [root@bmsb656 test] fdisk l Disk /dev/sda: 42.9 GB, 42949672960 bytes, 83886080 sectors Units sectors of 1 512 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk label type: dos Disk identifier: 0x000cc4ad Device Boot Start End Blocks Id System /dev/xvda1 2048 2050047 1024000 83 Linux /dev/xvda2 2050048 22530047 10240000 83 Linux /dev/xvda3 22530048 24578047 1024000 83 Linux /dev/xvda4 24578048 83886079 29654016 5 Extended /dev/xvda5 24580096 26628095 1024000 82 Linux swap / Solaris Disk /dev/sdb: 10.7 GB, 10737418240 bytes, 20971520 sectors Units sectors of 1 512 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes 表示当前的服务器有两块磁盘,“/dev/sda”是系统盘,“/dev/sdb”是新增数据盘。 2. 执行以下命令,进入fdisk分区工具,开始对新增数据盘执行分区操作。 plaintext fdisk 新增数据盘 以新挂载的数据盘“/dev/sdb”为例: plaintext fdisk /dev/sdb 回显类似如下信息: plaintext [root@ecsb656 test]
        来自:
        帮助文档
        物理机 DPS
        快速入门
        登录物理机服务
        初始化数据盘
        初始化Linux数据盘(fdisk)
      • 事件流概述
        随着越来越多的数据源持续、快速地产生数据,此类流式数据急需被系统分析和处理。事件流适用于端到端的流式数据处理场景,对源端产生的事件实时抽取、转换和分析并加载至目标端,帮助您轻松处理流式数据。 事件流总体架构 事件流作为更轻量、实时端到端的流式事件通道,提供轻量流式数据的过滤和转换的能力,在不同的数据仓库之间、数据处理程序之间、数据分析和处理系统之间进行数据同步,连接不同的系统与服务。 如下图所示,事件源与事件目标之间无需定义事件总线,事件通过事件流这个通道在源端和目标端之间进行流转。 事件源:事件的来源,可将天翼云服务如分布式消息Kafka的业务数据作为事件流中的事件提供方。 事件过滤:事件流通过事件模式过滤事件并将事件路由到事件目标,事件模式必须和匹配的事件具有相同的结构。 事件转换:可选择天翼云函数计算作为事件转换器,您可以通过编写函数代码对事件进行更复杂、更加定制化的处理。 事件目标:消费事件消息。 功能优势 实时高效 事件流支持实时从事件源获取、过滤与转换事件,并加载至事件目标。无需定义事件总线,您可以更快地访问事件。 轻量集成 只需在控制台简单创建任务或者一次调用,即可建立实时端到端的流式事件通道,避免了复杂繁琐的操作,便于快速集成。 指标监控 事件流提供多个指标,您可以使用这些指标监控数据流的运行状况,出现异常时及时运维,确保数据流正常运行。 节约成本 按量计费,按照数据量进行计费,不使用则不收费。
        来自:
        帮助文档
        事件总线
        用户指南
        事件流
        事件流概述
      • 服务月报
        数据类型 说明 采集和存储方式 数据用途 服务工单数据 技术类、业务类工单清单。 工单的编号、描述、问题分类、创建时间、解决时间等工单信息。 经自动化工具调用工单API查询结果,中途不存储数据,月报结果按照租户隔离存储。 自动化统计分析,生成月报“服务工单”内容。 云服务资源实例数据 客户创建的资源列表,各资源数量。 资源id、名称、状态、规格、创建时间、IP地址、使用量及服务资源相关的基本配置信息。 经自动化工具调用云服务API查询结果,中途不存储数据,月报结果按照租户隔离存储。 自动化统计分析,生成月报“资源概况”内容。 资源负载监控数据 CPU使用率、内存使用率、磁盘使用率、磁盘读写速率、 IP出口带宽、IP入口带宽、并发连接数、新建连接数、网络延迟、网络丢包率等资源监控指标。 经自动化工具调用云服务API查询结果,中途不存储数据,月报结果按照租户隔离存储。 自动化统计分析,生成月报“资源概况”内容。
        来自:
        帮助文档
        客户支持计划
        产品简介
        服务内容
        服务月报
      • 初始化Linux数据盘(parted)
        本节介绍了初始化Linux数据盘(parted)的相关内容。 操作场景 本文以云主机的操作系统为“CentOS 7.4 64位”为例,采用Parted分区工具为数据盘设置分区。 MBR支持的磁盘最大容量为2 TB,GPT最大支持的磁盘容量为18 EB,因此当您初始化容量大于2 TB的磁盘时,分区形式请采用GPT。对于Linux操作系统而言,当磁盘分区形式选用GPT时,fdisk分区工具将无法使用,需要采用parted工具。关于磁盘分区形式的更多介绍,请参见“初始化数据盘场景及磁盘分区形式介绍”。 不同云主机的操作系统的格式化操作可能不同,本文仅供参考,具体操作步骤和差异请参考对应的云主机操作系统的产品文档。 注意 首次使用磁盘时,如果您未参考本章节对磁盘执行初始化操作,主要包括创建分区和文件系统等操作,那么当后续扩容磁盘时,新增容量部分的磁盘可能无法正常使用。 前提条件 已挂载数据盘至云主机,且该数据盘未初始化。 已登录云主机。 弹性云主机请参见《弹性云主机用户指南》。 物理机服务器请参见《物理机用户指南》。 划分分区并挂载磁盘 本操作以该场景为例,当云主机挂载了一块新的数据盘时,采用parted分区工具为数据盘设置分区,分区形式设置为GPT,文件系统设为ext4格式,挂载在“/mnt/sdc”下,并设置开机启动自动挂载。 1.执行以下命令,查看新增数据盘。 lsblk 回显类似如下信息: root@ecstest0001 ~]
        来自:
        帮助文档
        专属云(存储独享型)
        快速入门
        步骤四:初始化数据盘
        初始化Linux数据盘(parted)
      • 初始化Linux数据盘(fdisk)
        本节介绍了初始化Linux数据盘(fdisk)的相关内容。 操作场景 本文以云主机的操作系统为“CentOS 7.4 64位”为例,采用fdisk分区工具为数据盘设置分区。 MBR支持的磁盘最大容量为2 TB,GPT最大支持的磁盘容量为18 EB,因此当您初始化容量大于2 TB的磁盘时,分区形式请采用GPT。对于Linux操作系统而言,当磁盘分区形式选用GPT时,fdisk分区工具将无法使用,需要采用parted工具。关于磁盘分区形式的更多介绍,请参见“初始化数据盘场景及磁盘分区形式介绍”。 不同云主机的操作系统的格式化操作可能不同,本文仅供参考,具体操作步骤和差异请参考对应的云主机操作系统的产品文档。 注意 首次使用磁盘时,如果您未参考本章节对磁盘执行初始化操作,主要包括创建分区和文件系统等操作,那么当后续扩容磁盘时,新增容量部分的磁盘可能无法正常使用。 前提条件 已挂载数据盘至云主机,且该数据盘未初始化。 已登录云主机。 弹性云主机请参见《弹性云主机用户指南》 物理机服务器请参见《物理机用户指南》。 划分分区并挂载磁盘 本操作以该场景为例,当云主机挂载了一块新的数据盘时,使用fdisk分区工具将该数据盘设为主分区,分区形式默认设置为MBR,文件系统设为ext4格式,挂载在“/mnt/sdc”下,并设置开机启动自动挂载。 1.执行以下命令,查看新增数据盘。 fdisk l 回显类似如下信息: [root@ecstest0001 ~]
        来自:
        帮助文档
        专属云(存储独享型)
        快速入门
        步骤四:初始化数据盘
        初始化Linux数据盘(fdisk)
      • 任务搜索
        本节为您介绍数据库迁移工具任务搜索。 数据库迁移工具提供数据同步搜索功能,用户可根据任务ID、任务名称、任务状态、时间、是否是异常任务筛选出想要查看的数据同步任务。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移模块
        数据传输
        数据同步
        任务搜索
      • 初始化容量大于2TB的Linux数据盘(parted)
        本节介绍了初始化容量大于2TB的Linux数据盘(parted)的相关内容。 操作场景 本文以云主机的操作系统为“CentOS 7.4 64位”、磁盘容量为3 TB举例,采用Parted分区工具为容量大于2 TB的数据盘设置分区。 MBR支持的磁盘最大容量为2 TB,GPT最大支持的磁盘容量为18 EB,因此当您初始化容量大于2 TB的磁盘时,分区形式请采用GPT。对于Linux操作系统而言,当磁盘分区形式选用GPT时,fdisk分区工具将无法使用,需要采用parted工具。关于磁盘分区形式的更多介绍,请参见“初始化数据盘场景及磁盘分区形式介绍”。 不同云主机的操作系统的格式化操作可能不同,本文仅供参考,具体操作步骤和差异请参考对应的云主机操作系统的产品文档。 注意 首次使用磁盘时,如果您未参考本章节对磁盘执行初始化操作,主要包括创建分区和文件系统等操作,那么当后续扩容磁盘时,新增容量部分的磁盘可能无法正常使用。 前提条件 已挂载数据盘至云主机,且该数据盘未初始化。 已登录云主机。 弹性云主机请参见《弹性云主机用户指南》。 物理机服务器请参见《物理机用户指南》。 划分分区并挂载磁盘 本操作以该场景为例,当云主机挂载了一块新的数据盘时,采用parted分区工具为数据盘设置分区,分区形式设置为GPT,文件系统设为ext4格式,挂载在“/mnt/sdc”下,并设置开机启动自动挂载。 1.执行以下命令,查看新增数据盘。 lsblk 回显类似如下信息: [root@ecscentos74 ~]
        来自:
        帮助文档
        专属云(存储独享型)
        快速入门
        步骤四:初始化数据盘
        初始化容量大于2TB的Linux数据盘(parted)
      • 删除数据源
        本节为您介绍云迁移服务CMS数据迁移工具删除数据源操作。 进入“数据迁移工具”,点击“数据源管理管理”界面。 找到对应的源节点/目标节点,点击“删除”按钮。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        对象存储迁移模块
        删除数据源
      • 什么是边缘安全加速平台
        安全策略检测 登录成功后将进行安全检测,分为客户端检测、边缘节点检测,不同检测位置对应不同场景。 若是客户端检测,在客户端层开辟沙箱隔离区进行终端数据安全管控,此外将持续进行检测终端环境,异常情况进行及时处置,比如发现存在异常进程,则会断开内网连接,要求进行处置。 若是边缘节点检测,登录成功的用户将就近与边缘节点进行建立连接,边缘节点集成DDoS、WAF防护插件,将优先进行大规模流量清洗以及WAF安全检测,正常流量转发至零信任网关进行横向扫描防护等,发现异常及时进行处置。 聚合加速回源 安全检测策略通过后将CDN智能选路、中转收敛,将访问转发给客户连接器,通过聚合加速方式来减轻源站连接器并发压力,提高访问速度。 边缘接入服务 AOne边缘接入服务,基于优质的边缘网络资源和应用安全加速能力,为企业网络提供安全、高性能网络连接、TCP/UDP协议加速、私有协议加速等服务。客户可以将任意位置的数据资源安全连接到边缘网络入口,通过高速通道、智能路由及安全防护技术,实现数据高速、稳定、安全的跨地域传输,帮助客户解决全球访问卡顿、延迟过高问题,为客户快速集成一个交付即用、按需弹性且安全的网络环境。
        来自:
        帮助文档
        边缘安全加速平台
        产品介绍
        产品简介
        什么是边缘安全加速平台
      • 1
      • ...
      • 6
      • 7
      • 8
      • 9
      • 10
      • ...
      • 458
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      云聚517 · 好价翼起拼

      爆款云主机低至25.83元/年,参与拼团享更多优惠,拼成得额外优惠券

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      聚力AI赋能 天翼云大模型专项

      大模型特惠专区·Token Plan 轻享包低至9.9元起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      企业出海解决方案

      助力您的业务扬帆出海,通达全球!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      产品推荐

      弹性云主机 ECS

      镜像服务 IMS

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      科研助手

      一站式智算服务平台

      智算一体机

      推荐文档

      如何申请发票?

      天翼云最佳实践①:Linux实例搭建FTP站点

      文档下载

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 息壤智算平台
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号