云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      数据集成工具_相关内容
      • 基本概念
        四、工作流集成 云工作流实现了天翼云在OpenAPI门户的几乎所有产品的API集成。在云工作流中编排使用天翼云产品OpenAPI主要有两种集成方式:普通集成和优化集成。 普通集成 普通集成是指允许云工作流直接调用云产品的OpenAPI服务接口,不对这些服务接口做任何包装处理和实现优化,共计可使用多达上万条API服务接口。更多信息,请参见普通集成。 优化集成 优化集成是指对部分高频使用的云产品服务接口进行包装和优化处理,简化接口使用难度,方便用户在云工作流中编排使用。更多信息,请参见集成简介。 在云工作流下可以按照三种集成模式去进行调用集成其他云服务,只有在标准工作流下可以选择不同的集成模式去调用云服务, 快速工作流只能是请求响应模式去调用其他云服务: 请求响应模式(RequestComplete) 调用其他云服务后, 同步等待响应返回后方可进行下一个执行状态。 等待系统回调(WaitForSystemCallback) 指定等待系统回调后, 工作流会进入到TaskSubmitted状态, 工作流系统自身会查询到目标调用集成服务的执行状态(成功或者失败)从而将工作流从TaskSubmitted等待状态转换为TaskSuccess状态或者TaskFailed状态, 继续工作流执行执行下一个状态。 等待任务令牌(WaitForTaskToken) 指定等待任务令牌后, 工作流会进入到TaskSubmitted状态。用户可通过OpenAPI在用户自定义的业务逻辑中回调通知工作流当前任务的执行结果(成功或者失败)从而工作流从TaskSubmitted等待状态转换为TaskSuccess状态或者TaskFailed状态, 继续工作流执行下一个状态。可以理解的一个场景是业务审批场景, 在业务审批节点通过或者拒绝后, 审批流程继续执行或者终止执行。
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        功能简介
        基本概念
      • 初始化数据盘场景及磁盘分区形式介绍
        本章进行初始化数据盘场景及磁盘分区形式介绍。 操作场景 磁盘挂载至物理机后,需要登录服务器初始化磁盘,即格式化磁盘,之后磁盘才可以正常使用。 系统盘 系统盘不需要初始化,创建物理机时会自带系统盘并且自动初始化,默认磁盘分区形式为主启动记录分区(MBR,Master boot record)。 数据盘 −创建物理机时直接创建数据盘,数据盘会自动挂载至服务器。 −单独创建数据盘,然后将该数据盘挂载至物理机。 以上两种情况创建的数据盘挂载至服务器后,均需要初始化后才可以使用,请您根据业务的实际规划选择合适的分区方式。 磁盘分区形式 常用的磁盘分区形式如下表所示,并且针对Linux操作系统,不同的磁盘分区形式需要选择不同的分区工具。 磁盘分区形式 支持最大磁盘容量 支持分区数量 Linux分区工具 主启动记录分区(MBR) 2 TB 4个主分区 3个主分区和1个扩展分区 MBR分区包含主分区和扩展分区,其中扩展分区里面可以包含若干个逻辑分区。以创建6个分区为例,以下两种分区情况供参考: 3个主分区,1个扩展分区,其中扩展分区中包含3个逻辑分区。 1个主分区,1个扩展分区,其中扩展分区中包含5个逻辑分区。 以下两种工具均可以使用: fdisk工具 parted工具 全局分区表 (GPT,Guid Partition Table) 18 EB 1 EB 1048576 TB 不限制分区数量 GPT格式下没有主分区、扩展分区以及逻辑分区之分。 parted工具 注意 MBR格式分区支持的磁盘最大容量为2 TB,GPT分区表最大支持的磁盘容量为18 EB,当前EVS服务支持的数据盘最大容量为32 TB,如果您需要使用大于2 TB的磁盘容量,请采用GPT分区方式。 当磁盘已经投入使用后,此时切换磁盘分区形式时,磁盘上的原有数据将会清除,因此请在磁盘初始化时谨慎选择磁盘分区形式。
        来自:
        帮助文档
        物理机 DPS
        快速入门
        登录物理机服务
        初始化数据盘
        初始化数据盘场景及磁盘分区形式介绍
      • 初始化Linux数据盘(parted)
        本节介绍了初始化Linux数据盘(parted)的操作场景、前提条件、划分分区并挂载磁盘、设置开机自动挂载磁盘分区等内容。 操作场景 本文以云主机的操作系统为“CentOS 7.4 64位”为例,采用Parted分区工具为数据盘设置分区。 MBR支持的磁盘最大容量为2 TB,GPT最大支持的磁盘容量为18 EB,因此当您初始化容量大于2 TB的磁盘时,分区形式请采用GPT。对于Linux操作系统而言,当磁盘分区形式选用GPT时,fdisk分区工具将无法使用,需要采用parted工具。关于磁盘分区形式的更多介绍,请参见场景及磁盘分区形式介绍。 不同云主机的操作系统的格式化操作可能不同,本文仅供参考,具体操作步骤和差异请参考对应的云主机操作系统的产品文档。 前提条件 已挂载数据盘至云主机,且该数据盘未初始化。 已登录云主机。 划分分区并挂载磁盘 本操作以该场景为例,当云主机挂载了一块新的数据盘时,采用parted分区工具为数据盘设置分区,分区形式设置为GPT,文件系统设为ext4格式,挂载在“/mnt/sdc”下,并设置开机启动自动挂载。 步骤 1 执行以下命令,查看新增数据盘。 lsblk 回显类似如下信息: root@ecstest0001 ~] lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT vda 253:0 0 40G 0 disk └─vda1 253:1 0 40G 0 part / vdb 253:16 0 100G 0 disk 表示当前的云主机有两块磁盘,“/dev/vda”是系统盘,“/dev/vdb”是新增数据盘。 步骤 2 执行以下命令,进入parted分区工具,开始对新增数据盘执行分区操作。 parted 新增数据盘 命令示例: parted /dev/vdb 回显类似如下信息: [root@ecstest0001 ~]
        来自:
        帮助文档
        弹性云主机 ECS
        快速入门
        初始化数据盘
        初始化Linux数据盘(parted)
      • 初始化Linux数据盘(parted)
        本章介绍初始化Linux数据盘(parted)的方法。 操作场景 本文以物理机的操作系统为“CentOS 7.0 64位”为例,采用Parted分区工具为数据盘设置分区。 MBR格式分区支持的磁盘最大容量为2 TB,GPT分区表最大支持的磁盘容量为18 EB,因此当为容量大于2 TB的磁盘分区时,请采用GPT分区方式。对于Linux操作系统而言,当磁盘分区形式选用GPT时,fdisk分区工具将无法使用,需要采用parted工具。关于磁盘分区形式的更多介绍,请参见初始化数据盘场景及磁盘分区形式介绍。 不同服务器的操作系统的格式化操作可能不同,本文仅供参考,具体操作步骤和差异请参考对应的服务器操作系统的产品文档。 前提条件 已登录物理机。 已挂载数据盘至物理机,且该数据盘未初始化。 划分分区并挂载磁盘 本操作以该场景为例,当物理机挂载了一块新的数据盘时,采用parted分区工具为数据盘设置分区,分区形式设置为GPT,文件系统设为ext4格式,挂载在“/mnt/sdc”下,并设置开机启动自动挂载。 1. 执行以下命令,查看新增数据盘。 plaintext lsblk 回显类似如下信息: plaintext [root@bmscentos70 linux] lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 202:0 0 40G 0 disk ├─sda1 202:1 0 4G 0 part [SWAP] └─sda2 202:2 0 36G 0 part / sdb 202:16 0 10G 0 disk 表示当前的服务器有两块磁盘,“/dev/sda”是系统盘,“/dev/sdb”是新增数据盘。 2. 执行以下命令,进入parted分区工具,开始对新增数据盘执行分区操作。 plaintext parted 新增数据盘 以新挂载的数据盘“/dev/sdb”为例: plaintext parted /dev/sdb 回显类似如下信息: plaintext [root@bmscentos70 linux]
        来自:
        帮助文档
        物理机 DPS
        快速入门
        登录物理机服务
        初始化数据盘
        初始化Linux数据盘(parted)
      • 数据迁移服务模块
        弹性扩展能力 数据迁移工具具有弹性扩展能力,可以根据业务需求对迁移任务进行灵活的扩展和调整。用户可以根据实际情况动态调整迁移节点、存储容量等参数,满足不同规模和复杂度的数据迁移需求。 日志与审计功能 数据迁移工具提供完善的日志与审计功能,记录了每一次迁移任务的操作记录、数据传输情况和异常处理情况,帮助管理员对迁移过程进行全面监控和审计,确保数据迁移的可靠性和安全性。 资源利用率优化 数据迁移工具能够优化资源利用率,通过智能调度和优化算法,有效降低迁移过程中的资源消耗,提高迁移效率。同时,还能够根据业务需求合理分配存储资源,实现资源的最大化利用。
        来自:
        帮助文档
        云迁移服务CMS
        产品简介
        产品优势
        数据迁移服务模块
      • 常见的数据导入导出方法
        本页介绍了使用 MongoDB 官方工具进行数据导入导出的方法。 文档数据库服务支持使用 MongoDB 官方工具进行数据导入导出。用户可以下载 mongoexport/mongoimport 或者 mongodump/mongorestore 工具完成导入导出操作。 mongoexport/mongoimport 操作方法 mongoexport 将指定表中的数据导出为 JSON 格式。 使用 mongoexport 导出某个表的数据: mongoexport host port username password authenticationDatabaseadmin db collection outxxx.json 执行完成后会在指定的输出文件中看到 JSON 格式的数据。 导出来的 JSON 数据可以通过 mongoimport 工具导入到其他实例或者其他表。 使用 mongoimport 将 JSON 数据导入到某个表中: mongoimport host port username password authenticationDatabaseadmin db collection xxx.json 导入完成后,登录到目标实例上可以看到对应的库表中已经成功插入了数据。 mongodump/mongorestore 操作方法 mongodump 将指定实例或者库表中的数据导出为 BSON 格式,并且支持导出索引和 oplog, 支持指定 gzip 进行数据压缩。 使用 mongodump 导出单个表的数据: mongodump host port username password authenticationDatabaseadmin db collection out 导出完成后,会在指定的目录下看到对应的库表目录和文件。 如果不指定表名,则会导出指定数据库下的所有表数据: mongodump host port username password authenticationDatabaseadmin db out 如果不指定数据库名和表名,则会导出整实例的所有库表数据,包括系统自带的 admin 数据库: mongodump host port username password authenticationDatabaseadmin out mongorestore 工具能够将 mongodump 导出的数据恢复到文档数据库服务实例中。 例如,将上述 mongodump 备份出来的数据恢复到指定实例上: mongorestore host port username password authenticationDatabaseadmin
        来自:
        帮助文档
        文档数据库服务
        最佳实践
        常见的数据导入导出方法
      • Kvrocks到GeminiDB Redis的迁移
        使用须知 kvrocks2redis需要从Kvrocks提取数据到本地文件,并从中解析出命令发送到目标端GeminiDB Redis ,该过程中可能影响源端性能,但理论上不会有数据受损风险。 迁移工具运行过程中,若出现问题,迁移工具会自动停止,方便问题定位。 GeminiDB Redis从安全性角度出发,不提供清库语义命令,因此要在迁移开始前确保无数据。 前提条件 部署kvrocks2redis到独立主机。 确保源端、目标端、迁移工具之间网络互通。 源端Kvrocks实例提前做好数据备份。 目标端GeminiDB Redis实例清空全部数据。 操作步骤 如需进行Redis到GeminiDB Redis的迁移,您可以在管理控制台右上角,选择“工单 > 新建工单”,联系技术支持进行处理。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        数据迁移
        Kvrocks到GeminiDB Redis的迁移
      • 场景及磁盘分区形式介绍
        本节介绍了初始化数据盘的操作场景、磁盘分区形式等内容。 如果您在创建弹性云主机时添加了数据盘,待登录成功后,需要执行初始化数据盘操作,即格式化云硬盘,之后云硬盘才可以正常使用。 操作场景 磁盘挂载至云主机后,需要登录云主机初始化磁盘,即格式化磁盘,之后磁盘才可以正常使用。 系统盘 系统盘不需要初始化,创建云主机时会自带系统盘并且自动初始化,默认磁盘分区形式为主启动记录分区(MBR, Master boot record)。 数据盘 − 创建云主机时直接创建数据盘,数据盘会自动挂载至云主机。 − 单独创建数据盘,然后将该数据盘挂载至云主机。 以上两种情况创建的数据盘挂载至云主机后,均需要初始化后才可以使用,请您根据业务的实际规划选择合适的分区方式。 磁盘分区形式 常用的磁盘分区形式如下表所示,并且针对Linux操作系统,不同的磁盘分区形式需要选择不同的分区工具。 表 磁盘分区形式 磁盘分区形式 支持最大磁盘容量 支持分区数量 Linux分区工具 主启动记录分区(MBR) 2 TB 4个主分区 3个主分区和1个扩展分区 MBR分区包含主分区和扩展分区,其中扩展分区里面可以包含若干个逻辑分区。扩展分区不可以直接使用,需要划分成若干个逻辑分区才可以使用。以创建6个分区为例,以下两种分区情况供参考:3个主分区,1个扩展分区,其中扩展分区中包含3个逻辑分区。1个主分区,1个扩展分区,其中扩展分区中包含5个逻辑分区。 以下两种工具均可以使用:fdisk工具parted工具 全局分区表(GPT, Guid Partition Table) 18 EB1 EB 1048576 TB 不限制分区数量GPT格式下没有主分区、扩展分区以及逻辑分区之分。 parted工具 注意 MBR支持的磁盘最大容量为2 TB,GPT最大支持的磁盘容量为18 EB,当前数据盘支持的最大容量为32 TB,如果您需要使用大于2 TB的磁盘容量,分区形式请采用GPT。当磁盘已经投入使用后,此时切换磁盘分区形式时,磁盘上的原有数据将会清除,因此请在磁盘初始化时谨慎选择磁盘分区形式。
        来自:
        帮助文档
        弹性云主机 ECS
        快速入门
        初始化数据盘
        场景及磁盘分区形式介绍
      • 天翼云函数计算一键部署DeepSeek大模型
        前言 随着 DeepSeek 新春爆火,带动又一轮大模型热潮;用户访问量突增导致 DeepSeek 服务器繁忙,卡顿或无响应导致用户体验不佳;如何顺畅的体验使用这些大模型服务成为一个挑战。 本文介绍如何使用天翼云函数计算服务快速部署 DeepSeekR1 大模型,构建个人私有的 AI 大模型应用;通过 OpenWebUI 页面与 Ollama 运行的本地大模型交互,体验到极致流畅的 DeepSeek 能力。 关键名词 OpenWebUI 是一个开源可扩展、功能丰富且用户友好的自托管 AI 平台,专为生成式人工智能模型的交互而设计;它支持多种大型语言模型(LLM)运行器,兼容 Ollama 和 OpenAI 兼容的 API;还支持自定义模型创建,集成特定提示词、知识库等;并内置了 RAG 推理引擎;旨在实现完全离线运行。 Ollama 是一款开源工具(大模型管理工具),旨在简化大型语言模型(LLM)在本地计算机上的运行、部署和交互;它支持多种流行的预训练模型,如 LLaMA 2、Gemma 等;可以有效降低打语音模型的使用门槛,推动 AI 技术的普惠。 天翼云函数计算(FAAS)是一项由事件驱动的全托管 Serverless 计算服务,用户无需管理基础设施,只需编写上传代码;由平台负责计算资源与代码运行,并提供高弹性、高可用、安全稳定、免运维、按需付费的云计算服务。FAAS 平台提供 GPU 函数支持一键创建部署大模型应用,帮助用户快速体验最新大模型。
        来自:
        帮助文档
        函数计算
        DeepSeek专题
        实践指南:DeepSeek驱动高效能云生态
        函数计算:天翼云函数计算与DeepSeek大模型
        天翼云函数计算一键部署DeepSeek大模型
      • 服务版本差异
        服务功能 功能模块 功能概述 基础版 专业版 安全概览 安全评分 集中呈现资产安全风险评分和风险等级分布,同时展示当前风险防御能力。 √ √ 安全概览 安全监控 实时呈现展示待处理威胁告警、待修复漏洞、基线异常问题的安全监控统计数据 √ √ 安全概览 安全趋势 展示近7天内您的整体资产安全健康得分的趋势。 √ √ 资源管理 资源安全状况 同步资源信息,集中呈现资源整体安全状况。 × √ 威胁告警 告警列表 集中呈现威胁告警事件统计信息,导出告警事件。 √ √ 威胁告警 告警列表 通过将告警忽略、标记为线下处理,标识告警事件。 × √ 威胁告警 威胁分析 根据“攻击源”的IP查询被攻击的资产信息,亦可根据“被攻击的资产”的IP查询威胁攻击来源信息。 × √ 基线检查 云服务基线 通过一键扫描云服务基线,分类呈现云服务配置项检测结果信息。 × √ 基线检查 云服务基线 通过一键扫描云服务基线,分类呈现云服务配置项检测结果信息。支持查看检测结果详情,并提供相应修复建议。 × √ 检测结果 全部结果 集中呈现安全产品的检测结果,可导出结果、标识结果等。 √ √ 日志管理 日志管理 通过授权OBS存储SA日志,满足日志审计和容灾需求。 × √ 产品集成 安全产品集成 通过集成安全产品,接入安全产品检测结果,管理检测结果的数据来源。 √ √
        来自:
        帮助文档
        态势感知(专业版)
        产品介绍
        服务版本差异
      • 场景及注意事项
        前提条件 已挂载数据盘至云主机或物理机,且该数据盘未初始化。 注意事项 磁盘分区和格式化是高风险行为,请慎重操作。本文操作仅适用于处理一块全新的数据盘。从数据源创建的云硬盘无需初始化,这类云硬盘在初始状态就具有数据源中的数据,如果您要格式化已写入数据的数据盘,请先备份该云硬盘的数据,避免数据丢失。 MBR分区只能识别小于或等于2TB的分区,GPT分区可以识别大于2TB的分区,因此当为容量大于2TB的磁盘分区时,请采用GPT分区方式。具体两种分区方式区别如下表: 分区方式 支持最大磁盘容量 支持分区数量 分区工具 MBR 2TB 4个主分区 3个主分区和1个扩展分区 Linux 操作系统:fdisk 工具或parted 工具 GPT 18EB(目前云硬盘支持的最大容量为32TB) 不限制分区数量 Linux 操作系统:parted 工具 当云硬盘已经投入使用后,此时切换云硬盘分区形式时,云硬盘上的原有数据将会清除,因此请在云硬盘初始化时谨慎选择云硬盘分区形式。切换GPT分区形式前,请对云硬盘数据备份后,再格式化硬盘。 一块新创建的共享云硬盘挂载至第一台云主机后,需进行初始化之后使用。后续挂载至其他云主机,无需再进行初始化。初始化会丢失已有数据,请您谨慎操作。
        来自:
        帮助文档
        云硬盘 EVS
        快速入门
        初始化数据盘
        场景及注意事项
      • 本地数据迁移到OOS
        本节主要介绍如何将数据从本地迁移到OOS中。 应用场景 将数据从本地迁移到天翼云OOS的Bucket。 注意 在线迁移会占用网络资源。若您的业务比较重要,建议您对迁移任务设置限速(设置system.conf中的maxThroughput),或在空闲时间启动迁移任务。 前提条件 Windows7 及以上版本或 Linux CentOS 7.x 及以上版本。 Java 1.8 及以上版本。 迁移工具所在的服务器可以访问OOS资源池。 具体操作 确定目标Bucket 在天翼云OOS中创建目标Bucket,具体操作请参见创建存储桶(Bucket)或PUT Bucket,用于存放迁移的数据。也可以使用已存在的Bucket。 下载安装迁移工具 1. 下载数据迁移工具。 2. 解压缩安装包 对于Windows客户端,直接解压缩迁移工具zip 包即可。 对于Linux客户端,执行 unzip 解压缩安装包。 迁移工具解压后的目录结果如下: CTYUNOOSImportversionid config log4j2.xml migrate.conf system.conf lib import.sh import.bat 修改配置文件 更新迁移任务配置文件 migrate.conf,配置源和目的资源池信息、迁移配置项。您可根据需要配置system.conf和 log4j2.xml文件,具体参数介绍参见常用工具OOS数据迁移工具迁移步骤。其中: srcType需填写为:LOCAL,代表本地。 localFolderPath需要填写待迁移文件所在的本地目录,且操作用户需要对该目录及文件有读权限。 OOS的AccessKeyID和SecretAccessKey需要至少拥有目的Bucket的写权限。 migrate.conf配置示例如下: { "srcType":"LOCAL", 从LOCAL迁移文件(Object) "localFolderPath":"F:/test/test1/",本地目录,请根据实际填写 "destEndpoint":"ooscn.ctyunapi.cn", OOS的Endpoint "destAccessKey":"AccessKeyID", OOS的AccessKeyID "destSecretKey":"SecretAccessKey", OOS的SecretAccessKey "destBucket":"BucketName", OOS的Bucket名称 "isSkipExistFile":false 是否跳过目标资源池中已有的文件 }
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        数据迁移
        本地数据迁移到OOS
      • 初始化数据盘场景及磁盘分区形式介绍
        本节介绍了初始化数据盘场景及磁盘分区形式。 操作场景 磁盘挂载至云主机后,需要登录云主机初始化磁盘,即格式化磁盘,之后磁盘才可以正常使用。 系统盘 系统盘不需要初始化,创建云主机时会自带系统盘并且自动初始化,默认磁盘分区形式为主启动记录分区(MBR, Master boot record)。 数据盘 创建云主机时直接创建数据盘,数据盘会自动挂载至云主机。 单独创建数据盘,然后将该数据盘挂载至云主机。 以上两种情况创建的数据盘挂载至云主机后,均需要初始化后才可以使用,请您根据业务的实际规划选择合适的分区方式。 约束与限制 从数据源创建的磁盘无需初始化。该磁盘在初始状态就具有数据源中的数据,初始化有丢失数据的风险。 磁盘分区形式 常用的磁盘分区形式如下表所示,并且针对Linux操作系统,不同的磁盘分区形式需要选择不同的分区工具。 表 磁盘分区形式 磁盘分区形式 支持最大磁盘容量 支持分区数量 Linux分区工具 :::: 主启动记录分区(MBR) 2 TB 4个主分区 3个主分区和1个扩展分区 MBR分区包含主分区和扩展分区,其中扩展分区里面可以包含若干个逻辑分区。扩展分区不可以直接使用,需要划分成若干个逻辑分区才可以使用。以创建6个分区为例,以下两种分区情况供参考: 3个主分区,1个扩展分区,其中扩展分区中包含3个逻辑分区。 1个主分区,1个扩展分区,其中扩展分区中包含5个逻辑分区。 以下两种工具均可以使用: fdisk工具 parted工具 全局分区表 (GPT, Guid Partition Table) 18 EB 1 EB 1048576 TB 不限制分区数量 GPT格式下没有主分区、扩展分区以及逻辑分区之分。 parted工具 注意 MBR支持的磁盘最大容量为2 TB,GPT最大支持的磁盘容量为18 EB,当前数据盘支持的最大容量为32 TB,如果您需要使用大于2 TB的磁盘容量,分区形式请采用GPT。 当磁盘已经投入使用后,此时切换磁盘分区形式时,磁盘上的原有数据将会清除,因此请在磁盘初始化时谨慎选择磁盘分区形式。
        来自:
        帮助文档
        云硬盘 EVS
        快速入门
        初始化数据盘
        初始化数据盘场景及磁盘分区形式介绍
      • 删除数据源
        本节为您介绍云迁移服务CMS数据迁移工具删除数据源操作。 进入“数据迁移工具”,点击“数据源管理管理”界面。 找到对应的源节点/目标节点,点击“删除”按钮。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据迁移服务模块
        删除数据源
      • 初始化容量大于2TB的Linux数据盘(parted)
        本章介绍初始化容量大于2TB的Linux数据盘(parted)的方法。 操作场景 本文以物理机的操作系统为“CentOS 7.4 64位”、云硬盘容量为3 TB举例,采用Parted分区工具为容量大于2 TB的数据盘设置分区。 MBR格式分区支持的磁盘最大容量为2 TB,GPT分区表最大支持的磁盘容量为18 EB,因此当为容量大于2 TB的磁盘分区时,请采用GPT分区方式。对于Linux操作系统而言,当磁盘分区形式选用GPT时,fdisk分区工具将无法使用,需要采用parted工具。关于磁盘分区形式的更多介绍,请参见初始化数据盘场景及磁盘分区形式介绍。 不同服务器的操作系统的格式化操作可能不同,本文仅供参考,具体操作步骤和差异请参考对应的服务器操作系统的产品文档。 前提条件 已登录物理机。 已挂载数据盘至物理机,且该数据盘未初始化。 划分分区并挂载磁盘 本操作以该场景为例,当物理机挂载了一块新的数据盘时,采用parted分区工具为数据盘设置分区,分区形式设置为GPT,文件系统设为ext4格式,挂载在“/mnt/sdc”下,并设置开机启动自动挂载。 1. 执行以下命令,查看新增数据盘。 plaintext lsblk 回显类似如下信息: plaintext [root@bmscentos74 ~] lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT vda 253:0 0 40G 0 disk ├─vda1 253:1 0 1G 0 part /boot └─vda2 253:2 0 39G 0 part / vdb 253:16 0 3T 0 disk 表示当前的服务器有两块磁盘,“/dev/vda”是系统盘,“/dev/vdb”是新增数据盘。 2. 执行以下命令,进入parted分区工具,开始对新增数据盘执行分区操作。 plaintext parted 新增数据盘 以新挂载的数据盘“/dev/vdb”为例: plaintext parted /dev/vdb 回显类似如下信息: plaintext [root@bmscentos74 ~]
        来自:
        帮助文档
        物理机 DPS
        快速入门
        登录物理机服务
        初始化数据盘
        初始化容量大于2TB的Linux数据盘(parted)
      • 模型加速
        本节介绍模型分发加速。 前置要求 请确保集群已安装 cstorcsi 插件。 要求 详细信息 插件 如何安装上述插件? 在集群列表页点击进入指定集群; 在左侧导航栏中选择“插件/插件市场”,进入插件市场列表页; 搜索指定插件,点击“安装”; 背景与挑战 在当前的模型分发方案中,所有的模型权重文件均通过天翼云ZOS(对象存储)进行统一管理。随着模型规模的不断增大(例如Qwen、DeepSeek、KIMI等大模型,文件大小往往从几十GB到几百GB不等),如何在模型部署时快速地下载权重文件,成为了关键瓶颈。传统的单线程下载方式难以充分利用网络带宽,尤其是在高带宽环境下,极易因传输效率低下而导致下载时间过长。为此,我们设计了一套多线程并发下载方案,不仅支持丰富的对象管理命令,更具备以下核心优势,使其成为模型分发场景的理想选择。 高并发机制:内置支持并发上传/下载,能够显著提升大文件和批量小文件的传输速度。 断点续传:在下载大文件(如模型权重)时,如果网络中断,无需从头开始 脚本友好:作为命令行工具,可以轻松集成到自动化的部署脚本中。
        来自:
        帮助文档
        智算套件
        用户指南
        模型管理
        模型加速
      • 功能简介
        功能概述 依托中电信量子安全加密体系,深度集成量子安全服务平台,基于“量子软模块/量子安全盾+云电脑”,提供更高级别的量子安全防护。 客户端(V3.1.1版本以上)已全面集成量子安全软模块,用户可通过管理控制台免费开通。 开通后,即可享受两大核心安全升级: 量子级身份认证:结合量子安全介质,为终端接入提供量子安全级身份认证保障; 动态量子加密传输:采用"一次一密"量子会话密钥机制,每次连接使用一个量子会话密钥,会话结束后立即销毁,保障端到端数据传输安全。 功能优势 量子身份认证:结合量子软模块/安全盾,提供终端接入的量子身份认证保护。 “一次一密”量子加密保护:每次连接使用一个量子会话密钥,会话结束后立即销毁,从根本上杜绝暴力破解风险。 使用场景 政务领域:XC、党政办公 政务领域涉及大量国家机密、政策文件及敏感数据,安全要求高; 金融领域:金融办公、服务外包办公 金融行业涉及客户数据、交易记录、财务信息等高度敏感数据,需更高的安全保护; 科研领域:高校、科研办公 科研机构对知识产权保护有更高要求,近年来科研数据泄露成重灾区。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        量子安全加密
        功能简介
      • 应用场景
        Web应用防火墙(边缘云版)适用于天翼云以及天翼云外所有用户,包含但不限于网站类业务广泛应用于政府门户、金融证券、电子商务、新闻媒体、游戏、教育等行业的Web应用类安全防护。 应用场景 业务特点 Web应用防火墙(边缘云版)可解决的业务痛点 政企网站 作为政府、企业的互联网信息服务的重要渠道,保障网站的稳定运行是服务提供的关键。 集成各类业务平台,业务接口多。 信息数据量大,用户信息价值高。 对Web类攻击进行多维度识别和防御,防止网站被挂马、篡改影响网站声誉。 智能AI与大数据协同,在现有的防护体系上扩充防护规则,提高防护效果。 降低硬件防护压力,利用边缘云安全、算力优势,减少硬件维护成本。 0day虚拟补丁第一时间生成防护策略,避免漏洞被利用带来负面影响。 金融行业 网站上存在大量的用户敏感信息,非法者利用刷库、撞库等手段获取用户账号信息。 常收到境外攻击团队勒索邮件,遭受攻击较多。 受行业监管要求,金融机构每年定期组织安全演练。 信用卡中心的各种推广活动,引来“羊毛党”通过恶意程序、软件等工具进行营销欺诈。 “云端+本地”双重保障,对攻击进行层层识别和防御,避免数据泄漏造成负面影响。 行业情报共享,不断优化安全防护模板。 爬虫防护,精准的人机识别,在拦截爬虫的同时,保障业务的正常进行。 新闻媒体 对外服务站点多,暴露面广,容易成为黑客突破口。 站点脆弱性未知,存在大量的漏洞未修复。 舆论、监管压力大,受主管、监管单位严格监管。 爬虫、钓鱼重灾区,竞争对手恶意竞争。 CNAME接入防御,自助配置,隐藏并保护源站,保障网站内容不被黑客入侵篡改。 通过业务分析及攻击分析定制防护策略,有效提升防护的精准度。 情报共享,全网攻击数据分析入库,反哺优化护网期间的攻击策略。 提供爬虫和 IP 情报特征,快速识别恶意爬虫行为。 教育行业 大量用户集中访问,高并发易卡顿。 跨区域运营商访问慢。 站点脆弱性未知,漏洞利用风险高。 挂马、数据篡改等事件高发时段。 域名CNAME接入,不改变源站架构,快速接入防护策略。 智能选路,分布式部署,资源弹性扩容,从容应对高并发。 0day漏洞快速修复,避免漏洞被利用带来负面影响。 支持防篡改,以及网站安全监测,提前预警防患于未然。
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        产品介绍
        应用场景
      • 查看Topic
        介绍分布式消息服务Kafka主题列表功能操作内容。 场景描述 Kafka主题列表是Kafka消息队列中的一个重要概念,用于列出所有可用的主题。以下是一些Kafka主题列表的应用场景的描述: 监控和管理:通过查看Kafka主题列表,管理员可以了解当前系统中存在的所有主题。他们可以监控主题的状态、分区数量和副本分布,并进行必要的管理操作,如创建、删除和修改主题。 数据消费者选择:Kafka主题列表可以帮助数据消费者选择他们感兴趣的主题。消费者可以浏览主题列表,找到包含他们需要的数据的主题,并订阅这些主题以接收数据。 数据集成和数据流转:Kafka主题列表可以帮助数据集成和数据流转的过程。数据源可以查看主题列表,确定将数据写入哪些主题。而数据接收方可以查看主题列表,选择他们需要的主题来消费数据。 监控数据流:通过查看Kafka主题列表,监控系统可以了解当前系统中的所有数据流。监控系统可以根据主题列表中的信息,监控每个主题的数据流量、延迟和健康状况,并进行实时的监控和报警。 系统调试和故障排查:Kafka主题列表可以帮助开发人员进行系统调试和故障排查。他们可以查看主题列表,确定消息是否正确地写入和消费,并检查主题的状态和分区情况,以解决潜在的问题。 总之,Kafka主题列表提供了对Kafka消息队列中所有主题的全局视图,帮助管理员、数据消费者和开发人员进行监控、管理和调试。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“Topic管理”后即可查看所有Topic的信息。 (5)右上角输入Topic名称,可查询对应Topic。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        查看Topic
      • 迁移方案说明
        工具/命令/服务 特点 说明 DCS控制台数据迁移功能 操作简单,同时支持全量同步+增量同步 数据迁移涉及到SYNC/PSYNC命令,当源Redis实例开放了SYNC/PSYNC命令时, 支持全量同步+增量同步,否则仅支持全量同步 Rediscli Redis自带命令行工具,支持将RDB文件、AOF文件整库导入 RedisShake 在线迁移和离线迁移均支持的一款开源工具。 自行开发迁移脚本 灵活,可根据实际场景进行定制化适配
        来自:
        帮助文档
        分布式缓存服务Redis版
        数据迁移指南
        迁移方案说明
      • 常见问题(1)
        本文介绍Aiuse云电脑功能的常见问题 Q:如果我的企业希望体验 Aiuse 云电脑功能,应该如何申请试用? A:感谢您对 Aiuse 云电脑的关注!目前,您可以通过发送申请邮件至 zhangyh65@chinatelecom.cn 进行试用申请,我们的专属客服人员将在收到邮件后尽快与您联系,协助完成试用资格开通。后续也将提供自助开通渠道方便使用。 Q:开通试用后,如何获取云电脑调用工具包及开发接入指引? A:开通试用后,您可参阅++SDK 接入指南++,其中涵盖工具包下载、环境配置及完整的开发接入说明,帮助您快速完成集成。如在接入过程中遇到问题,欢迎随时联系我们的技术支持团队。 Q:目前 AccessKey 最多可以创建多少个?绑定的云电脑数量是否有上限? A:当前每个租户最多可创建 10 个 AccessKey,每个 AccessKey 所绑定的云电脑数量不设上限。为便于统一管理及实现数据隔离,建议为不同业务场景或团队分配独立的 AccessKey,并分别绑定对应的云电脑资源。 Q:如何将 AccessKey绑定到桌面? A:AccessKey的绑定操作请前往++服务管理++页面进行配置,页面中提供了详细的操作步骤说明。如需进一步帮助,请参阅相关操作文档或联系客服人员。
        来自:
      • 常见问题
        本文介绍Aiuse云电脑功能的常见问题 Q:如果我的企业希望体验 Aiuse 云电脑功能,应该如何申请试用? A:感谢您对 Aiuse 云电脑的关注!目前,您可以通过发送申请邮件至 zhangyh65@chinatelecom.cn 进行试用申请,我们的专属客服人员将在收到邮件后尽快与您联系,协助完成试用资格开通。后续也将提供自助开通渠道方便使用。 Q:开通试用后,如何获取云电脑调用工具包及开发接入指引? A:开通试用后,您可参阅++SDK 接入指南++,其中涵盖工具包下载、环境配置及完整的开发接入说明,帮助您快速完成集成。如在接入过程中遇到问题,欢迎随时联系我们的技术支持团队。 Q:目前 AccessKey 最多可以创建多少个?绑定的云电脑数量是否有上限? A:当前每个租户最多可创建 10 个 AccessKey,每个 AccessKey 所绑定的云电脑数量不设上限。为便于统一管理及实现数据隔离,建议为不同业务场景或团队分配独立的 AccessKey,并分别绑定对应的云电脑资源。 Q:如何将 AccessKey绑定到桌面? A:AccessKey的绑定操作请前往++服务管理++页面进行配置,页面中提供了详细的操作步骤说明。如需进一步帮助,请参阅相关操作文档或联系客服人员。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        量子安全加密
        常见问题
        常见问题
      • 常见问题(1)
        本文介绍Aiuse云电脑功能的常见问题 Q:如果我的企业希望体验 Aiuse 云电脑功能,应该如何申请试用? A:感谢您对 Aiuse 云电脑的关注!目前,您可以通过发送申请邮件至 zhangyh65@chinatelecom.cn 进行试用申请,我们的专属客服人员将在收到邮件后尽快与您联系,协助完成试用资格开通。后续也将提供自助开通渠道方便使用。 Q:开通试用后,如何获取云电脑调用工具包及开发接入指引? A:开通试用后,您可参阅++SDK 接入指南++,其中涵盖工具包下载、环境配置及完整的开发接入说明,帮助您快速完成集成。如在接入过程中遇到问题,欢迎随时联系我们的技术支持团队。 Q:目前 AccessKey 最多可以创建多少个?绑定的云电脑数量是否有上限? A:当前每个租户最多可创建 10 个 AccessKey,每个 AccessKey 所绑定的云电脑数量不设上限。为便于统一管理及实现数据隔离,建议为不同业务场景或团队分配独立的 AccessKey,并分别绑定对应的云电脑资源。 Q:如何将 AccessKey绑定到桌面? A:AccessKey的绑定操作请前往++服务管理++页面进行配置,页面中提供了详细的操作步骤说明。如需进一步帮助,请参阅相关操作文档或联系客服人员。
        来自:
      • zosfs介绍及下载
        本文为您介绍zosfs的主要功能和使用场景等信息。 工具简介 zosfs是一个通过FUSE技术,将天翼云对象存储ZOS的bucket(存储桶)挂载为本地目录的工具。 zosfs利用gorountine,通过异步的并发操作,实现对本地文件的高效上传、对云端对象的高效下载,同时,zosfs也优化了对目录列举的操作,提升目录列举的效率。 使用场景 zosfs主要支持模型训练、模型推理等计算密集型场景,解决密集计算对存储数据加载和写入的特殊需要。具体而言,这类场景对存储数据操作以顺序读取、随机读取、顺序(追加)写入为主。 主要功能 兼容基础的POSIX语义操作,能有效利用ZOS的服务端读写能力。 针对计算密集的数据读写需要,提供高效的大文件顺序读写能力。 适配环境 计算平台:X86计算平台、ARM计算平台 操作系统:ctyunOS 23.01、ctyunOS 2.0.1、ctyunOS 22.06 使用限制 zosfs为特定挂载场景优化,因此存在一定的使用限制,请使用前仔细阅读zosfs使用限制章节,了解工具的限制条件。 注意 我们建议您在使用zosfs工具前,了解工具的使用限制,并对工具进行使用测试,避免对您的业务产生影响。 获取zosfs 适配X86计算平台 点击下载工具:zosfs0.6.1x86.tar.gz 适配ARM计算平台 点击下载工具:zosfs0.6.1arm.tar.gz 说明 此处提供的zosfs工具包,解压后无需安装即可运行。
        来自:
        帮助文档
        对象存储 ZOS
        常用工具
        zosfs(预览版)
        zosfs介绍及下载
      • 迁移常见问题
        是否支持Memcached和Redis之间实例数据的迁移? 不支持,Memcached和Redis属于不同的缓存数据库, Memcached 和 Redis 在协议和数据格式上存在明显差异,无法兼容。 使用RedisShake工具迁移数据,执行出错 RedisShake工具的使用问题,请参考RedisShake官网。 创建迁移任务失败的原因? 1. 源Redis与目标Redis网络不通或者网络不稳定。 2. 源Redis或者目标Redis实例为主备架构时,发生了主从切换。 3. 源Redis或者目标Redis的账号密码错误。 4. 源Redis或者目标Redis的账号无DBA管理员权限。 5. 高版本Redis迁移数据至低版本Redis,出现了命令不兼容问题。 是否支持低版本Redis迁移到高版本Redis? 支持,高版本Redis命令兼容低版本Redis命令。 一个Redis能同时迁移至多个目标Redis么? 不能,建议创建多个迁移任务。 DCS实例迁移下云 推荐方案: 使用DCS控制台在线迁移功能;操作参考: 使用在线迁移自建Redis,目标Redis填写实例连接地址。 使用RDB进行数据迁移;通过Rediscli导出DCS的RDB文件> 通过RedisShake工具导入RDB文件至新集群;操作参考:使用RedisShake工具迁移自建Redis Cluster集群。
        来自:
        帮助文档
        分布式缓存服务Redis版
        数据迁移指南
        迁移常见问题
      • 发布API
        本章节主要介绍发布API。 本文将为您介绍如何将数据服务中的API发布到服务目录。 操作场景 数据服务是数据对外开放的最后一道防线,为了安全起见,在数据服务中生成的API以及注册的API,都需要发布到服务目录中才能对外提供服务。 操作步骤 1.在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据服务”模块,进入数据服务页面。 详见下图: 选择数据服务 2.在左侧导航栏选择服务版本(例如:专享版),进入总览页。 3.进入“数据服务 > 总览 > 开发API > API管理”页面,在API服务列表操作列中,选择“更多 > 发布”。 4.在确认发布界面,您可以点击“更多”,选择发布详情。 详见下图: 发布详情 −专享版默认发布到数据服务专享版集群上,发布成功后API调用者可以通过内网调用该API。您也可以选择“更多”,将API发布到APIG专享版或ROMA Connect实例上。 APIG专享版:如果您需要将API发布到APIG专享版上,则您需要提前在API网关服务上创建一个APIG实例。实例创建后,有一个默认API分组,系统为分组自动分配一个内部测试用的调试域名,此调试域名唯一且不可更改,每天最多可以访问1000次。如果您不希望与其他API共享此规格,可以在APIG控制台新建一个API分组(详情请参考“API网关APIG用户指南> API分组管理> 创建API分组”章节),然后在数据服务发布时选择对应API分组,独享每天最多访问1000次的规格。另外,您还可以为API分组绑定一个或多个独立域名(详情请参考“API网关APIG用户指南>API分组管理> 绑定域名”章节),API调用者通过访问独立域名来调用您开放的API,这样即可不受每天最多访问1000次的规格限制。 ROMA Connect实例:如果您需要将API发布到ROMA Connect实例上,则您需要提前在ROMA Connect服务上创建一个ROMA实例,并创建API分组(详情请参考“应用与数据集成平台 ROMA Connect用户指南> 服务集成指导> 开放API> 创建API分组”章节)。API分组创建后,系统为分组自动分配一个内部测试用的子域名,此子域名每天最多可以访问1000次。为了不受此规格限制,您可以为API分组绑定独立域名(详情请参考“应用与数据集成平台 ROMA Connect用户指南> 服务集成指导> 开放API> 绑定域名”章节),API调用者通过访问独立域名来调用您开放的API。 5.在发布API时,会触发审核,审核机制如下: 当发布人不具备审核人权限时,发布API时需要提交给审核人审核。 当发布人具备审核人权限时,可无需审批直接发布API。工作空间管理员角色的用户默认具备审核人权限。 如果非审核人权限的用户发布API时,待审核人审核通过后,即可发布完成。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据服务
        开发API
        发布API
      • 初始化容量大于2TB的Linux数据盘(parted)
        本节介绍了初始化容量大于2TB的Linux数据盘(parted)的操作场景、前提条件、划分分区并挂载磁盘、设置开机自动挂载磁盘分区等内容。 操作场景 本文以云主机的操作系统为“CentOS 7.4 64位”、磁盘容量为3 TB举例,采用Parted分区工具为容量大于2 TB的数据盘设置分区。 MBR支持的磁盘最大容量为2 TB,GPT最大支持的磁盘容量为18 EB,因此当您初始化容量大于2 TB的磁盘时,分区形式请采用GPT。对于Linux操作系统而言,当磁盘分区形式选用GPT时,fdisk分区工具将无法使用,需要采用parted工具。关于磁盘分区形式的更多介绍,请参见场景及磁盘分区形式介绍。 不同云主机的操作系统的格式化操作可能不同,本文仅供参考,具体操作步骤和差异请参考对应的云主机操作系统的产品文档。 前提条件 已挂载数据盘至云主机,且该数据盘未初始化。 已登录云主机。 划分分区并挂载磁盘 本操作以该场景为例,当云主机挂载了一块新的数据盘时,采用parted分区工具为数据盘设置分区,分区形式设置为GPT,文件系统设为ext4格式,挂载在“/mnt/sdc”下,并设置开机启动自动挂载。 步骤 1 执行以下命令,查看新增数据盘。 lsblk 回显类似如下信息: [root@ecscentos74 ~]
        来自:
        帮助文档
        弹性云主机 ECS
        快速入门
        初始化数据盘
        初始化容量大于2TB的Linux数据盘(parted)
      • 证书管理概述
        本文为您介绍证书管理功能模块详情。 证书管理组件为您提供高可用、高安全的密钥和证书托管能力,您可以通过KMS提供的云原生接口实现签名验签运算。 证书生命周期管理 证书管理模块提供高可用、高安全的密钥和证书托管能力,您可以通过控制台或API集中管理证书。 功能 说明 证书托管 支持管理密钥和证书,可以生成证书请求、导入证书和证书链、启用/禁用证书、吊销或删除证书等。 密钥安全存储 证书管家使用托管密码机保障证书密钥的产生、存储安全。 API便于集成 支持多个API接口,帮助在开发环境高效集成证书服务,快速进行产品部署,为您提供快速开发上线证书相关功能的能力。 支持的证书类型 证书类型 说明 数字证书(含私钥) 支持通过证书管理服务生成证书请求,导入或导出数字证书及其证书链,证书私钥由KMS硬件安全模块保护。 Ukey证书(不含私钥) 支持将Ukey中的证书(不含私钥)导出并存入KMS,由KMS统一托管,并支持调用KMS提供的接口实现身份认证中的验签运算。 证书运算API KMS提供云原生的证书运算类API,帮助在开发环境高效集成证书服务,快速实现证书调用。 功能 说明 参考文档 加密解密 证书公钥运算:使用指定证书加密数据。 证书私钥运算:使用指定证书解密数据。 证书公钥加密 证书私钥解密 签名验签 证书私钥运算:使用指定证书生成数字签名。 证书公钥运算:使用指定证书验证数字签名。 证书私钥签名 证书公钥验签
        来自:
        帮助文档
        密钥管理
        用户指南
        证书管理
        证书管理概述
      • 主机运维
        前提条件 已获取“主机运维”模块管理权限。 已获取资源访问控制权限,即已被关联访问控制策略或访问授权工单已审批通过。 已在本地安装客户端工具。 资源主机网络连接正常,且资源账户登录帐号和密码无误。 操作步骤 1 登录云堡垒机系统。 2 选择“运维 > 主机运维”,进入主机运维列表页面。 3 选择数据库协议类型的主机,单击“登录”,弹出客户端工具选择窗口。 首次登录数据库资源,弹出SsoDBSettings下载窗口,可下载SsoDBSettings工具。 选择客户端工具 4 选择本地已安装客户端工具,单击“确定”。 自动调用本地数据库客户端工具。 5 登录数据库资源进行操作。 配置SSO单点客户端 以Navicat客户端为例,示例配置客户端路径。 1 打开本地SsoDBSettings单点登录工具。 单点登录工具界面 2 在“Navicat路径”栏后,单击路径配置。 3 根据本地Navicat客户端安装的绝对路径,选中Navicat工具的exe文件后,单击“打开”。 查找本地工具绝对路径 4 返回SsoDBSettings单点登录工具配置界面,可查看已选择的Navicat客户端路径。 确认配置路径 5 单击“保存”,返回云堡垒机“主机运维”列表页面,即可登录数据库资源。 批量登录主机进行运维 通过Web浏览器支持批量登录主机,提供“文件传输”、“文件管理”和“预置命令”等功能。用户在主机上执行的所有操作,被云堡垒机记录并生成审计数据。 本小节主要介绍如何通过Web浏览器批量登录主机。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        运维管理
        主机运维
      • 对象存储触发器
        本文介绍函数计算支持的对象存储触发器的使用限制、事件类型及触发规则。 对象存储与函数计算集成后,对象存储事件能触发相关函数执行,实现对对象存储中的数据的自定义处理。 背景信息 对象存储和函数计算通过对象存储触发器实现无缝集成,可以编写函数对对象存储事件进行自定义处理,当对象存储捕获到指定类型的事件后,对象存储事件触发相应的函数执行。例如,可以设置函数来处理PutObject事件,当上传图片到对象存储后,相关联的函数会自动被触发来处理该图片。 对象存储和函数计算集成后,可以自由地调用各种函数处理图像或音频数据,再把结果写回到多种存储服务中。整个架构中,只需要专注于函数逻辑的编写,系统将以实时的、可靠的、大规模并行的方式处理海量的数据。 对象存储事件定义 当对象存储系统捕获到相关事件后,会将事件信息编码为JSON字符串,传递给事件处理函数。 已支持的对象存储事件定义如下表所示。 事件类型 说明 s3:ObjectCreated:Put 原子上传对象到Bucket。 s3:ObjectCreated:Post Post上传对象到Bucket。 s3:ObjectCreated:CompleteMultipartUpload 分段上传对象到Bucket。 s3:ObjectCreated:Copy 拷贝上传。 s3:ObjectRemoved:Delete 删除Bucket中对象。 s3:ObjectRemoved:DeleteMarkerCreated 不指定版本号删除多版本Bucket中对象。 s3:ObjectRestore:Post 对象解冻。 触发器触发规则 避免循环触发 使用对象存储触发器时,请注意避免循环触发。例如,一个典型的循环触发场景是对象存储的某个bucket上传文件事件触发函数执行,此函数执行完成后又生成了一个或多个文件再写回到对象存储的bucket里,这个写入动作又触发了函数执行,形成了链状循环。 为了避免循环触发函数产生不必要的费用,建议配置文件前缀或文件后缀,例如将触发函数的文件的文件前缀设置为 src,函数执行完成后生成文件的文件前缀设置为 dst,生成的文件将不会再次触发函数。如果不设置文件前缀和文件后缀,表示匹配任意文件前缀和文件后缀。 配置对象存储触发器
        来自:
        帮助文档
        函数计算
        用户指南
        事件触发
        事件总线类触发器
        对象存储触发器
      • 对象迁移工具
        该工具提供将其他对象存储迁移至对象存储ZOS的迁移服务。 工具介绍: 对象存储(CTZOS,Zettabyte Object Storage)数据迁移工具是一款用于将存储在其他对象存储服务中的数据,迁移至天翼云 ZOS 的命令行迁移工具。 主要功能: 适配多源端:支持多种数据源端,包括:亚马逊 S3、阿里云 OSS、华为云 OBS(包含合营的OBS)、腾讯云 COS、天翼云 ZOS、天翼云 OOS 和 其他遵循标准 S3 协议的对象存储服务。 源端配置 源端整桶迁移:支持整桶文件迁移。 源端过滤规则:支持指定源端文件夹、文件、前缀进行迁移;支持通过对象列表文件(.txt格式)指定源端迁移对象。 源端指定时间区间:支持迁移源桶内指定时间区间内的文件。 目的端配置 目的端指定前缀:支持指定迁移至目的端的对象统一新增前缀,若为目录前缀则会将数据迁移至该目录下。 目的端存储类型及访问控制:支持设置迁移至目的端的对象的存储类型和访问控制;支持设置对象迁移到ZOS为归档存储。 高级配置 同名文件处理策略:支持处理同名文件的策略配置。 流量控制:支持对任务进行限流。 自定义分片:支持自定义分片大小。 数据一致性校验:支持迁移过程中的一致性校验(按最后修改时间和 size)。 失败记录及重试:支持记录迁移失败对象以及重试失败对象的迁移;支持记录对象迁移失败原因。 并行传输和续传:支持对象并行下载和上传,支持断点续传。 迁移进度与日志:支持实时查询迁移进度,支持日志记录。 多任务迁移:支持自动按序执行迁移任务。您可一次创建多个任务配置文件,让工具自动执行这些任务。 注意 各源端厂商可能基于标准S3协议进行定制化改动,而非完全遵循标准S3协议,因此,非以上厂商的对象存储服务,请您以实际支持情况为准。 为避免您的损失,迁移前我们建议您尝试进行小部分数据迁移进行测试。
        来自:
        帮助文档
        对象存储 ZOS
        常用工具
        对象迁移工具
      • 事件流概述
        随着越来越多的数据源持续、快速地产生数据,此类流式数据急需被系统分析和处理。事件流适用于端到端的流式数据处理场景,对源端产生的事件实时抽取、转换和分析并加载至目标端,帮助您轻松处理流式数据。 事件流总体架构 事件流作为更轻量、实时端到端的流式事件通道,提供轻量流式数据的过滤和转换的能力,在不同的数据仓库之间、数据处理程序之间、数据分析和处理系统之间进行数据同步,连接不同的系统与服务。 如下图所示,事件源与事件目标之间无需定义事件总线,事件通过事件流这个通道在源端和目标端之间进行流转。 事件源:事件的来源,可将天翼云服务如分布式消息Kafka的业务数据作为事件流中的事件提供方。 事件过滤:事件流通过事件模式过滤事件并将事件路由到事件目标,事件模式必须和匹配的事件具有相同的结构。 事件转换:可选择天翼云函数计算作为事件转换器,您可以通过编写函数代码对事件进行更复杂、更加定制化的处理。 事件目标:消费事件消息。 功能优势 实时高效 事件流支持实时从事件源获取、过滤与转换事件,并加载至事件目标。无需定义事件总线,您可以更快地访问事件。 轻量集成 只需在控制台简单创建任务或者一次调用,即可建立实时端到端的流式事件通道,避免了复杂繁琐的操作,便于快速集成。 指标监控 事件流提供多个指标,您可以使用这些指标监控数据流的运行状况,出现异常时及时运维,确保数据流正常运行。 节约成本 按量计费,按照数据量进行计费,不使用则不收费。
        来自:
        帮助文档
        事件总线
        用户指南
        事件流
        事件流概述
      • 1
      • ...
      • 5
      • 6
      • 7
      • 8
      • 9
      • ...
      • 427
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      GPU云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      训推服务

      AI Store

      公共算力服务

      一站式智算服务平台

      人脸检测

      人脸实名认证

      推荐文档

      如何使用代金券?

      迁移

      恢复备份

      支持的监控指标

      NAT网关的SNAT规则删除(DNAT规则删除操作相同)

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号