爆款云主机低至25.83元/年
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 云聚517 · 好价翼起拼 NEW 爆款云主机低至25.83元/年,参与拼团享更多优惠,拼成得额外优惠券
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 聚力AI赋能 天翼云大模型专项 大模型特惠专区·Token Plan 轻享包低至9.9元起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 企业出海解决方案 NEW 助力您的业务扬帆出海,通达全球!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
Token服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V4-Flash
  • GLM-5.1
  • Qwen3.5-122B-A10B
  • DeepSeek-V3.2(旗舰版)
  • GLM-5(正式版)
智算一体机
  • 智算一体机
智能体引擎
  • 智能体引擎
智算安全专区
  • 大模型安全评测
  • 大模型安全护栏
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      数据集成工具_相关内容
      • 服务版本差异
        功能项 功能说明 标准版 专业版 身份认证 用户账号双因子认证 支持手机令牌、手机短信、USBKey、动态令牌等多因子认证形式。 √ √ 身份认证 用户账号远程认证 支持AD域、RADIUS、LDAP、Azure AD远程认证。 √ √ 权限控制 系统访问权限 通过划分组织部分结构、分配用户角色、设置用户登录限制,控制用户登录和访问系统权限。 √ √ 权限控制 资源访问权限 按照用户、用户组、资源账户、账户组,建立用户对资源的访问控制授权,通过配置访问控制策略、双人授权、命令控制策略,实现对资源不同维度的控制。 √ √ 权限控制 双人授权 通过配置“双人授权”实现双人或多人权限审核,保障核心资源安全。 √ √ 权限控制 字符命令拦截 通过配置命令控制策略,对字符协议资源关键操作,进行动态授权。 √ √ 权限控制 数据库命令拦截 通过配置数据库控制策略,对数据库资源敏感、危险等操作,进行精确限制、二次复核。 说明:数据库命令拦截功能不区分云数据库还是自建的数据库。 × √ 账户管理 用户账号全生命周期管理 用户账号单个创建、批量导入、批量管理,以及划分用户组管理。 √ √ 账户管理 资源账户全生命周期管理 资源和资源账户的单个添加、批量导入、批量管理,以及资源账户的划分账户组管理。 √ √ 账户管理 纳管主机资源 支持纳管SSH、RDP、VNC、TELNET、FTP、SFTP、Rlogin协议类型的Linux和Windows资源。 √ √ 账户管理 纳管应用资源 支持通过Windows应用服务器,纳管Chrome、Edge、Firefox、Oracle Tool 、MySQL等浏览器或客户端应用资源。 √ √ 账户管理 纳管数据库资源 支持纳管DB2、MySQL、SQL Server和Oracle引擎类型数据库。 × √ 账户管理 资源账户自动改密 通过配置改密策略,定期修改资源账户密码,管控资源账户及登录密码。 √ √ 账户管理 资源账户自动同步 通过配置账户同步策略,及时发现僵尸账户或未被管控账户。 × √ 操作审计 系统登录和操作全程记录 支持导出系统日志、生成系统报表,以及配置告警通知。 √ √ 操作审计 资源运维操作全程审计 支持多种审计技术和审计形式,会话实时监控,历史会话可生成视频、导出文本报表的双重审计,并支持日志远程备份。 √ √ 操作审计 数据库行为审计 基于操作命令审计数据库运维全程。 × √ 高效运维 Web浏览器一站式运维 远程登录资源,无需安装客户端,一键登录运维资源,并集成批量登录、协同会话、文件传输、命令群发等功能。 √ √ 高效运维 第三方客户端运维 一键接入多种运维工具,支持多种运维形式,包括SSH客户端运维、FTP/SFTP客户端运维等。 √ √ 高效运维 数据库运维 通过SSO单点登录工具调用客户端,一键登录目标数据库。 × √ 高效运维 自动化运维 在线管理脚本,以及定时执行预置运维任务。 × √ 工单申请 访问授权工单、命令授权工单申请 系统用户为获取资源控制权限,通过手动或自动方式触发系统工单,提交工单给系统管理人员审批,获取权限的全程。 √ √ 工单申请 数据库授权工单申请 系统用户可触发数据库敏感操作,自动生成授权工单,系统用户需提交工单申请,由管理人员审批通过才能获取继续操作权限。 × √
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        产品简介
        服务版本差异
      • 使用rsync工具迁移NFS文件系统
        2. 安装迁移工具 执行以下命令安装迁移工具rsync和tmux。rsync负责执行复制,tmux是帮助查看进度的工具。 plaintext sudo yum install y rsync tmux 3. 迁移存量数据 依次执行以下两条命令,将源文件系统中的存量数据同步到目标文件系统中。 plaintext tmux plaintext sudo rsync avP /mnt/src/ /mnt/dst/ 您还可以利用rsync并发拷贝迁移数据,命令如下: plaintext threads ; src ; dest ; rsync av f"+ /" f" " $src $dest && (cd $src && find . type f print0 xargs 0 n1 P$threads I% rsync av % $dest/%) 说明 rsync命令中的源路径结尾必须带有斜杠“/”,否则同步后数据路径不能匹配。 4. 迁移增量数据 在存量数据迁移过程中,如果源文件系统被其它云主机上运行的业务应用写入,那么在存量数据迁移结束后,需要进行增量数据同步。 1)停止业务应用:为了避免不断有新数据写入,需要在同步增量数据之前,在所有云主机客户端上停止使用源文件系统的业务应用。 注意 客户端停止业务应用使用后,请不要手动删除源文件系统的任何数据,否则在下一步会造成数据丢失。 请妥善选择业务低峰期间操作,可使用fuser mv 命令找到读写NFS文件系统的进程。 2)执行rsync命令,将存量数据迁移开始后的增量数据同步到目标文件系统。 plaintext rsync avP delete /mnt/src/ /mnt/dst/
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        数据迁移
        NAS文件系统之间的迁移
        使用rsync工具迁移NFS文件系统
      • 作业管理
        本章节主要介绍翼MapReduce服务的作业管理功能。 作业管理为用户提供向集群提交作业的入口,支持包括MapReduce、Spark、HiveQL和SparkSQL等类型的作业。结合数据湖治理中心(DataArts Studio),提供一站式的大数据协同开发环境、全托管的大数据调度能力,帮助用户快速构建大数据处理中心。 通过数据湖治理中心(DataArts Studio),用户可以先在线开发调试MRS HiveQL/SparkSQL脚本、拖拽式地开发MRS作业,完成MRS与其他20多种异构数据源之间的数据迁移和数据集成;通过强大的作业调度与灵活的监控告警,轻松管理数据作业运维。
        来自:
        帮助文档
        翼MapReduce
        产品简介
        功能特性
        作业管理
      • 迁移前准备工作
        本节为您介绍迁移前准备工作。 使用或注册天翼云账号,并完成 实名认证。 1. 打开天翼云门户网站,单击“免费注册”。 2. 在注册页面,请填写“邮箱地址”、“登录密码”、“手机号码”,并点击“同意协议并提交” 按钮,如1分钟内手机未收到验证码,请再次点击“免费获取短信验证码”按钮; 3. 注册成功后,可到邮箱激活您的账号,即可体验天翼云。 如需实名认证,请参考 会员服务 实名认证。 帐号余额不少于100元,避免迁移过程中欠费,导致迁移失败。主机迁移服务本身免费,但迁移过程中会创建按量付费资源并产生少量费用。具体请参见计费说明。 用户开通并使用数据迁移工具服务。 使用您的天翼云账号完成登录。 在云迁移中心产品主页,单击“立即开通”按钮进入控制中心。 4. 单击控制中心上方的,选择您目标机资源所在区域。此处示例我们选择的是福州4。 5. 点击迁移管理中的“工具中心”,可以看到数据迁移工具(CMCZMT),点击进入控制台。 确认迁移源是否满足要求 需对数据迁移工具支持迁移的对象存储做确认,具体请见兼容性列表。 迁移网络打通 数据源 需要数据迁移的源节点及迁移后数据存放的目标节点对象存储的endpoint需要对数据迁移工具放通网络,并提供接入需要的AK/SK。
        来自:
        帮助文档
        云迁移服务CMS
        快速入门
        对象存储迁移模块
        迁移前准备工作
      • 什么是边缘安全加速平台
        安全策略检测 登录成功后将进行安全检测,分为客户端检测、边缘节点检测,不同检测位置对应不同场景。 若是客户端检测,在客户端层开辟沙箱隔离区进行终端数据安全管控,此外将持续进行检测终端环境,异常情况进行及时处置,比如发现存在异常进程,则会断开内网连接,要求进行处置。 若是边缘节点检测,登录成功的用户将就近与边缘节点进行建立连接,边缘节点集成DDoS、WAF防护插件,将优先进行大规模流量清洗以及WAF安全检测,正常流量转发至零信任网关进行横向扫描防护等,发现异常及时进行处置。 聚合加速回源 安全检测策略通过后将CDN智能选路、中转收敛,将访问转发给客户连接器,通过聚合加速方式来减轻源站连接器并发压力,提高访问速度。 边缘接入服务 AOne边缘接入服务,基于优质的边缘网络资源和应用安全加速能力,为企业网络提供安全、高性能网络连接、TCP/UDP协议加速、私有协议加速等服务。客户可以将任意位置的数据资源安全连接到边缘网络入口,通过高速通道、智能路由及安全防护技术,实现数据高速、稳定、安全的跨地域传输,帮助客户解决全球访问卡顿、延迟过高问题,为客户快速集成一个交付即用、按需弹性且安全的网络环境。
        来自:
        帮助文档
        边缘安全加速平台
        产品介绍
        产品简介
        什么是边缘安全加速平台
      • 创建迁移任务
        本节为您介绍数据库迁移工具中创建迁移任务。 1. 在数据库迁移工具首页,点击“数据传输”列表中的“数据迁移”页签。然后在数据迁移页面点击右上角的创建任务按钮,进行数据迁移任务创建 2. 当点击完创建任务按钮后,可看到添加任务页面,如下:
        来自:
        帮助文档
        云迁移服务CMS
        最佳实践
        数据库迁移模块
        创建迁移任务
      • 通过SDK接入
        本文介绍如何通过 AIuse 云电脑 SDK 接入桌面自动化能力。SDK 适合由业务服务主动创建会话、编排桌面操作流程、批量执行标准化任务的场景。 当前 SDK 面向 Node.js 服务端或可信 Node.js 运行环境,不建议直接在浏览器前端、移动端客户端或用户可反编译的安装包中保存 AccessKey Secret。 适用场景 业务系统需要主动创建会话并执行桌面操作。 需要在代码中编排鼠标、键盘、截图和文件操作。 需要将 AIuse 云电脑能力集成到自有调度系统、自动化平台或智能应用服务中。 需要对任务流程、错误处理、重试策略和资源释放进行精细控制。 如果使用 Qoder 或其他支持 MCP 的客户端直接调用工具,建议参考《通过 MCP 接入》。 前提条件 项目 说明 租户权限 已开通 AIuse 云电脑服务 AccessKey 已创建 AccessKey ID 和 AccessKey Secret 云电脑资源 已准备可用云电脑,并获取桌面编码 desktopCode 运行环境 Node.js 18 或以上版本,建议使用维护期内 LTS 版本 网络访问 运行 SDK 的环境可访问 AIuse 云电脑服务地址 Node.js 安装方式如下: 1. 打开 Node.js 官网下载页面 2. 选择维护期内的 LTS 版本安装包 3. 按安装向导完成安装 4. 安装完成后重新打开终端 5. 依次执行 node v 和 npx v,确认命令可正常使用
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        Aluse云电脑
        快速入门
        通过SDK接入
      • 通过SDK接入(1)
        本文介绍如何通过 AIuse 云电脑 SDK 接入桌面自动化能力。SDK 适合由业务服务主动创建会话、编排桌面操作流程、批量执行标准化任务的场景。 当前 SDK 面向 Node.js 服务端或可信 Node.js 运行环境,不建议直接在浏览器前端、移动端客户端或用户可反编译的安装包中保存 AccessKey Secret。 适用场景 业务系统需要主动创建会话并执行桌面操作。 需要在代码中编排鼠标、键盘、截图和文件操作。 需要将 AIuse 云电脑能力集成到自有调度系统、自动化平台或智能应用服务中。 需要对任务流程、错误处理、重试策略和资源释放进行精细控制。 如果使用 Qoder 或其他支持 MCP 的客户端直接调用工具,建议参考《通过 MCP 接入》。 前提条件 项目 说明 租户权限 已开通 AIuse 云电脑服务 AccessKey 已创建 AccessKey ID 和 AccessKey Secret 云电脑资源 已准备可用云电脑,并获取桌面编码 desktopCode 运行环境 Node.js 18 或以上版本,建议使用维护期内 LTS 版本 网络访问 运行 SDK 的环境可访问 AIuse 云电脑服务地址 Node.js 安装方式如下: 1. 打开 Node.js 官网下载页面 2. 选择维护期内的 LTS 版本安装包 3. 按安装向导完成安装 4. 安装完成后重新打开终端 5. 依次执行 node v 和 npx v,确认命令可正常使用
        来自:
      • 运维资源
        此小节介绍运维资源类问题。 云堡垒机支持图形化运维Linux主机吗? 支持。 云堡垒机支持纳管VNC协议类型的资源,并通过Web浏览器登录资源,实现Linux主机的图形化运维。 您需要在添加主机资源时,将“协议类型”选择为“VNC”。 云堡垒机支持手机APP运维吗? 云堡垒机暂时不支持手机APP运维,但可以通过手机浏览器访问云堡垒机系统。 1 打开手机浏览器,输入https:// EIP地址 ,进入云堡垒机系统登录页面。 2 输入用户登录名和密码,完成用户登录验证。 登录成功后,可管理部门、用户、资源、策略、系统配置等系统数据,以及审批工单和下载日志。 不支持“主机运维”和“应用运维”登录。 如何配置SSO单点登录工具? 云堡垒机数据库运维使用单点登录(Single Sign On,SSO)工具,登录主机运维方式的数据库资源。 云堡垒机默认使用SsoDBSettings单点登录工具,用户登录数据库资源前,需在本地安装好SSO单点登录工具和数据库客户端工具,并配置正确数据库客户端的路径到SSO单点登录工具上。 登录数据库资源前,需参照如何配置云堡垒机的安全组?放通对应场景的端口。 以Navicat客户端为例,示例正确的配置客户端路径操作。 1 打开本地SsoDBSettings单点登录工具。 2 在“Navicat路径”栏后,单击路径配置。 3 根据本地Navicat客户端安装的绝对路径,选中Navicat工具的exe文件后,单击“打开”。 4 返回SsoDBSettings单点登录工具配置界面,可查看已选择的Navicat客户端路径。 5 单击“保存”,返回云堡垒机“主机运维”列表页面,即可登录数据库资源。
        来自:
      • 源端归档数据迁移方案
        方式一:控制台操作解冻 您可以登录您源端云服务商的控制中心,通过对象存储的控制界面,对待迁移的源端数据直接进行解冻操作。 您可以登录您源端云服务商的控制中心,通过对象存储的控制界面,配置生命周期规则,对待迁移的数据修改存储类型实现解冻。该方式耗时较长,一般不推荐。 方式二:命令行工具操作解冻 若您的源端为其他云服务商,您可以使用源端云服务商的对象存储提供的命令行工具,例如:腾讯云COSCMD工具、华为云obsutil、阿里云ossutil等。 注意 若您设置对象存储的生命周期管理规则,请务必确保迁移数据期间源端数据不会再被转为归档存储。 后续操作 创建迁移任务 源端数据解冻完成后,您可以在迁移任务列表创建迁移任务。 具体操作,您可阅读不同的源端云服务商的迁移教程:各云服务商迁移至ZOS教程。 注意 迁移任务结束后,您可以手动在您的目的端对象存储的存储桶中查看已经迁移完成的数据。
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        对象存储迁移服务
        不同场景的迁移方案
        源端归档数据迁移方案
      • 迁移管理
        本节为您介绍迁移管理相关问题。 迁移管理工具列表有哪些? 服务器迁移服务(CMSSMS)、 数据库迁移服务(CMSDMS)、数据迁移工具(CMSZMS)。 迁移管理工具是否区分同构与异构迁移工具? 区分。 云迁移服务提供工具中心管理功能,您可以在工具管理中心选择对应工具通过相应概述作为工具结构区分,也可以直接帮助中心查看对应相关引导。 迁移管理工具兼容性如何? 云迁移管理工具,具备高效、稳定、易用等特点;支持阿里云、腾讯云、华为云多家云厂商,拥有迁移一体化平台、生命周期可视化界面表达。 云迁移各工具是否具备使用说明书? 具备。 云迁移服务平台提供工具管理中心功能,你可以根据迁移工具概述选择,您也可以在云迁移服务工具中心中选择对应工具的帮助中心查阅信息。 调度管理中心调度任务能否支持显示调度状态? 支持。 进入迁移中心调度管理页面详情中,调度任务列表可以显示调度状态信息。 创建调度任务需要几步操作? 基本信息填写包括(调度名称、调度时间、重复规则、调度规则、问题错误处理); 调度规则选项(继续任务、暂停任务、带宽限制、CPU限制、停止增量、开始核查、引导修复、取消何查) 错误处理(继续并发资源调度、中止并发资源调度) 资源选取,在列表中选择对应资源信息; 资源确认; 调度任务如何查看是否成功? 查看调度任务具体步骤: 1. 左菜单栏进入调度管理; 2. 进入调度页,选择创建调度计划任务; 3. 查看计划任务调度状态; 4. 查看错误处理报告; 5. 点击操作栏中“日志”可以进入查看;
        来自:
        帮助文档
        云迁移服务CMS
        常见问题
        云迁移服务模块
        迁移管理
      • 云服务通过KMS实现服务端加密
        本文为您介绍通过KMS实现云硬盘、对象存储、弹性文件等云服务的数据加密最佳实践。 密钥管理系统与天翼云产品无缝集成,在云产品中,仅需要选择在KMS中托管的主密钥,即可轻松实现对云产品数据的服务端加密。 云产品通过集成KMS实现对云上数据的加密存储,密钥由KMS托管,满足监管合规要求。整个服务端加密过程对用户透明无感知,只需要开启加密功能并指定密钥即可。同时用户无须自定构建和维护密钥管理基础设施,节省开发成本。 用户可以选择KMS为云产品自动创建的默认主密钥加密,也可以选择通过KMS创建的用户主密钥。其中默认密钥不收取密钥托管费用。 场景示意图 云产品开启服务端加密流程 加密云硬盘 在创建云硬盘页面,选择开启“磁盘加密”,并在密钥列表中选择加密密钥。 加密对象存储 在创建对象存储Bucket页面,选择开启“服务端加密”,并在密钥列表中选择加密密钥。 加密弹性文件 在创建文件系统页面,选择开启KMS加密,并在密钥列表中选择加密密钥。
        来自:
        帮助文档
        密钥管理
        最佳实践
        云服务通过KMS实现服务端加密
      • 产品优势
        本章节主要介绍数据治理中心DataArts Studio产品的优势。 一站式数据运营平台 贯穿数据全流程的一站式治理运营平台,提供全域数据集成、标准规范设计、连接并萃取数据价值、全流程数据质量监控、统一数据资产管理、数据开发服务等,帮助企业构建完整的数据中台解决方案。 丰富的数据开发类型 支持多人在线协作开发,脚本开发可支持SQL、Shell在线编辑、实时查询;作业开发可支持CDM、SQL、MR、Shell、MLS、Spark等多种数据处理节点,提供丰富的调度配置策略与海量的作业调度能力。 统一调度和运维 全面托管的调度,支持按时间、事件触发的任务触发机制,支持分钟、小时、天、周和月等多种调度周期。 可视化的任务运维中心,监控所有任务的运行,支持配置各类报警通知,便于责任人实时获取任务的情况,保证业务正常运行。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        产品简介
        产品优势
      • 边缘虚拟机挂载数据盘
        为大于2TB数据盘创建GPT分区 MBR只支持处理不大于2 TB的容量,且只支持划分4个主区。如果您需要使用大于2 TB的数据盘,您必须采用GPT格式。 1. 通过控制台远程连接,运行以下命令安装Parted工具: yum install y parted 2. 查看实例上的数据盘信息。 运行以下命令: fdisk l 运行结果如下所示: 3. 使用Parted工具为数据盘进行分区。 运行以下命令开始分区: parted /dev/vdb 在Parted工具的交互式界面中,运行以下命令将默认的MBR分区格式转换为GPT分区格式: mklabel gpt 运行以下命令,划分一个主分区,并设置分区的开始位置和结束位置: mkpart primary 1 100% 运行以下命令,检查分区是否对齐: aligncheck optimal 1 运行结果如下所示: 1 aligned 说明 如果返回的是1 not aligned,说明分区未对齐,建议您运行以下命令 ,再根据(+)/的公式计算出最佳分区模式的起始扇区值。 cat /sys/block/vdb/queue/optimaliosize cat /sys/block/vdb/queue/minimumiosize cat /sys/block/vdb/alignmentoffset cat /sys/block/vdb/queue/physicalblocksize 假设1024为计算得出的推荐扇区值,则您可以运行mkpart primary 1024s 100%重新划分一个主分区。 运行以下命令,查看分区表: print 运行以下命令,退出Parted工具: quit Parted工具分区结果如下所示。 4. 运行以下命令,使系统重读分区表: partprobe
        来自:
        帮助文档
        智能边缘云
        最佳实践
        边缘虚拟机挂载数据盘
      • 非天翼云用户数据迁移至弹性文件服务
        本文介绍非天翼云用户数据如何迁移至云上弹性文件服务。 应用场景 在第三方云厂商存储大量数据的用户,如果想要将数据迁移至天翼云弹性文件服务,若使用传统的方法,需要先将存储在第三方云厂商上的数据下载到本地,再手动将数据上传到弹性文件服务,整个过程耗时又耗力,容易存在漏传、误传等问题。 本文推荐您配置一个弹性云主机实例挂载文件系统作为数据传输的中转节点,然后通过迁移工具迁移数据至天翼云弹性文件服务,迁移工具可以选择SFTP客户端。仅需简单配置,即可把数据从第三方云厂商轻松、平滑地迁移至SFS。 工具介绍 本实践以FileZilla作为SFTP客户端作为指导示例。 迁移工具 特点 应用场景 SFTP客户端 支持众多操作系统平台,提供图形化操作界面。 少量文件需要一次性上传至NFS文件系统。 将NFS文件系统内的数据下载到本地。 前提条件 具备一个NFS协议弹性文件系统,且务必确认文件系统容量高于待迁移的数据总量。若此时未购买弹性文件服务,则需新购。 具备一台与文件系统在同一VPC网络下的Linux弹性云主机,上传下载文件数据需要占用弹性云主机公网带宽,因此需要为弹性云主机配置弹性IP。 准备工作 下载安装迁移客户端工具,根据页面提示安装即可。 文件系统为接收数据的目标文件系统,应根据实际需求选择容量规格,具体操作参考创建文件系统。 本次操作实践中,需要创建弹性云主机作为非天翼云数据迁移至天翼云弹性文件服务的中转节点。建议配置如下: 说明 本操作中的云主机仅作为数据迁移的“中转站”,而非用于业务实际使用,为节省成本,建议订购按量付费的弹性云主机和弹性IP进行数据中转,计费说明参见 高规格高带宽的云主机迁移速率更快,相应的费用也略高,请根据实际情况酌情选择。整体迁移速率同时受文件系统性能影响,详见 参数 说明 付费方式 按量付费。 规格 通用型。高规格的云主机迁移速率较快,例如4C8G的迁移速率大于1C1G的迁移速率,根据实际情况选择即可。 镜像 CentOS 7.8 弹性IP 自动分配 IP版本 IPv4 带宽 5M。高带宽的迁移速率较快,例如10M的迁移速率大于5M的迁移速率,根据实际情况选择即可。 登录方式 密码>立即创建
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        数据迁移
        非天翼云用户数据迁移至弹性文件服务
      • 数据库迁移
        本页介绍了数据库迁移的常见问题及解决方法。 为什么要采用mysqldump等工具迁移数据库 mysqldump是一种常用的数据库迁移工具,其操作简单但会造成数据库较长时间停机,适用于数据量不大的数据迁移。 天翼云关系数据库MySQL版提供的服务兼容原数据库,将本地数据库迁移至云数据库的过程和将数据库从一台服务器迁移另一台服务器一样。您也可以根据您的需要使用其他数据库迁移方案进行数据库迁移。 数据库实例迁移中产生binlog文件导致存储空间不足怎么办 数据库实例会定期清理过期的binlog,但数据库实例在迁移过程中,短时间内产生大量binlog文件,导致存储空间不足,会影响业务正常运行 。所以在订购实例和进行数据库迁移之前,请参看以下建议: 及时清理过期数据。 建议用户在选择实例存储空间大小时不仅仅考虑数据文件的大小,同时还要考虑日志文件的大小以及给存储空间保留一定的冗余。 若原来申请的数据库磁盘容量不足,建议用户扩容磁盘空间,确保磁盘空间足够。操作方法请参考用户指南实例管理存储空间扩容。 怎样将其他数据库引擎的数据导入到MySQL实例 相同引擎数据库之间数据导入导出,称之为同构型数据库之间数据导入导出。同构型数据库导入导出可以使用数据库迁移工具来实现如mysqldump。 不同引擎数据库之间数据导入导出,称之为异构型数据库之间数据导入导出。异构型数据库之间由于格式不同,一般不支持直接导入导出,通常需要第三方软件,通过数据复制的方式来实现。比如,先使用工具从Oracle中,以文本的格式导出表记录,然后利用Load语句导入到InnoDB引擎。
        来自:
        帮助文档
        关系数据库MySQL版
        常见问题
        其他类
        数据库迁移
      • 节点概述
        本章节主要介绍节点参考的节点概述。 节点定义对数据执行的操作。数据开发模块提供数据集成、计算&分析、数据库操作、资源管理等类型的节点,您可以根据业务模型选择所需的节点。 节点的参数支持使用EL表达式,EL表达式的使用方法详见表达式概述。 节点间的连接方式支持串行和并行。 串行连接:按顺序逐个执行节点,当A节点执行完成后,再执行B节点。 并行连接:A节点和B节点同时执行。 详见下图:连接示意图
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        节点参考
        节点概述
      • 产品规格
        共享盘类型选择 安全需求优先 NAS 共享盘:如果您极其重视数据安全,且希望数据仅在天翼AI云电脑环境内流转,不暴露在公网环境中,NAS 共享盘是匹配高密级数据场景的选择。它只能通过AI云电脑挂载访问,这种特性极大地降低了数据在公网环境下可能面临的安全风险,为数据提供了更可靠的安全保障。例如,对于一些对数据保密性要求极高的企业,如金融、科研等行业,其核心数据的存储和共享使用 NAS 共享盘能有效防止数据泄露。 网络共享盘:虽然网络共享盘也具备一定的安全措施,但由于支持公网访问,相比之下,数据面临的安全风险会略高一些。不过,它的权限管控和访问审计功能非常强大,能通过细致的权限设置和全面的操作记录,对企业内部的数据访问进行严格管理和监控,从而在一定程度上保障数据安全。适用于对合规性管理要求较高的大型企业,即便数据在公网环境下有访问需求,也能通过严格的权限和审计机制降低风险。 功能需求侧重 NAS 共享盘:主要功能在于满足基本的文件共享存储需求。在企业内部,员工可以便捷地共享办公文档、项目资料等,提供一个集中的文件管理平台。如果您的企业或团队主要需求是简单高效地进行文件共享,对其他复杂功能需求较少,NAS 共享盘完全可以满足日常工作中的文件协作需求。 网络共享盘:除了文件共享功能外,更强调权限管控、访问审计以及与其他企业系统的集成功能。对于大型企业而言,不同部门和职位对数据的访问和操作权限有严格要求,网络共享盘能够设置细致的权限,满足这种精细化管理需求。同时,与 ERP、CRM 等系统的集成功能,能实现企业数据的无缝流通,提高整体信息化管理水平,促进业务流程的自动化和数据的统一管理,适合业务流程复杂、信息化程度高的大型企业。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        翼共享
        产品规格
      • 产品优势
        本节介绍天翼云印刷文字识别产品的优势。 识别精度高 通过海量标注样本训练,配合国内领先的人工智能算法,针对文字识别的特点,能够快速、准确地处理输入的图像数据,提取出关键的文字信息,满足不同业务场景下的文字识别需求,识别精度高。 数据安全 天翼云印刷文字识别通过先进的算法和训练模型,大大减少了人工干预,能够自动处理和纠正一些常见的误识问题,同时降低隐私风险,保护数据资产。此外在文字识别过程中,采用了一系列加密和安全传输措施,确保用户数据在传输和存储过程中的安全。 快速高效 传统的文字识别方法往往依赖于人工操作,不仅效率低下,而且容易出错。天翼云印刷文字识别产品提供24小时全天候服务,无论白天还是夜晚,都可以随时上传图像进行文字识别。这种不间断的服务模式确保了用户在任何时间都能获得及时的响应,大大提高了工作效率。 使用便捷 为了满足不同用户的需求,我们提供了标准API接口,使用户可以轻松地将印刷文字识别集成到现有的业务流程或系统中。这种便捷的集成方式降低了技术门槛,减少了开发成本,使产品能够快速适应各种应用场景。 使用场景丰富 印刷文字识别产品在各个行业和领域中都有广泛的应用。根据客户需求,精心设计了车牌识别、身份证识别、营业执照识别等使用场景,以满足不同领域的文字识别需求,提供高效、准确的文字识别解决方案。
        来自:
        帮助文档
        印刷文字识别
        产品介绍
        产品优势
      • 管理应用用户生产消费权限
        场景描述 Kafka管理应用用户生产消费权限的场景描述如下: 应用开发和测试:在应用开发和测试阶段,需要为开发人员和测试人员提供适当的生产和消费权限,以便他们能够读取和写入Kafka主题。这样可以确保他们能够有效地测试和验证应用程序的功能。 应用部署和运维:在将应用程序部署到生产环境中时,需要为运维团队提供适当的生产和消费权限。运维团队可以使用这些权限来监控和管理Kafka集群,并处理任何可能的故障或问题。 数据分析和报告:对于数据分析师和报告人员,他们可能需要从Kafka主题中读取数据进行分析和生成报告。为他们提供适当的消费权限可以帮助他们获取所需的数据,并进行相关的数据分析和报告工作。 数据集成和同步:在数据集成和同步的场景中,可能需要为特定的应用或系统提供生产和消费权限。这样可以确保数据的可靠传输和同步,以满足不同系统之间的数据需求。 多租户环境:在多租户环境中,需要管理不同租户之间的生产和消费权限。为每个租户分配独立的权限可以确保数据的隔离和安全性,同时满足不同租户的需求。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页的操作列,目标实例行点击“管理”。 (4)点击“用户管理”后进入用户管理界面,该页面展示用户列表。 (5)选择相应的用户,点击其右侧的”用户权限“按钮进行权限管理。 (6)生产权限。先点击”添加生产权限“按钮,在弹窗的左侧选择需要添加生产权限的Topic,然后点击中间按钮,最后点击”确定“完成添加。 (7)消费权限。左上角切换消费权限,点击”添加消费权限“按钮,在弹窗的左侧选择需要添加消费权限的Topic,然后点击中间按钮,最后点击”确定“完成添加。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        用户管理
        管理应用用户生产消费权限
      • 任务列表查看
        本节为您介绍数据库迁移工具任务列表查看。 数据库迁移工具可以获取当前用户发起的数据同步类型任务,如任务名、源端配置信息、目标端配置信息、任务开始时间、任务执行状态等信息。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移模块
        数据传输
        数据同步
        任务列表查看
      • 容量大于2TB,初始化Linux数据盘(parted)
        本文为您介绍当容量大于2TB时,如何在Linux环境下适用parted分区工具初始化数据盘。 操作场景 本文以“CentOS 7.6 64位”操作系统为例,介绍当磁盘容量大于2TB时,如何使用parted分区工具在Linux操作系统中为数据盘设置分区,操作回显仅供参考。 前提条件 已挂载数据盘至云主机或物理机,且数据盘还没有被初始化。 操作步骤 当新增云硬盘容量大于2TB,使用parted工具进行Linux数据盘初始化共分为五步,具体步骤如下: 登录弹性云主机。 查看新增数据盘:查看新增数据盘是否已成功挂载至此台云主机,并查看其容量。 创建GPT分区:为新增数据盘创建独立的逻辑分区,以便更好地组织和管理数据,当磁盘容量大于2TB时,必须创建GPT分区。 创建文件系统并挂载:为新建分区创建文件系统,可以使用独立的文件系统来存储数据。 设置开机自动挂载磁盘:云主机系统启动时可自动挂载磁盘。 登录弹性云主机 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域,此处我们选择华东1。 3. 单击选择“计算>弹性云主机”,进入云主机列表页面。 4. 单击需要初始化数据盘的云主机所在行的“操作>远程登录”,登录此台云主机,具体操作可参见登录Linux弹性云主机。
        来自:
        帮助文档
        云硬盘 EVS
        快速入门
        初始化数据盘
        容量大于2TB,初始化Linux数据盘(parted)
      • 通用类
        如何提升云硬盘的性能? 用户可以通过LVM管理云硬盘以及为云硬盘构建RAID磁盘阵列来提升云硬盘的性能。 详情请参见: 通过LVM创建逻辑卷,并格式化文件系统 使用云硬盘构建RAID磁盘阵列 数据盘容量是否可与系统盘容量合并? 不支持合并。 您可以通过扩容云硬盘来扩展数据盘或系统盘的容量大小,以增加存储空间。 MBR和GPT分区形式有什么不同? MBR(Master Boot Record主引导记录)和GPT(Globally Unique Identifier Partition Table GUID分区表)是两种不同的磁盘分区形式,选择哪种分区形式取决于磁盘的容量,具体的区别如下表: 分区方式 支持最大磁盘容量 支持分区数量 分区工具 MBR 2TB 4个主分区 3个主分区和1个扩展分区 Linux 操作系统:fdisk 工具或parted 工具 GPT 18EB(目前云硬盘支持的最大容量为32TB) 不限制分区数量 Linux 操作系统:parted 工具 云硬盘格式化后还能恢复数据吗? 不能。云硬盘格式化后无法再恢复数据。 建议您在格式化前先创建云硬盘快照,以备份未格式化前的云硬盘数据,在您有需要时可通过快照回滚操作恢复数据。
        来自:
        帮助文档
        云硬盘 EVS
        常见问题
        通用类
      • 任务批量删除
        本节为您介绍数据库迁移工具任务批量删除操作。 数据库迁移工具提供任务批量删除功能,用户可勾选要删除任务,再点击“批量删除”按钮,一次性删除多个同步任务。 操作步骤 1. 进入“数据库迁移工具”,点击“数据传输”展开菜单,点击“数据同步” 2. 用户可通过选择处于“已取消”或“失败”的任务,点击同步任务的“批量删除”按钮,删除选中任务。 3. 点击“确定”之后,选中的任务信息被移除。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移模块
        数据传输
        数据同步
        任务批量删除
      • 使用Redis-cli迁移自建Redis(AOF文件)
        本文介绍使用Rediscli迁移自建Redis(AOF文件) 迁移介绍 Rediscli 是 Redis 自带的命令行客户端工具,它允许用户通过命令行与 Redis 服务器进行交互。 在本章节中,我们将重点介绍如何使用 Rediscli 工具以 AOF 文件的方式,将自建的 Redis 数据迁移到 DCS 缓存实例。 说明 进行迁移操作前,建议暂停相关业务,以避免数据丢失或不完整。 建议业务空闲时间进行迁移操作。 步骤1:生成AOF文件 使用以下命令来开启缓存持久化并生成 AOF 持久化文件: ./rediscli h {redisaddress} p {redisport} a {password} config set appendonly yes 如果 AOF 文件的大小不再变化,说明AOF文件为全量缓存数据。 说明 使用 Rediscli 工具登录 Redis 实例,输入命令“config get dir”可以查找生成的AOF文件保存路径。 如果没有进行特殊指定,该文件的文件名默认为 appendonly.aof。 如果需要关闭同步,可以使用 Rediscli 工具登录 Redis 实例,并输入命令 “config set appendonly no” 来关闭同步。 步骤2:上传AOF文件至天翼云ECS 为节省传输时间,请先压缩AOF文件再传输。 将压缩文件(如以SFTP/SCP等方式)上传到天翼云ECS。 说明 ECS需保证有足够的磁盘空间,供数据文件存储,同时需要与缓存实例网络互通,通常要求相同VPC和相同子网,且安全组规则不限制访问端口。 步骤3:导入数据 ./rediscli h {redisaddress} p {redisport} a {password} pipe < appendonly.aof 步骤4:迁移后验证 数据导入成功后,连接DCS缓存实例,通过dbsize命令,确认数据是否导入成功 如果导入不成功,需要分析原因,修正导入语句,然后使用flushall或者flushdb命令清理实例中的缓存数据,并重新导入。
        来自:
        帮助文档
        分布式缓存服务Redis版
        数据迁移指南
        自建Redis迁移到DCS
        使用Redis-cli迁移自建Redis(AOF文件)
      • 常见问题(1)
        本文介绍Aiuse云电脑功能的常见问题 Q:如果我的企业希望体验 Aiuse 云电脑功能,应该如何开通使用? A:感谢您对 Aiuse 云电脑的关注!目前,您可以通过发送申请邮件至 zhangyh65@chinatelecom.cn 进行开通申请,我们的专属客服人员将在收到邮件后尽快与您联系,协助完成使用资格开通。后续也将提供自助开通渠道方便使用。 开通使用后,如何获取云电脑调用工具包及开发接入指引? 开通使用后,您可参阅++SDK 接入指南++,其中涵盖工具包下载、环境配置及完整的开发接入说明,帮助您快速完成集成。如在接入过程中遇到问题,欢迎随时联系我们的技术支持团队。 Q:目前 AccessKey 最多可以创建多少个?绑定的云电脑数量是否有上限? A:当前每个租户最多可创建 10 个 AccessKey,每个 AccessKey 所绑定的云电脑数量不设上限。为便于统一管理及实现数据隔离,建议为不同业务场景或团队分配独立的 AccessKey,并分别绑定对应的云电脑资源。 Q:如何将 Accesskey 绑定到桌面? A:Accesskey 的绑定操作请前往++桌面管理++页面进行配置,页面中提供了详细的操作步骤说明。如需进一步帮助,请参阅相关操作文档或联系客服人员。 Q:SDK 中输入的 desktopCode 是指什么? A:desktopCode 是指桌面编码,用于唯一标识您的云电脑桌面实例。请注意,desktopCode 与桌面 ID 是两个不同的概念,请勿混淆,务必确认填写的是正确的桌面编码。
        来自:
      • AOne iOS SDK接入文档
        2.2.2.隧道插件/SDK配置 请注意SDK和插件的嵌入方式,参考截图: 2.2.3.配置NE插件的目标 2.2.4.配置APP的plist字段 plist文件增加com.wireguard.ios.appgroupid的配置,用于配置AppGroup的配置字段,对应的Groupid为客户集成项目自身的GroupId,请不要配置错误(重要重要重要)。 2.3.NE插件重签名流程补充说明 1. 选择给到的TyyAppResign.app的签名工具打开如下图。 2. Input File:选择给到的开发SDK中的LXRVPNNetworkExtension.appex插件。 3. 选择开发者的签名证书。 4. 选择开发者的签名描述文件(需要具备前面章节描述的权限的描述文件)。 5. VPN APP Groups ID 配置为当前appid配置的groupid。 6. 点击start完成重改签名。 3.整体流程介绍
        来自:
        帮助文档
        边缘安全加速平台
        公共服务
        天翼云AOne SDK使用指南
        AOne iOS SDK接入文档
      • 如何测试云硬盘的性能
        本实践介绍使用FIO工具测试云硬盘性能的方法。 实践概述 天翼云提供的云硬盘根据磁盘类型的不同拥有不同的性能和价格,详细信息请参见磁盘类型及性能介绍。 FIO 是对磁盘性能进行压力测试和验证的常用工具,本实践将使用FIO工具,介绍云硬盘性能测试的方法。 操作前准备 本节主要介绍在进行具体操作之前用户需要做的准备工作,包括测试前检查、工具安装和FIO参数介绍。 本文以 “CentOS Stream 8 64位” 操作系统为例,介绍使用 FIO 工具进行性能测试的相关操作。由于不同操作系统在系统配置、内核版本及工具支持方面可能存在差异,因此格式化或配置步骤可能有所不同。本文内容仅供参考,具体操作请以对应操作系统的官方产品文档为准,以确保测试过程的准确性与稳定性。 测试前检查 进行测试前,请首先完成云硬盘的挂载和初始化,操作请参考挂载云硬盘和初始化云硬盘。 注意 测试磁盘性能时,建议直接测试裸数据盘(如 /dev/vdb),但有可能会破坏磁盘上的文件系统结构,请在测试前提前做好数据备份。 强烈建议您不要将系统盘或者含有重要数据的数据盘作为测试对象。建议您在空白的数据盘上测试性能,避免造成数据丢失。 登录到测试云主机,执行以下命令,查询待测试的磁盘分区是否已经4KiB对齐。 plaintext sudo fdisk lu 若返回结果中待测试磁盘的Start值能被8整除即是4KiB对齐。下图中的回显表示该磁盘分区已4KiB对齐。 如Start值不能被8整除,则表示未4KiB对齐,那么请删除原有分区后再继续测试,重新按照4KiB对齐选择初始磁柱编号。
        来自:
        帮助文档
        云硬盘 EVS
        最佳实践
        如何测试云硬盘的性能
      • 查看告警事件历史
        在事件列表页面,可以筛选并查看所有告警事件。 功能入口 1. 登录【应用性能监控控制台】。 2. 在左侧导航栏选择告警管理>告警事件历史。 事件列表 事件列表页面显示了未恢复告警和已恢复告警的事件名称、通知策略、创建时间、事件数量、事件状态、事件对象。 在事件列表页面,您可以执行以下操作: 设置筛选字段,然后单击搜索,可以查看对应的告警事件。 字段 说明应用性能监控 事件名称 创建的告警规则的名称。 事件状态 告警事件的状态,共有以下3种状态: 告警中:告警事件持续被触发。 静默:命中静默条件的告警。 已恢复:在设置的时间内,告警事件不再触发。 事件对象 监控任务名称或集群名称。 集成类型 告警事件对应的集成类型。 单击事件名称,查看目标事件的详细信息。更多信息,请参见下方【事件详情】。 事件详情 事件详情面板显示了事件的基本信息、监控数据和扩展字段。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        告警管理(新版)
        查看告警事件历史
      • AWS S3数据迁移到OOS
        本节主要介绍如何将数据从AWS S3迁移到OOS中。 应用场景 将数据从AWS S3的Bucket迁移到OOS的Bucket。 注意 在线迁移会占用源地址和目的地址的网络资源。若您的业务比较重要,建议您对迁移任务设置限速(设置system.conf中的maxThroughput),或在空闲时间启动迁移任务。 从AWS S3迁移到OOS的文件(Object),仅迁移当前可读取到的文件,不支持按object version Id 迁移。 前提条件 Windows7 及以上版本或 Linux CentOS 7.x 及以上版本。 Java 1.8 及以上版本。 迁移工具所在的服务器可以访问AWS S3资源池和OOS资源池。 具体操作 确定目标Bucket 在OOS中创建目标Bucket,具体操作请参见创建存储桶(Bucket)或PUT Bucket,用于存放迁移的数据。也可以使用已存在的Bucket。 下载安装迁移工具 1. 下载数据迁移工具。 2. 解压缩安装包 对于Windows客户端,直接解压缩迁移工具zip 包即可。 对于Linux客户端,执行 unzip 解压缩安装包。 迁移工具解压后的目录结果如下: CTYUNOOSImportversionid config log4j2.xml migrate.conf system.conf lib import.sh import.bat 修改配置文件 更新迁移任务配置文件migrate.conf,配置源和目的资源池信息、迁移配置项。您可根据需要配置system.conf和 log4j2.xml文件,具体参数介绍参见常用工具OOS数据迁移工具迁移步骤。其中: srcType需填写为:S3,代表AmazonS3。 srcEndpoint为s3.amazonaws.com。 S3的region可在S3控制台存储桶列表中查看源Bucket所在的区域。 S3 AccessKey和SecretKey需要至少拥有源Bucket的读权限,OOS的AccessKeyID和SecretAccessKey需要至少拥有目的Bucket的写权限。 migrate.conf配置示例如下: { "srcType":"S3", 从S3迁移文件 "srcEndpoint":"s3.amazonaws.com", S3的Endpoint "srcAccessKey":"your s3 accessKey", S3的AccessKey "srcSecretKey":"your s3 secretKey", S3的SecretKey "srcBucket":"s3bucket", S3的bucket "srcRegionName":"useast1",S3的region,请根据实际填写 "srcPrefix":"logs/", S3上要迁移文件的前缀,请根据实际填写 "srcMarker":"", 从第一个文件开始迁移 "srcStopObject":"", S3上要迁移的截止文件 "destEndpoint":"ooscn.ctyunapi.cn", OOS的Endpoint "destAccessKey":"AccessKeyID", OOS的AccessKeyID "destSecretKey":"SecretAccessKey", OOS的SecretAccessKey "destBucket":"BucketName", OOS的Bucket名称 "isSkipExistFile":false 是否跳过目标资源池中已有的文件 }
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        数据迁移
        AWS S3数据迁移到OOS
      • 阿里云OSS数据迁移到OOS
        本节主要介绍如何将数据从阿里云OSS迁移到OOS中。 应用场景 将数据从阿里云OSS的Bucket迁移到OOS的Bucket。 注意 在线迁移会占用源地址和目的地址的网络资源。若您的业务比较重要,建议您对迁移任务设置限速(设置system.conf中的maxThroughput),或在空闲时间启动迁移任务。 从阿里云OSS迁移到OOS的文件,仅迁移当前可读取到的文件,不支持按object version Id 迁移。 前提条件 Windows7 及以上版本或 Linux CentOS 7.x 及以上版本。 Java 1.8 及以上版本。 迁移工具所在的服务器可以访问阿里云OSS资源池和OOS资源池。 具体操作 确定目标Bucket 在OOS中创建目标Bucket,具体操作请参见创建存储桶(Bucket)或PUT Bucket,用于存放迁移的数据。也可以使用已存在的Bucket。 下载安装迁移工具 1. 下载数据迁移工具。 2. 解压缩安装包 对于Windows客户端,直接解压缩迁移工具zip 包即可。 对于Linux客户端,执行 unzip 解压缩安装包。 迁移工具解压后的目录结果如下: CTYUNOOSImportversionid config log4j2.xml migrate.conf system.conf lib import.sh import.bat 修改配置文件 更新迁移任务配置文件 migrate.conf,配置源和目的资源池信息、迁移配置项。您可根据需要配置system.conf和 log4j2.xml文件,具体参数介绍参见常用工具OOS数据迁移工具迁移步骤。其中: srcType需填写为:OSS,代表阿里云。 srcEndpoint为阿里云Bucket的Endpoint,您可在阿里云控制台Bucket概览中进行查看。 OSS AccessKey和SecretKey需要至少拥有源Bucket的读权限,OOS的AccessKeyID和SecretAccessKey需要至少拥有目的Bucket的写权限。 migrate.conf配置示例如下: { "srcType":"OSS", 从阿里云迁移文件 "srcEndpoint":"osscnhangzhou.aliyuncs.com", 阿里云的Endpoint,请根据实际填写 "srcAccessKey":"your oss accessKey",阿里云的AccessKey "srcSecretKey":"your oss secretKey", 阿里云的SecretKey "srcBucket":"ossbucket", 阿里云的Bucket "srcPrefix":"logs/", 阿里云上要迁移文件的前缀,请根据实际填写 "srcMarker":"", 从第一个文件开始迁移 "srcStopObject":"", 阿里云上要迁移的截止文件 "destEndpoint":"ooscn.ctyunapi.cn", OOS的Endpoint "destAccessKey":"AccessKeyID", OOS的AccessKeyID "destSecretKey":"SecretAccessKey", OOS的SecretAccessKey "destBucket":"BucketName", OOS的Bucket名称 "isSkipExistFile":false 是否跳过目标资源池中已有的文件 }
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        数据迁移
        阿里云OSS数据迁移到OOS
      • 工具迁移
        应用场景 适用于用户的数据存储在对象存储ZOS中,且需要准备迁移服务器可下载ZOS数据,并和HPFS网络互通,保证可挂载文件系统的场景下。 准备工作 创建迁移服务器,如果目标HPFS文件系统是NFS协议,迁移服务器可选择弹性云主机。如果目标HPFS文件系统是HPFSPOSIX协议,迁移服务器需要选择物理机(GPU裸金属)。具体限制请参考操作系统限制。 迁移服务器需要能访问ZOS进行下载数据,能够将云上 ZOS 中的对象文件下载到HPFS的指定文件夹。 将HPFS文件系统挂载至物理机或弹性云主机,具体操作请参考挂载文件系统。 操作步骤 具体操作请参考对象存储文件上云迁移工具,参考文档中云上迁移到本地场景: 云上迁移到本地的操作的配置,只需要将 migrations.conf 中的 reverse 参数配置为 true。 并在迁移工具中 migrations.conf 中 srcpath 指的是将云上文件迁移到本地后存放的文件夹,设置为HPFS文件系统的挂载目录。 注意 迁移工具将不会对该路径进行检测,如果指定的路径不存在,将会默认创建。
        来自:
        帮助文档
        并行文件服务 HPFS
        用户指南
        数据迁移
        工具迁移
      • 1
      • ...
      • 7
      • 8
      • 9
      • 10
      • 11
      • ...
      • 458
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      云聚517 · 好价翼起拼

      爆款云主机低至25.83元/年,参与拼团享更多优惠,拼成得额外优惠券

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      聚力AI赋能 天翼云大模型专项

      大模型特惠专区·Token Plan 轻享包低至9.9元起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      企业出海解决方案

      助力您的业务扬帆出海,通达全球!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      产品推荐

      GPU云主机

      轻量型云主机

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      公共算力服务

      科研助手

      一站式智算服务平台

      人脸实名认证

      推荐文档

      成员权限

      代金券支付后是否可以开发票?

      慢日志查询

      业务咨询

      分组数据管理

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 息壤智算平台
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号