云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云云电脑_相关内容
      • 步骤一(1):创建入云迁移任务
        sectionb5f190b39b311304”章节处理。 迁移实例创建未完成时,“测试链接”按钮灰化。 目标库信息配置 表 目标库信息 参数 描述 数据库实例名称 默认为创建迁移任务时选择的关系型数据库实例,不可进行修改。 数据库用户名 目标数据库对应的数据库用户名。 数据库密码 目标数据库的登录密码。支持在任务创建后修改密码。 任务为启动中、启动失败、全量中、全量失败、增量中、增量失败状态时,可在“基本信息”页面的“迁移信息”区域,单击“目标库密码”后的“替换密码”,在弹出的对话框中修改密码。 所有Definer迁移到该用户下 是 迁移后,所有源数据库对象的Definer都会迁移至该用户下,其他用户需要授权后才具有数据库对象权限,如何授权请参考MySQL迁移中Definer强制转化后如何维持原业务用户权限体系。 说明 对于MySQL到GaussDB(for MySQL)实例的迁移,目前仅支持选择“是”,即迁移后,所有源数据库对象的Definer都会迁移至该用户下。 否 迁移后,将保持源数据库对象Definer定义不变,选择此选项,需要配合下一步用户权限迁移功能,将源数据库的用户全部迁移,这样才能保持源数据库的权限体系完全不变。 说明 目标数据库的用户名和密码将在迁移过程中被加密暂存到数据库和迁移实例主机上,待该任务删除后会永久清除。 4、在“迁移设置”页面,设置迁移用户和迁移对象,单击“下一步” 图 迁移模式 表 迁移模式和迁移对象 参数 描述 快照模式 如果您选择的是全量迁移模式的任务,数据库复制服务支持设置快照模式。 非快照式 适用于停止业务数据写入的导出,如果全量迁移中仍然有业务数据的修改,则导出数据为时间点非水平一致。稳定性和性能要优于快照式全量迁移。 快照式 可以在业务运行时产生一份时间水平一致的快照数据,具有业务数据分析价值,过程中的数据变化不会体现在导出数据中。 说明 快照读会使用MySQL备份锁进行全局锁表,在开启一致性读后自动解锁(加锁时间在3s以内),备份锁会对此期间的DML或者DDL操作造成阻塞,建议用户选择源库空闲的时间段使用快照备份功能。 目前仅MySQL全量模式的迁移任务支持快照模式设置。 在快照迁移时不允许执行DDL操作,否则会导致全量迁移失败。 迁移用户 数据库的迁移过程中,迁移用户需要进行单独处理。 常见的迁移用户一般分为三类:可完整迁移的用户、需要降权的用户和不可迁移的用户。您可以根据业务需求选择“迁移”或者“不迁移”,选择“迁移”后,可根据需要选择迁移用户。 迁移 当您选择迁移用户时,请参见《数据库复制服务用户指南》中“迁移用户”章节进行数据库用户、权限及密码的处理。 不迁移 迁移过程中,将不进行数据库用户、权限和密码的迁移。 迁移对象 您可以根据业务需求,选择全部对象迁移、表级迁移或者库级迁移。 全部迁移:将源数据库中的所有对象全部迁移至目标数据库,对象迁移到目标数据库实例后,对象名将会保持与源数据库实例对象名一致且无法修改。 表级迁移:将选择的表级对象迁移至目标数据库。 库级迁移:将选择的库级对象迁移至目标数据库。 如果有切换源数据库的操作或源库迁移对象变化的情况,请务必在选择迁移对象前单击右上角的按钮以确保待选择的对象为最新源数据库对象。 说明 若选择部分数据库进行迁移时,由于存储过程、视图等对象可能与其他数据库的表存在依赖关系,若所依赖的表未迁移,则会导致迁移失败。建议您在迁移之前进行确认,或选择全部数据库进行迁移。 选择对象的时候,对象名称的前后空格不显示,中间如有多个空格只显示一个空格。 选择对象的时候支持搜索,以便您快速选择需要的数据库对象。 5、在“预检查”页面,进行迁移任务预校验,校验是否可进行迁移。 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行迁移任务预校验。 预检查不通过项处理建议请参见《数据库复制服务用户指南》中的“预检查不通过项修复方法”。 图 预检查 预检查完成后,且预检查通过率为100%时,单击“下一步”。 说明 所有检查项结果均通过时,若存在待确认项,需要阅读并确认详情后才可以继续执行下一步操作。 6、进入“参数对比”页面,进行参数对比 参数对比功能从常规参数和性能参数两个维度,展示了源数据库和目标数据库的参数值是否一致。您可以根据业务需求,决定是否选用该功能。该操作不影响数据的迁移,主要目的是为了确保迁移成功后业务应用的使用不受影响。 • 若您选择不进行参数对比,可跳过该步骤,单击页面右下角“下一步”按钮,继续执行后续操作。 • 若您选择进行参数对比,请参照如下的步骤操作。 一般情况下,对于常规参数,如果源库和目标库存在不一致的情况,建议将目标数据库的参数值通过“一键修改”按钮修改为和源库对应参数相同的值。 图 修改常规参数 1)对于性能参数,您可以根据业务场景,自定义源数据库和目标库的参数值,二者结果可以一致也可以不一致。 • 若您需要将对比结果一致的性能参数修改为不一致,需要在“目标库值调整为”一列手动输入结果,单击左上角“一键修改”按钮,即可将源数据库和目标数据库对应的性能参数值改为不一致。 • 若您想将对比结果不一致的参数改为一致结果,请参考如下流程进行修改: a. 对齐源库和目标库的参数值。 当源库和目标库对应的参数值出现不一致时,选择需要修改的参数,单击“一键对齐”按钮,系统将帮您自动填充目标数据库的参数值,使其和源库对应的参数值保持一致。 图 一键对齐参数 说明 对齐参数值的操作,您也可以通过手动输入结果。 2)修改参数值 源库和目标库的不一致参数值对齐后,单击“一键修改”按钮,系统将按照您当前设置的目标库参数值进行修改。修改完成后,目标库的参数值和对比结果会自动进行更新 图 修改性能参数 部分参数修改后无法在目标数据库立即生效,需要重启才能生效,此时的对比结果显示为“待重启,不一致”。建议您在迁移任务启动之前重启目标数据库,或者迁移结束后选择一个计划时间重启。如果您选择迁移结束后重启目标数据库,请合理设置重启计划时间,避免参数生效太晚影响业务的正常使用。 在进行参数对比功能时,您可以参见《数据库复制服务用户指南》中“参数对比列表”进行参数设置。 3)参数对比操作完成后,单击“下一步”。 7、在“任务确认”页面,设置迁移任务的启动时间,并确认迁移任务信息无误后,单击“启动任务”,提交迁移任务。 迁移任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”,优选“稍后启动”。 预计迁移任务启动后,会对源数据库和目标数据库的性能产生影响,强烈建议您将任务启动时间设定在业务低峰期,同时预留23天校对数据。 8、迁移任务提交后,您可在“实时迁移管理”页面,查看并管理自己的任务。 您可查看任务提交后的状态,状态请参见参考:任务状态含义。 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时迁移
        步骤一(1):创建入云迁移任务
      • 功能特性
        功能名称 功能描述 发布地域 存储类型 ZOS提供标准、低频、归档三种存储类型供您选择,全面覆盖从热到冷的各种数据存储场景。 标准存储:提供高可靠、高可用、高性能和低延迟的存储服务,适用于对数据访问速度要求较高且频繁访问(平均一月访问多次)的存储场景,比如移动应用、网站、音视频、社交图片、大数据分析等业务场景。 低频存储:提供高可靠、低成本的存储服务,适用于不频繁访问(平均一月访问一次)的存储场景,提供更低的存储成本,但在需要时也能快速实时访问数据的业务场景,比如数据备份、监控数据存储等场景。 归档存储:提供高可靠、更低成本的存储服务,需要解冻后访问,适用于长期存储、极少访问(平均一年访问一次)的存储场景,比如档案数据、医疗影像、长期备份等场景。 支持ZOS的全部资源池。 桶管理 ZOS提供创建、搜索、查看、删除等基本功能,帮助您便捷地进行桶管理。 创建桶:桶是ZOS中存储对象的容器。创建桶之后,才能在ZOS中存储数据。 搜索桶:支持根据桶名称对桶进行搜索。 查看桶:可根据需要查看桶的相关属性,包括桶的基本信息、基础数据统计和基础设置。 删除桶:当桶为空时,可以根据需要对桶进行删除,减少资源占用。 支持ZOS的全部资源池。 文件管理 ZOS提供上传、下载、搜索、分段上传、追加上传、分享等基本功能,满足您各个场景的文件管理需求。 上传文件:上传文件至已创建的桶,如需将文件归类,可新建目录后再上传。 下载文件:将存储的文件下载到本地。 搜索文件:可根据文件名称进行搜索。 分段上传:将一个大文件拆分成为多个小段进行上传,每个段都是数据的连续部分,在文件上传过程中如果其中某个段由于网络波动等原因传输失败,仅需重新传输该段,从而避免传输整个对象带来额外消耗。 追加上传:通过创建追加类型的对象,在对象尾部追加数据,从而增补对象的内容。 分享文件:可通过链接将文件进行分享,打开链接即可访问。 支持ZOS的全部资源池。 桶的读写权限 文件读写权限 ZOS通过桶的读写权限设置、bucket授权策略等进行权限管理。默认情况下ZOS的资源是私有的,只有资源拥有者可以进行访问。您可以对桶和对象设置不同的权限,也可以对角色授予资源的访问权限。可对桶和文件设置私有、公共读权限。 支持ZOS的全部资源池。 IAM权限管理 IAM是一种基于用户的授权策略。通过设置IAM策略,您可以控制用户访问您名下哪些资源的权限,例如限制您的用户只拥有对某一个桶的读权限等。 支持的区域请参见 STS临时授权 管理用户身份与资源临时访问权限的服务。通过建立角色,通过STS获取可以自定义时效和访问权限的临时身份凭证,即安全令牌(STS Token)。 支持的区域请参见 桶ACL 桶授权ACL可用来管理账户对存储桶的访问权限和ACL权限,桶的拥有者可以通过桶ACL授予或修改指定账号的读、写权限。 支持的区域请参见 桶策略 桶策略是一种用于控制桶访问权限的策略,允许桶的所有者授权其他用户特定权限。通过桶策略,所有者可以灵活地定义和管理桶的访问权限。 支持的区域请参见 服务端加密 您可以开启KMS服务端加密功能,上传的对象将以加密的方式存储在ZOS中。下载对象时,ZOS会自动将加密文件解密后再提供给用户。 支持的区域请参见 合规保留 ZOS提供合规保留功能,允许用户以“不可删除、不可篡改”方式保存和使用数据。 支持的区域请参见 生命周期管理 您可以通过生命周期规则来管理对象的生命周期,支持按策略自动分层存储,例如定期将桶中的对象从标准转换为低频、归档存储,并且支持统一的命名空间,改变对象类型后不改变访问地址。 支持ZOS的全部资源池。 静态页面设置 ZOS支持把存储桶内的对象设置为静态网站托管,并且通过存储桶的静态网站域名来访问静态网站。 支持ZOS的全部资源池,可通过提工单申请权限。 跨域访问设置 通过跨域访问设置,支持使用JavaScript和HTML5来构建Web应用,直接访问ZOS中的资源,而不再需要代理服务器做中转。托管在不同域中的外部网页、样式表和HTML5应用,可以引用存储在ZOS中的Web字体或图片,让这些资源能被多个网站共享。 支持ZOS的全部资源池。 防盗链 为了防止用户在ZOS的数据被其他人盗链,ZOS支持基于HTTPHeader中表头字段Referer的防盗链方法,同时支持访问白名单和访问黑名单的设置。 支持ZOS的全部资源池。 图片处理 您可以通过SDK对存储桶中的图片进行处理,支持裁剪、缩放、水印、旋转、格式转换等,并将处理后的图片存储到指定的桶中。支持处理图片格式JPG、PNG、WEBP、BMP、TIFF。 支持ZOS的全部资源池。 桶清单 您可以使用设置桶清单规则获取存储桶中指定对象的数量、大小、存储类型、加密状态等信息。桶清单功能支持将生成的桶清单上传到您指定的桶中,便于您获取海量对象的信息并管理桶内对象。 支持的区域请参见 日志管理 您可以通过日志管理功能获取桶的访问数据。当您开启一个桶的日志记录功能后,ZOS会自动对这个桶的访问请求记录日志,并生成日志文件写入用户指定的桶中。 支持ZOS的全部资源池。 多版本控制 您可以在一个桶中保留多个版本的对象,使您更方便地检索和还原各个版本,在意外操作或应用程序故障时快速恢复数据。默认情况下,ZOS版本控制状态为关闭,数据删除或被覆盖将无法找回。开启版本控制后,针对数据的覆盖和删除操作将会以历史版本的形式保存下来。 支持ZOS的全部资源池。 桶配额 设置桶配额可以限制桶内允许上传的对象总容量/总数量,超过设置的容量/数量后,上传对象会失败。 支持的区域请参见 用户配额 支持在公共资源池的每个地域设置一个用户地域配额,作为该地域所有桶容量或文件数量的上限。 目前仅支持公共资源池。 碎片管理 您可以通过碎片管理功能,对分片上传时某些特殊情况下产生的碎片进行清理,以节省存储空间。 支持ZOS的全部资源池。 数据回源 当用户访问的数据在ZOS存储桶中不存在时,会直接返回404错误。如果您配置了数据回源功能,则可以通过数据回源规则从源站访问到对应的数据。 支持的区域请参见 对象存储迁移 通过对象存储迁移可以将其它云存储的数据迁移到ZOS进行存储。 支持的区域请参见 监控 ZOS支持数据监控功能,您可以通过云监控获得整体和桶维度的各种指标信息,按不同存储类型、不同时段可查看存储桶数量、对象数量、存储用量、请求数以及流量等数据。 支持的区域请参见 API ZOS提供数据交换格式为JSON的HTTP API,调用此接口您可以直接通过HTTPS发出请求和接受响应,实现与天翼云对象存储后台的交互操作。由于使用了不同的数据传输框架,ZOS提供了独立于SDK的接口,多了许多管理类操作(如开通接口,数据统计接口等)。而对于直接的上传下载对象,则是SDK独有功能。 支持ZOS的全部资源池。
        来自:
        帮助文档
        对象存储 ZOS
        产品简介
        功能特性
      • 资源管理
        本节介绍态势感知提供资源管理功能。 态势感知提供资源管理功能。在“资源管理”页面,您可以查看当前帐号中所有资源的安全状态统计信息,包括资源的名称、所属服务、安全状况等,帮助您快速定位安全风险问题并提供解决方案。 操作步骤 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知管理页面。 3. 在左侧导航栏选择“资源管理”,进入资源管理页面。 4. 查看全部资源安全状态,相关说明如下表所示。 参数名称 参数说明 名称 呈现资源的名称。 服务 呈现资源所属的服务。 资源类型 呈现资源所属的类型。例如:云服务器、磁盘、实例等。 安全状况 呈现资源的安全风险等级。 风险等级包括“致命”、“高危”、“中危”、“低危”、“提示”和“无风险”。 呈现当前资源风险的最高等级。例如,ECS中有高危、低危和提示级别的风险,则此处取最高值,显示为高危。 单击排序图标,可按风险等级排序资源列表。 IP地址 呈现资源的IP地址。 防护状态 呈现资源是否开启安全防护。如果未开启防护,可单击“去开启”进行设置。 威胁 呈现资源近7天内存在的威胁告警总数。 单击告警数量可跳转“检测结果”页面,查看更多的威胁告警信息,并可自定义过滤条件查询告警信息。 漏洞 呈现资源近24小时内未修复的漏洞总数。 单击漏洞数量可跳转“检测结果”页面,查看更多的漏洞信息,并可自定义过滤条件查询漏洞信息。 “资源管理”页面中显示的数据为最近/最新检测后的数据结果,“检测结果”页面显示的是所有检测时间的各类数据详情,因此,资源管理页面的数据总数≤检测结果页面的数据总数。 基线 呈现资源近30天内存在的基线风险总数。 单击基线检查异常数量可跳转“检测结果”页面,查看更多的基线异常信息,并可自定义过滤条件查询基线检查信息。 “资源管理”页面中显示的数据为最近/最新检测后的数据结果,“检测结果”页面显示的是所有检测时间的各类数据详情,因此,资源管理页面的数据总数≤检测结果页面的数据总数。 企业项目 呈现资源所属的企业项目。 标签 呈现资源已有的标签。 如果资源当天添加了标签,则在SA资源管理中第二天才会同步显示。 5. 根据资源信息,筛选查看相关资源安全状态。 单击“服务”、“区域”或“安全状况”后的选项,将呈现符合过滤条件的资源列表。 服务 :筛选资源所属的服务。选择服务后,还可以根据“资源类型”来查看选择指定资源类型的安全状态。 区域 :筛选资源所在的区域。 安全状况 :筛选资源的安全风险等级。 可选择风险等级包括“致命”、“高危”、“中危”、“低危”、“提示”或“无风险”。 6. 当资源列表较多时,可以通过搜索功能,快速精准查询指定资源。 在搜索框中输入资源的“弹性公网IP”、“名称”或“私有IP”,单击,即可查看目标资源的安全状态。
        来自:
        帮助文档
        态势感知(专业版)
        用户指南
        资源管理
      • 还原卷(上云卷适用)
        参数 参数 描述 n LUNNAME 或 name LUNNAME 源卷名称。 t TARGETNAME 或 target TARGETNAME 指定还原卷的iSCSI target名称。 取值:字符串形式,长度范围1~16,只能由小写字母、数字、句点(.)和短横线()组成,且仅支持以字母或数字开头。 说明 还原卷时,如果指定的iSCSI target名称不存在,那么同时创建iSCSI target。 priority SERVERID & 指定卷主备分布优先级的服务器ID(仅集群版支持),系统会根据指定的服务器ID顺序来选择卷的主备IQN。可以指定一个或者多个服务器ID,以英文逗号分开。 前置条件:iSCSI target名称已经存在,且指定的服务器必须是iSCSI target所在的服务器。 autofailback AUTOFAILBACK 是否根据指定的卷主备分布优先级自动进行主备切换(仅集群版支持),即针对卷主备状态,当高优先级的服务器恢复正常后,是否自动进行主备状态切换。 取值: Enabled:自动进行主备切换。 Disabled:不自动进行主备切换。 默认值为Enabled。 pool POOL 指定存储池(仅集群版支持),表示最终存储池,卷数据最终落在该存储池内。默认使用集群的基础存储池。 cachepool CACHEPOOL 指定缓存存储池(仅集群版支持)。如果指定了缓存存储池,卷数据首先写入缓存存储池,然后再存入存储池。 注意 存储池与缓存存储池不能是同一个存储池。 uuid UUID 源卷的唯一标识码。 a HIGHAVAILABILITY 或 ha HIGHAVAILABILITY 指定还原卷的高可用类型(仅集群版支持): 取值: ActiveStandby(as):启用主备,该卷关联对应target下的所有IQN。 Disabled(off):不启用主备,该卷关联对应target下的1个IQN。客户端连接该类型的卷的方法可以参见Windows 客户端 – 单机版、Linux 客户端 – 单机版。 默认值为源卷的高可用类型。 c LOCALSTORAGECLASS 或 localstorageclass LOCALSTORAGECLASS 设置还原卷的冗余模式(仅集群版支持)。 取值: singlecopy:单副本。 2copy:两副本。 3copy:三副本。 EC N+M:纠删码模式。其中N、M为正整数,N≥M,且N+M≤128。表示将数据分割成N个片段,并生成M个校验数据。 默认值为源卷的冗余模式。 说明 以下场景均为集群可用的前提下: 还原EC N+M的卷后: 卷所在存储池可用故障域数量大于等于卷的最小副本数时,可以向卷中写数据。卷所在存储池可用故障域数量小于最小副本数时,不能向卷写数据,且系统会产生告警。 卷所在存储池可用故障域数量大于等于N+M,卷数据正常,不会产生降级。卷所在存储池可用故障域数量处于[N, N+M),卷数据将处于降级状态,建议尽快添加或修复故障域。卷所在存储池可用故障域数量小于N时,已写入的数据发生损毁。 还原副本模式的卷后: 卷所在存储池可用故障域数量大于等于卷的最小副本数时,可以向卷中写数据。卷所在存储池可用故障域数量小于最小副本数时,不能向卷写数据,且系统会产生告警。 卷所在存储池可用故障域数量大于等于副本数,卷数据正常,不会产生降级。对于两副本、三副本卷,卷存储池所在故障域大于等于1,但小于副本数时,卷数据将处于降级状态,建议尽快添加或修复存储池故障域。卷所在存储池无可用故障域时,已写入的数据发生损毁。 minreplica MINREPLICA 设置还原卷的最小副本数(仅集群版支持)。 对于副本模式的卷,假设卷副本数为X,最小副本数为Y(Y必须≤X),该卷每次写入时,至少Y份数据写入成功,才视为本次写入成功。对于EC N+M模式的卷,假设该卷最小副本数设置为Y(必须满足N≤Y≤N+M),必须满足总和至少为Y的数据块和校验块写入成功,才视为本次写入成功。 取值:整数。对于副本卷,取值范围是[1, N],N为副本模式卷的副本数;对于EC卷,取值范围是[N, N+M]。如果未设置还原卷的最小副本数,默认值为源卷的最小副本数。 ecfragmentsize ECFRAGEMENTSIZE 设置还原卷的纠删码模式分片大小。卷冗余模式为EC模式时,此设置才生效,否则忽略。 取值:1、2、4、8、16、32、64、128、256、512、1024、2048、4096,单位是KiB。默认值为源卷的纠删码模式分片大小。 redundancyoverlap REDUNDANCYOVERLAP 指定还原卷的折叠副本数(仅集群版支持)。在数据冗余模式下,同一份数据的不同副本/分片默认分布在不同的故障域,当故障域损坏时,允许根据卷的冗余折叠原则,将多份数据副本放在同一个故障域中,但是分布在不同的path上。 注意 如果存储池故障域级别为path,此参数不生效。如果指定了还原卷的折叠副本数,必须指定还原卷的冗余模式。 取值:整数。对于副本卷,取值范围是[1, N],N为副本模式卷的副本数;对于EC卷,取值范围是[1, N+M]。如果未设置还原卷的折叠副本数,默认值为源卷的折叠副本数。 w WRITEPOLICY 或 writepolicy WRITEPOLICY 设置还原卷的写策略: WriteBack(wb):回写,指数据写入到内存后即返回客户端成功,之后再异步写入磁盘。适用于对性能要求较高,稳定性要求不高的场景。 WriteThrough(wt):透写,指数据同时写入内存和磁盘,并在都写成功后再返回客户端成功。适用于稳定性要求较高,写性能要求不高,且最近写入的数据会较快被读取的场景。 WriteAround(wa):绕写,指数据直接写到磁盘,不写入内存。适用于稳定性要求较高,性能要求不高,且写多读少的场景。 默认值为源卷的写策略。 P PATH 或 path PATH 指定还原卷存储数据的数据目录(仅单机版支持)。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。 如果还原卷时不指定数据目录,使用服务器设置的默认数据目录。 m STORAGEMODE 或 mode STORAGEMODE 设置还原卷的存储类型: Cache:缓存模式,本地保留部分热数据,全部数据异步存储到OOS中。 Storage:存储模式,本地保留全部数据,并异步存储到OOS中。 存储类型默认为源卷的存储类型。 cloudprovider CLOUDPROVIDER 指定还原卷的对象存储服务名称: OOS:天翼云对象存储经典版I型。 S3:兼容S3的其他对象存储。 默认值为OOS。 说明 源卷和还原卷必须使用相同的对象存储服务。 B BUCKETNAME 或 bucket BUCKETNAME 源卷所在存储桶的名称。 注意 请勿开启Bucket的生命周期设定和合规保留。 X PREFIX 或 prefix PREFIX 源卷的前缀名称。如果源卷未指定前缀,则此处不设置。 取值:字符串形式,长度范围是1~256。 A ACCESSKEY 或 ak ACCESSKEY 源卷的AccessKeyID。 S SECRETKEY 或 sk SECRETKEY 源卷的SecretAccessKey。 C CLOUDSTORAGECLASS 或 cloudstorageclass CLOUDSTORAGECLASS 设置还原卷上传数据至对象存储的存储类型: STANDARD:标准存储。 STANDARDIA:低频访问存储。 默认为源卷上传数据至对象存储的存储类型。 E ENDPOINT 或 endpoint ENDPOINT 源卷的Endpoint。 注意 如果仅输入域名将会使用HTTPS协议进行访问。 signversion VERSION 指定还原卷上云签名认证的类型: v2:V2签名认证。 v4:V4签名认证。 默认值为v2。 region REGION 还原卷的region,即Endpoint资源池所在区域。具体region详见OOS Endpoint和区域。 V4签名时,此项必填。 M CLOUDCOMPRESSION 或 cloudcompression CLOUDCOMPRESSION 设置还原卷是否压缩数据上传至对象存储: Enabled(on):压缩数据上传至对象存储。 Disabled(off):不压缩数据上传至对象存储。 默认值为源卷的设置。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        卷操作
        还原卷(上云卷适用)
      • 文件比较与同步(对象存储到对象存储)
        本文为您介绍文件比较与同步的相关内容。 概要 应用场景: 支持对象存储到对象存储之间的数据比较与同步,并且生成比较报告供一致性检查。此场景支持两种数据捕获方式: 方式1:调用对象存储接口对源、备存储同步路径下的所有对象进行扫描、比对,获得增量对象(新增/差异),并将增量对象同步到目标端对应路径下;在海量对象场景下扫描/比对的对象太多,导致这种方式同步增量数据效率过低; 方式2:通过某些方式获取到增量对象信息(如:对象存储自行监控、通过应用数据库表获取等),并将增量对象的信息以某种类型文件存放;DTO通过读取文件内容来获取增量对象信息,并直接将源端对应的增量对象直接同步到目标端;此方式避免了扫描、比对海量对象的时间,提高海量对象场景的增量数据同步效率。 要求:要有应用/组件(一般是对象存储)负责实现监控增量对象并将增量对象以固定格式导出成文件的一系列动作。 前置条件 文件比较与同步的环境要求如下: 1. DTO主机需要安装dto安装包。详见安装DTO。 2. 在MDR控制台中添加对象存储。详见资源管理·对象存储。 3. 在MDR控制台中添加DTO主机并处于在线状态。详见资源管理·DTO主机。 4. MDR控制台需具备有dto的许可,并且该dto许可剩余允许传输量不为0。 新建文件比较与同步 1. 点击左侧菜单栏“资源同步管理”“对象存储数据灾备”“文件比较和同步”,进入文件比较和同步列表页,点击“新建”按钮,进入新建页面。 2. 通用配置页面各配置项如下: 名称:任意指定,便于管理即可。 同步主机:下拉框中会列出已注册至MDR控制台的DTO同步主机供选用; 规则类型:包含三类规则:仅比较/文件比较与同步 / 文件清单同步,下文会分别介绍各类规则的作用和使用场景; 同步策略类型:“手动同步”“定期同步”和“间隔同步”。 手动同步:需手动启动规则。此选项为默认选项。 定期同步:可指定每个月的某几天或者每个星期的某几天中的某几个时间点开始同步,规则会在设置的时间自动开始运行。 间隔同步:指的是从上一次规则完成到下一次规则启动之间的间隔,最小间隔时间单位为秒。 定期同步策略:用户自行添加定期同步策略。可以设定多个不重叠的定时同步策略,彼此独立。 间隔同步策略:用户自行添加时间间隔同步策略。选择此规则开始时间,并设置间隔时间(单位为秒)。 源存储:用户自行选择要源端的存储数据用来做对比。 目标存储:用户自行选择对象存储数据作为目标存储对比。 同步路径映射:用户自行配置需要同步的数据路径。同步路径支持手动输入路径。 排除路径:用户自行选择将同步数据路径中的某些子路径设置为排除路径,排除路径中的数据不进行传输。 文件后缀名过滤:以后缀名为过滤条件,格式为“文件扩展名”,若多个过滤条件则用逗号隔开,如:“.txt”,“.doc”,“.rtf”。 排除:不同步源路径中该过滤项中定义的文件类型。 包含:只同步源路径中该过滤项中定义的文件类型。 文件日期过滤:通过正则表达式对同步路径下文件的日期进行筛选,文件日期符合正则表达式要求的文件被过滤出来。 排除:不同步源路径中符合筛选条件的文件。 包含:只同步源路径中符合筛选条件的文件。 3. 比较设置页面各配置项如下: 比较类型:重镜像时的校验方式。 文件大小:通过源、目标文件的大小进行比较。 对象智能比对:提交规则时会判断备端存储是否支持自定义META,不支持则不允许规则提交。智能比对即:通过比文件当前的修改时间戳,和上一次同步时文件的修改时间戳(记录在自定义属性META中)来判断文件是否一致(如果修改时间戳一致则认为文件相同,如果修改时间戳不同,则继续对比文件的MD5)。 MD5校验:通过源、目标文件的MD5值进行比较(本地需计算md5,对象存储直接采用Etag,对象存储将收到文件的MD5值放在返回结果的ETag中)。 说明:对象存储返回分片上传文件的MD5有可能为空或是最后一个分片的MD5,因此对象存储的MD5并不完全可靠。“文件大小”比对最快;当文件较大时“对象智能比对”比“MD5校验”快(大文件本地计算md5很慢);当文件较小时“MD5校验”比“对象智能比对”快(对象存储的文件修改时间需从META中获取,一个文件就是一次请求)。 忽略目标端存在文件:DTO不再扫描目标端存储,直接拿源端拆解过后的目录进行传输,传输之前check目标端文件是否存在,如果不存在,就同步,否则跳过该文件;这种类型,可以支持对象存储单一目录上千万的文件。 传输线程数量:可以指定线程个数。一个线程处理一个目录。此选项用于提高数据复制的速度,默认为“10”,数值越高,可用于数据复制的线程越多,但会消耗更多的CPU和内存资源,请根据用户环境适当选择。 对象存储扫描线程数量:可根据需要指定110个线程数。 备端扫描:默认开启,开启后支持孤儿文件处理。 孤儿文件处理方式: 不处理:不删除孤儿文件,存在在目标端。 确认后删除:将孤儿文件计入孤儿文件列表,可通过规则管理界面的“更多·孤儿文件”按钮来查看,以及选择是否要将目标端的孤儿文件删除。 直接删除:将孤儿文件自动从目标端删除。 说明:定期同步或间隔同步策略时不允许配置“确认后删除”;选择“忽略目标端存在的文件”比较类型时,或者开启归档时不允许配置“直接删除”和“确认后删除”。 对象文件路径名: 和源端保持不变:区分大小写,和源端大小写保持一致。 全部为大写(传输时转换):在传输时,将源路径下的所有目录名、子目录名、文件名、文件后缀名全部转换为大写存储在目标路径下。 全部为小写(传输时转换):在传输时,将源路径下的所有目录名、子目录名、文件名、文件后缀名全部转换为小写存储在目标路径下。 备端文件压缩:指的是在本地将文件进行压缩,压缩完后传输到对象存储。仅限于本地到对象存储的规则才支持压缩,压缩传输后,目标端文件名会被修改为:原文件名.i2.zip。 备端文件加密:将同步到目标端数据加密存储。 标准加密:通过设置的加密密钥对源端文件加密后存放到目标端。 加密密钥:填写加密密钥,密钥要求:32字节的字符串作为密钥,支持数字、字母、字符的组合,不支持中文。 COS服务端加密:通过对接COS对象存储API接口,上传到该对象存储桶的文件都自动加密,需额外选择加密密钥类型: 加密密钥类型:支持两种加密密钥类型: SSECOS:使用SSECOS加密密钥类型进行加密,无需额外配置; SSEC:使用SSEC加密密钥类型进行加密,需要额外填写加密密钥; 加密密钥:填写加密密钥,密钥要求:32字节的字符串作为密钥,支持数字、字母、字符的组合,不支持中文。 保留结果数量:设置“文件比较与同步→报告”中保留的记录条数。 记录流水:默认关闭,开启后会将规则同步的所有文件相关信息(大小、MD5/etag、传输耗时、修改/更新时间)记录在同步主机/usr/drbksoft/dto/data/db/ .db文件中(默认路径),可供审计查看。 4. 带宽设置页面各配置项如下: 全选:开启后,将会选择一周内的所有时间。此选项默认关闭。 时间范围:用户自行勾选具体的生效日。 选择带宽:根据用户需求选择需要执行限速的时间段,可以设定多个不重叠的限速规则,彼此独立,如果带宽设定为0,表示禁止传输。 5. 归档设置页面各配置项如下: 启用归档:不勾选的话不启用归档功能。 文件名转换:归档文件的名称转换,支持两种转换方式: 保持不变:归档文件名与原文件名保持一致。 增加时间后缀:在归档文件名后自动添加归档时间后缀。 归档条件: 时间归档:按照填入文件时间类型的时间点与执行本地到对象存储时的时间点的差值(单位天)。这里的时间选项有两个:文件创建时间、文件修改时间,这两种类型可以只选择某一个,也可以多选,并可以选择几种类型间的关系是与还是或。 命名特征:使用正则表达式进行针对文件名的过滤。 文件类型:通过填入文件类型的后缀名进行对文件类型的过滤(如.txt等),可以匹配多个文件类型,文件后缀名与后缀名之间用“逗号隔开”(如.txt,.exe,.zip)。 归档策略: 同步所有文件,并删除本地符合条件的文件:将源目录下的所有文件全部同步到目标存储的目标目录中,并删除本地符合归档条件的文件。 只同步并删除符合条件的文件:只同步源目录中符合归档条件的文件到目标存储的目标目录中去,并删除本地符合归档条件的文件。 只同步但不删除符合条件的文件:只同步源目录中符合归档条件的文件到目标存储的目标目录中去,并且不删除源端本地符合归档条件的文件。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        资源同步管理
        对象存储数据灾备
        文件比较与同步(对象存储到对象存储)
      • 创建告警规则
        本章节将为您详细介绍创建告警规则的操作场景及步骤。 操作场景 云监控支持灵活的创建告警规则。您既可以根据实际需要对某个云硬盘的监控指标设置自定义告警规则,同时也能够使用告警模板为多个资源或者云服务批量创建告警规则。 操作步骤 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,此处我们选择华东1。 3. 单击“管理与部署>云监控服务”,进入监控概览页面。 4. 单击“告警服务”下拉菜单,单击“告警规则”,进入告警规则列表页面。 5. 在“告警规则”列表界面,单击“创建告警规则”按钮。 6. 在“创建告警规则”页面,根据界面提示配置参数。 配置参数及相关含义说明如下: 模块 参数 参数说明 配置示例 约束与限制 选择监控对象 规则类型 选择规则的类型,主要包括指标监控、事件监控、站点监控、自定义监控、自定义事件五种。 指标监控 自定义监控、自定义事件目前仅支持部分资源池。 选择监控对象 服务 配置告警规则监控的云服务资源类型。 云硬盘 选择监控对象 维度 用于指定告警规则对应指标的维度名称。 云硬盘 选择监控对象 监控对象类型 具体实例/资源分组/全部资源 具体实例 选择监控对象 监控对象 用来配置该告警规则针对的具体资源,可以是一个或多个。 磁盘名称 定义告警策略 选择类型 自定义创建/从模板导入。 自定义创建 定义告警策略 策略 满足全部/任意策略 策略信息包括:指标、数据类型(原始值、最大值、最小值、平均值)、判断条件(>、≥、 100KB,连续发生1次,普通 同一告警规则下,告警条件最多支持添加20条。 定义告警策略 无数据处理 不做处理/视为告警/视为恢复 不做处理 配置告警通知 发送通知 配置是否发送邮件通知用户,可以选择“是” (推荐选择)或者“否”。 是 配置告警通知 通知方式 配置告警通知的通知方式。 通知联系人组 配置告警通知 告警联系组 配置发生告警通知的用户组。 配置告警通知 触发场景 触发告警邮件的场景,可在告警及恢复时发送提醒信息。 出现告警 配置告警通知 通知渠道 配置告警通知的通知渠道,支持邮箱、短信、语音。 邮箱 配置告警通知 重复告警 指告警发生后如果未恢复正常,将重复发送告警通知次数。 不重复 配置告警通知 通知频率 配置告警通知的通知频率。 每24小时通知一次 配置告警通知 通知周期 配置告警通知的周期时间。 星期天、星期一、星期二、星期三、星期四、星期五、星期六 配置告警通知 通知时段 配置告警通知的时间段。 00:00:0023:59:59 配置告警通知 告警回调 配置告警通知webhook地址。 配置告警通知 通知模板 配置告警通知的通知模板,用户可以自定义创建。如未选择通知模板,告警信息将按系统默认模板发送。 系统模板 规则信息 名称 该告警规则的自定义名称。 evsalarmnote 规则信息 企业项目 选择告警规则适用的企业项目。 default 规则信息 描述 添加对该告警规则描述(此参数非必填项)。 7. 告警规则添加完成后,当监控指标触发设定的阈值时,云监控会在第一时间通过邮件实时告知您云上资源异常,以免因此造成业务损失。关于云监控的其他操作和更多信息,请参考《云监控服务》。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        监控云硬盘
        创建告警规则
      • 设置目的端
        本章介绍如何进行目的端的配置。 操作场景 迁移前,您需要设置目的端服务器。该目的端用来接收源端的数据,同时您也可以使用该目的端进行迁移测试和启动目的端。 前提条件 只有“迁移阶段”为“已就绪”时才可设置目的端。 操作步骤 1. 登录主机迁移服务管理控制台。 2. 在左侧导航树中,单击“迁移服务器”,进入迁移服务器列表页面。 3. 在迁移服务器列表页面找到待迁移的服务器,在“目的端”列,单击“设置目的端”,进入迁移配置页面。或单击“操作”列的“更多 > 设置目的端”,进入迁移配置页面。如果在迁移服务器列表中没有看到源端服务器记录,请检查是否登录的是目的端天翼云帐号。 4. 在“迁移配置”页面的基本配置页签,根据下表参数说明,设置相关参数。 参数 子参数 说明 迁移参数模版 选择某个迁移参数模版后,页面根据模版的值自动设置网络类型、网络限流值、迁移方式、是否持续同步、是否调整分区、区域、项目;系统会为每个用户自动创建一个默认迁移参数模版,您也可以提前手动创建迁移参数模版,参见创建迁移参数模板。 网络类型 公网 若使用公网迁移,要求目的端服务器配置有“弹性IP”。 “网络类型”默认设置为公网。 私网 私网包括专线、VPN、对等连接、同VPC子网,如选择私网则需要提前创建,迁移时会使用目的端私有IP。 IP版本 IPv4 使用IPv4进行数据迁移。 IPv6 双栈网络下,可以选择使用IPv6进行主机迁移。 网络限流 根据要迁移的源端带宽大小及业务要求,设置限制带宽大小。 设置为0时,代表不限流。 Linux限流功能是基于TC(Traffic Control)模块控制,如果源端服务器没有TC模块,则无法支持限流。 部分Linux系统,暂不支持限流。(例如:CentOS 8.x以及基于其构建的其它发行版本均没有TC模块。) CPU限制 仅支持Linux迁移。 内存限制 磁盘吞吐限制 迁移方式 Linux文件级 Linux文件级迁移是指全量复制和持续同步最小粒度为文件,这种方式同步效率低,但兼容性好。 Windows块级 Windows块级迁移是指全量复制和持续同步的最小粒度为磁盘逻辑单位"块"。Windows当前仅支持块级迁移,这种迁移方式迁移和同步效率高。 是否持续同步 否 全量复制完成后,系统会自动启动目的端,无需用户进行操作。 若要同步新增数据,请单击操作列的“同步”,将增量数据同步至目的端服务器。 是 全量复制完成后,会进入持续同步阶段,该阶段系统会定时自动同步源端增量数据到目的端,此时目的端并未启动,无法操作。如需退出该阶段,单击“启动目的端”即可。 是否调整分区 否 选择否,目的端磁盘分区与源端保持一致。 是 选择是,用来调整目的端磁盘分区。 迁移后主机状态 关机 选择关机,迁移完成后目的端服务器自动关机。 开机 选择开机,迁移完成后目的端服务器保持开机状态。 是否检测网络质量 否 不进行网络质量评估。 是 首次全量迁移时,会生成一个“迁移网络质量评估”的子任务,该子任务通过检测丢包率、抖动、网络时延、带宽以及内存占用率和CPU占用率,给出网络质量评估结果。 是否启用多进程 否 默认使用1个进程进行迁移、同步。 是 设置迁移和同步最大进程个数,SMSAgent根据设置的进程个数,启用多个进程执行迁移任务。仅适用Linux文件迁移。 迁移特殊配置项 Linux文件级配置不同步、不迁移等特殊配置信息。 Windows块级迁移,专线场景下,可配置目的端中转IP。 调整磁盘分区 单击右侧出现的“调整磁盘分区”,弹出“磁盘分区调整”窗口,如下图所示,用户根据实际业务场景,完成磁盘分区的设置。 图 Windows磁盘分区调整 图 Linux磁盘分区调整 说明 磁盘分区调整可以修改是否迁移以及调整分区大小。 Linux支持LVM调整,可以选择物理卷和逻辑卷是否迁移以及调整大小。 注意 Windows系统分区和启动分区是否迁移不可选,默认必须进行迁移。 Windows调整分区大小时只能增大当前分区大小。 Linux Btrfs文件系统暂时不支持磁盘分区调整。 Linux系统分区,swap分区是否迁移不可选,默认为“是”,必须进行迁移。 LVM迁移卷组,可通过卷组配置页,左上方的按钮组,选择全部迁移或暂不迁移。 LVM中的逻辑卷如果是否迁移都选择“否”,则卷组不迁移,对应的物理卷是否迁移也会全部自动切换成“否”。 Linux块级迁移,磁盘分区只可以调大。 Linux文件级迁移,磁盘分区可以调大,也可以调小,调小时需保证调小后的分区大小大于已使用空间+1GB。如果调整前分区大小小于已使用空间+1GB,则无法将磁盘分区大小调小。 如果调整分区大小超过当前磁盘大小时,请先单击“磁盘调整”,调大磁盘大小后再进行分区调整。 如果调整分区大小后,小于当前磁盘大小,如有必要,可单击“磁盘调整”,调小磁盘大小。 单击“下一步 磁盘调整”,确认磁盘调整无误后,单击“确定”,完成磁盘分区的调整。 注意 确定后,是否调整磁盘分区无法重新设置为“否”。如果想要恢复原始磁盘分区设置,请在操作栏下,下拉“更多”,单击“删除”,然后在源端重启Agent,之后重新设置目的端配置,是否调整磁盘分区选择“否”。 5. 单击右下角的“下一步:目的端配置”,进入目的端配置页签。 6. 在目的端配置页签,设置相关参数。 参数 子参数 说明 区域 下拉菜单中选择目的端服务器所在区域。 您可以根据业务要求,选择具体的区域。 项目 下拉菜单中选择目的端所在区域的项目。 选择区域后,才能选择项目 服务器选择 已有服务器 在已有的服务器列表中,根据“推荐目的端,操作系统”勾选目的端服务器。 创建新服务器 根据需求,您可以配置虚拟私有云、子网、安全组等参数,详细说明参见创建新服务器。 已有服务器 目的端服务器需要满足如下条件,否则请单击“前往ECS购买”,根据“推荐目的端,操作系统”购买满足如下条件的弹性云主机。当前已支持将源端服务器迁移到“包年/包月”和“按需计费”这两种计费模式的弹性云主机,您可根据需求选择对应计费模式的弹性云主机。 Windows系统的目的端服务器(即弹性云主机)“规格”中的“内存”大小要不小于2GB。 目的端服务器的磁盘个数不小于源端服务器磁盘个数,且目的端服务器每块磁盘的大小要不小于对应的源端服务器“推荐规格”大小。 目的端服务器的操作系统类型需要和源端的OS类型保持一致。否则,迁移完成后服务器OS系统类型与镜像类型不一致,造成名字冲突及其他问题。 确保源端服务器可以访问目的端服务器,即要有可用的EIP,或者配置VPN、专线。 确保目的端服务器所在VPC安全组配置准确。需配置目的端服务器所在VPC安全组。如果是Windows系统,开放TCP的8899端口、8900端口和22端口;如果是Linux系统,块级迁移开放8900端口和22端口,文件级迁移开放22端口。 以上端口,建议只对源端服务器开放。 防火墙开放端口与操作系统开放端口保持一致。 创建新服务器 选择“自动推荐”时,虚拟私有云、子网与安全组默认为自动创建,也可以根据需求手动选择。 高级配置中服务器名称、可用区、规格、系统盘、数据盘、弹性公网IP默认自动推荐和选择,也可以根据需求手动选择。 说明 数据盘支持的磁盘模式包括:VBD类型(默认)、SCSI类型。关于磁盘模式的详细介绍请参见 数据盘支持创建“共享盘”,关于共享磁盘的详细介绍请参见 选择已有模板时,虚拟私有云、子网、安全组、可用区、磁盘类型根据模板确定,也可以手动调整。 注意 虚拟私有云选择自动创建时,SMS会帮助用户创建一个VPC: 若源端IP是192.168.X.X,则推荐创建的VPC网段是192.168.0.0/16,同时创建一个子网,网段也是192.168.0.0/16。 若源端IP是172.16.X.X,则推荐创建的VPC网段是172.16.0.0/12,同时创建一个子网,网段也是172.16.0.0/12。 若源端IP是10. X .X.X,则推荐创建的VPC网段是10.0.0.0/8,同时创建一个子网,网段也是10.0.0.0/8。 安全组选择自动创建时,则SMS服务会自动创建一个安全组,并根据SMS的需要开放端口,Windows开放8899端口、8900端口和22端口;如果是Linux系统,块级迁移开放8900端口和22端口,文件级迁移只开放22端口。 7.目的端参数配置完成后,单击右下角“下一步:确认配置”,进入确认配置页签。 8.(可选)单击“保存为虚拟机配置模板”,弹出“创建虚拟机配置模板”窗口,输入模板名称,单击“确定”,可将配置信息保存为模板。 说明 在目的端配置时,只有服务器选择“创建新服务器”时,才能单击“保存为虚拟机配置模板”。 图 创建虚拟机配置模板窗口 9. 确认信息无误后,单击“保存配置”按钮,弹出“是否保存配置”窗口。仔细阅读“迁移条件须知和风险提示”后,单击“是”。如果您想立即开始迁移,可单击“保存配置并开始迁移”按钮,弹出“是否保存配置并开始迁移”窗口。仔细阅读“迁移条件须知和风险提示”后,单击“是”。 说明 当迁移服务器列表的迁移阶段列显示为,迁移实时状态为已就绪,说明目的端已配置完成。
        来自:
        帮助文档
        主机迁移服务SMS
        用户指南
        迁移服务器管理
        设置目的端
      • 设置迁移目的端
        本章介绍如何设置迁移目的端。 操作场景 迁移前,您需要设置目的端服务器。该目的端用来接收源端的数据,同时您也可以使用该目的端进行迁移测试和启动目的端。 前提条件 只有“迁移阶段”为“已就绪”时才可设置目的端。 操作步骤 1. 登录主机迁移服务管理控制台。 2. 在左侧导航树中,单击“迁移服务器”,进入迁移服务器列表页面。 3. 在迁移服务器列表页面找到待迁移的服务器,在“目的端”列,单击“设置目的端”,进入迁移配置页面。或单击“操作”列的“更多 > 设置目的端”,进入迁移配置页面。如果在迁移服务器列表中没有看到源端服务器记录,请检查是否登录的是目的端天翼云帐号。 4. 在“迁移配置”页面的基本配置页签,根据下表参数说明,设置相关参数。 参数 子参数 说明 迁移参数模版 选择某个迁移参数模版后,页面根据模版的值自动设置网络类型、网络限流值、迁移方式、是否持续同步、是否调整分区、区域、项目;系统会为每个用户自动创建一个默认迁移参数模版,您也可以提前手动创建迁移参数模版,参见创建迁移参数模板。 网络类型 公网 若使用公网迁移,要求目的端服务器配置有“弹性IP”。 “网络类型”默认设置为公网。 私网 私网包括专线、VPN、对等连接、同VPC子网,如选择私网则需要提前创建,迁移时会使用目的端私有IP。 IP版本 IPv4 使用IPv4进行数据迁移。 IPv6 双栈网络下,可以选择使用IPv6进行主机迁移。 网络限流 根据要迁移的源端带宽大小及业务要求,设置限制带宽大小。 设置为0时,代表不限流。 Linux限流功能是基于TC(Traffic Control)模块控制,如果源端服务器没有TC模块,则无法支持限流。 部分Linux系统,暂不支持限流。(例如:CentOS 8.x以及基于其构建的其它发行版本均没有TC模块。) CPU限制 仅支持Linux迁移。 内存限制 磁盘吞吐限制 迁移方式 Linux文件级 Linux文件级迁移是指全量复制和持续同步最小粒度为文件,这种方式同步效率低,但兼容性好。 Windows块级 Windows块级迁移是指全量复制和持续同步的最小粒度为磁盘逻辑单位"块"。Windows当前仅支持块级迁移,这种迁移方式迁移和同步效率高。 是否持续同步 否 全量复制完成后,系统会自动启动目的端,无需用户进行操作。 若要同步新增数据,请单击操作列的“同步”,将增量数据同步至目的端服务器。 是 全量复制完成后,会进入持续同步阶段,该阶段系统会定时自动同步源端增量数据到目的端,此时目的端并未启动,无法操作。如需退出该阶段,单击“启动目的端”即可。 是否调整分区 否 选择否,目的端磁盘分区与源端保持一致。 是 选择是,用来调整目的端磁盘分区。具体操作参见调整磁盘分区。 迁移后主机状态 关机 选择关机,迁移完成后目的端服务器自动关机。 开机 选择开机,迁移完成后目的端服务器保持开机状态。 是否检测网络质量 否 不进行网络质量评估。 是 首次全量迁移时,会生成一个“迁移网络质量评估”的子任务,该子任务通过检测丢包率、抖动、网络时延、带宽以及内存占用率和CPU占用率,给出网络质量评估结果。 是否启用多进程 否 默认使用1个进程进行迁移、同步。 是 设置迁移和同步最大进程个数,SMSAgent根据设置的进程个数,启用多个进程执行迁移任务,仅适用Linux文件迁移。 迁移特殊配置项 Linux文件级配置不同步、不迁移等特殊配置信息。 Windows块级迁移,专线场景下,可配置目的端中转IP。 调整磁盘分区 单击右侧出现的“调整磁盘分区”,弹出“磁盘分区调整”窗口,如下图所示,用户根据实际业务场景,完成磁盘分区的设置。 图 Windows磁盘分区调整 图 Linux磁盘分区调整 说明 磁盘分区调整可以修改是否迁移以及调整分区大小。 Linux支持LVM调整,可以选择物理卷和逻辑卷是否迁移以及调整大小。 注意 Windows系统分区和启动分区是否迁移不可选,默认必须进行迁移。 Windows调整分区大小时只能增大当前分区大小。 Linux Btrfs文件系统暂时不支持磁盘分区调整。 Linux系统分区,swap分区是否迁移不可选,默认为“是”,必须进行迁移。 LVM迁移卷组,可通过卷组配置页,左上方的按钮组,选择全部迁移或暂不迁移。 LVM中的逻辑卷如果是否迁移都选择“否”,则卷组不迁移,对应的物理卷是否迁移也会全部自动切换成“否”。 Linux块级迁移,磁盘分区只可以调大。 Linux文件级迁移,磁盘分区可以调大,也可以调小,调小时需保证调小后的分区大小大于已使用空间+1GB。如果调整前分区大小小于已使用空间+1GB,则无法将磁盘分区大小调小。具体规则请参见卷组和磁盘分区大小调整规则。 如果调整分区大小超过当前磁盘大小时,请先单击“磁盘调整”,调大磁盘大小后再进行分区调整。 如果调整分区大小后,小于当前磁盘大小,如有必要,可单击“磁盘调整”,调小磁盘大小。 单击“下一步 磁盘调整”,确认磁盘调整无误后,单击“确定”,完成磁盘分区的调整。 注意 确定后,是否调整磁盘分区无法重新设置为“否”。如果想要恢复原始磁盘分区设置,请在操作栏下,下拉“更多”,单击“删除”,然后在源端重启Agent,之后重新设置目的端配置,是否调整磁盘分区选择“否”。 5. 单击右下角的“下一步:目的端配置”,进入目的端配置页签。 6. 在目的端配置页签,设置相关参数。 参数 子参数 说明 区域 下拉菜单中选择目的端服务器所在区域。 您可以根据业务要求,选择具体的区域。 项目 下拉菜单中选择目的端所在区域的项目。 选择区域后,才能选择项目 服务器选择 已有服务器 在已有的服务器列表中,根据“推荐目的端,操作系统”勾选目的端服务器。 创建新服务器 根据需求,您可以配置虚拟私有云、子网、安全组等参数,详细说明参见创建新服务器。 已有服务器 目的端服务器需要满足如下条件,否则请单击“前往ECS购买”,根据“推荐目的端,操作系统”并参见购买弹性云主机创建满足如下条件的弹性云主机。当前已支持将源端服务器迁移到“包年/包月”和“按需计费”这两种计费模式的弹性云主机,您可根据需求选择对应计费模式的弹性云主机。 Windows系统的目的端服务器(即弹性云主机)“规格”中的“内存”大小要不小于2GB。 目的端服务器的磁盘个数不小于源端服务器磁盘个数,且目的端服务器每块磁盘的大小要不小于对应的源端服务器“推荐规格”大小。 目的端服务器的操作系统类型需要和源端的OS类型保持一致。否则,迁移完成后服务器OS系统类型与镜像类型不一致,造成名字冲突及其他问题。 确保源端服务器可以访问目的端服务器,即要有可用的EIP,或者配置VPN、专线。 确保目的端服务器所在VPC安全组配置准确。需配置目的端服务器所在VPC安全组。如果是Windows系统,开放TCP的8899端口、8900端口和22端口;如果是Linux系统,块级迁移开放8900端口和22端口,文件级迁移开放22端口。 以上端口,建议只对源端服务器开放。 防火墙开放端口与操作系统开放端口保持一致。 创建新服务器 选择“自动推荐”时,虚拟私有云、子网与安全组默认为自动创建,也可以根据需求手动选择。 高级配置中服务器名称、可用区、规格、系统盘、数据盘、弹性公网IP默认自动推荐和选择,也可以根据需求手动选择。 说明 数据盘支持的磁盘模式包括:VBD类型(默认)、SCSI类型。关于磁盘模式的详细介绍请参见 数据盘支持创建“共享盘”,关于共享磁盘的详细介绍请参见 选择已有模板时,虚拟私有云、子网、安全组、可用区、磁盘类型根据模板确定,也可以手动调整。 注意 虚拟私有云选择自动创建时,SMS会帮助用户创建一个VPC: 若源端IP是192.168.X.X,则推荐创建的VPC网段是192.168.0.0/16,同时创建一个子网,网段也是192.168.0.0/16。 若源端IP是172.16.X.X,则推荐创建的VPC网段是172.16.0.0/12,同时创建一个子网,网段也是172.16.0.0/12。 若源端IP是10. X .X.X,则推荐创建的VPC网段是10.0.0.0/8,同时创建一个子网,网段也是10.0.0.0/8。 安全组选择自动创建时,则SMS服务会自动创建一个安全组,并根据SMS的需要开放端口,Windows开放8899端口、8900端口和22端口;如果是Linux系统,块级迁移开放8900端口和22端口,文件级迁移只开放22端口。 7.目的端参数配置完成后,单击右下角“下一步:确认配置”,进入确认配置页签。 8.(可选)单击“保存为虚拟机配置模板”,弹出“创建虚拟机配置模板”窗口,输入模板名称,单击“确定”,可将配置信息保存为模板。 说明 在目的端配置时,只有服务器选择“创建新服务器”时,才能单击“保存为虚拟机配置模板”。 图 创建虚拟机配置模板窗口 9. 确认信息无误后,单击“保存配置”按钮,弹出“是否保存配置”窗口。仔细阅读“迁移条件须知和风险提示”后,单击“是”。 如果您想立即开始迁移,可单击“保存配置并开始迁移”按钮,弹出“是否保存配置并开始迁移”窗口。仔细阅读“迁移条件须知和风险提示”后,单击“是”。 说明 当迁移服务器列表的迁移阶段列显示为,迁移实时状态为已就绪,说明目的端已配置完成。
        来自:
        帮助文档
        主机迁移服务SMS
        快速入门
        设置迁移目的端
      • 创建物理机服务器
        本章节主要介绍如何创建天翼云物理机服务器。 操作场景 若您需要将您的应用服务部署在物理机服务器上,首先需要创建物理机服务器。 前提条件 在创建物理机服务器前,您已经完成准备工作。 操作步骤 1. 登录管理控制台。 2. 选择“计算 > 物理机服务”。进入物理机服务器页面。 3. 单击“申请物理机”,开始申请物理机。 4. 选择“区域”。不同区域的云服务产品之间内网互不相通。建议您选择最靠近您业务的区域,这样可以减少网络时延、提高访问速度。需要注意:资源创建成功后不能更换区域。 5. 选择“可用区”。可用区指在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 如果您需要提高应用的高可用性,建议您将物理机服务器创建在不同的可用区。 如果您需要较低的网络时延,建议您将物理机服务器创建在相同的可用区。 6. 选择“规格”。包括规格名称、CPU、内存、本地磁盘和扩展配置。当您选择规格列表中的一个规格后,列表下方会展示该规格的名称、用途等信息,以便您根据业务场景进行选择。其中,扩展配置描述了所选机型的网卡信息。例如:2 x 210GE表示1块双网口的10GE网卡接入VPC网络,1块双网口的10GE扩展网卡支持物理机服务器间的高速互联。 说明 规格中的CPU、内存、本地磁盘等配置为固定值,不可更改。 不同规格的物理机服务器带宽能力不同,请您根据实际业务慎重选择。 某些规格的物理机服务器支持快速发放能力,选择后,界面会提供“系统盘”参数(在“磁盘”配置项中展示),物理机服务器操作系统直接安装在云硬盘,实现快速发放。 7. 选择“镜像”。 公共镜像 常见的标准操作系统镜像,所有用户可见,包括操作系统以及预装的公共应用(SDI卡驱动、bmsnetworkconfig网络配置程序、Cloudinit初始化工具等)。请根据您的实际需要自助配置应用环境或相关软件。 私有镜像 用户基于外部镜像文件或物理机服务器创建的个人镜像,仅用户自己可见。包含操作系统、预装的公共应用以及用户的私有应用。选择私有镜像创建物理机服务器,可以节省您重复配置物理机服务器的时间。 共享镜像 您将接受公有云其他用户共享的私有镜像,作为自己的镜像进行使用。 8. 选择“许可类型”。 在云平台上使用操作系统或软件的许可证类型。如果您选择的镜像为免费的,则系统不会展示该参数。如果您选择的镜像为计费镜像,此时系统会展示该参数。 使用平台许可证 使用云平台提供的许可证,申请许可证需要支付一定的费用。 使用自带许可证(BYOL) 使用用户已有操作系统的许可证,无需重新申请。 9. 设置“磁盘”。 根据磁盘使用的存储资源是否独享,磁盘划分为“云硬盘”、“专属存储”。其中,专属存储是为您提供的独享存储资源。 如果您在专属存储服务页面申请了存储池,可以选择“专属存储”页签,在已申请的存储池中创建磁盘。 如果未申请独享的存储池,请选择“云硬盘”页签,创建的磁盘使用公共存储资源。 说明 使用专属存储资源创建磁盘时,待创建磁盘的磁盘类型需和申请的存储池资源类型保持一致,如都是“高IO”类型。 磁盘包括系统盘和数据盘。您可以为物理机服务器添加多块数据盘,系统盘大小可以根据需要自定义。 系统盘 如果选择支持快速发放的规格,界面会提供系统盘配置项,可以根据需要设置磁盘类型和大小。 数据盘 您可以为物理机服务器添加多块数据盘,并设置数据盘的共享功能。 1. 物理机服务器仅支持SCSI磁盘模式。 2. 共享盘:勾选后,数据盘为共享云硬盘。该共享盘可以同时挂载给多台物理机服务器使用。 3. 设置网络信息,包括“虚拟私有云”、“网卡”、“安全组”等信息。 第一次使用云服务时,系统将自动为您创建一个默认的虚拟私有云,包括安全组、网卡。其中,默认虚拟私有云支持的地址范围为192.168.1.0/24,子网网关为192.168.1.1,并为子网开启DHCP功能。 表 网络参数说明 参数 解释 :: 虚拟私有云 您可以选择使用已有的虚拟私有云,或者单击“新建虚拟私有云”创建新的虚拟私有云。 网卡 包括主网卡和扩展网卡。您可以添加一张扩展网卡,并指定网卡(包括主网卡)的IP地址。 须知 主网卡用于系统的默认路由,不允许删除。 如果您选择自动分配IP地址,请不要在物理机服务器发放完成后修改私有IP地址,避免和其他物理机服务器IP冲突。 为网卡分配固定IP地址后,不能批量创建物理机服务器。 高速网卡 物理机服务器之间的高速互联网络接口,为物理机服务器提供更高的带宽。 同一台物理机服务器的多张高速网卡不能选择同一个高速网络。 安全组 安全组用来实现安全组内和安全组间物理机服务器的访问控制,加强物理机服务器的安全保护。用户可以在安全组中定义各种访问规则,当物理机服务器加入该安全组后,即受到这些访问规则的保护。 创建物理机服务器时,仅支持选择一个安全组。但是物理机服务器创建成功后,可以为物理机服务器关联多个安全组,配置方法请参见更改安全组。 说明 物理机服务器初始化需要确保安全组出方向规则至少满足如下要求: 协议:TCP 端口范围:80 远端地址:169.254.0.0/16 如果您使用的是默认安全组出方向规则,则已经包括了如上要求,可以正常初始化。默认安全组出方向规则为: 协议:Any 端口范围:Any 远端地址:0.0.0.0/16 弹性公网IP 弹性公网IP是指将公网IP地址和路由网络中关联的物理机服务器绑定,以实现虚拟私有云内的物理机服务器通过固定的公网IP地址对外提供访问服务。 您可以根据实际情况选择以下三种方式: 不使用:物理机服务器不能与外部网络互通,仅可以在私有网络中部署业务或构建集群。 自动分配:自动为物理机服务器分配独享带宽的弹性公网IP,带宽值由您设定。 使用已有:为物理机服务器分配已有弹性公网IP。 说明 选择已有弹性公网IP后,不能批量创建物理机服务器 规格 弹性公网IP选择“自动分配”时,需配置该参数。 全动态BGP:可根据设定的寻路协议第一时间自动优化网络结构,以保持客户使用的网络持续稳定、高效。 静态BGP:网络结构发生变化时,运营商无法实时自动调整网络设置以保障用户体验。 计费方式 弹性公网IP选择“自动分配”时,需配置该参数。 按带宽计费:指定带宽上限,按使用时间计费,与使用的流量无关。 按流量计费:按照实际使用的流量来计费。 带宽 弹性公网IP选择“自动分配”时,需配置该参数。 带宽大小,单位Mbit/s。 11. 设置物理机服务器登录方式。 “密钥对”方式创建的物理机服务器安全性更高,建议选择“密钥对”方式。如果您习惯使用“密码”方式,请增强密码的复杂度,如表所示,保证密码符合要求,防止被恶意攻击。 密钥对 指使用密钥对作为登录物理机服务器的鉴权方式。您可以选择使用已有的密钥,或者单击“新建密钥对”创建新的密钥。 说明 如果选择使用已有的密钥,请确保您已在本地获取该文件,否则,将影响您正常登录物理机服务器。 密码 指使用设置初始密码方式作为物理机服务器的鉴权方式,此时,您可以通过用户名密码方式登录物理机服务器。 Linux操作系统时为root用户的初始密码,Windows操作系统时为Administrator用户的初始密码。密码复杂度需满足表要求。 参数 规则 样例 ::: 密码 密码长度范围为8到26位。 密码至少包含以下4种字符中的3种: 大写字母 小写字母 数字 特殊字符,包括!@$%^+[]{}:,./? 密码不能包含用户名或用户名的逆序。 Windows系统的物理机服务器,不能包含用户名中超过两个连续字符的部分。 Test12$@ 12.(可选)高级配置。 如需使用“高级配置”中的功能,请单击“现在配置”。否则,请单击“暂不配置”。 用户数据注入:主要用于创建物理机服务器时向物理机服务器注入用户数据。配置用户数据注入后,物理机服务器首次启动时会自行注入数据信息。 只有选择“密钥对”登录方式才显示此配置项。用户数据注入的详细操作请参见用户数据注入。 委托 委托是由租户管理员在统一身份认证服务(Identity and Access Management,IAM)上创建的,可以为物理机服务器提供访问云服务的临时凭证。 如果您在IAM上创建了委托,可以通过单击下拉列表选择委托名称,获取相应权限。目前,使用委托的场景为主机监控,更多信息请参见安装配置Agent。 13. 设置“物理机服务器名称”。 名称可自定义,但需符合命名规则:只能由中文字符、英文字母、数字及“”、“”、“.”组成。 一次创建多台物理机服务器,系统会自动按序增加后缀。例如:输入bms,服务器名称为bms0001,bms0002,……。再次创建多台服务器时,命名从上次最大值连续增加,例如:输入bms,已有服务器bms0010,新创服务器名称为bms0011、bms0012、……,命名达到9999时,从0001开始。 14. 设置您创建的物理机服务器数量,最多为24台。 设置完成后,您可以通过单击“价格计算器”,查询当前配置的费用。 说明 当配额充足时,一次最多可以创建24台物理机服务器;若配额不足24台,一次最多可创建数量为配额余量。 在设置网络信息时,若您选择自定义网卡或高速网卡的IP地址,或者选择已有弹性公网IP,则一次只能创建一台物理机服务器。 15. 单击“立即申请”。 16. 在确认规格页面,单击“提交”。 大约需要30分钟,物理机服务器的状态会变为“运行中”。选择支持快速发放的规格,大约只需5分钟即可获得一台物理机服务器。 说明 您可以随时查看物理机服务器的创建状态,具体操作请参见查看创建状态。
        来自:
        帮助文档
        物理机 DPS
        用户指南
        物理机实例管理
        创建物理机
        创建物理机服务器
      • 支持的监控指标
        本页介绍了天翼云关系数据库MySQL版支持的监控指标。 关系数据库MySQL版支持的监控指标如下。 注意 关系数据库MySQL版实例中的Agent只用于监控实例运行的指标、状态,不会收集除监控指标外的其它数据。 功能说明 本文定义了关系数据库MySQL版上报云监控的监控指标的命名空间,监控指标列表和维度定义。用户可以通过云监控提供的API接口来检索关系型数据库产生的监控指标和告警信息。 监控指标频率目前支持15秒、60秒、300秒,默认监控频率为30秒。 注意 部分监控指标支持设置为10秒,详细信息,请参见设置监控频率 实例监控指标 关系数据库MySQL版实例性能监控指标,如下表所示。 指标名称 指标含义 取值范围 CPU使用率(系统空间) 该指标用于统计测量对象的CPU使用率(系统空间占用),以比率为单位。 0100% CPU使用率(用户空间) 该指标用于统计测量对象的CPU使用率(用户空间占用),以比率为单位。 0100% CPU使用率(等待I/O) 该指标用于统计CPU在等待磁盘I/O请求完成时处于空闲状态的时间百分比。 0100% CPU总使用率 该指标用于统计测量对象的CPU总使用率,以比率为单位。 0100% MySQL CPU使用率 该指标用于统计MySQL进程的CPU使用率。 0100% 内存使用率 该指标用于统计测量对象的内存使用率,以比率为单位。 0100% MySQL服务进程占用的内存使用率 该指标用于统计MySQL服务进程占用的内存使用率。以比率为单位。 0100% 实例总空间使用量 该指标用于统计实例的空间占用情况,以GB为单位。 ≥ 0 GB 备份空间使用量 该指标用于统计云硬盘实例备份空间的使用情况,以GB为单位。 ≥ 0 GB 磁盘读速率(数据盘) 该指标用于统计当前实例数据盘,单位时间内系统处理的磁盘读速率(平均值)。 ≥ 0 kb/s 磁盘写速率(数据盘) 该指标用于统计当前实例数据盘,单位时间内系统处理的磁盘写速率(平均值)。 ≥ 0 kb/s 磁盘读速率(系统盘) 该指标用于统计当前实例系统盘,单位时间内系统处理的磁盘读速率(平均值)。 ≥ 0 kb/s 磁盘写速率(系统盘) 该指标用于统计当前实例系统盘,单位时间内系统处理的磁盘写速率(平均值)。 ≥ 0 kb/s 数据盘读次数 该指标用于统计数据盘,单位时间内系统处理的I/O读扇区请求数量(平均值)。 ≥ 0 counts 数据盘写次数 该指标用于统计数据盘,单位时间内系统处理的I/O写扇区请求数量(平均值)。 ≥ 0 counts 系统盘读次数 该指标用于统计系统盘,单位时间内系统处理的I/O读扇区请求数量(平均值)。 ≥ 0 counts 系统盘写次数 该指标用于统计系统盘,单位时间内系统处理的I/O写扇区请求数量(平均值)。 ≥ 0 counts 磁盘使用率(数据盘) 该指标用于统计数据盘的磁盘使用率,以比率为单位。 0100% 磁盘使用率(系统盘) 该指标用于统计系统盘的磁盘使用率,以比率为单位。 0100% 磁盘平均队列长度(数据盘) 该指标用于统计数据盘平均队列长度。以s为单位。 ≥0s 磁盘平均队列长度(系统盘) 该指标用于统计系统盘平均队列长度。以s为单位。 ≥0s IO操作等待时间(数据盘) 该指标用于统计数据盘IO操作等待时间。 ≥0 ms IO操作等待时间(系统盘) 该指标用于统计系统盘IO操作等待时间。 ≥0 ms 网络接收字节数 该指标用于统计平均每秒从测量对象的所有网络适配器输入的流量,以千字节为单位。 ≥ 0 kb/s 网络发送字节数 该指标用于统计平均每秒从测量对象的所有网络适配器输出的流量,以千字节为单位。 ≥ 0 kb/s 数据库总连接数 该指标用于统计试图连接到MySQL服务器的总连接数,以个为单位。 ≥ 0 counts 当前活跃连接数 该指标用于统计当前打开的连接的数量,以个为单位。 ≥ 0 counts 执行次数(select) 该指标用于统计平均每秒select语句执行次数 ≥ 0 counts 执行次数(insert) 该指标用于统计平均每秒insert语句执行次数 ≥ 0 counts 执行次数(update) 该指标用于统计平均每秒update语句执行次数 ≥ 0 counts 执行次数(delete) 该指标用于统计平均每秒delete语句执行次数 ≥ 0 counts QPS 该指标用于统计SQL语句查询次数,含存储过程,以次/秒为单位。 ≥ 0 queries/s TPS 该指标用于统计事务执行次数,含提交的和回退的,以次/秒为单位。 ≥ 0 transactions/s 缓冲池利用率 该指标用于统计空闲的页与InnoDB缓存中缓冲池页面总数的比例,以比率为单位。 0100% 缓冲池命中率 该指标用于统计读命中与读请求数比例,以比率为单位。 0100% 缓冲池脏块率 该指标用于统计InnoDB缓存中脏数据与InnoDB缓存中使用的页比例,以比率为单位。 0100% InnoDB读取吞吐量 该指标用于统计Innodb平均每秒读字节数,以字节/秒为单位。 ≥ 0 bytes/s InnoDB写入吞吐量 该指标用于统计Innodb平均每秒写字节数,以字节/秒为单位。 ≥ 0 bytes/s InnoDB文件读取频率 该指标用于统计Innodb平均每秒从文件中读的次数,以次/秒为单位。 ≥ 0 counts/s InnoDB文件写入频率 该指标用于统计Innodb平均每秒向文件中写的次数,以次/秒为单位。 ≥ 0 counts/s InnoDB日志写请求频率 该指标用于统计平均每秒的日志写请求数,以次/秒为单位。 ≥ 0 counts/s InnoDB日志物理写频率 该指标用于统计平均每秒向日志文件的物理写次数,以次/秒为单位。 ≥ 0 counts/s InnoDB日志fsync()写频率 该指标用于统计平均每秒向日志文件完成的fsync()写数量,以次/秒为单位。 ≥ 0 counts/s 临时表创建数量 该指标用于统计在硬盘上创建的临时表数量,以个为单位。 ≥ 0 counts Insert语句执行频率 该指标用于统计平均每秒Insert语句执行次数,以次/秒为单位。 ≥ 0 queries/s Delete语句执行频率 该指标用于统计平均每秒Delete语句执行次数,以次/秒为单位。 ≥ 0 queries/s Select语句执行频率 该指标用于统计平均每秒Select语句执行次数。 ≥ 0 queries/s Update语句执行频率 该指标用于统计平均每秒Update语句执行次数,以次/秒为单位。 ≥ 0 queries/s 行删除速率 该指标用于统计平均每秒从InnoDB表删除的行数,以行/秒为单位。 ≥ 0 rows/s 行插入速率 该指标用于统计平均每秒向InnoDB表插入的行数,以行/秒为单位。 ≥ 0 rows/s 行读取速率 该指标用于统计平均每秒从InnoDB表读取的行数,以行/秒为单位。 ≥ 0 rows/s 行更新速率 该指标用于统计平均每秒向InnoDB表更新的行数,以行/秒为单位。 ≥ 0 rows/s 历史行锁平均等待时间 该指标用于统计innodb历史行锁平均等待时间。 > 0ms 当前行锁等待数 该指标用于统计innodb当前行锁等待数,以个为单位。表示当前正在等待行锁的事务个数。 ≥ 0 counts 长事务个数统计 该指标用于统计长事务的个数 ≥ 0 counts 连接使用率 该指标用于统计当前已用的MySQL连接数占总连接数的百分比。 0100% 主从复制延迟 该指标用于统计多节点实例,主从复制延迟时间,以s为单位。 ≥0 s 每秒DDL次数 该指标用于统计对象每秒钟ddl次数 ≥ 0 counts 平均每秒InsertSelect语句执行次数 该指标用于统计对象平均每秒InsertSelect语句执行次数 ≥ 0 counts 平均每秒ReplaceSelect语句执行次数 该指标用于统计对象平均每秒ReplaceSelect语句执行次数 ≥ 0 counts 平均每秒replace语句执行次数 该指标用于统计对象平均每秒replace语句执行次数 ≥ 0 counts Innodb打开文件数 该指标用于统计对象Innodb打开文件数 ≥ 0 counts 打开表数 该指标用于统计对象打开表数 ≥ 0 counts 打开的文件数 该指标用于统计对象打开的文件数 ≥ 0 counts 执行全表搜索查询的数量 该指标用于统计对象执行全表搜索查询的数量 ≥ 0 counts InnoDB 平均每秒fsync操作次数 该指标用于统计对象InnoDB 平均每秒fsync操作次数 ≥ 0 counts InnoDB每秒写入redo log日志量(B) 该指标用于统计对象InnoDB每秒写入redo log日志量(B) ≥0 B mdl锁阻塞的连接数 该指标用于统计对象mdl锁阻塞的连接数 ≥ 0 counts relay log使用量 该指标用于统计对象relay log使用量 ≥0 MB redo log使用量 该指标用于统计对象redo log使用量 ≥0 MB 系统数据库数据量 该指标用于统计系统数据库数据量 ≥0 MB 用户数据库数据量 该指标用于统计对象用户数据库数据量 ≥0 MB 临时文件数据量 该指标用于统计对象临时文件数据量 ≥0 MB undo log使用量 该指标用于统计对象undo log使用量 ≥0 MB binlog使用量 该指标用于统计对象binlog使用量 ≥0 MB slow log使用量 该指标用于统计对象slow log使用量 ≥0 MB 平均每秒从所有客户端接收到的字节数 该指标用于统计对象平均每秒从所有客户端接收到的字节数 ≥0 KB 平均每秒发送给所有客户端的字节数 该指标用于统计对象平均每秒发送给所有客户端的字节数 ≥0 KB 当前全部会话 该指标用于统计当前全部会话 ≥ 0 counts 当前活跃会话 该指标用于统计当前活跃会话 ≥ 0 counts InnoDB Buffer Pool 刷Page请求数量 该指标用于统计对象InnoDB Buffer Pool 刷Page请求数量 ≥ 0 counts InnoDB 表总等待row locks次数 该指标用于统计对象InnoDB 表总等待row locks次数 ≥ 0 counts 从系统启动到现在锁定的总时间 该指标用于统计对象从系统启动到现在锁定的总时间 ≥0 ms InnoDB 表每秒等待row locks时间 该指标用于统计对象InnoDB 表每秒等待row locks时间 ≥0 ms InnoDB 表每秒等待row locks次数 该指标用于统计对象InnoDB 表每秒等待row locks次数 ≥ 0 counts InnoDB 表平均等待row locks时间 该指标用于统计对象InnoDB 表平均等待row locks时间 ≥0 ms 监控行锁个数 该指标用于统计对象监控行锁个数 ≥ 0 counts 读取源二进制日志的I/O线程是否正在运行 该指标用于统计对象读取源二进制日志的I/O线程是否正在运行 ≥ 0 counts 执行中继日志中事件的SQL线程是否正在运行 该指标用于统计对象执行中继日志中事件的SQL线程是否正在运行 ≥ 0 counts MySQL读写次数 该指标用于统计对象MySQL读写次数 ≥ 0 counts IOPS使用率 该指标用于统计对象IOPS使用率 0100% 慢查询 该指标用于统计对象的慢查询数量 ≥ 0 counts 等待表锁次数 该指标用于统计对象的等待表锁次数(dml级) ≥ 0 counts
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        监控与告警
        支持的监控指标
      • 步骤一(2):创建出云迁移任务
        本节主要介绍步骤一(2):创建出云迁移任务 数据库复制服务提供出云的功能,可以将本云上的数据库迁移至用户端数据库,方便进行数据回流处理。 本章节将以RDS for MySQL到ECS自建MySQL的迁移为示例,介绍在同一VPC网络场景下,通过数据库复制服务管理控制台配置数据迁移任务的流程,其他存储引擎的配置流程类似。 VPC网络适合本云内数据库之间的迁移。在数据库复制服务中,数据库迁移是通过任务的形式完成的,通过创建任务向导,可以完成任务信息配置、任务创建。迁移任务创建成功后,您也可以通过数据库复制服务管理控制台,对任务进行管理。 目前数据库复制服务支持每个用户最多可创建5个实时迁移任务。 前提条件 已登录数据库复制服务控制台。 账户余额大于等于100元。 满足实时迁移支持的数据库类型。 满足出云迁移的限制条件。 操作步骤 1、在“实时迁移管理”页面,单击“创建迁移任务”,进入创建迁移任务页面。 2、在“迁移实例”页面,填任务名称、任务异常通知设置、时延阈值、描述、迁移实例信息。 图 迁移任务信息 表 任务和描述 参数 描述 任务名称 任务名称在450位之间,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 任务异常通知设置 该项为可选参数,开启之后,需要填写手机号码或者邮箱作为指定收件人。当迁移任务状态异常时,系统将发送通知给指定收件人。 说明 收到确认短信或邮件之后,需要在48小时内处理,否则该订阅无效,将无法收到异常通知。 时延阈值 在增量迁移阶段,源数据库和目标数据库之间的实时同步有时会存在一个时间差,称为时延,单位为秒。 时延阈值设置是指时延超过一定的值后(时延阈值范围为1—3600s),DRS可以发送告警通知给指定收件人。告警通知将在时延稳定超过设定的阈值6min后发送,避免出现由于时延波动反复发送告警通知的情况。 说明 首次进入增量迁移阶段,会有较多数据等待同步,存在较大的时延,属于正常情况,不在此功能的监控范围之内。 设置时延阈值之前,需要设置任务异常通知。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 图 迁移实例信息 表 迁移实例信息 参数 描述 数据流动方向 选择出云。 出云指源端数据库为本云数据库的场景。 源数据库引擎 选择MySQL。 目标数据库引擎 选择MySQL。 网络类型 目前支持公网网络、VPC网络和VPN、专线网络类型,您可以根据具体的业务场景进行设置,此处场景以VPC网络为示例。 VPC网络:适合云上数据库之间的迁移。 VPN、专线网络:适合通过VPN、专线网络,实现其他云下自建数据库与云上数据库迁移、或云上跨Region的数据库之间的迁移。 公网网络:适合将其他云下或其他平台的数据库迁移到目标数据库。 源数据库实例 用户需要迁移的数据库实例。 迁移模式 全量:该模式为数据库一次性迁移,适用于可中断业务的数据库迁移场景,全量迁移将非系统数据库的全部数据库对象和数据一次性迁移至目标端数据库,包括:表、视图、存储过程等。 说明 如果用户只进行全量迁移时,建议停止对源数据库的操作,否则迁移过程中源数据库产生的新数据不会同步到目标数据库。 全量+增量:该模式为数据库持续性迁移,适用于对业务中断敏感的场景,通过全量迁移过程中完成的目标端数据库的初始化后,增量迁移阶段通过解析日志等技术,将源端和目标端数据库保持数据持续一致。 说明 选择“全量+增量”迁移模式,增量迁移可以在全量迁移完成的基础上实现数据的持续同步,无需中断业务,实现迁移过程中源业务和数据库继续对外提供访问。 3、在“源库及目标库”页面,迁移实例创建成功后,填选源库信息和目标库信息,并单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 图 源库信息 表 源库信息 参数 描述 数据库实例名称 默认为创建迁移任务时选择的关系型数据库实例,不可进行修改。 数据库用户名 源数据库对应的数据库用户名。 数据库密码 源数据库对应的数据库密码。任务为启动中、全量迁移、增量迁移、增量迁移失败状态时,可在“基本信息”页面的“迁移信息”区域,单击“源库密码”后的“替换密码”,在弹出的对话框中修改密码。 说明 源数据库的用户名和密码将在迁移过程中被加密暂存到数据库和迁移实例主机上,待该任务删除后会永久清除。 图 目标库信息 表 目标库信息 参数 描述 VPC 目标数据库所在的虚拟专用网络,可以对不同业务进行网络隔离。 子网 通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。子网在可用分区内才会有效,创建源数据库实例的子网需要开启DHCP功能,在创建过程中也不能关闭已选子网的DHCP功能。 IP地址或域名 目标数据库的IP地址或域名。 端口 目标数据库服务端口,可输入范围为1~65535间的整数。 数据库用户名 目标数据库的用户名。 数据库密码 目标数据库的用户名所对应的密码。支持在任务创建后修改密码。 任务为启动中、全量迁移、增量迁移、增量迁移失败状态时,可在“基本信息”页面的“迁移信息”区域,单击“目标库密码”后的“替换密码”,在弹出的对话框中修改密码。 SSL安全连接 通过该功能,用户可以选择是否开启对迁移链路的加密。如果开启该功能,需要用户上传SSL CA根证书。 说明 最大支持上传500KB的证书文件。 如果不使用SSL证书,请自行承担数据安全风险。 所有Definer迁移到该用户下 是 迁移后,所有源数据库对象的Definer都会迁移至该用户下,其他用户需要授权后才具有数据库对象权限。 否 迁移后,将保持源数据库对象Definer定义不变,选择此选项,需要配合下一步用户权限迁移功能,将源数据库的用户全部迁移,这样才能保持源数据库的权限体系完全不变。 说明: 目标数据库的IP地址、端口、用户名和密码将在迁移过程中被加密暂存到数据库和迁移实例主机上,待该任务删除后会永久清除。 4、在“迁移设置”页面,设置迁移用户和迁移对象等信息,单击“下一步”。 图 迁移模式 表 迁移模式 参数 描述 快照模式 如果您选择的是全量迁移模式的任务,数据库复制服务支持设置快照模式。 非快照式 适用于停止业务数据写入的导出,如果全量迁移中仍然有业务数据的修改,则导出数据为时间点非水平一致。稳定性和性能要优于快照式全量迁移。 快照式 可以在业务运行时产生一份时间水平一致的快照数据,具有业务数据分析价值,过程中的数据变化不会体现在导出数据中。 说明 快照读会使用MySQL备份锁进行全局锁表,在开启一致性读后自动解锁(加锁时间在3s以内),备份锁会对此期间的DML或者DDL操作造成阻塞,建议用户选择源库空闲的时间段使用快照备份功能。 目前仅MySQL全量模式的迁移任务支持快照模式设置。 是否过滤DROP DATABASE 增量迁移过程中,源数据库端执行的DDL操作在一定程度上会影响数据的迁移能力,为了降低迁移数据的风险,数据库复制服务提供了过滤DDL操作的功能。 目前支持默认过滤删除数据库的操作。 是,表示数据迁移过程中不会同步用户在源数据库端执行的删除数据库的操作。 否,则表示数据迁移过程中将相关操作同步到目标库。 说明 目前仅支持RDS for MySQL实例>MySQL数据库数据库的全量+增量的迁移场景。 迁移用户 数据库的迁移过程中,迁移用户需要进行单独处理。 常见的迁移用户一般分为三类:可完整迁移的用户、需要降权的用户和不可迁移的用户。您可以根据业务需求选择“迁移”或者“不迁移”,选择“迁移”后,可根据需要选择迁移用户。 迁移 当您选择迁移用户时,请参见《数据库复制服务用户指南》中“迁移用户”章节进行数据库用户、权限及密码的处理。 不迁移 迁移过程中,将不进行用户、权限和密码的迁移。 迁移对象 您可以根据业务需求,选择全部对象迁移、表级迁移或者库级迁移。 全部迁移:将源数据库中的所有对象全部迁移至目标数据库,对象迁移到目标数据库实例后,对象名将会保持与源数据库实例对象名一致且无法修改。 表级迁移:将选择的表级对象迁移至目标数据库。 库级迁移:将选择的库级对象迁移至目标数据库。 如果有切换源数据库的操作或源库迁移对象变化的情况,请务必在选择迁移对象前单击右上角的按钮,以确保待选择的对象为最新源数据库对象。 说明 若选择部分数据库进行迁移时,由于存储过程、视图等对象可能与其他数据库的表存在依赖关系,若所依赖的表未迁移,则会导致迁移失败。建议您在迁移之前进行确认,或选择全部数据库进行迁移。 选择对象的时候,对象名称的前后空格不显示,中间如有多个空格只显示一个空格。 选择对象的时候支持搜索,以便您快速选择需要的数据库对象。 5、在“预检查”页面,进行迁移任务预校验,校验是否可进行迁移。 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行迁移任务预校验。 预检查不通过项处理建议请参见《数据库复制服务用户指南》中的“预检查不通过项修复方法”。 图 预检查 预检查完成后,且预检查通过率为100%时,单击“下一步”。 说明 所有检查项结果均通过时,若存在待确认项,需要阅读并确认详情后才可以继续执行下一步操作 6、在“任务确认”页面,选择迁移任务的启动时间,并确认迁移任务信息无误后,单击“启动任务”,提交迁移任务。 说明 迁移任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”,优选“稍后启动”。 预计迁移任务启动后,会对源数据库和目标数据库的性能产生影响,强烈建议您将任务启动时间设定在业务低峰期,同时预留23天校对数据。 7、迁移任务提交后,您可在“实时迁移管理”页面,查看并管理自己的任务。 您可查看任务提交后的状态,状态请参见参考:任务状态含义。 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时迁移
        步骤一(2):创建出云迁移任务
      • 添加防护对象
        本文介绍如何通过独享型接入方式将网站接入WAF进行防护。 使用独享型接入方式接入WAF前,需要先添加防护对象。 前提条件 已购买WAF独享型实例,且当前实例支持接入的防护对象数量未超过限制。 操作步骤 1. 登录天翼云控制中心。 2. 单击页面顶部的区域选择框,选择区域。 3. 在产品服务列表页,选择“安全 > Web应用防火墙(原生版)”。 4. 进入到云WAF控制台,在左侧导航栏选择“接入管理”,选择“独享型接入”页签。 5. 点击“添加防护对象”进入信息配置页,依次配置“防护对象”、“服务器配置”、“代理情况”、“负载均衡策略”等信息。 配置项说明如下: 配置项 说明 选择实例 单击“选择实例”,在弹出的选择实例对话框中,找到目标实例,单击操作列的“选择”。 防护对象 填写防护网站的域名或IP。 域名:支持添加精确域名和泛域名。 精确域名:支持多级别精确域名,例如主域名ctyun.cn、子域名www.ctyun.cn等。 泛域名:支持使用泛域名格式,例如.ctyun.cn可以匹配www.ctyun.cn、test.ctyun.cn。 说明 使用泛域名后,WAF将自动匹配该泛域名对应的所有子域名,例如,.ctyun.cn能够匹配www.ctyun.cn、test.ctyun.cn等。 泛域名不支持匹配对应的主域名,例如.ctyun.cn不能匹配ctyun.cn。 如果同时存在精确域名和泛域名,则精确域名的转发规则和防护策略优先生效。 IP:支持防护公网IP、私网IP。 当填写公网IP时,指客户端访问业务系统直接指向的弹性IP(该弹性IP可能绑定在防火墙或WAF上)。 当填写私网IP时(用于内网访问防护场景),填写内网客户端访问的内网IP(因内网访问情况下,WAF代理业务系统,此处需填写WAF代理业务系统的IP而非业务系统本身的IP,即WAF业务网卡的VIP,业务系统内网IP填写在回源IP处)。 说明 采用内部IP代理场景下,因直接通过IP访问,WAF监听对象为WAF本身的IP,为了区分不同的业务,后端多业务不能采用相同端口,例如后端两个不同的业务不能同时采用80端口,否则WAF无法判断业务需要回源到哪个端口,会导致防护无法生效;若内部WAF采用域名进行区分则可配置相同端口。 防护对象名称 自定义防护网站的显示名称。 服务器配置 单击“添加一个服务器端口组”,弹出新增服务器端口组窗口。 选择网站使用的协议类型以及对应的转发服务端口: 协议类型:HTTP/HTTPS。 端口:选中协议后,系统会对应设置默认端口,HTTP协议默认为80端口,HTTPS协议默认为443端口。 用户也可自定义选择其他端口,可选类型: 标准端口:80、8080;443、8443。 非标端口:除以上标准端口以外的端口。 说明 如果防护域名使用非标准端口,请查看WAF支持的端口。 WAF通过此处添加的端口为网站提供流量的接入与转发服务,网站域名的业务流量只通过已添加的服务端口进行转发。对于未添加的端口,WAF不会转发任何该端口的访问请求流量到源站服务器,因此这些端口的启用不会对源站服务器造成任何安全威胁。 源站地址:设置网站的源站服务器地址,支持IP地址格式和域名格式。完成接入后,WAF将过滤后的访问请求转发到此处设置的服务器地址。设置说明如下: IP地址格式:填写源站的私网IP地址。 最多支持添加40个源站IP或服务器域名。 支持同时配置IPv4和IPv6地址。 说明 如果此处配置私网IP,请确保WAF到源站的网络路径是可访问的,以便于WAF能够对流量进行监控。 域名格式:一般对应该域名在DNS服务商处配置的CNAME。使用域名格式时, WAF会将客户端请求转发到回源域名解析出来的IP地址。 权重:当负载均衡算法为“加权轮询”时生效,所有请求将此处配置的权重轮流分配给源站服务器,权重越大,回源到该源站的几率越高。 不输入则视同为最低权重1。 当输入值为0时,业务不会回源到该站点。 取值范围:0~100的正整数。 说明 当健康检查发现站点出现问题时,剩余站点将按照剩余配置权重进行动态比例变化后的结果进行回源转发,节点回源请求比例节点权重/所有权重之和。 若回源列表中所有源站健康检查均失败了,为保障业务默认通路WAF将会强制回源至回源列表中顺序为第一个的站点。 若设置多个权重为0的节点,仅会回源至列表上第一个权重为0的节点。 所有站点全部健康检查失败,会强制回配置列表第一个节点。 证书配置 若选择HTTPS协议,还需要上传证书,且证书必须正确、有效,才能保证WAF正常防护网站的HTTPS协议访问请求。 1. 点击“上传证书”,进入服务器端证书配置页面。 2. 选择证书类型,支持“通用证书”和“国密证书”。 3. 配置证书。支持证书选择、手动填写、文件上传方式: 证书选择:如您使用了证书管理服务,可通过下拉框选择已有证书。 手动填写:填写证书名称,并将与域名关联的证书文件和私钥文件的文本内容的PEM编码分别复制粘贴到证书文件和证书私钥中。 文件上传:填写证书名称,点击“上传”,将与域名关联的证书文件和私钥文件上传至平台中。 说明 手动填写需要将证书和私钥的PEM编码内容填入。 上传证书时,如果证书是.PEM/.CER/.CRT的后缀,可以直接上传;私钥文件若为.KEY/.PEM的后缀,请确保内容格式为PME编码,即可上传。 高级设置 > HTTP强制跳转 选择HTTPS后,还支持启用HTTP强制跳转功能。 HTTPS强制跳转表示将客户端的HTTP请求强制转换为HTTPS请求,默认跳转到443端口。 如果您需要强制客户端使用HTTPS请求访问网站以提高安全性,则开启该设置。 说明 只有在未选中HTTP协议时,支持开启该设置。 请确保网站支持HTTPS业务再开启该设置。开启该设置后,部分浏览器将被强制设置为使用HTTPS请求访问网站。 高级设置 > TLS协议版本和加密套件 选择证书后,需要配置TLS协议版本和加密套件。WAF默认配置的TLS协议版本为“TLS1.0及以上版本”,加密套件为“全部加密套件”。 TLS协议版本 配置说明如下,为了确保网站安全,请根据业务实际需求进行配置: 支持TLS1.0及以上版本:所有的TLS协议都可以访问网站,兼容性最高,适用于网站无安全性要求的场景。 支持TLS1.1及以上版本:WAF将自动拦截TLS1.0协议的访问请求,适用于网站安全性能要求一般的场景。 支持TLS1.2及以上版本:WAF将自动拦截TLS1.0和TLS1.1协议的访问请求,适用于网站安全性能要求很高的场景。 自定义加密协议:WAF只允许所选TLS协议访问网站。 加密套件 配置说明: 全部加密套件:兼容性较高,安全性较低。 协议版本的自定义加密套件:请谨慎选择,避免影响业务。 WAF支持的加密套件及TLS协议版本详细信息请参见WAF支持的加密套件。 高级设置 > SSL解析方式 选择HTTPS后,支持配置SSL解析方式。支持“单向认证”和“双向认证”。 说明 国密证书暂不支持双向认证。 健康检查 开启健康检查将自动移除对失效源站的转发策略,当失效源站恢复健康后将重新加入转发列表。 开启后,还需配置健康检查策略。 代理情况 选择网站业务在接入WAF前是否开启了其他代理服务(例如DDoS高防、CDN等),按实际情况选择: 否:表示WAF收到的业务请求来自发起请求的客户端。WAF直接获取与WAF建立连接的IP作为客户端IP。 是:表示WAF收到的业务请求来自其他代理服务转发,而非直接来自发起请求的客户端。 为了保证WAF可以获取真实的客户端IP进行安全分析,需要进一步设置“源IP获取方式”。 源IP获取方式:系统默认设置为“从Socket连接中获取”,您也可按实际情况,创建一个有序的判定列表,系统将从列表的第一项开始查找,若不存在或者是非法的IP格式,则尝试下一条。 其中检测末项固定为“从Socket连接中获取”。获取方式列表最多可添加5条规则,可选项如下: 从Socket连接中获取 从XFowardedFor连接中获取倒数第x层代理 从HTTP头“XClientIP”中获取 负载均衡策略 当设置了多个源站服务器地址时,需设置多源站服务器间的负载均衡算法。可选项如下: 轮询:将所有请求轮流分配给不同的源站服务器。 IP Hash:将来自同一个IP的请求定向分配给同一个源站服务器。 加权轮询:根据同一组回源地址内配置的权重进行加权回源,权重越大,回源到该源站的几率越高。 设置生效后,WAF将根据设置的负载均衡算法向多个源站地址分发回源请求,实现负载均衡。 流量标记 开启流量标记功能,WAF在转发客户端请求到源站服务器时,通过在回源请求头部添加标记字段,标记该请求经过WAF转发,可以帮助源站判断请求来源。 如果请求中存在指定标记字段,则为WAF检测后的正常请求,放行该请求;如果请求中不存在指定标记字段,则为攻击者请求,拦截该请求。 单击“添加一个标记”,添加流量标记。最多支持添加5个标记字段。 支持如下标记类型: 自定义请求Header,配置自定义Header名、Header值。 客户端真实IP,配置客户端真实IP所在的HTTP Header名。 客户端真实源端口,配置客户端真实源端口所在的HTTP Header名。 注意 请勿填写标准的HTTP头部字段,否则会导致标准头部字段内容被自定义的字段值覆盖。 回源长连接 功能开启后,支持回源长连接功能,WAF独享版最大支持50000个回源长连接。 开启“回源长连接”后,还需配置“空闲连接超时时间”,默认值为10秒,最多支持60秒。 功能关闭后,将不支持WebSocket。 说明 当针对源站健康检查失败时,WAF会主动将失效的源站剔除回源列表,并将请求按照剩余站点权重比例/轮询转发至剩余健康站点,直至该源站恢复健康。 若回源列表中所有源站健康检查均失败了,为保障业务默认通路WAF将会强制回源至回源列表中顺序为第一个的站点。 源站响应超时切换时间公式:(检查间隔 + 响应超时时间) × 请求失败失效阈值。 源站恢复切换时间公式:(检查间隔 + 响应超时时间) × 失效后恢复健康阈值。 超时配置 开启超时配置,可以配置如下超时时间: 连接超时时间:WAF转发客户端请求时,与源站建立连接的超时时间。 读连接超时时间:WAF等待源站响应的超时时间。 写连接超时时间:WAF向源站发送请求的超时时间。 以上默认值均为60秒,最短支持10秒,最长支持1200秒。 备注 防护对象的描述信息,可以自定义。 6. 配置完成后单击“保存”,返回独享型接入页面。该网站的WAF防护开关默认开启。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        用户指南
        接入WAF
        网站接入WAF防护(独享型接入)
        添加防护对象
      • 生产消费验证
        本文介绍分布式消息服务RocketMQ入门指引的生产消费验证内容。 背景信息 RocketMQ的生产消费验证是指在使用RocketMQ进行消息生产和消费时的验证过程。具体而言,验证包括以下几个方面: 生产者验证:RocketMQ提供了丰富的生产者API,开发人员可以使用这些API将消息发送到RocketMQ的消息队列中。在验证阶段,可以通过发送消息并检查返回结果来确保消息成功发送到Broker节点。此外,生产者还应该验证消息的顺序性、事务性以及可靠性等方面。 消费者验证:RocketMQ的消费者可以订阅特定的消息主题,从而消费这些主题下的消息。在验证阶段,消费者应该能够正确地从Broker节点拉取消息并进行消费处理。消费者还可以验证消息的顺序性、重试机制以及消息过滤等功能。 操作步骤 1、 天翼云官网点击控制中心,选择产品分布式消息服务RocketMQ。 2、 登录分布式消息服务RocketMQ控制台,点击右上角地域选择对应资源池。 进入实例列表,点击【管理】按钮进入管理菜单。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入主题管理菜单,点击【拨测】按钮,进行生产消费的拨测验证,验证开通的消息实例和主题。 1)生产测试拨测: 选择消息类型,默认普通消息。 填写需要产生的测试消息数量,以及每条消息的大小,默认每条消息1KB,建议不超过4MB(4096KB)。 选择已建的消息主题,若无选项,请新增主题,详见上文创建主题和订阅组。 点击【测试】按钮,按照已填写规格及数量产生测试消息数据,展示消息数据的信息,包括消息ID(messageID)、发送状态、主题名(topic名)、Broker名、队列ID。 拨测功能涉及消息发送状态码,以下是RocketMQ消息发送状态码及其说明: ✧ SENDOK(发送成功):表示消息成功发送到了消息服务器。 ✧ FLUSHDISKTIMEOUT(刷新磁盘超时):表示消息已经成功发送到消息服务器,但是刷新到磁盘上超时。这可能会导致消息服务器在宕机后,尚未持久化到磁盘上的数据丢失。 ✧ FLUSHSLAVETIMEOUT(刷新从服务器超时):表示消息已经成功发送到消息服务器,但是刷新到从服务器上超时。这可能会导致主从同步不一致。 ✧ SLAVENOTAVAILABLE(从服务器不可用):表示消息已经成功发送到消息服务器,但是从服务器不可用。这可能是由于网络故障或从服务器宕机引起的。 ✧ UNKNOWNERROR(未知错误):表示发送消息时遇到了未知的错误。一般情况下建议重试发送消息。 ✧ MESSAGESIZEEXCEEDED(消息大小超过限制):表示消息的大小超过了消息服务器的限制。需要检查消息的大小是否合适。 ✧ PRODUCETHROTTLE(消息生产被限流):表示消息生产者的频率超出了消息服务器的限制。这可能是由于消息发送频率过高引起的。 ✧ SERVICENOTAVAILABLE(服务不可用):表示消息服务器不可用。这可能是由于网络故障或者消息服务器宕机引起的。 请注意,以上状态码仅适用于RocketMQ消息发送阶段,并且并不代表消息是否成功被消费者接收。同时,这些状态码也可能因版本变化而有所不同,建议查阅官方文档获取最新信息。 2)消费测试拨测: 选择消息顺序,下拉选择无序/有序,默认选项为无序。 RocketMQ是一种开源的分布式消息中间件,它支持有序消息和无序消息。 ✧ 有序消息是指消息的消费顺序与发送顺序完全一致。在某些业务场景下,消息的处理需要保证顺序性,例如订单的处理或者任务的执行。RocketMQ提供了有序消息的支持,通过指定消息的顺序属性或使用消息队列的分区机制,可以确保消息按照指定的顺序进行消费。 ✧ 无序消息则是指消息的消费顺序与发送顺序无关。无序消息的特点是高吞吐量和低延迟,适用于一些不要求严格顺序的业务场景,如日志收集等。 在RocketMQ中,有序消息和无序消息的实现方式略有不同。有序消息需要借助MessageQueue的分区机制和消费者端的顺序消息消费来实现。而无序消息则是通过消息的发送和接收的并发处理来实现的。 总的来说,RocketMQ既支持有序消息也支持无序消息,根据业务需求选择合适的消息类型来满足业务的要求。 选择消费方式,目前仅提供pull方式。值得注意的是,RocketMQ还提供了推送(push)方式的消费模式,其中消息队列服务器会主动将消息推送给消费者。但在当前仅限于pull方式的消费模式。 填写消费数量。 下拉选择选择已建的消息主题和订阅组,若无选项,请新增主题和订阅组,详见上文创建主题和订阅组。 点击【测试】按钮,按照已填写规格及数量产生消费数据,展示消息数据的信息,包括消息ID(messageID)、主题名称(topicName)、生成时间、存储时间、队列ID、消费状态。 拨测功能涉及消息消费状态码,RocketMQ消费状态码是指在消息消费过程中,对消费结果进行标识的状态码。以下是常见的RocketMQ消费状态码: ✧ CONSUMESUCCESS(消费成功):表示消息成功被消费。 ✧ RECONSUMELATER(稍后重试):表示消费失败,需要稍后再次进行消费。 ✧ CONSUMEFAILURE(消费失败):表示消息消费出现异常或失败。 ✧ SLAVENOTAVAILABLE(从节点不可用):表示消费者无法访问从节点来消费消息。 ✧ NOMATCHEDMESSAGE(无匹配的消息):表示当前没有匹配的消息需要消费。 ✧ OFFSETILLEGAL(偏移量非法):表示消费的偏移量参数不合法。 ✧ BROKERTIMEOUT(Broker超时):表示由于Broker超时导致消费失败。 5、 用户应用按照规范接入RocketMQ,发送、消费消息。 1)生产者示例API 以下适用于南京3、上海7、重庆2、乌鲁木齐27、保定、石家庄20、内蒙6、晋中、北京5节点。 ctgmq引擎版本,SDK下载方式详见环境准备其他工具章节。 package com.ctg.guide; import com.ctg.mq.api.CTGMQFactory; import com.ctg.mq.api.IMQProducer; import com.ctg.mq.api.PropertyKeyConst; import com.ctg.mq.api.bean.MQMessage; import com.ctg.mq.api.bean.MQSendResult; import com.ctg.mq.api.exception.MQException; import com.ctg.mq.api.exception.MQProducerException; import java.util.Properties; / Producer,发送消息 / public class Producer { public static void main(String[] args) throws InterruptedException, MQException { Properties properties new Properties(); properties.setProperty(PropertyKeyConst.ProducerGroupName, "producergroup"); properties.setProperty(PropertyKeyConst.NamesrvAddr, "10.50.208.1:9876;10.50.208.2:9876;10.50.208.3:9876"); properties.setProperty(PropertyKeyConst.NamesrvAuthID, "app4test"); properties.setProperty(PropertyKeyConst.NamesrvAuthPwd, ""); properties.setProperty(PropertyKeyConst.ClusterName, "defaultMQBrokerCluster"); properties.setProperty(PropertyKeyConst.TenantID, "defaultMQTenantID"); IMQProducer producer CTGMQFactory.createProducer(properties);//建议应用启动时创建 int connectResult producer.connect(); if(connectResult ! 0){ return; } for (int i 0; i mqResultList) { //mqResultList 默认为1,可通过批量消费数量设置 for(MQResult result : mqResultList) { //TODO System.out.println(result); } return ConsumerTopicStatus.CONSUMESUCCESS;//对消息批量确认(成功) //return ConsumerTopicStatus.RECONSUMELATER;//对消息批量确认(失败) } }); } } 以下适用于华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3节点。 rocketmq引擎版本,SDK下载方式详见环境准备其他工具章节。 importorg.apache.rocketmq.client.consumer.DefaultMQPushConsumer; importorg.apache.rocketmq.client.consumer.listener.ConsumeConcurrentlyStatus; importorg.apache.rocketmq.client.consumer.listener.MessageListenerConcurrently; importorg.apache.rocketmq.client.exception.MQClientException; publicclassPushConsumer{ publicstaticvoidmain(String[] args)throwsException{ AclClientRPCHook rpcHook newAclClientRPCHook( newSessionCredentials(ACCESSKEY, SECRETKEY)); DefaultMQPushConsumer consumer newDefaultMQPushConsumer(rpcHook); consumer.setConsumerGroup("ConsumerGroupName"); // 填入元数据地址 consumer.setNamesrvAddr("192.168.0.1:9876"); ; //如果需要开启SSL,请增加此行代码 consumer.subscribe("TopicTest",""); consumer.registerMessageListener((MessageListenerConcurrently)(msgs, context)>{ System.out.printf("%s Receive New Messages: %s %n",Thread.currentThread().getName(), msgs); returnConsumeConcurrentlyStatus.CONSUMESUCCESS; }); consumer.start(); System.out.printf("Consumer Started.%n"); } } 示例参数说明: Namesrv地址 Namesrv地址可从控制台查看,多个地址按分号分隔。 应用用户和密码 这个应用用户和密码就是控制台创建的应用用户和密码。 租户id和集群名 集群名和租户id可以从应用用户管理查询。 订阅组 订阅组名需要在控制台提前创建好。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        快速入门
        生产消费验证
      • 数据传输服务模块安装部署
        本页介绍天翼云TeleDB数据库数据传输服务模块的安装部署操作。 前提条件 本服务部署需要的全部组件按安装顺序排列如下: MySQL Zookeeper Docker 部署规划 本产品采用一键安装包的部署方式,安装包包含了后端运行所需的java应用。安装前需要检查、配置好安装所需的环境。安装后配置前端即可访问。 操作步骤 1. 查看操作系统版本 cat /etc/osrelease; 2. 查看系统架构 uname a; 3. 创建目录并挂载磁盘 sudo mkdir p /dts; 创建目录 sudo fdisk l 查看磁盘,选一块未挂载的/dev/xxx sudo mkdir /dts 创建挂载目录 sudo mkfs.xfs f /dev/sde 创建文件系统,例如选了sde这块盘 /dev/sde /dts xfs defaults 0 0 打开 /etc/fstab 文件末尾添加这一行 sudo mount a 挂载 df h 查看挂载结果 4. 创建用户 1. 执行以下命令,创建用户 sudo useradd dts; 2. 执行以下命令,为用户设置密码 sudo passwd dts; 3. 执行以下命令,修改目录权限 sudo chown R dts:dts /dts; 4. 执行以下命令,为用户添加sudoers权限,并设置免密登录 sudo vi /etc/sudoers; 打开该文件,添加以下行: dts ALL(ALL) NOPASSWD: ALL 保存退出。 5. 为用户开放更多系统资源,打开/etc/security/limits.conf sudo vi /etc/security/limits.conf 在文件末尾添加如下行: dts soft nofile 65535 dts hard nofile 65535 dts soft nproc 65535 dts hard nproc 65535 dts soft stack unlimited dts hard stack unlimited dts soft as unlimited dts hard as unlimited 保存并退出。 6. 执行以下命令,将dts用户加入root用户组 sudo usermod a G root dts; 5. 解压安装包 1. 将部署包拷贝到/dts目录下 sudo cp ctgpaasdts2.8.5P9.tar.gz /dts; 2. 修改压缩包权限 sudo chown dts:dts /dts/ctgpaasdts2.8.5P9.tar.gz; 3. 切换用户 sudo su dts; 4. 进入主目录 cd /dts; 5. 解压并进入解压后的目录内 tar zxvf ctgpaasdts2.8.5P9.tar.gz && cd ctgpaasdts2.8.5P9; 6. 查看主目录结构 ls l; 7. 查看依赖包目录 ls l ./pkg 6. 安装jdk 说明 dts基于java 11运行,因此要先安装jdk。 1. 进入pkg目录 cd ./pkg; 2. 如果是arm架构(鲲鹏机器),则执行如下命令解压 tar zxvf microsoftjdk11.0.12.7.1linuxaarch64.tar.gz 3. 如果x86架构(海光机器),则执行如下命令解压 tar zxvf openjdk11.0.18+10.tar.gz 4. 重命名解压后的目录 mv jdk11.0.12+7 jdk11 5. 配置java环境变量 vi ~/.bashrc 在文件末尾添加以下几行,保存并退出 export JAVAHOME/dts/jdk11 export CLASSPATH.:$JAVAHOME/lib/dt.jar:$JAVAHOME/lib/tools.jar export PATH$JAVAHOME/bin:$PATH 让环境变量生效: source ~/.bashrc; 查看java版本: java version; 7. 安装telnet dts的一键部署包,会用telnet命令检查程序是否安装成功,因此需要这个包。 先查看telnet是否有安装: rpm qa grep telnet; 如果有输出,则不用再安装,否则执行以下安装命令,(以x86架构为例) sudo rpm ivh xinetd2.3.1514.el7.x8664.rpm; sudo rpm ivh telnet0.1765.el78.x8664.rpm; sudo rpm ivh telnetserver0.1765.el78.x8664.rpm; 8. 安装openssl10 sudo rpm ivh compatopenssl101.0.2o3.el8.x8664.rpm; 9. 后端部署 10. 部署包目录架构 下面为执行tree命令输出: ctgpaasdts2.8.5P9arrch64 ├── api │ └── V280001BASEINIT.sql ├── arm64 │ └── install ├── config │ ├── application.yml │ ├── mysqlport.cnf │ ├── otter.properties │ └── start.sh ├── install ├── install.cfg ├── pkg │ ├── compatopenssl101.0.2o3.el8.aarch64.rpm │ ├── docker24.0.5.arrch64.tgz │ ├── manager.web.deploy2.8.5P9.tar.gz │ ├── microsoftjdk11.0.12.7.1linuxaarch64.tar.gz │ ├── mysql5.7.492023.q3.2.aarch64.tar.gz │ ├── ora2pgty4.tar.gz │ ├── telnet0.1776.el8.aarch64.rpm │ ├── telnetserver0.1776.el8.aarch64.rpm │ ├── xinetd2.3.1524.el8.aarch64.rpm │ └── zookeeper3.4.13.tar.gz ├── start ├── stop ├── tools │ ├── aarch64 │ │ ├── go │ │ ├── jdk │ │ │ ├── copyjdkconfigs3.73.ky10.noarch.rpm │ │ │ ├── giflib5.2.11.ky10.aarch64.rpm │ │ │ ├── java11openjdk11.0.6.104.ky10.ky10.aarch64.rpm │ │ │ ├── java11openjdkdevel11.0.6.104.ky10.ky10.aarch64.rpm │ │ │ ├── java11openjdkheadless11.0.6.104.ky10.ky10.aarch64.rpm │ │ │ ├── javapackagesfilesystem5.3.02.ky10.noarch.rpm │ │ │ ├── lksctptools1.0.1611.ky10.aarch64.rpm │ │ │ ├── luaposix33.3.112.ky10.aarch64.rpm │ │ │ ├── tzdatajava2020a1.p01.ky10.noarch.rpm │ │ │ ├── xorgx11fontsothers7.524.ky10.noarch.rpm │ │ │ └── xorgx11fontutils7.542.ky10.aarch64.rpm │ │ ├── mysql │ │ └── net │ │ └── telnet0.1776.ky10.aarch64.rpm │ ├── ELF │ │ └── mysql │ └── secureHandler └── uninstall 11. 填写配置文件 配置文件install.cfg模板如下 { "version": "DTS版本号", "deployPath": "DTS统一部署路径, 需确保目录已经存在且具备正常的读写权限", "db": { "mode": "common", "machine": [ { "username": "DTS管理库所在机器对应登录账号", "password": "DTS管理库所在机器对应登录账号, 明文", "ip": "DTS管理库所在机器对应IP", "port": "DTS管理库所在机器ssh端口" } ], "deploy": "是否部署新的管理库,int类型.如果复用已有库填0, 否则填1. 当取值0时, 上述username, password, port可不填", "auth": { "dbPort": "DTS管理库服务端口, int类型", "superPassword": "DTS管理库root账号对应初始密码, 明文. 如上述deploy取值0, 则可不填", "dbUser": "DTS管理库初始账号, 如上述deploy取值0, 则必须确保该账号已经存在", "dbPassword": "DTS管理库初始账号对应密码, 明文", "dbName": "DTS管理库初始schema" } }, "manager": { "mode": "common", "machine": [ { "username": "DTS控制台所在机器对应登录账号", "password": "DTS控制台所在机器对应登录账号, 明文", "ip": "DTS控制台所在机器对应IP", "port": "DTS控制台所在机器ssh端口" } ], "deploy": 1, "httpPort": "DTS控制台http服务端口, int类型", "httpsPort": "DTS控制台https服务端口, int类型", "conPort": "DTS控制台rpc服务端口, int类型", "specification": "DTS控制台规格信息, 可取值范围micro,min,standard,medium,large.注意:不同的规格在部署时需分配不同的内存,可提供不同的性能参数,具体规格说明见下面附录.一般情况下建议取值min", "prodInstId": "", "allowWebDomain": "" }, "zookeeper": { "mode": "common", "machine": [ { "username": "DTS调度节点(zookeeper)1所在机器对应登录账号", "password": "DTS调度节点(zookeeper)1所在机器对应登录账号, 明文", "ip": "DTS调度节点(zookeeper)1所在机器对应IP", "port": "DTS调度节点(zookeeper)1所在机器ssh端口" }, { "username": "DTS调度节点(zookeeper)2所在机器对应登录账号", "password": "DTS调度节点(zookeeper)2所在机器对应登录账号, 明文", "ip": "DTS调度节点(zookeeper)2所在机器对应IP", "port": "DTS调度节点(zookeeper)2所在机器ssh端口" }, { "username": "DTS调度节点(zookeeper)3所在机器对应登录账号", "password": "DTS调度节点(zookeeper)3所在机器对应登录账号, 明文", "ip": "DTS调度节点(zookeeper)3所在机器对应IP", "port": "DTS调度节点(zookeeper)3所在机器ssh端口" } ], "deploy": "是否部署新的zookeeper,int类型. 如复用已有zookeeper则填0, 否则填1. 当取值0时, 上述username, password, port可不填", "zkPort": "zookeeper对应服务端口,int类型", "zkElection": "zookeeper对应选举端口,int类型", "zkCommunication": "zookeeper对应通信端口,int类型" }, "scene": "standalone" } 先备份一下: cp install.cfg install.cfg.sample; 填写配置文件。 arm架构额外操作:如果是arm架构,则将arm64目录下的install文件拷贝到当前目录(x86不做此步骤) cp ./arm64/install ./ 12. 执行一键部署脚本 ./install 如果部署失败,则执行 chmod +x uninstall; ./uninstall; 解决问题后,重新执行一键部署。 13. 对接dcp 修改application.yml配置,注意需要修改的配置项如下,其他不用管 配置项 描述 填写示例 server.servlet.contextpath 后端服务路径,和dcp约定,必须填写为/dts /dts spring.applicaton.name 在dcp中的组件标识,必须填写为dts dts spring.cloud.inetutils.preferrednetworks 让dcp进行服务发现后的ip地址,如果dts所属服务器是多ip,要注意哪个ip是和dcp通的,这里就填写那个ip地址 182.42.233.200 spring.cloud.zookeeper.enabled 表示会去连zk,必须填写true true spring.cloud.zookeeper.connectstring dcp给出的zk的连接地址 182.42.233.200:2181 spring.cloud.zookeeper.discovery.root dcp给出的组件的注册路径 /services/gctest spring.cloud.zookeeper.maxretries 连接zk的重试次数,不配置默认为10 建议填写300 spring.cloud.zookeeper.maxsleepms 每次重试的等待时间,默认为500 建议填写1000 iam.server.responseApiUrl dcp给出的回单地址 示例如下: server: servlet: contextpath: /dts https: ssl: enabled: false port: 17971 keystoretype: PKCS12 keystore: keystore/dtsserver.p12 keystorepassword: keyalias: dtsserver enabledprotocols: TLSv1,TLSv1.1,TLSv1.2 ciphers: TLSECDHERSAWITHAES128CBCSHA256,TLSECDHERSAWITHAES128CBCSHA,TLSECDHERSAWITHAES256CBCSHA384,TLSECDHERSAWITHAES256CBCSHA,TLSECDHERSAWITHRC4128SHA,TLSRSAWITHAES128CBCSHA256,TLSRSAWITHAES128CBCSHA,TLSRSAWITHAES256CBCSHA256,TLSRSAWITHAES256CBCSHA,SSLRSAWITHRC4128SHA mybatis: typealiasespackage: com.chinatelecom.dts.shared.common.model mapperlocations: classpath:dao/.xml configuration: mapunderscoretocamelcase: true spring: application: name: dts cloud: inetutils: preferrednetworks: 182.42.233.200 loadbalancer: ribbon: enabled: false compatibilityverifier: enabled: false zookeeper: enabled: true connectstring: 182.42.233.200:2181 maxretries: 300 maxsleepms: 1000 discovery: preferipaddress: true root: /services/gctest iam.server.url: iam.server.syncApi: /openapi/v1/users/ctyun/sync iam.server.tenants: /openapi/v1/tenants iam.server.versionAgentUrl: /openapi/v1/versions/projectVersion iam.server.logUrl: iam.server.responseApiUrl: api: server: disable: true cluster: xxx:8901 key: TestApiServer digest: 45783632523044543459453955776E704767676F47773D3D 修改otter.properties配置中,otter.run.modeprivatedcp,表示私有云dcp运行环境,示例如下 otter.manager.monitor.email.host smtp.chinatelecom.cn otter.manager.monitor.email.password otter.manager.monitor.email.receiver rc@wq.com otter.manager.monitor.email.security tls otter.manager.monitor.email.stmp.port 465 otter.manager.monitor.email.switch off otter.manager.monitor.email.username otter.run.mode privatedcp otter.zookeeper.aclEnable true otter.zookeeper.authConfig dts:6f562b63312b6b5a6c4f38304c75436d4576693679413d3d otter.zookeeper.cluster.default 182.42.233.200:17973 otter.zookeeper.sessionTimeout 90000 停止manager服务 ./stop.sh 启动manager服务 ./start.sh 14. 前端部署 dcp会给一个前端部署目录,只要把前端文件拷贝到该目录下即可。例如dcp给出的目录为/dcp/teledbdcpfordms/teledbdts,那么 cd /dcp/teledbdcpfordms/teledbdts; 拷贝前端压缩包到console目录 cp teledbdts.zip /dcp/teledbdcpfordms/teledbdts; 解压teledbdts.zip,解压后的文件目录名为teledbdts unzip teledbdtszip; 重命名teledbdts mv teledbdts console; 15. 导入ADAM镜像 前提是部署好docker服务,然后导入ADAM镜像,注意要在DTS工作节点运行的那台机器上导入 docker load input ora2pgty4.tar latest 16. 添加开机启动 1. 给与可执行权限 sudo chmod +x autorestart.sh; 2. 打开/etc/cron.allow文件,在末尾添加上dts,允许dts用户执行crontab命令,保存退出 sudo vi /etc/cron.allow; 3. 编辑crontab crontab e; 4. 在末尾添加上自启命令,保存退出 @reboot /dts/dtsinstall/2.8.5/autorestart.sh /dts/dtsinstall/2.8.5/manager > /dts/dtsinstall/2.8.5/restart.log 2>&1
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        安装过程
        数据传输服务模块安装部署
      • 强制访问权限控制
        本页介绍天翼云TeleDB数据库中强制访问控制。 强制访问是基于自定义的安全策略最终通过标签实现对用户和表的行级安全加密。安全策略(Policy)是等级(Level)和隔离区(Compartment),组(Group)和标签(Label)的集合,最终通过绑定标签实现行级安全。其实现原理是将表和用户绑定到标签上,再由标签关联等级(必选),隔离区(可选)和安全组(可选),形成了一个多级的行级安全加密体系。 安全策略(Policy):是指创建等级(Level),隔离区(Compartment),组(Group)和标签(Label)必须指定所属的安全策略。 等级(Level):提供第二等级的安全控制,标签必须指定等级。 隔离区(Compartment):提供第二等级的安全控制,可选。 组(Group):提供第三等级的安全控制,一种树状的结构,可选。 标签(Label):最终通过标签绑定体现行级安全。仅当用户被赋予的标签比此行标签有相同或更高等时,该行才可以被用户存取。 注意 分号(:)和逗号(,)保留用于多级安全体系的表达,安全策略中组件的名字不要使用。 在Teledb中,创建安全策略需要通过teledbxmls插件,需要创建插件 SQL CREATE EXTENSION teledbxmls; 安全策略 通过MLSCLSCREATEPOLICY()函数创建安全策略 SQL SELECT MLSCLSCREATEPOLICY(policyname, policyid) 参数描述: policyname(策略名称): 要创建的策略的名称,大小写敏感,不可以空。 policyid(策略ID): 用于标识策略的唯一ID,取值范围[1, 100]。 安全等级(Level) 通过函数MLSCLSCREATELEVEL()函数创建安全等级。 SQL SELECT MLSCLSCREATELEVEL(policyname, levelid, shortname, longname) 参数描述: policyname(策略名称): 指定要添加安全级别的策略名称,不可以为空。 levelid(级别ID): 用于标识安全级别的唯一ID,取值范围[0, 32767]。 shortname(名称): 安全级别的名称,大小写敏感,不可为空,不可以含空格和tabj键。 shortname(名称): 安全级别的名称,大小写敏感,不可为空,不可以含空格和tabj键。 longname(完整名称): 安全级别的描述。 通过MLSCLSALTERLEVELDESCRIPTION()函数修改等级的标签描述。 SQL SELECT MLSCLSALTERLEVELDESCRIPTION(policyname, levelid, longname) 安全隔离区(Compartment) 通过MLSCLSCREATECOMPARTMENT()函数创建安全隔离区(Compartment)。 SQL SELECT MLSCLSCREATECOMPARTMENT(policyname, compartmentid, shortname, longname) 参数 描述 : policyname(策略名称): 指定要添加安全隔离区的策略名称。 compartmentid(隔离区ID): 用于标识安全隔离区的唯一ID,取值范围[0, 32767]。 shortname(简称): 安全隔离区的简称。 longname(完整名称): 安全隔离区的完整名称。 安全组(Group) 通过MLSCLSCREATEGROUPROOT()函数创建新的安全组根节点(Group Root) SQL SELECT MLSCLSCREATEGROUPROOT(policyname, rootid, shortname, longname) 参数描述: policyname(策略名称): 指定要创建安全组根节点的策略名称。 rootid(根节点ID): 用于标识安全组根节点的唯一ID。 shortname(简称): 安全组根节点的简称。 longname(完整名称): 安全组根节点的完整名称。 通过MLSCLSCREATEGROUPNODE()函数在数据库中创建新的安全组子节点(Group Node)并将其设置为指定父节点的子节点。 SQL SELECT MLSCLSCREATEGROUPNODE(policyname, childid, shortname, longname, parentshortz) 参数描述: policyname(策略名称): 指定要创建安全组子节点的策略名称。 childid(子节点ID): 用于标识安全组子节点的唯一ID。 shortname(简称): 安全组子节点的简称。 longname(完整名称): 安全组子节点的完整名称。 parentshortname(父节点简称): 安全组子节点所属的父节点的简称。 标签(LABEL) 通过MLSCLSCREATELABEL()函数创建或替换MLS 策略的标签(label),并将其存储到数据库中。 SQL SELECT MLSCLSCREATELABEL(policyname, labelid, labelstr) 参数描述: policyname(策略名称): 指定要添加标签的策略名称。 labelid(标签ID): 用于标识标签的唯一ID,取值范围[0, 32767]。 labelstr(标签名): 标签,不可为空,长度不超过256。由 ,其compartmentids和groupids由1到N个ID构成,ID间用,分割。有效的表达形式如下: levelid:compartmentid1,compartmentid2,...compartmentidN:groupid1,groupid2,...groupidN levelid:compartmentid:groupid levelid:compartmentid: levelid::groupid levelid:: 表标签绑定 通过MLSCLSCREATETABLELABEL()函数将指定标签绑定到指定的表(Table),并将相关数据存储到pgclstable系统表。 SQL SELECT MLSCLSCREATETABLELABEL(policyname labelid, schemaname, tablename) 参数描述: policyname(策略名称): 指定要应用的策略名称。 labelid(标签ID): 要应用于表的标签ID,取值范围[0, 32767]。 schemaname(模式名称): 表所在的模式名。 tablename(表格名称): 要应用标签的表名。 通过MLSCLSDROPTABLELABEL()函数删除绑定到表上的标签并更新pgclstable系统表数据。 SQL MLSCLSDROPTABLELABEL(policyname, schemaname, tablename) 用户标签绑定/删除 通过MLSCLSCREATEUSERLABEL()函数为指定的用户创建一个带有默认标签的用户账户,并将其存储到 pgclsuser 表中。 SQL SELECT MLSCLSCREATEUSERLABEL(policyname, username name, defreadlabel, defwritelabel, defrowlabel) 参数描述: policyname(策略名称): 指定要应用的策略名称。 username(用户名): 要创建标签的用户账户名称。 defreadlabel(默认读标签): 为用户定义的默认读标签ID。 defwritelabel(默认写标签): 为用户定义的默认写标签ID。 defrowlabel(默认行标签): 为用户定义的默认行标签ID。 通过MLSCLSDROPUSERLABEL()函数为指定用户删除标签,并将pgclsuser 表中指定用户的标签删除,且断开指定用户当前所有的数据库连接。 SQL SELECT MLSCLSDROPUSERLABEL(username) 参数描述: username(用户名): 要删除指定用户标签的用户账户名称。 示例: 初始化环境 SQL c mlsadmin 创建安全策略 select MLSCLSCREATEPOLICY('rlspolicy', 66); 创建安全等级 select MLSCLSCREATELEVEL('rlspolicy', 10, 'defaultlevel', 'default Level'); select MLSCLSCREATELEVEL('rlspolicy', 10, 'userlevel', 'user Level'); select MLSCLSCREATELEVEL('rlspolicy', 9, 'badlevel', 'bad Level'); select MLSCLSCREATELEVEL('rlspolicy', 100, 'goodlevel', 'good Level'); 创建隔离区 select MLSCLSCREATECOMPARTMENT('rlspolicy', 30, 'rlscom0', 'RLS compartment 0'); select MLSCLSCREATECOMPARTMENT('rlspolicy', 31, 'rlscom1', 'RLS compartment 1'); select MLSCLSCREATECOMPARTMENT('rlspolicy', 32, 'rlscom2', 'RLS compartment 2'); 创建安全组 select MLSCLSCREATEGROUPROOT('rlspolicy', 50, 'root', 'group root'); select MLSCLSCREATEGROUPNODE('rlspolicy', 51, 'child1', 'child of root node 1', 'root'); select MLSCLSCREATEGROUPNODE('rlspolicy', 52, 'child2', 'child of root node 2', 'root'); select MLSCLSCREATEGROUPNODE('rlspolicy', 511, 'child11', 'child of child1 node 1', 'child1'); select MLSCLSCREATEGROUPNODE('rlspolicy', 512, 'child12', 'child of child1 node 2', 'child1'); 创建安全标签,此时和安全等级,隔离区以及安全组进行绑定 select MLSCLSCREATELABEL('rlspolicy', 1024, 'defaultlevel:rlscom0:child12'); 将标签绑定到表 alter table public.tbl1 add column cls clsitem default '99:1024'; select MLSCLSCREATETABLELABEL('rlspolicy', 1024, 'public', 'tbl1'); 安全等级 SQL select MLSCLSCREATELABEL('rlspolicy', 1025, 'userlevel::'); select MLSCLSCREATELABEL('rlspolicy', 1026, 'badlevel::'); select MLSCLSCREATELABEL('rlspolicy', 1027, 'goodlevel::'); 将标签绑定到用户 select MLSCLSCREATEUSERLABEL('rlspolicy', 'godlike1', 1024, 1024, 1024); select MLSCLSCREATEUSERLABEL('rlspolicy', 'godlike2', 1025, 1025, 1025); select MLSCLSCREATEUSERLABEL('rlspolicy', 'badgodlike1', 1026, 1026, 1026); select MLSCLSCREATEUSERLABEL('rlspolicy', 'goodgodlike1', 1027, 1027, 1027); SQL c godlike1 insert into public.tbl1 select generateseries(1,3), generateseries(1,3); select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:1024 2 2 66:1024 3 3 66:1024 (3 rows) SQL c godlike2 insert into public.tbl1 select generateseries(4,6), generateseries(4,6); 当前用户不在隔离区,无法看到godlike1用户创建的数据 select from public.tbl1 order by col1; col1 col2 cls ++ 4 4 66:1025 5 5 66:1025 6 6 66:1025 (3 rows) SQL c badgodlike1 低优先级的用户无法看到高优先级的用户插入的数据 select from public.tbl1 order by col1; col1 col2 cls ++ (0 rows) SQL insert into public.tbl1 select generateseries(7,9), generateseries(7,9); 低优先级用户可以看到自己创建的数据 select from public.tbl1 order by col1; col1 col2 cls ++ 7 7 66:1026 8 8 66:1026 9 9 66:1026 (3 rows) SQL c goodgodlike1 高优先级用户可以看到低优先级用户创建的数据 同时无法看到隔离区的数据 select from public.tbl1 order by col1; col1 col2 cls ++ 4 4 66:1025 5 5 66:1025 6 6 66:1025 7 7 66:1026 8 8 66:1026 9 9 66:1026 (6 rows) SQL insert into public.tbl1 select generateseries(10,12), generateseries(10,12); select from public.tbl1 order by col1; col1 col2 cls ++ 4 4 66:1025 5 5 66:1025 6 6 66:1025 7 7 66:1026 8 8 66:1026 9 9 66:1026 10 10 66:1027 11 11 66:1027 12 12 66:1027 (9 rows) SQL c godlike1 高优先级用户可以看到比自己低优先级用户创建的数据 无法看到比自己优先级高的用户创建的数据 select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:1024 2 2 66:1024 3 3 66:1024 4 4 66:1025 5 5 66:1025 6 6 66:1025 7 7 66:1026 8 8 66:1026 9 9 66:1026 (9 rows) SQL c commonuser0 select from public.tbl1 order by col1; col1 col2 cls ++ (0 rows) 安全隔离区 SQL c mlsadmin select MLSCLSDROPUSERLABEL('godlike1'); select MLSCLSDROPUSERLABEL('godlike2'); select MLSCLSDROPUSERLABEL('badgodlike1'); select MLSCLSDROPUSERLABEL('goodgodlike1'); 创建安全标签,并绑定隔隔离区 select MLSCLSCREATELABEL('rlspolicy', 2048, 'defaultlevel:rlscom0:'); select MLSCLSCREATELABEL('rlspolicy', 2049, 'defaultlevel:rlscom0,rlscom1,rlscom2:'); select MLSCLSCREATELABEL('rlspolicy', 2050, 'defaultlevel:rlscom1,rlscom2:'); select MLSCLSCREATELABEL('rlspolicy', 2051, 'defaultlevel:rlscom0,rlscom2:'); 将标签绑定到用户 select MLSCLSCREATEUSERLABEL('rlspolicy', 'godlike1', 2048, 2048, 2048); select MLSCLSCREATEUSERLABEL('rlspolicy', 'godlike2', 2049, 2049, 2049); select MLSCLSCREATEUSERLABEL('rlspolicy', 'badgodlike1', 2050, 2050, 2050); select MLSCLSCREATEUSERLABEL('rlspolicy', 'goodgodlike1', 2051, 2051, 2051); SQL c godlike1 insert into public.tbl1 select generateseries(1,3), generateseries(1,3); select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:2048 2 2 66:2048 3 3 66:2048 (3 rows) SQL c godlike2 insert into public.tbl1 select generateseries(4,6), generateseries(4,6); 当前用户所在隔离区含godlike1用户隔离区,可以看到godlike1的数据 select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:2048 2 2 66:2048 3 3 66:2048 4 4 66:2049 5 5 66:2049 6 6 66:2049 (6 rows) SQL c badgodlike1 insert into public.tbl1 select generateseries(7,9), generateseries(7,9); 当前用户所在隔离区无法包含前面用户的隔离区,无法看到他们插入的数据 select from public.tbl1 order by col1; col1 col2 cls ++ 7 7 66:2050 8 8 66:2050 9 9 66:2050 (3 rows) SQL c goodgodlike1 insert into public.tbl1 select generateseries(10,12), generateseries(10,12); 相同等级,godlike1的隔离区是当前的子集,当前用户可以看到godlike1插入的数据 select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:2048 2 2 66:2048 3 3 66:2048 10 10 66:2051 11 11 66:2051 12 12 66:2051 (6 rows) SQL c godlike2 当前用户含rlscom0,rlscom1,rlscom2三个隔离区可以看到之前插入的所有数据 select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:2048 2 2 66:2048 3 3 66:2048 4 4 66:2049 5 5 66:2049 6 6 66:2049 7 7 66:2050 8 8 66:2050 9 9 66:2050 10 10 66:2051 11 11 66:2051 12 12 66:2051 (12 rows) 安全组 SQL c mlsadmin select MLSCLSDROPUSERLABEL('godlike1'); select MLSCLSDROPUSERLABEL('godlike2'); select MLSCLSDROPUSERLABEL('badgodlike1'); select MLSCLSDROPUSERLABEL('goodgodlike1'); 创建安全标签,并绑定用户组 select MLSCLSCREATELABEL('rlspolicy', 4096, 'defaultlevel:rlscom0:root'); select MLSCLSCREATELABEL('rlspolicy', 4097, 'defaultlevel:rlscom0:child1'); select MLSCLSCREATELABEL('rlspolicy', 4098, 'defaultlevel:rlscom0:child11,child12'); 将标签绑定到用户 select MLSCLSCREATEUSERLABEL('rlspolicy', 'godlike1', 4096, 4096, 4096); select MLSCLSCREATEUSERLABEL('rlspolicy', 'godlike2', 4097, 4097, 4097); select MLSCLSCREATEUSERLABEL('rlspolicy', 'badgodlike1', 4098, 4098, 4098); SQL c badgodlike1 insert into public.tbl1 select generateseries(1,3), generateseries(1,3); select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:4098 2 2 66:4098 3 3 66:4098 (3 rows) SQL c godlike2 insert into public.tbl1 select generateseries(4,6), generateseries(4,6); 安全组根节点可以看到子节点数据 select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:4098 2 2 66:4098 3 3 66:4098 4 4 66:4097 5 5 66:4097 6 6 66:4097 (6 rows) SQL c godlike1 insert into public.tbl1 select generateseries(7,9), generateseries(7,9); 安全组根节点可以看到所有子节点数据 select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:4098 2 2 66:4098 3 3 66:4098 4 4 66:4097 5 5 66:4097 6 6 66:4097 7 7 66:4096 8 8 66:4096 9 9 66:4096 (9 rows) SQL c badgodlike1 子节点 无法看到根节点数据 select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:4098 2 2 66:4098 3 3 66:4098 (3 rows)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安全配置手册
        访问控制
        强制访问权限控制
      • 创建卷
        参数 参数 描述 n LUNNAME 或 name LUNNAME 设置卷名称。 取值:字符串形式,长度范围是1~16,只能由字母、数字和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 p CAPACITY 或 capacity CAPACITY 设置卷容量。 取值:整数形式,数字后面可以输入单位简写G/g、T/t或P/p,分别代表GiB、TiB、PiB,如果不输入,默认为GiB。 如果单位是GiB,取值为[1, 1048576]。 如果单位是TiB,取值为[1, 1024]。 如果单位是PiB,取值为1。 t TARGETNAME 或 target TARGETNAME 指定iSCSI Target名称。 取值:字符串形式,长度范围1~16,只能由小写字母、数字、句点(.)和短横线()组成,且仅支持以字母或数字开头。 说明 创建卷时,如果指定的iSCSI Target名称不存在,那么同时创建iSCSI Target,新创建iSCSI Target的回收策略默认为Delete。 priority SERVERID & 指定卷主备分布优先级的服务器ID(仅集群版支持),系统会根据指定的服务器ID顺序来选择卷的主备IQN。可以指定一个或者多个服务器ID,以英文逗号分开。 前置条件:iSCSI Target名称已经存在,且指定的服务器必须是iSCSI Target所在的服务器。 autofailback AUTOFAILBACK 是否根据指定的卷主备分布优先级自动进行主备切换(仅集群版支持),即针对卷主备状态,当高优先级的服务器恢复正常后,是否自动进行主备状态切换。 取值: Enabled:自动进行主备切换。 Disabled:不自动进行主备切换。 默认值为Enabled。 pool POOL 指定存储池(仅集群版支持),表示最终存储池,卷数据最终落在该存储池内。默认使用集群的基础存储池。 cachepool CACHEPOOL 指定缓存存储池(仅集群版支持)。如果指定了缓存存储池,卷数据首先写入缓存存储池,然后再存入存储池。 注意 存储池与缓存存储池不能是同一个存储池。 a HIGHAVAILABILITY 或 ha HIGHAVAILABILITY 选择卷的高可用类型(仅集群版支持): 取值: ActiveStandby(as):启用主备,该卷关联对应Target下的所有IQN。 Disabled(off):不启用主备,该卷关联对应Target下的1个IQN。客户端连接该类型的卷的方法可以参见Windows 客户端–单机版、Linux 客户端 – 单机版。 默认值为ActiveStandby(as)。 c LOCALSTORAGECLASS 或 localstorageclass LOCALSTORAGECLASS 卷冗余模式(仅集群版支持)。 取值: singlecopy:单副本。 2copy:两副本。 3copy:三副本。 EC N+M:纠删码模式。其中N、M为正整数,N≥M,且N+M≤128。表示将数据分割成N个片段,并生成M个校验数据。 默认值为EC 2+1。 说明 以下场景均为集群可用的前提下: 创建EC N+M的卷后: 卷所在存储池可用故障域数量大于等于卷的最小副本数时,可以向卷中写数据。卷所在存储池可用故障域数量小于最小副本数时,不能向卷写数据,且系统会产生告警。 卷所在存储池可用故障域数量大于等于N+M,卷数据正常,不会产生降级。卷所在存储池可用故障域数量处于[N, N+M),卷数据将处于降级状态,建议尽快添加或修复故障域。卷所在存储池可用故障域数量小于N时,已写入的数据发生损毁。 创建副本模式的卷后: 卷所在存储池可用故障域数量大于等于卷的最小副本数时,可以向卷中写数据。卷所在存储池可用故障域数量小于最小副本数时,不能向卷写数据,且系统会产生告警。 卷所在存储池可用故障域数量大于等于副本数,卷数据正常,不会产生降级。对于两副本、三副本卷,卷存储池所在故障域大于等于1,但小于副本数时,卷数据将处于降级状态,建议尽快添加或修复存储池故障域。卷所在存储池无可用故障域时,已写入的数据发生损毁。 minreplica MINREPLICA 最小副本数(仅集群版支持)。 对于副本模式的卷,假设卷副本数为X,最小副本数为Y(Y必须≤X),该卷每次写入时,至少Y份数据写入成功,才视为本次写入成功。对于EC N+M模式的卷,假设该卷最小副本数设置为Y(必须满足N≤Y≤N+M),必须满足总和至少为Y的数据块和校验块写入成功,才视为本次写入成功。 取值:整数。对于副本卷,取值范围是[1, N],N为副本模式卷的副本数,默认值为1。对于EC卷,取值范围是[N, N+M],默认值为N。 redundancyoverlap REDUNDANCYOVERLAP 指定卷的折叠副本数(仅集群版支持)。在数据冗余模式下,同一份数据的不同副本/分片默认分布在不同的故障域,当故障域损坏时,允许根据卷的冗余折叠原则,将多份数据副本放在同一个故障域中,但是分布在不同的path上。 注意 如果存储池故障域级别为path,此参数不生效。 取值:整数。对于副本卷,取值范围是[1, N],N为副本模式卷的副本数,默认值为1;对于EC模式,取值范围是[1, N+M],默认值为1。 ecfragmentsize ECFRAGEMENTSIZE 纠删码模式分片大小。卷冗余模式为EC模式时,此设置才生效,否则忽略。 取值:1、2、4、8、16、32、64、128、256、512、1024、2048、4096,单位是KiB。默认值为16。 o SECTORSIZE 或 sectorsize SECTORSIZE 设置扇区大小。 取值:512、4096,单位是bytes。默认值为4096。 说明 扇区大小的选取:根据自身业务场景,一般情况下,单次I/O操作的数据大小大于或接近4 KiB,则推荐选择4096;单次I/O操作的数据大小接近512 bytes,则推荐选择512。如果对接VMware等虚拟化平台,则推荐选择512 bytes。 w WRITEPOLICY 或 writepolicy WRITEPOLICY 卷的写策略: WriteBack(wb):回写,指数据写入到内存后即返回客户端成功,之后再异步写入磁盘。适用于对性能要求较高,稳定性要求不高的场景。 WriteThrough(wt):透写,指数据同时写入内存和磁盘,并在都写成功后再返回客户端成功。适用于稳定性要求较高,写性能要求不高,且最近写入的数据会较快被读取的场景。 WriteAround(wa):绕写,指数据直接写到磁盘,不写入内存。适用于稳定性要求较高,性能要求不高,且写多读少的场景。 默认值为WriteBack(wb)。 P PATH 或 path PATH 指定存储卷数据的数据目录(仅单机版支持)。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。 如果创建卷时不指定数据目录,使用服务器设置的默认数据目录。 m STORAGEMODE 或 mode STORAGEMODE 设置卷的存储类型: Local:本地模式,数据全部保留在本地。 Cache:缓存模式,本地保留部分热数据,全部数据异步存储到OOS中。 Storage:存储模式,本地保留全部数据,并异步存储到OOS中。 存储类型默认为Local。 cloudprovider CLOUDPROVIDER 对象存储服务名称: OOS:天翼云对象存储经典版I型。 S3:兼容S3的其他对象存储。 默认值为OOS。 B BUCKETNAME 或 bucket BUCKETNAME 已存在的存储桶的名称。 注意 请勿开启Bucket的生命周期设定和合规保留。 A ACCESSKEY 或 ak ACCESSKEY 对象存储服务的AccessKeyID。 S SECRETKEY 或 sk SECRETKEY 对象存储服务的SecretAccessKey。 C CLOUDSTORAGECLASS 或 cloudstorageclass CLOUDSTORAGECLASS 设置数据在对象存储的存储类型: STANDARD:标准存储。 STANDARDIA:低频访问存储。 默认为STANDARD。 E ENDPOINT 或 endpoint ENDPOINT 设置对象存储的Endpoint。 注意 Endpoint必须与所使用的对象存储服务一一对应:若使用OOS对象存储服务,需填写OOS的Endpoint;若使用兼容S3的其他对象存储服务,则需填写它的Endpoint。 如果仅输入域名将会使用HTTPS协议进行访问。 具体OOS Endpoint详见OOS Endpoint和区域。 signversion VERSION 指定上云签名认证的类型: v2:V2签名认证。 v4:V4签名认证。 默认值为v2。 region REGION 表示Endpoint资源池所在区域。具体region详见OOS Endpoint和区域。 V4签名时,此项必填。 M CLOUDCOMPRESSION 或 cloudcompression CLOUDCOMPRESSION 是否压缩数据上传至对象存储: Enabled(on):压缩数据上传至对象存储。 Disabled(off):不压缩数据上传至对象存储。 默认值为Enabled(on)。 O OBJECTSIZE 或 objectsize OBJECTSIZE 数据存储在对象存储中的大小。 取值:128、256、512、1024、2048、4096、8192,单位是KiB。默认值为1024。 X PREFIX 或 prefix PREFIX 设置对象存储中的前缀名称,设置前缀名称后,卷数据会存在存储桶以前缀命名的类文件夹中。如果未指定前缀,则直接存储在以卷名称命名的类文件夹中。 取值:字符串形式,长度范围是1~256。 qosname QOSNAME 指定QoS策略名称。 说明 创建卷时,如果指定QoS策略名称不存在,那么同时创建QoS策略,新创建的QoS策略的回收策略默认为Delete。 对于集群版,不指定QoS策略时: 如果卷的缓存存储池和存储池同时存在,卷的QoS策略为缓存存储池设置的“存储池内卷的默认QoS策略”;如果缓存存储池未设置“存储池内卷的默认QoS策略”,则卷无QoS策略。 如果卷只有存储池,卷的QoS策略为存储池设置的“存储池内卷的默认QoS策略”;如果存储池未设置“存储池内卷的默认QoS策略”,则卷无QoS策略。 取值:字符串形式,长度范围1~64,只能由字母、数字和短横线()组成,区分大小写,且仅支持以字母或数字开头。 注意 如果没有指定QOSNAME ,但是设置了IOPS/Bps中的任何一个参数,则根据IOPS/Bps自动创建一个QoS策略,系统为策略名赋值:lunlunnameqostimestamp。 如果指定了QOSNAME 以及IOPS/Bps中的任何一个参数,则QOSNAME不能与已存在的QoS策略重名。 如果指定了QOSNAME ,没有设置IOPS/Bps中的任何一个参数,则QOSNAME需要为已存在的QoS策略名称。 iops IOPS 每秒能够进行读写操作次数的最大值。 取值:整数形式,取值为[1, 999999999],默认值为1。1表示不限制。 readiops READIOPS 每秒能够进行读操作次数的最大值。 取值:整数形式,取值为[1, 999999999],默认值为1。1表示不限制。 writeiops WRITEIOPS 每秒能够进行写操作次数的最大值。 取值:整数形式,取值为[1, 999999999],默认值为1。1表示不限制。 bps BPS 每秒可传输数据量的最大值。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。 如果单位是B/s,取值为[1, 4096000000000]。 如果单位是KiB/s,取值为[1, 4000000000]。 如果单位是MiB/s,取值为[1, 3906250]。 如果单位是GiB/s,取值为[1, 3814]。 如果单位是TiB/s,取值为[1, 3]。 readbps READBPS 读带宽上限。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。 如果单位是B/s,取值为[1, 4096000000000]。 如果单位是KiB/s,取值为[1, 4000000000]。 如果单位是MiB/s,取值为[1, 3906250]。 如果单位是GiB/s,取值为[1, 3814]。 如果单位是TiB/s,取值为[1, 3]。 writebps WRITEBPS 写带宽上限。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。 如果单位是B/s,取值为[1, 4096000000000]。 如果单位是KiB/s,取值为[1, 4000000000]。 如果单位是MiB/s,取值为[1, 3906250]。 如果单位是GiB/s,取值为[1, 3814]。 如果单位是TiB/s,取值为[1, 3]。 iopsburst IOPSBURST 使用Burst功能时,每秒能够进行读写操作次数的最大值。 取值:整数形式。只有当iops IOPS 大于等于1时,此项设置为1或(IOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 readiopsburst READIOPSBURST 使用Burst功能时,每秒能够进行读操作次数的最大值。 取值:整数形式。只有当readiops READIOPS 大于等于1时,此项设置为1或(READIOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 writeiopsburst WRITEIOPSBURST 使用Burst功能时,每秒能够进行写操作次数的最大值。 取值:整数形式。只有当writeiops WRITEIOPS 大于等于1时,此项设置为1或(WRITEIOPS 999999999]内的正整数方可生效。默认值为1,表示不限制。 bpsburst BPSBURST 使用Burst功能时,每秒可传输的数据量最大值。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。只有当bps BPS大于等于1时,在单位相同的情况下,此项设置为下列取值范围方可生效: 如果单位是B/s,取值为1或(BPS, 4096000000000]内的正整数。 如果单位是KiB/s,取值为1或(BPS, 4000000000]内的正整数。 如果单位是MiB/s,取值为1或(BPS, 3906250]内的正整数。 如果单位是GiB/s,取值为1或(BPS, 3814]内的正整数。 如果单位是TiB/s,取值为1或(BPS, 3]内的正整数。 readbpsburst READBPSBURST 使用Burst功能时,读带宽上限。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。只有当readbps READBPS大于等于1时,在单位相同的情况下,此项设置为下列取值范围方可生效: 如果单位是B/s,取值为1或(READBPS, 4096000000000]内的正整数。 如果单位是KiB/s,取值为1或(READBPS, 4000000000]内的正整数。 如果单位是MiB/s,取值为1或(READBPS, 3906250]内的正整数。 如果单位是GiB/s,取值为1或(READBPS, 3814]内的正整数。 如果单位是TiB/s,取值为1或(READBPS, 3]内的正整数。 writebpsburst WRITEBPSBURST 使用Burst功能时,写带宽上限。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。只有当writebps WRITEBPS大于等于1时,在单位相同的情况下,此项设置为下列取值范围方可生效: 如果单位是B/s,取值为1或(WRITEBPS, 4096000000000]内的正整数。 如果单位是KiB/s,取值为1或(WRITEBPS, 4000000000]内的正整数。 如果单位是MiB/s,取值为1或(WRITEBPS, 3906250]内的正整数。 如果单位是GiB/s,取值为1或(WRITEBPS, 3814]内的正整数。 如果单位是TiB/s,取值为1或(WRITEBPS, 3]内的正整数。 iopsburstsecs IOPSBURSTSECS 使用Burst功能时,按照Burst上限的能力进行读写操作所能持续的时间。 注意 只有在IOPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。 readiopsburstsecs READIOPSBURSTSECS 使用Burst功能时,按照Burst上限的能力进行读操作所能持续的时间。 注意 只有在Read IOPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。 writeiopsburstsecs WRITEIOPSBURSTSECS 使用Burst功能时,按照Burst上限的能力进行写操作所能持续的时间。 注意 只有在Write IOPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。 bpsburstsecs BPSBURSTSECS 使用Burst功能时,按照Burst上限的流量能力所能持续的时间。 注意 只有在BPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。 readbpsburstsecs READBPSBURSTSECS 使用Burst功能时,按照Burst上限的读流量能力所能持续的时间。 注意 只有在Read BPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。 writebpsburstsecs WRITEBPSBURSTSECS 使用Burst功能时,按照Burst上限的写流量能力所能持续的时间。 注意 只有在Write BPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        卷操作
        创建卷
      • 中国电信天翼云对象存储服务协议
        本节主要介绍OBS服务协议。 自2021年11月11日起,新版对象存储服务协议生效,详情请参见这里。 中国电信天翼对象存储系统服务协议 历史版本(2012年11月10日)
        来自:
        帮助文档
        对象存储 OBS
        相关协议
        中国电信天翼云对象存储服务协议
      • 天翼云微服务云应用平台服务协议
        目前微服务云应用平台处于公测阶段,服务协议请参见公测产品服务协议。
        来自:
        帮助文档
        微服务云应用平台
        相关协议
        天翼云微服务云应用平台服务协议
      • 中国电信天翼云对象存储服务等级协议
        天翼云为您提供对象存储服务等级协议,请您点击查看。 自2021年11月11日起,新版对象存储服务等级协议生效,详情请参见这里。 中国电信天翼对象存储系统服务等级协议 历史版本(2012年11月10日)
        来自:
        帮助文档
        对象存储 ZOS
        相关协议
        中国电信天翼云对象存储服务等级协议
      • 中国电信天翼云对象存储服务等级协议
        本节主要介绍OBS服务等级协议。 自2021年11月11日起,新版对象存储服务协议生效,详情请参见这里。 中国电信天翼对象存储系统服务协议 历史版本(2012年11月10日)
        来自:
        帮助文档
        对象存储 OBS
        相关协议
        中国电信天翼云对象存储服务等级协议
      • 中国电信天翼云对象存储服务协议
        对象存储服务协议生效,详情请参见这里。
        来自:
        帮助文档
        对象存储(经典版)I型
        相关协议
        中国电信天翼云对象存储服务协议
      • 中国电信天翼云对象存储服务等级协议
        对象存储服务等级协议生效,详情请参见这里。 中国电信天翼对象存储系统服务等级协议 历史版本(2012年11月10日)。
        来自:
        帮助文档
        对象存储(经典版)I型
        相关协议
        中国电信天翼云对象存储服务等级协议
      • 错误码列表
        本节主要介绍OOS API错误码。 状态码 错误码 错误信息 描述 400 AuthorizationHeaderMalformed The authorization header is malformed. 签名头格式不正确。 400 AuthorizationHeaderMalformed The authorization header is malformed, missing Credential. 签名头格式不正确,需补充Credential。 400 AuthorizationHeaderMalformed The authorization header is malformed, missing SignedHeaders. 签名头格式不正确,需补充SignedHeaders。 400 AuthorizationHeaderMalformed The authorization header is malformed, missing Signature. 签名头格式不正确,需补充Signature。 400 AuthorizationHeaderMalformed The authorization header is malformed, the Credential is malformed, expecting 'YOURAKID/YYYYMMDD/REGION/SERVICE/aws4request'. 签名头中Credential格式不正确,格式应该为'YOURAKID/YYYYMMDD/REGION/SERVICE/aws4request'。 400 AuthorizationHeaderMalformed The authorization header is malformed, the date format 'date' is wrong, expecting 'YYYYMMDD'. 签名头中date格式不正确,应该为'YYYYMMDD'。 400 AuthorizationHeaderMalformed The authorization header is malformed, the region'region' is wrong, expecting 'region'. 签名头中区域名不正确。 400 AuthorizationHeaderMalformed The authorization header is malformed, incorrect service 'service '. This endpoint belongs to 'endpoint'. 签名头不正确,服务域名不对。 400 AuthorizationHeaderMalformed The authorization header is malformed, incorrect terminal 'terminal'. This endpoint uses 'aws4request'. 签名头不正确,endpoint应使用服务aws4request。 400 AuthorizationPostFormFieldsError Form Post authentication version 4 requires the policy, xamzalgorithm, xamzcredential, xamzsignature, xamzdate form fields. V4签名中policy、xamzalgorithm、xamzcredential、xamzsignature、xamzdate不能为空。 400 AuthorizationPostFormFieldsError Xamzalgorithm only supports 'AWS4HMACSHA256'. v4签名算法仅支持AWS4HMACSHA256。 400 AuthorizationPostFormFieldsError Xamzdate must be in the ISO8601 Long Format "yyyyMMdd'T'HHmmss'Z'". xamzdate必须是ISO8601时间格式yyyyMMdd'T'HHmmss'Z'。 400 AuthorizationQueryParametersError XAmzAlgorithm only supports 'AWS4HMACSHA256'. V4预签名签名算法仅支持AWS4HMACSHA256。 400 AuthorizationQueryParametersError Querystring authentication version 4 requires the XAmzAlgorithm, XAmzCredential, XAmzSignature, XAmzDate, XAmzSignedHeaders, and XAmzExpires parameters. V4预签名需要下列参数:XAmzAlgorithm, XAmzCredential, XAmzSignature, XAmzDate, XAmzSignedHeaders, and XAmzExpires。 400 AuthorizationQueryParametersError XAmzExpires must be less than a week (in seconds); that is, the given XAmzExpires must be less than 604800 seconds. V4预签名生成时间不能超过7天。 400 AuthorizationQueryParametersError XAmzExpires must be nonnegative. V4预签名过期时间不能为负数。 400 AuthorizationQueryParametersError XAmzDate must be in the ISO8601 Long Format "yyyyMMdd'T'HHmmss'Z'". V4预签名XAmzDate必须是ISO8601时间格式yyyyMMdd'T'HHmmss'Z'。 400 AuthorizationQueryParametersError Invalid credential date"date". This date is not the same as XAmzDate:"date". V4预签名credential date与XAmzDate的日期需要保持一致。 400 BadDigest The ContentMD5 you specified did not match what we received. ContentMD5不正确。 400 BadRequest Advance cut's position is out of image. 剪切图片时起始坐标超过原图片尺寸。 400 CanNotModifyMetadataLocation Can not modifiy bucket metadata location. 不能修改元数据位置。 400 IdMismatch Document ID does not match the specified configuration ID. 请求头和请求体中清单ID输入不一致。 400 IncompleteBody You did not provide the number of bytes specified by the ContentLength HTTP header. ContentLength配置的长度与实际收到的数据长度不符,请检查后重发。 400 InvalidArgument User key must have a length greater than 0. 表单上传文件时Key项的值不能为空。 400 InvalidArgument The authorization header is invalid. Expected AccessKeyId:signature. v2签名格式不正确,应该为“AccessKeyId :signature”。 400 InvalidArgument xamzcontentsha256 must be UNSIGNEDPAYLOAD, STREAMINGAWS4HMACSHA256PAYLOAD, or a valid sha256 value. v4签名xamzcontentsha256必须是UNSIGNEDPAYLOAD, STREAMINGAWS4HMACSHA256PAYLOAD或者有效的sha256值。 400 InvalidArgument Unsupported authorization type. v4签名Authentication标头只支持AWS4HMACSHA256算法。 400 InvalidArgument Bucket POST must contain a field named 'AWSAccessKeyId'. If it is specified, please check the order of the fields. 必须包含字段AWSAccessKeyId。 400 InvalidArgument Bucket POST must contain a field named 'policy'. If it is specified, please check the order of the fields. 必须包含字段policy。 400 InvalidArgument Bucket POST must contain a field named 'signature'. If it is specified, please check the order of the fields. 必须包含字段signature。 400 InvalidArgument POST requires exactly one file upload per request. POST请求每次只能上传一个文件。 400 InvalidArgument Bucket POST must contain a field named 'key'. If it is specified, please check the order of the fields. 表单上传中必须指定key。如果已指定,请检查字段顺序。 400 InvalidArgument If the TargetBucket element does not exist, the TargetPrefix element cannot exist either. 在配置日志规则时,如果TargetBucket元素不存在,则TargetPrefix也不能存在。 400 InvalidArgument The target prefix exceeds 900 bytes. 配置日志记录规则时,TargetPrefix的长度不能超过900字节。 400 InvalidArgument ID length should not exceed allowed limit of 255. 配置生命周期规则时,Rule ID长度不能超过255。 400 InvalidArgument At least one action needs to be specified in a rule. 配置生命周期规则时,必须配置过期时间,Days或Date。 400 InvalidArgument 'Days' for [TransitionExpiration] action must be a positive integer. 配置生命周期规则时,Days必须为正整数。 400 InvalidArgument Only one action can be specified in the rule. 配置生命周期规则时,Days或Date只能存在一个。 400 InvalidArgument 'Date' must be at midnight GMT. 配置生命周期规则时,Date必须为ISO8601格式,并且为UTC的零点。 400 InvalidArgument Invalid target Storage class for Transition action. 指定的存储类型无效。 400 InvalidArgument Default retention period must be a positive integer value. 合规保留日期取值必须是正整数。 400 InvalidArgument Object lock configuration has been enabled and can not be disabled. 合规保留已经开启,不能关闭。 400 InvalidArgument Default retention period cannot be less than previously value. 设置的合规保留时长不能短于上次设置的时长。 400 InvalidArgument MaxUploads should be between 1~1000. maxuploads的取值范围为[1,1000]。 400 InvalidArgument The length of delimiter must be 1. delimiter长度不能超过1。并且只能是‘/’或空。 400 InvalidArgument MaxKeys should be between 1~1000. 参数maxKeys取值范围为[1,1000]。 400 InvalidArgument Maxparts should be between 1~1000. maxparts取值范围为[1,1000]。 400 InvalidArgument Partnumbermarker must be an integer between 0 and 2147483647. partnumbermarker必须是整数,取值范围是(0, 2147483647)。 400 InvalidArgument xamzlimitrate invalid. The input should be positive integer. xamzlimitrate取值必须为正整数。 400 InvalidArgument Invalid request parameter: value. 参数无效。 400 InvalidArgument The object size should be less than 5TiB. 文件大小不能超过5TiB。 400 InvalidArgument The 'Expires' field format invalid. The 'Expires' header format invalid. Expires格式不正确。 400 InvalidArgument The metadata size should be less than 2KiB. 用户自定义元数据不能超过2KiB。 400 InvalidArgument Insufficient information. Origin request header needed. 跨域预检时,请求头不正确。 400 InvalidArgument Please enter an integer not less than 1. CORS配置中MaxAgeSeconds取值为不小于1的整数。 400 InvalidArgument Invalid AccessControlRequestMethod:value . AccessControlRequestMethod无效。 400 InvalidArgument The xamzcopysourcerange value must be of the form bytesfirstlast where first and last are the zerobased offsets of the first and last bytes to copy. xamzcopysourcerange形式必须为bytesfirst last,其中第一个和最后一个都是以零为基础开始的偏移量。 400 InvalidArgument Invalid protocol, protocol can be http or https. If not defined the protocol will be selected automatically. 指定的http协议值不正确。 400 InvalidArgument The provided host name contains N characters. The maximum allowed redirect page size is 1024 characters. HostName包含的字符个数大于1024。 400 InvalidArgument The provided home page contains N characters. The maximum allowed home page size is 1024 characters. 首页包含的字符个数大于1024。 400 InvalidArgument The provided error page contains N characters. The maximum allowed error page size is 1024 characters. 错误页包含的字符个数大于1024。 400 InvalidArgument The provided replacement contains N characters. The maximum allowed replacement size is 1024 characters. 重定向规则中ReplaceKeyPrefixWith或者ReplaceKeyWith包含的字符个数大于1024。 400 InvalidArgument The provided prefix contains N characters.The maximum allowed prefix size is 1024 characters. 重定向规则中KeyPrefixEquals包含的字符个数大于1024。 400 InvalidArgument RedirectAllRequestsTo cannot be provided in conjunction with other Routing Rules. 重定向所有请求不能与其他规则同时存在。 400 InvalidArgument The IndexDocument Suffix cannot contain the "/" character. 索引页配置不能包含斜杠“/”。 400 InvalidArgument The IndexDocument Suffix cannot be blank. 索引页配置不能为空。 400 InvalidArgument Missing required key 'Redirect'. 缺少必需的参数Redirect。 400 InvalidArgument The ErrorDocument Key cannot be blank. 错误页配置不能为空。 400 InvalidArgument The HostName cannot be blank. HostName配置不能为空。 400 InvalidArgument The HostName cannot contain the "/" character. HostName不能包含斜杠“/”。 400 InvalidArgument The provided HTTP error code (value) is not valid. Valid codes are 4XX or 5XX. 重定向条件中的HttpErrorCodeReturnedEquals不是有效值。 400 InvalidArgument Missing required key 'HostName'. 缺少必需的参数HostName。 400 InvalidArgument The HostName cannot contain spaces. HostName配置不能包含空格。 400 InvalidArgument A value for IndexDocument Suffix must be provided if RedirectAllRequestsTo is empty. 重定向所有请求未配置时,索引文件必须配置。 400 InvalidArgument The destination bucket does not belong to you. 目的Bucket为他人的Bucket。 400 InvalidArgument Invalid Format value. 清单的格式不正确,取值只能为CSV。 400 InvalidArgument Invalid Field value. Field值填写错误。 400 InvalidArgument The maximum size of a Destination/Prefix is 512. Prefix最大长度为512。 400 InvalidArgument The maximum size of a Filter/Prefix is 1024. Prefix最大长度为1024。 400 InvalidArgument IsEnabled value expects true or false. IsEnabled的取值只能为true或false。 400 InvalidArgument Frequency value expects Daily or Weekly. Frequency的取值只能为Daily或Weekly。 400 InvalidArgument Schedule/Frequency missing. Frequency未填写。 400 InvalidArgument InventoryConfiguration/Destination/OOSBucketDestination/Bucket missing. 清单的目的Bucket未填写。 400 InvalidArgument IsEnabled missing. IsEnabled缺失。 400 InvalidArgument InventoryConfiguration/Destination/OOSBucketDestination/Format missing. 清单的输出格式缺失。 400 InvalidArgument Invalid id. Id无效。 400 InvalidArgument Id missing. 请求体中的id缺失。 400 InvalidArgument The type of 'IsAccessTime' must be Boolean. IsAccessTime取值应为布尔型,true或者false。 400 InvalidArgument 'Days' in the Expiration action for prefix 'prefix ' must be greater than 'Days' in the Transition action. 两生命周期规则重叠时,过期删除天数必须大于过期转储天数。 400 InvalidBucketCorsConfigure The XML you provided is not valid. XML无效。 400 InvalidBucketName The bucket name is:name . Bucket名字无效。 400 InvalidConfigurationId The specified configuration id is invalid. 请求头的清单ID未填写。 400 InvalidLocationConstraint The specified location constraint is not valid. 指定的数据位置无效。 400 InvalidObjectName The object name is:name . 文件名字无效。 400 InvalidOOSDestinationBucket Invalid Bucket ARN. Bucket ARN的格式不正确。 400 InvalidOOSDestinationBucket Invalid Bucket Name:bucketname . 清单输出的目的Bucket不存在。 400 InvalidPart One or more of the specified parts could not be found. The part may not have been uploaded, or the specified entity tag may not match the part's entity tag. 一个或者多个指定片段无法找到,片段可能没有被上传,或者指定的ETag值跟片段的ETag值不匹配。 400 InvalidPartNumber Part number must be an integer between 1 and 10000. 参数PartNumber的取值是[1, 10000]。 400 InvalidPartOrder The list of parts was not in ascending order. The parts list must be specified in order by part number. 分片片段列表没有按升序排列。片段列表必须根据分片号按顺序排列。 400 InvalidPartSize Your proposed upload is smaller than the minimum allowed object size. Each part must be at least 5 MiB in size, except the last part. 合并分片文件时,只允许最后一片小于5MiB,其他分片至少5MiB。 400 InvalidPolicyDocument Invalid Policy: JSON invalid:value . 策略无效,不是标准的json格式。 400 InvalidPolicyDocument Invalid according to Policy: Extra input fields:value . 策略无效,输入了额外的字段。 400 InvalidPolicyDocument Policy could not be parsed as a valid JSON string. 策略必须是json格式。 400 InvalidPolicyDocument Policy is missing required element Statement. 策略必须配置Statement。 400 InvalidPolicyDocument Policy is missing required element Principal. 策略必须配置Principal。 400 InvalidPolicyDocument Policy element has invalid value Principal. 策略配置的Principal值无效。 400 InvalidPolicyDocument Policy is missing required element Resource. 策略必须配置Resource元素。 400 InvalidPolicyDocument Policy is missing required element Resource content. 策略的Resource元素必须赋值。 400 InvalidPolicyDocument Policy has invalid resource resource . 策略配置的Resource无效。 400 InvalidPolicyDocument Policy has an invalid condition key key . 策略配置的condition key无效。 400 InvalidPolicyDocument No such condition type type. 策略配置的condition type无效。 400 InvalidPolicyDocument Action does not apply to any resource(s) in statement. 策略配置的Action无效。 400 InvalidPolicyDocument Policy is missing required element Effect. 策略必须配置Effect。 400 InvalidPolicyDocument Policy element has invalid value Effect :Effect . 策略配置的Effect无效。 400 InvalidPolicyDocument Policy element has invalid value Version :Version . 策略配置的Version无效。 400 InvalidRedirectLocation The website redirect location must be nonempty. xamzwebsiteredirectlocation头不能为空。 400 InvalidRedirectLocation The website redirect location must have a prefix of ' or ' or '/'. xamzwebsiteredirectlocation必须有前缀' 400 InvalidRedirectLocation The length of website redirect location cannot exceed 2,048 characters. xamzwebsiteredirectlocation长度不能超过2048。 400 InvalidRequest Missing required header for this request: xamzcontentsha256. v4签名必须携带xamzcontentsha256。 400 InvalidRequest Missing required header for this request: ContentMD5. 请求头必须包含ContentMD5。 400 InvalidRequest Please reduce your request rate. 请降低您的请求频率。 400 InvalidRequest The operation failed, please change a resource pool and try again. 请换其他资源池或者重试。 400 InvalidRequest This copy request is illegal because it is trying to copy an object to itself without changing the object's metadata or storage class. 复制文件时必须修改元数据或者存储类型。 400 InvalidRequest xamzlimitrate invalid.The input should be positive integer. xamzlimitrate只能是正整数。 400 InvalidRequest The source object size cannot be smaller than 5 GiB. 如果源文件取range进行拷贝,源文件大小不能小于5G。 400 InvalidRequest You can only define ReplaceKeyPrefix or ReplaceKey but not both. ReplaceKeyPrefix或者ReplaceKey不能同时存在。 400 InvalidRequest Condition cannot be empty. To redirect all requests without a condition, the condition element shouldn't be present. Condition配置不能为空。不带条件的情况下,重定向所有请求不应该出现condition元素。 400 InvalidRequest The maximum size of a prefix is 1024. 配置生命周期规则时,前缀的最大长度为1024。 400 InvalidRequest Number of lifecycle rules should not exceed allowed limit of 1000 rules. 同一Bucket配置的生命周期规则不能超过1000条。 400 InvalidRequest Rule ID must be unique. Found same ID for more than one rule. 配置生命周期规则时,Rule ID必须唯一。 400 InvalidRequest Found two rules with same prefix 'prefix ' for same action type [TransitionExpiration]. 同一Bucket的两条生命周期规则不能有相同的prefix。 400 InvalidRequest Found overlapping prefixes 'prefix ' and ' prefix ' for same action type [TransitionExpiration]. 同一Bucket的两条生命周期规则不能有前缀重叠的情况。 400 InvalidRequest Found overlapping prefixes 'prefix ' and '' for same action type [TransitionExpiration]. 同一Bucket的两条生命周期规则不能同时存在有前缀和无前缀规则。 400 InvalidStorageClass The storage class you specified is not valid. xamzstorageclass无效。 400 InvalidStorageClass Can not specify the storage class. 未合并的分段文件不能指定xamzstorageclass进行拷贝。 400 InvalidTargetBucketForLogging The target bucket name is:name. 日志记录规则时,目标Bucket不存在或者无目标Bucket的权限。 400 MalformedPOSTRequest The body of your POST request is not wellformed multipart/formdata. POST表单请求中contenttype配置的boundary格式不规范。 400 MalformedXML CORS Rule is empty. CORS Rule不能为空。 400 MalformedXML The number of CORS Rules you provided cannot exceed 100. CORS Rules个数不能超过100。 400 MalformedXML The length of CORS Rule ID you provided cannot exceed 255 characters. CORS Rule ID长度不能超255个字符。 400 MalformedXML AllowedOrigin does not exist. CORS配置中AllowedOrigin不存在。 400 MalformedXML AllowedMethod does not exist. CORS配置中AllowedMethod不存在。 400 MalformedXML AllowedOrigin "value" can not have more than one wildcard. CORS配置中AllowedOrigin最多只能携带一个通配符。 400 MalformedXML AllowedHeader "value" can not have more than one wildcard. CORS配置中AllowedHeader最多只能携带一个通配符。 400 MalformedXML ExposeHeader "value" contains wildcard. We currently do not support wildcard for ExposeHeader. CORS配置中ExposeHeader不能携带通配符。 400 MalformedXML CORS Rule ID is not unique. CORS Rule ID必须是唯一的。 400 MalformedXML The XML you provided was not wellformed or did not validate against our published schema. XML格式不正确。 400 MaxRequestBodyLengthExceeded Your request was too big, the maximum size is %s . 请求体长度太长。 400 MissingRequestBodyError Request Body is empty. 请求body体为空。 400 NoSuchUpload The specified upload does not exist. The uploadId may be invalid, or the upload may have been aborted or completed. 指定的分片上传过程不存在,上传ID可能非法,分片上传过程可能被终止或者已经完成。 400 PutObjectTooFast Upload:value is updated too fast. 同一文件并发上传过快。 400 TooManyBuckets You have attempted to create more buckets than allowed. Bucket数量已经到达上限。 400 TooManyConfigurations You are attempting to create a new configuration but have already reached the 10configuration limit. 超出清单配置规则的数量限制,每个Bucket最多配置10条清单。 403 InvalidAccessKeyId InvalidAccessKeyId. AccessKeyId无效。 403 InvalidAccessKeyId The AccessKeyId is invalid. AccessKeyId被禁用。 403 InvalidAccessKeyId The specified accessKey:accessKey does not exist. 临时密钥不存在,需重新申请。 403 AccessDenied Please use primary access key. 需要使用主密钥。 403 AccessDenied Nonprimary key can not list without prefix or prefix is not start with access key. 非主密钥只能list以自己access key为前缀的文件。 403 AccessDenied Nonprimary key can not operate bucket. 非主密钥,不能操作该Bucket。 403 AccessDenied Nonprimary key can not operate object that not start with access key. 非主密钥只能操作以自己access key为前缀的文件。 403 AccessDenied The secret token is expired, expiration:value . secret token过期。 403 AccessDenied The OOS service has been closed due to overdue payment. If the overdue payment exceed 15 days, the data will be deleted. Please recharge it in time. 由于逾期付款,OOS服务已关闭。如果逾期付款超过15天,数据将被删除。请及时充值。 403 AccessDenied OOS authentication requires a valid Date or xamzdate header. OOS 签名头中需要携带Date或xamzdate。 403 AccessDenied OOS authentication requires a valid Date or xamzdate header, expecting" YYYYMMDD'T'HHMMSS'Z'". OOS 签名头需要携带正确格式的Date或xamzdate,格式为YYYYMMDD'T'HHMMSS'Z'。 403 AccessDenied Invalid according to Policy: Policy expired. v4签名的xamzdate时间不能超过7天。 403 AccessDenied Invalid according to Policy: Policy Condition failed:xxx 签名策略不对。 403 AccessDenied Querystring authentication requires the Signature, Expires and AWSAccessKeyId parameters. V2预签名需要携带以下参数:Signature、Expires、AWSAccessKeyId。 403 AccessDenied Invalid date (should be seconds since epoch):date . 过期时间需要精确到秒。 403 AccessDenied Request has expired. 请求过期。 403 AccessDenied Anonymous access is forbidden for this operation. 匿名用户禁止此操作。 403 AccessDenied The user's permission is not enough. 用户权限不足。 403 AccessDenied You do not have permission to this resource pool, please try another resource pool. 没有该资源池的权限,请使用其他资源池。 403 AccessDenied CORSResponse: This CORS request is not allowed. This is usually because the evalution of Origin, request method / AccessControlRequestMethod or AccessControlRequestHeaders are not whitelisted by the resource's CORS spec. 跨域预检请求没有通过CORS规则校验。请检查Origin、AccessControlRequestMethod、AccessControlRequestHeaders是否在CORS列表的白名单中。 403 AccessDenied CORSResponse: CORS is not enabled for this bucket. 此Bucket未配置CORS。 403 AccessDenied Access denied by bucket policy. 受Bucket Policy的规则影响,被显示拒绝。 403 AccessDenied Access denied by bucket policy or anonymous access is forbidden. 匿名访问被拒绝,或者被Bucket Policy规则隐式拒绝。 403 AccessDenied User:user is not authorized to perform:action on resource: resource . 没有权限访问此资源。 403 AccessDenied The user does not belong to the region. 没有此资源池的上传权限,请更换其他资源池重试。 403 AccessDenied You do not have permission to request the value data region. Please change the data region for the bucket and try again. Bucket下配置的数据位置都已失效,请重新配置,或者修改为可以自动调度。 403 AccessDenied You are not allowed to set the publicreadwrite permission for the bucket. 您不具备将容器设置为公有的权限,请联系天翼云客服协助开通此功能。 403 AccessDenied You are not allowed to grant publicwrite permission to anonymous users. 您不可以向匿名用户授予写权限,请联系天翼云客服协助开通此功能。 403 AccessDenied Make sure that bucket's permissions are not private before using the static website hosting feature. 在使用静态网站托管功能之前,请确保Bucket权限不是私有。 403 Forbidden CORSResponse: Bucket not found. 如果是preflight CORS请求,Bucket必须存在。 403 IllegalObject The object "bucket/object " is illegal, forbid copy. 源文件是非法文件,不允许拷贝。 403 RequestTimeTooSkewed The difference between the request time and the server's time is too large. 客户端时间和服务器端时间相差超过15分钟。 403 SignatureDoesNotMatch The request signature we calculated does not match the signature you provided. Check your key and signing method. 签名计算错误,需按OOS的签名规则,请检查客户端签名计算方法。 403 SignatureDoesNotMatch The authorization type is malformed. V2签名头不是AWS开头,或者V4签名头不是AWS4HMACSHA256。 403 SignatureDoesNotMatch Invalid order of SignedHeaders. V4签名SignedHeasers需按字典序排序 404 MalformedContinuationToken The continuationtoken you provided invalid. continuationtoken的值不正确。 404 NoSuchBucket The resource you requested does not exist. 请求的Bucket不存在。 404 NoSuchBucket The request bucketname is name. 复制文件时源Bucket不存在。 404 NotSuchBucketPolicy The bucket policy configuration does not exist. 此Bucket Policy配置不存在。 404 NoSuchCORSConfiguration The CORS configuration does not exist. Bucket下没有配置CORS。 404 NoSuchLifecycleConfiguration The lifecycle configuration does not exist. 生命周期规则配置不存在。 404 NoSuchKey The resource you requested does not exist. 请求文件不存在。 404 NoSuchKey An Error Occurred While Attempting to Retrieve a Custom Error Document. 尝试检索自定义错误文档时发生错误。 404 NoSuchWebsiteConfiguration The specified bucket does not have a website configuration. Bucekt未开启website功能。 404 ObjectLockConfigurationNotFoundError Object lock configuration does not exist for this bucket. 此Bucket不存在合规保留配置。 405 MethodNotAllowed The specified location constraint is not valid. 指定的数据位置无效。 405 MethodNotAllowed The specified method is not allowed against this resource. 此资源不允许使用该方法。 409 BucketAlreadyExists BucketAlreadyExists. Bucket名字已存在,请更换名字。 409 BucketNotEmpty The bucket you tried to delete is not empty. Bucket非空,不能删除。 411 MissingContentLength You must provide the ContentLength HTTP header. 需要提供ContentLength消息头。 412 PreconditionFailed Bucket post must be of the enclosuretype multipart/formdata. POST表单的contenttype请求头不正确。 412 PreconditionFailed The preconditions xamzcopysourceifmodifiedsince you specified did not hold. 预处理条件下,指定的xamzcopysourceifmodifiedsince不匹配。 503 ServiceUnavailable Service is busy.Please try again. 服务器繁忙,请重试。 503 SlowDown Please reduce your request rate. 请降低请求频率。
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        存储桶(Bucket)和文件(Object)
        错误响应
        错误码列表
      • 应用托管常见问题
        本节介绍应用托管常见问题。 您在使用应用托管时,可根据以下问题分类匹配问题场景和解决方案。 分类 帮助文档 计费类 计费类 操作类 操作类
        来自:
        帮助文档
        天翼云息壤一体化智算服务平台
        常见问题
        应用托管常见问题
      • 科研助手最佳实践
        本文为您介绍科研助手最佳实践。 关于如何通过科研助手使用科研服务、快速生成应用、搭建知识库、进行图像生成等,请参考帮助中心>>科研助手>>最佳实践。
        来自:
        帮助文档
        天翼云息壤一体化智算服务平台
        最佳实践
        科研助手最佳实践
      • 科研助手用户指南
        本节介绍科研助手的使用指南。 产品功能 功能介绍 相关链接 开发机 创建开发机 科研服务 科研服务 数据存储 数据存储
        来自:
        帮助文档
        天翼云息壤一体化智算服务平台
        用户指南
        科研助手用户指南
      • 训推服务最佳实践
        本文为您介绍训推服务最佳实践。 关于如何通过训推服务定制模型、部署服务、管理数据集等,请参考帮助中心>>训推服务>>最佳实践。
        来自:
        帮助文档
        天翼云息壤一体化智算服务平台
        最佳实践
        训推服务最佳实践
      • 应用托管最佳实践
        本文为您介绍应用托管最佳实践。 关于如何应用托管构建知识库、部署服务等,请参考帮助中心>>应用托管>>最佳实践。
        来自:
        帮助文档
        天翼云息壤一体化智算服务平台
        最佳实践
        应用托管最佳实践
      • 公共算力服务常见问题
        本节介绍公共算力服务常见问题。 您在使用公共算力服务时,可根据以下问题分类匹配场景和解决方案。 分类 帮助文档 产品咨询类 产品咨询类常见问题 操作类 操作类常见问题
        来自:
        帮助文档
        天翼云息壤一体化智算服务平台
        常见问题
        公共算力服务常见问题
      • 公共算力服务入门指引
        本节介绍公共算力服务快速入门。 关于如何订购公共算力服务,详见公共算力服务快速入门
        来自:
        帮助文档
        天翼云息壤一体化智算服务平台
        快速入门
        公共算力服务入门指引
      • 公共算力服务相关协议
        本文为您介绍公共算力服务相关协议。 天翼云为您提供公共算力服务服务协议,请您点击查看。 天翼云为您提供公共算力服务服务等级协议,请您点击查看。
        来自:
        帮助文档
        天翼云息壤一体化智算服务平台
        相关协议
        公共算力服务相关协议
      • 训推服务用户指南
        本节介绍训推服务的使用指南。 产品功能 功能介绍 相关链接 训练任务 训练任务 在线服务 在线服务 数据集 数据集 开发机 开发机
        来自:
        帮助文档
        天翼云息壤一体化智算服务平台
        用户指南
        训推服务用户指南
      • 1
      • ...
      • 251
      • 252
      • 253
      • 254
      • 255
      • ...
      • 269
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      AI Store

      智算一体机

      人脸检测

      人脸属性识别

      人脸活体检测

      推荐文档

      分布式消息服务的功能

      天翼云进阶之路⑦:怎么设置sql2008数据库最大服务器内存

      实例详情

      管理

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号