活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云云堡垒机_相关内容
      • 还原卷(上云卷适用)
        参数 参数 描述 n LUNNAME 或 name LUNNAME 源卷名称。 t TARGETNAME 或 target TARGETNAME 指定还原卷的iSCSI target名称。 取值:字符串形式,长度范围1~16,只能由小写字母、数字、句点(.)和短横线()组成,且仅支持以字母或数字开头。 说明 还原卷时,如果指定的iSCSI target名称不存在,那么同时创建iSCSI target。 priority SERVERID & 指定卷主备分布优先级的服务器ID(仅集群版支持),系统会根据指定的服务器ID顺序来选择卷的主备IQN。可以指定一个或者多个服务器ID,以英文逗号分开。 前置条件:iSCSI target名称已经存在,且指定的服务器必须是iSCSI target所在的服务器。 autofailback AUTOFAILBACK 是否根据指定的卷主备分布优先级自动进行主备切换(仅集群版支持),即针对卷主备状态,当高优先级的服务器恢复正常后,是否自动进行主备状态切换。 取值: Enabled:自动进行主备切换。 Disabled:不自动进行主备切换。 默认值为Enabled。 pool POOL 指定存储池(仅集群版支持),表示最终存储池,卷数据最终落在该存储池内。默认使用集群的基础存储池。 cachepool CACHEPOOL 指定缓存存储池(仅集群版支持)。如果指定了缓存存储池,卷数据首先写入缓存存储池,然后再存入存储池。 注意 存储池与缓存存储池不能是同一个存储池。 uuid UUID 源卷的唯一标识码。 a HIGHAVAILABILITY 或 ha HIGHAVAILABILITY 指定还原卷的高可用类型(仅集群版支持): 取值: ActiveStandby(as):启用主备,该卷关联对应target下的所有IQN。 Disabled(off):不启用主备,该卷关联对应target下的1个IQN。客户端连接该类型的卷的方法可以参见Windows 客户端 – 单机版、Linux 客户端 – 单机版。 默认值为源卷的高可用类型。 c LOCALSTORAGECLASS 或 localstorageclass LOCALSTORAGECLASS 设置还原卷的冗余模式(仅集群版支持)。 取值: singlecopy:单副本。 2copy:两副本。 3copy:三副本。 EC N+M:纠删码模式。其中N、M为正整数,N≥M,且N+M≤128。表示将数据分割成N个片段,并生成M个校验数据。 默认值为源卷的冗余模式。 说明 以下场景均为集群可用的前提下: 还原EC N+M的卷后: 卷所在存储池可用故障域数量大于等于卷的最小副本数时,可以向卷中写数据。卷所在存储池可用故障域数量小于最小副本数时,不能向卷写数据,且系统会产生告警。 卷所在存储池可用故障域数量大于等于N+M,卷数据正常,不会产生降级。卷所在存储池可用故障域数量处于[N, N+M),卷数据将处于降级状态,建议尽快添加或修复故障域。卷所在存储池可用故障域数量小于N时,已写入的数据发生损毁。 还原副本模式的卷后: 卷所在存储池可用故障域数量大于等于卷的最小副本数时,可以向卷中写数据。卷所在存储池可用故障域数量小于最小副本数时,不能向卷写数据,且系统会产生告警。 卷所在存储池可用故障域数量大于等于副本数,卷数据正常,不会产生降级。对于两副本、三副本卷,卷存储池所在故障域大于等于1,但小于副本数时,卷数据将处于降级状态,建议尽快添加或修复存储池故障域。卷所在存储池无可用故障域时,已写入的数据发生损毁。 minreplica MINREPLICA 设置还原卷的最小副本数(仅集群版支持)。 对于副本模式的卷,假设卷副本数为X,最小副本数为Y(Y必须≤X),该卷每次写入时,至少Y份数据写入成功,才视为本次写入成功。对于EC N+M模式的卷,假设该卷最小副本数设置为Y(必须满足N≤Y≤N+M),必须满足总和至少为Y的数据块和校验块写入成功,才视为本次写入成功。 取值:整数。对于副本卷,取值范围是[1, N],N为副本模式卷的副本数;对于EC卷,取值范围是[N, N+M]。如果未设置还原卷的最小副本数,默认值为源卷的最小副本数。 ecfragmentsize ECFRAGEMENTSIZE 设置还原卷的纠删码模式分片大小。卷冗余模式为EC模式时,此设置才生效,否则忽略。 取值:1、2、4、8、16、32、64、128、256、512、1024、2048、4096,单位是KiB。默认值为源卷的纠删码模式分片大小。 redundancyoverlap REDUNDANCYOVERLAP 指定还原卷的折叠副本数(仅集群版支持)。在数据冗余模式下,同一份数据的不同副本/分片默认分布在不同的故障域,当故障域损坏时,允许根据卷的冗余折叠原则,将多份数据副本放在同一个故障域中,但是分布在不同的path上。 注意 如果存储池故障域级别为path,此参数不生效。如果指定了还原卷的折叠副本数,必须指定还原卷的冗余模式。 取值:整数。对于副本卷,取值范围是[1, N],N为副本模式卷的副本数;对于EC卷,取值范围是[1, N+M]。如果未设置还原卷的折叠副本数,默认值为源卷的折叠副本数。 w WRITEPOLICY 或 writepolicy WRITEPOLICY 设置还原卷的写策略: WriteBack(wb):回写,指数据写入到内存后即返回客户端成功,之后再异步写入磁盘。适用于对性能要求较高,稳定性要求不高的场景。 WriteThrough(wt):透写,指数据同时写入内存和磁盘,并在都写成功后再返回客户端成功。适用于稳定性要求较高,写性能要求不高,且最近写入的数据会较快被读取的场景。 WriteAround(wa):绕写,指数据直接写到磁盘,不写入内存。适用于稳定性要求较高,性能要求不高,且写多读少的场景。 默认值为源卷的写策略。 P PATH 或 path PATH 指定还原卷存储数据的数据目录(仅单机版支持)。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。 如果还原卷时不指定数据目录,使用服务器设置的默认数据目录。 m STORAGEMODE 或 mode STORAGEMODE 设置还原卷的存储类型: Cache:缓存模式,本地保留部分热数据,全部数据异步存储到OOS中。 Storage:存储模式,本地保留全部数据,并异步存储到OOS中。 存储类型默认为源卷的存储类型。 cloudprovider CLOUDPROVIDER 指定还原卷的对象存储服务名称: OOS:天翼云对象存储经典版I型。 S3:兼容S3的其他对象存储。 默认值为OOS。 说明 源卷和还原卷必须使用相同的对象存储服务。 B BUCKETNAME 或 bucket BUCKETNAME 源卷所在存储桶的名称。 注意 请勿开启Bucket的生命周期设定和合规保留。 X PREFIX 或 prefix PREFIX 源卷的前缀名称。如果源卷未指定前缀,则此处不设置。 取值:字符串形式,长度范围是1~256。 A ACCESSKEY 或 ak ACCESSKEY 源卷的AccessKeyID。 S SECRETKEY 或 sk SECRETKEY 源卷的SecretAccessKey。 C CLOUDSTORAGECLASS 或 cloudstorageclass CLOUDSTORAGECLASS 设置还原卷上传数据至对象存储的存储类型: STANDARD:标准存储。 STANDARDIA:低频访问存储。 默认为源卷上传数据至对象存储的存储类型。 E ENDPOINT 或 endpoint ENDPOINT 源卷的Endpoint。 注意 如果仅输入域名将会使用HTTPS协议进行访问。 signversion VERSION 指定还原卷上云签名认证的类型: v2:V2签名认证。 v4:V4签名认证。 默认值为v2。 region REGION 还原卷的region,即Endpoint资源池所在区域。具体region详见OOS Endpoint和区域。 V4签名时,此项必填。 M CLOUDCOMPRESSION 或 cloudcompression CLOUDCOMPRESSION 设置还原卷是否压缩数据上传至对象存储: Enabled(on):压缩数据上传至对象存储。 Disabled(off):不压缩数据上传至对象存储。 默认值为源卷的设置。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        卷操作
        还原卷(上云卷适用)
      • 通过JDBC连接RDS for MySQL实例
        本节介绍了通过JDBC连接RDS for MySQL实例的方法。 通过JDBC连接实例的方式有无需下载SSL证书连接和用户下载SSL证书连接两种,其中使用SSL证书连接通过了加密功能,具有更高的安全性。RDS for MySQL新实例默认关闭SSL数据加密,开启SSL请参考设置SSL数据加密。SSL连接实现了数据加密功能,但同时也会增加网络连接响应时间和CPU消耗,不建议开启SSL数据加密。 前提条件 用户需要具备以下技能: 熟悉计算机基础知识。 了解java编程语言。 了解JDBC基础知识。 使用SSL证书连接 说明 使用SSL证书连接实例,即通过证书校验并连接数据库。RDS for MySQL实例不支持X509认证方式。 步骤 1 下载CA证书或捆绑包。 1. 在“实例管理”页面,单击实例名称进入“基本信息”页面。 2. 单击“SSL”处的“下载”。 步骤 2 使用keytool工具通过CA证书生成truststore文件。 plaintext ./keytool.exe importcert alias ­file keystore storepass 表 变量说明 变量 说明 请替换为JDK或JRE安装路径的bin目录,例如C:Program Files (x86)Javajdk­11.0.7bin。 请设置truststore文件的名称。建议设置为具有业务意义的名称,便于后续识别。 请替换为步骤1中下载解压后CA证书的名称,例如ca.pem。 请设置truststore文件的存放路径。 请设置truststore文件的密码。 代码示例(使用JDK安装路径下的keytool工具生成truststore文件): plaintext Owner: CNMySQLServer5.7.17AutoGeneratedCACertificate Issuer: CNMySQLServer5.7.17AutoGeneratedCACertificate Serial number: 1 Valid from: Thu Feb 16 11:42:43 EST 2017 until: Sun Feb 14 11:42:43 EST 2027 Certificate fingerprints: MD5: 18:87:97:37:EA:CB:0B:5A:24:AB:27:76:45:A4:78:C1 SHA1: 2B:0D:D9:69:2C:99:BF:1E:2A:25:4E:8D:2D:38:B8:70:66:47:FA:ED SHA256:C3:29:67:1B:E5:37:06:F7:A9:93:DF:C7:B3:27:5E:09:C7:FD:EE:2D:18:86:F4:9C:40:D8:26:CB:DA:95: A0:24 Signature algorithm name: SHA256withRSA Subject Public Key Algorithm: 2048bit RSA key Version: 1 Trust this certificate? [no]: y Certificate was added to keystore 步骤 3 通过JDBC连接MySQL数据库,代码中的JDBC连接格式如下: plaintext jdbc:mysql:// : / ?param1value1¶m2value2 表 参数说明 参数 说明 请替换为实例的IP地址。 说明 如果通过弹性云主机连接,“instanceip”是实例的“内网地址”。您可以在该实例的“连接管理”页面查看。 如果通过公网连接,“instanceip”为该实例已绑定的“弹性公网IP”。您可以在该实例的“连接管理”页面查看。 请替换为实例的数据库端口,默认为3306。 说明 您可以在该实例的“连接管理”页面查看。 请替换为连接实例使用的数据库名,默认为mysql。 requireSSL,用于设置服务端是否支持SSL连接。取值如下: true:支持。 false:不支持。 说明 requireSSL与其他连接参数、sslMode之间的关系请参考表 连接参数与SSLMode的关系说明。 useSSL,用于设置客户端是否使用SSL连接服务端。取值如下: true:使用。 false:不使用。 说明 useSSL与其他连接参数、sslMode之间的关系请参考表 连接参数与SSLMode的关系说明。 verifyServerCertificate,客户端是否校验服务端的证书。取值如下: true:校验。 false:不校验。 说明 verifyServerCertificate与其他连接参数、sslMode之间的关系请参考表 连接参数与SSLMode的关系说明。 trustCertificateKeyStoreUrl,取值为file: 。 请替换为步骤2中truststore文件设置的存储路径。 trustCertificateKeyStorePassword,取值为步骤2中truststore文件设置的密码。 表 连接参数与SSLMode的关系说明 useSSL requireSSL verifyServerCertificate sslMode false 不涉及 不涉及 DISABLED true false false PREFERRED true true false REQUIRED true 不涉及 true VERIFYCA 代码示例(连接MySQL数据库的java代码): plaintext import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.Statement; import java.sql.SQLException; // 认证用的用户名和密码直接写到代码中有很大的安全风险,建议在配置文件或者环境变量中存放(密码应密文存放,使用时解密),确保安全。 // 本示例以用户名和密码保存在环境变量中为例,运行本示例前请先在本地环境中设置环境变量(环境变量名称请根据自身情况进行设置)EXAMPLEUSERNAMEENV和EXAMPLEPASSWORDENV。 public class JDBCTest { String USER System.getenv("EXAMPLEUSERNAMEENV"); String PASS System.getenv("EXAMPLEPASSWORDENV"); public static void main(String[] args) { Connection conn null; Statement stmt null; // url中所需的连接参数根据实际情况配置 String url "jdbc:mysql:// : / ?param1value1¶m2value2"; try { Class.forName("com.mysql.cj.jdbc.Driver"); conn DriverManager.getConnection(url, USER, PASS); stmt conn.createStatement(); String sql "show status like 'ssl%'"; ResultSet rs stmt.executeQuery(sql); int columns rs.getMetaData().getColumnCount(); for (int i 1; i < columns; i++) { System.out.print(rs.getMetaData().getColumnName(i)); System.out.print("t"); } while (rs.next()) { System.out.println(); for (int i 1; i < columns; i++) { System.out.print(rs.getObject(i)); System.out.print("t"); } } rs.close(); stmt.close(); conn.close(); } catch (SQLException se) { se.printStackTrace(); } catch (Exception e) { e.printStackTrace(); } finally { // release resource .... } } } 结束
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        连接实例
        通过JDBC连接RDS for MySQL实例
      • 创建告警规则
        本章节将为您详细介绍创建告警规则的操作场景及步骤。 操作场景 云监控支持灵活的创建告警规则。您既可以根据实际需要对某个云硬盘的监控指标设置自定义告警规则,同时也能够使用告警模板为多个资源或者云服务批量创建告警规则。 操作步骤 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,此处我们选择华东1。 3. 单击“管理与部署>云监控服务”,进入监控概览页面。 4. 单击“告警服务”下拉菜单,单击“告警规则”,进入告警规则列表页面。 5. 在“告警规则”列表界面,单击“创建告警规则”按钮。 6. 在“创建告警规则”页面,根据界面提示配置参数。 配置参数及相关含义说明如下: 模块 参数 参数说明 配置示例 约束与限制 选择监控对象 规则类型 选择规则的类型,主要包括指标监控、事件监控、站点监控、自定义监控、自定义事件五种。 指标监控 自定义监控、自定义事件目前仅支持部分资源池。 选择监控对象 服务 配置告警规则监控的云服务资源类型。 云硬盘 选择监控对象 维度 用于指定告警规则对应指标的维度名称。 云硬盘 选择监控对象 监控对象类型 具体实例/资源分组/全部资源 具体实例 选择监控对象 监控对象 用来配置该告警规则针对的具体资源,可以是一个或多个。 磁盘名称 定义告警策略 选择类型 自定义创建/从模板导入。 自定义创建 定义告警策略 策略 满足全部/任意策略 策略信息包括:指标、数据类型(原始值、最大值、最小值、平均值)、判断条件(>、≥、 100KB,连续发生1次,普通 同一告警规则下,告警条件最多支持添加20条。 定义告警策略 无数据处理 不做处理/视为告警/视为恢复 不做处理 配置告警通知 发送通知 配置是否发送邮件通知用户,可以选择“是” (推荐选择)或者“否”。 是 配置告警通知 通知方式 配置告警通知的通知方式。 通知联系人组 配置告警通知 告警联系组 配置发生告警通知的用户组。 配置告警通知 触发场景 触发告警邮件的场景,可在告警及恢复时发送提醒信息。 出现告警 配置告警通知 通知渠道 配置告警通知的通知渠道,支持邮箱、短信、语音。 邮箱 配置告警通知 重复告警 指告警发生后如果未恢复正常,将重复发送告警通知次数。 不重复 配置告警通知 通知频率 配置告警通知的通知频率。 每24小时通知一次 配置告警通知 通知周期 配置告警通知的周期时间。 星期天、星期一、星期二、星期三、星期四、星期五、星期六 配置告警通知 通知时段 配置告警通知的时间段。 00:00:0023:59:59 配置告警通知 告警回调 配置告警通知webhook地址。 配置告警通知 通知模板 配置告警通知的通知模板,用户可以自定义创建。如未选择通知模板,告警信息将按系统默认模板发送。 系统模板 规则信息 名称 该告警规则的自定义名称。 evsalarmnote 规则信息 企业项目 选择告警规则适用的企业项目。 default 规则信息 描述 添加对该告警规则描述(此参数非必填项)。 7. 告警规则添加完成后,当监控指标触发设定的阈值时,云监控会在第一时间通过邮件实时告知您云上资源异常,以免因此造成业务损失。关于云监控的其他操作和更多信息,请参考《云监控服务》。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        监控云硬盘
        创建告警规则
      • 文件比较与同步(对象存储到对象存储)
        本文为您介绍文件比较与同步的相关内容。 概要 应用场景: 支持对象存储到对象存储之间的数据比较与同步,并且生成比较报告供一致性检查。此场景支持两种数据捕获方式: 方式1:调用对象存储接口对源、备存储同步路径下的所有对象进行扫描、比对,获得增量对象(新增/差异),并将增量对象同步到目标端对应路径下;在海量对象场景下扫描/比对的对象太多,导致这种方式同步增量数据效率过低; 方式2:通过某些方式获取到增量对象信息(如:对象存储自行监控、通过应用数据库表获取等),并将增量对象的信息以某种类型文件存放;DTO通过读取文件内容来获取增量对象信息,并直接将源端对应的增量对象直接同步到目标端;此方式避免了扫描、比对海量对象的时间,提高海量对象场景的增量数据同步效率。 要求:要有应用/组件(一般是对象存储)负责实现监控增量对象并将增量对象以固定格式导出成文件的一系列动作。 前置条件 文件比较与同步的环境要求如下: 1. DTO主机需要安装dto安装包。详见安装DTO。 2. 在MDR控制台中添加对象存储。详见资源管理·对象存储。 3. 在MDR控制台中添加DTO主机并处于在线状态。详见资源管理·DTO主机。 4. MDR控制台需具备有dto的许可,并且该dto许可剩余允许传输量不为0。 新建文件比较与同步 1. 点击左侧菜单栏“资源同步管理”“对象存储数据灾备”“文件比较和同步”,进入文件比较和同步列表页,点击“新建”按钮,进入新建页面。 2. 通用配置页面各配置项如下: 名称:任意指定,便于管理即可。 同步主机:下拉框中会列出已注册至MDR控制台的DTO同步主机供选用; 规则类型:包含三类规则:仅比较/文件比较与同步 / 文件清单同步,下文会分别介绍各类规则的作用和使用场景; 同步策略类型:“手动同步”“定期同步”和“间隔同步”。 手动同步:需手动启动规则。此选项为默认选项。 定期同步:可指定每个月的某几天或者每个星期的某几天中的某几个时间点开始同步,规则会在设置的时间自动开始运行。 间隔同步:指的是从上一次规则完成到下一次规则启动之间的间隔,最小间隔时间单位为秒。 定期同步策略:用户自行添加定期同步策略。可以设定多个不重叠的定时同步策略,彼此独立。 间隔同步策略:用户自行添加时间间隔同步策略。选择此规则开始时间,并设置间隔时间(单位为秒)。 源存储:用户自行选择要源端的存储数据用来做对比。 目标存储:用户自行选择对象存储数据作为目标存储对比。 同步路径映射:用户自行配置需要同步的数据路径。同步路径支持手动输入路径。 排除路径:用户自行选择将同步数据路径中的某些子路径设置为排除路径,排除路径中的数据不进行传输。 文件后缀名过滤:以后缀名为过滤条件,格式为“文件扩展名”,若多个过滤条件则用逗号隔开,如:“.txt”,“.doc”,“.rtf”。 排除:不同步源路径中该过滤项中定义的文件类型。 包含:只同步源路径中该过滤项中定义的文件类型。 文件日期过滤:通过正则表达式对同步路径下文件的日期进行筛选,文件日期符合正则表达式要求的文件被过滤出来。 排除:不同步源路径中符合筛选条件的文件。 包含:只同步源路径中符合筛选条件的文件。 3. 比较设置页面各配置项如下: 比较类型:重镜像时的校验方式。 文件大小:通过源、目标文件的大小进行比较。 对象智能比对:提交规则时会判断备端存储是否支持自定义META,不支持则不允许规则提交。智能比对即:通过比文件当前的修改时间戳,和上一次同步时文件的修改时间戳(记录在自定义属性META中)来判断文件是否一致(如果修改时间戳一致则认为文件相同,如果修改时间戳不同,则继续对比文件的MD5)。 MD5校验:通过源、目标文件的MD5值进行比较(本地需计算md5,对象存储直接采用Etag,对象存储将收到文件的MD5值放在返回结果的ETag中)。 说明:对象存储返回分片上传文件的MD5有可能为空或是最后一个分片的MD5,因此对象存储的MD5并不完全可靠。“文件大小”比对最快;当文件较大时“对象智能比对”比“MD5校验”快(大文件本地计算md5很慢);当文件较小时“MD5校验”比“对象智能比对”快(对象存储的文件修改时间需从META中获取,一个文件就是一次请求)。 忽略目标端存在文件:DTO不再扫描目标端存储,直接拿源端拆解过后的目录进行传输,传输之前check目标端文件是否存在,如果不存在,就同步,否则跳过该文件;这种类型,可以支持对象存储单一目录上千万的文件。 传输线程数量:可以指定线程个数。一个线程处理一个目录。此选项用于提高数据复制的速度,默认为“10”,数值越高,可用于数据复制的线程越多,但会消耗更多的CPU和内存资源,请根据用户环境适当选择。 对象存储扫描线程数量:可根据需要指定110个线程数。 备端扫描:默认开启,开启后支持孤儿文件处理。 孤儿文件处理方式: 不处理:不删除孤儿文件,存在在目标端。 确认后删除:将孤儿文件计入孤儿文件列表,可通过规则管理界面的“更多·孤儿文件”按钮来查看,以及选择是否要将目标端的孤儿文件删除。 直接删除:将孤儿文件自动从目标端删除。 说明:定期同步或间隔同步策略时不允许配置“确认后删除”;选择“忽略目标端存在的文件”比较类型时,或者开启归档时不允许配置“直接删除”和“确认后删除”。 对象文件路径名: 和源端保持不变:区分大小写,和源端大小写保持一致。 全部为大写(传输时转换):在传输时,将源路径下的所有目录名、子目录名、文件名、文件后缀名全部转换为大写存储在目标路径下。 全部为小写(传输时转换):在传输时,将源路径下的所有目录名、子目录名、文件名、文件后缀名全部转换为小写存储在目标路径下。 备端文件压缩:指的是在本地将文件进行压缩,压缩完后传输到对象存储。仅限于本地到对象存储的规则才支持压缩,压缩传输后,目标端文件名会被修改为:原文件名.i2.zip。 备端文件加密:将同步到目标端数据加密存储。 标准加密:通过设置的加密密钥对源端文件加密后存放到目标端。 加密密钥:填写加密密钥,密钥要求:32字节的字符串作为密钥,支持数字、字母、字符的组合,不支持中文。 COS服务端加密:通过对接COS对象存储API接口,上传到该对象存储桶的文件都自动加密,需额外选择加密密钥类型: 加密密钥类型:支持两种加密密钥类型: SSECOS:使用SSECOS加密密钥类型进行加密,无需额外配置; SSEC:使用SSEC加密密钥类型进行加密,需要额外填写加密密钥; 加密密钥:填写加密密钥,密钥要求:32字节的字符串作为密钥,支持数字、字母、字符的组合,不支持中文。 保留结果数量:设置“文件比较与同步→报告”中保留的记录条数。 记录流水:默认关闭,开启后会将规则同步的所有文件相关信息(大小、MD5/etag、传输耗时、修改/更新时间)记录在同步主机/usr/drbksoft/dto/data/db/ .db文件中(默认路径),可供审计查看。 4. 带宽设置页面各配置项如下: 全选:开启后,将会选择一周内的所有时间。此选项默认关闭。 时间范围:用户自行勾选具体的生效日。 选择带宽:根据用户需求选择需要执行限速的时间段,可以设定多个不重叠的限速规则,彼此独立,如果带宽设定为0,表示禁止传输。 5. 归档设置页面各配置项如下: 启用归档:不勾选的话不启用归档功能。 文件名转换:归档文件的名称转换,支持两种转换方式: 保持不变:归档文件名与原文件名保持一致。 增加时间后缀:在归档文件名后自动添加归档时间后缀。 归档条件: 时间归档:按照填入文件时间类型的时间点与执行本地到对象存储时的时间点的差值(单位天)。这里的时间选项有两个:文件创建时间、文件修改时间,这两种类型可以只选择某一个,也可以多选,并可以选择几种类型间的关系是与还是或。 命名特征:使用正则表达式进行针对文件名的过滤。 文件类型:通过填入文件类型的后缀名进行对文件类型的过滤(如.txt等),可以匹配多个文件类型,文件后缀名与后缀名之间用“逗号隔开”(如.txt,.exe,.zip)。 归档策略: 同步所有文件,并删除本地符合条件的文件:将源目录下的所有文件全部同步到目标存储的目标目录中,并删除本地符合归档条件的文件。 只同步并删除符合条件的文件:只同步源目录中符合归档条件的文件到目标存储的目标目录中去,并删除本地符合归档条件的文件。 只同步但不删除符合条件的文件:只同步源目录中符合归档条件的文件到目标存储的目标目录中去,并且不删除源端本地符合归档条件的文件。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        资源同步管理
        对象存储数据灾备
        文件比较与同步(对象存储到对象存储)
      • 产品规格
        产品规格 一体机根据应用场景分为基础版、专业版和旗舰版。 基础版 C3430(基础版云纳管HG)、C3410(基础版塔式工作站HG)、C3110(基础版塔式工作站x86); 专业版 x86系列:C5131(专业版x86Ⅰ型)、C5132(专业版x86 Ⅱ型)、C5133(专业版x86 Ⅲ型)、C5153(专业版GPUx86); 鲲鹏系列:C5331(专业版KP Ⅰ型)、C5332(专业版KP Ⅱ型)、C5352(专业版GPUKP); 海光系列:C5431(专业版HG Ⅰ型)、C5432(专业版HG Ⅱ型))、C5452(专业版GPUHG; 旗舰版 x86系列:C7131(旗舰版管理x86)、C7136(旗舰版计算x86)、C7137(旗舰版存储x86)、C7136(旗舰版网元x86); 鲲鹏系列:C7331(旗舰版管理KP)、C7335(旗舰版计算KP)、C7337(旗舰版存储KP)、C7335(旗舰版网元KP); 海光系列:C7431(旗舰版管理HG)、C7435(旗舰版计算HG)、C7437(旗舰版存储HG)、C7435(旗舰版网元HG)。 详细配置 基础版 型号 类型 C3430(基础版云纳管HG) C3410(基础版塔式工作站HG) C3110(基础版塔式工作站x86) 单台服务器硬件配置 CPU Hygon 7360(24C,2.2GHz) 2Hygon 3350(8C,3.0GHz) Intel Core i913900K(24C,2.2GHz) 单台服务器硬件配置 内存 64GB(232GB) 128GB(432GB) 128GB(432GB) 单台服务器硬件配置 系统盘 1480GB SATA SSD 2480GB SATA SSD 2480GB SATA SSD 单台服务器硬件配置 缓存盘 单台服务器硬件配置 数据盘 24TB SATA HDD 24TB SATA HDD 专业版 x86系列: 型号 类型 C5131(专业版x86 Ⅰ型) C5132(专业版x86 Ⅱ型) C5133(专业版x86 Ⅲ型) C5153(专业版GPUx86) 单台服务器硬件配置 CPU 2Intel Xeon Silver 4516Y+(24C,2.2GHz) 2Intel Xeon Gold 5520+(28C,2.2GHz) 2Intel Xeon Platinum 8566C(52C,2.6GHz) 2Intel Xeon Platinum 8566C (52C,2.6GHz) 单台服务器硬件配置 内存 384GB(1232GB) 768GB (2432GB) 1024GB (3232GB) 768GB (2432GB) 单台服务器硬件配置 系统盘 2960GB SATA SSD 2960GB SATA SSD 21960GB SATA SSD 2960GB SATA SSD 单台服务器硬件配置 缓存盘 2960GB SATA SSD 21.92TB NVMe SSD 23.2TB NVMe SSD 21.92TB NVMe SSD 单台服务器硬件配置 数据盘 816TB SATA HDD 1016TB SATA HDD 1216TB SATA HDD 616TB SATA HDD 单台服务器硬件配置 阵列卡 1RAID卡,2G缓存,端口数≥8,端口速率12Gb/s,配置电池或电容,支持RAID0、1、5、10、50、60及直通 单台服务器硬件配置 网卡 2GE(电口)+410GE(光口),带ilo管理口,支持IPv6 鲲鹏系列: 型号 类型 C5331(专业版KP Ⅰ型) C5332(专业版KP Ⅱ型) C5352(专业版GPUKP) 单台服务器硬件配置 CPU 2Kunpeng 920 5220(32C,2.6GHz) 2Kunpeng 920 7260(64C,3.0GHz) 2Kunpeng 920 7260(64C,3.0GHz) 单台服务器硬件配置 内存 512GB(1632GB) 768GB (2432GB) 768GB (2432GB) 单台服务器硬件配置 系统盘 2960GB SATA SSD 2960GB SATA SSD 2960GB SATA SSD 单台服务器硬件配置 缓存盘 21.92TB SATA SSD 23.2TB NVMe SSD 21.92TB SATA SSD 单台服务器硬件配置 数据盘 1016TB SATA HDD 1216TB SATA HDD 616TB SATA HDD 单台服务器硬件配置 阵列卡 1RAID卡,2G缓存,端口数≥8,端口速率12Gb/s,配置电池或电容,支持RAID0、1、5、10、50、60及直通 单台服务器硬件配置 网卡 2GE(电口)+410GE(光口),带ilo管理口,支持IPv6 海光系列: 型号 类型 C5431(专业版HG Ⅰ型) C5432(专业版HG Ⅱ型) C5452(专业版GPUHG) 单台服务器硬件配置 CPU 2Hygon 7420D(32C,2.7GHz) 2Hygon 7493(56C,2.9GHz) 2Hygon 7493(56C,2.9GHz) 单台服务器硬件配置 内存 512GB(1632GB 768GB (2432GB) 768GB (2432GB) 单台服务器硬件配置 系统盘 2960GB SATA SSD 2960GB SATA SSD 2960GB SATA SSD 单台服务器硬件配置 缓存盘 21.92TB SATA SSD 23.2TB SATA SSD 21.92TB SATA SSD 单台服务器硬件配置 数据盘 1016TB SATA HDD 1216TB SATA HDD 616TB SATA HDD 阵列卡 1RAID卡,2G缓存,端口数大于等于8,端口速率12Gb/s,配置电池或电容,支持RAID0、1、5、10、50、60以及直通 网卡 2GE(电口)+410GE(光口),带ilo管理口,支持IPV6 旗舰版 x86系列: 型号 类型 C7131(旗舰版管理x86) C7136(旗舰版计算x86) C7137(旗舰版存储x86) C7136(旗舰版网元x86) 单台服务器硬件配置 CPU 2Intel Xeon Silver 4516Y+(24C,2.2GHz) 2Intel Xeon Platinum 8566C(52C,2.6GHz) 2Intel Xeon Silver 4516Y+(24C,2.2GHz) 2Intel Xeon Platinum 8566C(52C,2.6GHz) 单台服务器硬件配置 内存 384GB(1232GB) 384GB(1232GB) 512GB(1632GB) 512GB(1632GB) 单台服务器硬件配置 系统盘 2960GB SATA SSD 2960GB SATA SSD 2960GB SATA SSD 2960GB SATA SSD 单台服务器硬件配置 缓存盘 27.68TB NVME SSD 单台服务器硬件配置 数据盘 216TB SATA HDD 3616TB SATA HDD 216TB SATA HDD 鲲鹏系列: 型号 类型 C7331(旗舰版管理KP) C7335(旗舰版计算KP) C7337(旗舰版存储KP) C7335(旗舰版网元KP) 单台服务器硬件配置 CPU 2Kunpeng 920 5220(32C,2.6GHz) 2Kunpeng 920 7260(64C,3.0GHz) 2Kunpeng 920 5220(32C,2.6GHz) 2Kunpeng 920 7260(64C,3.0GHz) 单台服务器硬件配置 内存 384GB(1232GB) 384GB(1232GB) 512GB(1632GB) 512GB(1632GB) 单台服务器硬件配置 系统盘 2960GB SATA SSD 2960GB SATA SSD 2960GB SATA SSD 2960GB SATA SSD 单台服务器硬件配置 缓存盘 27.68TB NVME SSD 单台服务器硬件配置 数据盘 216TB SATA HDD 3616TB SATA HDD 216TB SATA HDD 海光系列: 型号 类型 C7331(旗舰版管理KP) C7335(旗舰版计算KP) C7337(旗舰版存储KP) C7335(旗舰版网元KP) 单台服务器硬件配置 CPU 2Hygon 7420D(32C,2.7GHz) 2Hygon 7493(56Cores,2.9GHz) 2Hygon 7420D(32C,2.7GHz) 2Hygon 7493(56Cores,2.9GHz) 单台服务器硬件配置 内存 384GB(1232GB) 384GB(1232GB) 512GB(1632GB) 512GB(1632GB) 单台服务器硬件配置 系统盘 2960GB SATA SSD 2960GB SATA SSD 2960GB SATA SSD 2960GB SATA SSD 单台服务器硬件配置 缓存盘 27.68TB NVME SSD 单台服务器硬件配置 数据盘 216TB SATA HDD 3616TB SATA HDD 216TB SATA HDD
        来自:
        帮助文档
        混合云一体机
        产品简介
        产品规格
      • 支持的监控指标
        本页介绍了天翼云关系数据库MySQL版支持的监控指标。 关系数据库MySQL版支持的监控指标如下。 注意 关系数据库MySQL版实例中的Agent只用于监控实例运行的指标、状态,不会收集除监控指标外的其它数据。 功能说明 本文定义了关系数据库MySQL版上报云监控的监控指标的命名空间,监控指标列表和维度定义。用户可以通过云监控提供的API接口来检索关系型数据库产生的监控指标和告警信息。 监控指标频率目前支持15秒、60秒、300秒,默认监控频率为30秒。 注意 部分监控指标支持设置为10秒,详细信息,请参见设置监控频率 实例监控指标 关系数据库MySQL版实例性能监控指标,如下表所示。 指标名称 指标含义 取值范围 CPU使用率(系统空间) 该指标用于统计测量对象的CPU使用率(系统空间占用),以比率为单位。 0100% CPU使用率(用户空间) 该指标用于统计测量对象的CPU使用率(用户空间占用),以比率为单位。 0100% CPU使用率(等待I/O) 该指标用于统计CPU在等待磁盘I/O请求完成时处于空闲状态的时间百分比。 0100% CPU总使用率 该指标用于统计测量对象的CPU总使用率,以比率为单位。 0100% MySQL CPU使用率 该指标用于统计MySQL进程的CPU使用率。 0100% 内存使用率 该指标用于统计测量对象的内存使用率,以比率为单位。 0100% MySQL服务进程占用的内存使用率 该指标用于统计MySQL服务进程占用的内存使用率。以比率为单位。 0100% 实例总空间使用量 该指标用于统计实例的空间占用情况,以GB为单位。 ≥ 0 GB 备份空间使用量 该指标用于统计云硬盘实例备份空间的使用情况,以GB为单位。 ≥ 0 GB 磁盘读速率(数据盘) 该指标用于统计当前实例数据盘,单位时间内系统处理的磁盘读速率(平均值)。 ≥ 0 kb/s 磁盘写速率(数据盘) 该指标用于统计当前实例数据盘,单位时间内系统处理的磁盘写速率(平均值)。 ≥ 0 kb/s 磁盘读速率(系统盘) 该指标用于统计当前实例系统盘,单位时间内系统处理的磁盘读速率(平均值)。 ≥ 0 kb/s 磁盘写速率(系统盘) 该指标用于统计当前实例系统盘,单位时间内系统处理的磁盘写速率(平均值)。 ≥ 0 kb/s 数据盘读次数 该指标用于统计数据盘,单位时间内系统处理的I/O读扇区请求数量(平均值)。 ≥ 0 counts 数据盘写次数 该指标用于统计数据盘,单位时间内系统处理的I/O写扇区请求数量(平均值)。 ≥ 0 counts 系统盘读次数 该指标用于统计系统盘,单位时间内系统处理的I/O读扇区请求数量(平均值)。 ≥ 0 counts 系统盘写次数 该指标用于统计系统盘,单位时间内系统处理的I/O写扇区请求数量(平均值)。 ≥ 0 counts 磁盘使用率(数据盘) 该指标用于统计数据盘的磁盘使用率,以比率为单位。 0100% 磁盘使用率(系统盘) 该指标用于统计系统盘的磁盘使用率,以比率为单位。 0100% 磁盘平均队列长度(数据盘) 该指标用于统计数据盘平均队列长度。以s为单位。 ≥0s 磁盘平均队列长度(系统盘) 该指标用于统计系统盘平均队列长度。以s为单位。 ≥0s IO操作等待时间(数据盘) 该指标用于统计数据盘IO操作等待时间。 ≥0 ms IO操作等待时间(系统盘) 该指标用于统计系统盘IO操作等待时间。 ≥0 ms 网络接收字节数 该指标用于统计平均每秒从测量对象的所有网络适配器输入的流量,以千字节为单位。 ≥ 0 kb/s 网络发送字节数 该指标用于统计平均每秒从测量对象的所有网络适配器输出的流量,以千字节为单位。 ≥ 0 kb/s 数据库总连接数 该指标用于统计试图连接到MySQL服务器的总连接数,以个为单位。 ≥ 0 counts 当前活跃连接数 该指标用于统计当前打开的连接的数量,以个为单位。 ≥ 0 counts 执行次数(select) 该指标用于统计平均每秒select语句执行次数 ≥ 0 counts 执行次数(insert) 该指标用于统计平均每秒insert语句执行次数 ≥ 0 counts 执行次数(update) 该指标用于统计平均每秒update语句执行次数 ≥ 0 counts 执行次数(delete) 该指标用于统计平均每秒delete语句执行次数 ≥ 0 counts QPS 该指标用于统计SQL语句查询次数,含存储过程,以次/秒为单位。 ≥ 0 queries/s TPS 该指标用于统计事务执行次数,含提交的和回退的,以次/秒为单位。 ≥ 0 transactions/s 缓冲池利用率 该指标用于统计空闲的页与InnoDB缓存中缓冲池页面总数的比例,以比率为单位。 0100% 缓冲池命中率 该指标用于统计读命中与读请求数比例,以比率为单位。 0100% 缓冲池脏块率 该指标用于统计InnoDB缓存中脏数据与InnoDB缓存中使用的页比例,以比率为单位。 0100% InnoDB读取吞吐量 该指标用于统计Innodb平均每秒读字节数,以字节/秒为单位。 ≥ 0 bytes/s InnoDB写入吞吐量 该指标用于统计Innodb平均每秒写字节数,以字节/秒为单位。 ≥ 0 bytes/s InnoDB文件读取频率 该指标用于统计Innodb平均每秒从文件中读的次数,以次/秒为单位。 ≥ 0 counts/s InnoDB文件写入频率 该指标用于统计Innodb平均每秒向文件中写的次数,以次/秒为单位。 ≥ 0 counts/s InnoDB日志写请求频率 该指标用于统计平均每秒的日志写请求数,以次/秒为单位。 ≥ 0 counts/s InnoDB日志物理写频率 该指标用于统计平均每秒向日志文件的物理写次数,以次/秒为单位。 ≥ 0 counts/s InnoDB日志fsync()写频率 该指标用于统计平均每秒向日志文件完成的fsync()写数量,以次/秒为单位。 ≥ 0 counts/s 临时表创建数量 该指标用于统计在硬盘上创建的临时表数量,以个为单位。 ≥ 0 counts Insert语句执行频率 该指标用于统计平均每秒Insert语句执行次数,以次/秒为单位。 ≥ 0 queries/s Delete语句执行频率 该指标用于统计平均每秒Delete语句执行次数,以次/秒为单位。 ≥ 0 queries/s Select语句执行频率 该指标用于统计平均每秒Select语句执行次数。 ≥ 0 queries/s Update语句执行频率 该指标用于统计平均每秒Update语句执行次数,以次/秒为单位。 ≥ 0 queries/s 行删除速率 该指标用于统计平均每秒从InnoDB表删除的行数,以行/秒为单位。 ≥ 0 rows/s 行插入速率 该指标用于统计平均每秒向InnoDB表插入的行数,以行/秒为单位。 ≥ 0 rows/s 行读取速率 该指标用于统计平均每秒从InnoDB表读取的行数,以行/秒为单位。 ≥ 0 rows/s 行更新速率 该指标用于统计平均每秒向InnoDB表更新的行数,以行/秒为单位。 ≥ 0 rows/s 历史行锁平均等待时间 该指标用于统计innodb历史行锁平均等待时间。 > 0ms 当前行锁等待数 该指标用于统计innodb当前行锁等待数,以个为单位。表示当前正在等待行锁的事务个数。 ≥ 0 counts 长事务个数统计 该指标用于统计长事务的个数 ≥ 0 counts 连接使用率 该指标用于统计当前已用的MySQL连接数占总连接数的百分比。 0100% 主从复制延迟 该指标用于统计多节点实例,主从复制延迟时间,以s为单位。 ≥0 s 每秒DDL次数 该指标用于统计对象每秒钟ddl次数 ≥ 0 counts 平均每秒InsertSelect语句执行次数 该指标用于统计对象平均每秒InsertSelect语句执行次数 ≥ 0 counts 平均每秒ReplaceSelect语句执行次数 该指标用于统计对象平均每秒ReplaceSelect语句执行次数 ≥ 0 counts 平均每秒replace语句执行次数 该指标用于统计对象平均每秒replace语句执行次数 ≥ 0 counts Innodb打开文件数 该指标用于统计对象Innodb打开文件数 ≥ 0 counts 打开表数 该指标用于统计对象打开表数 ≥ 0 counts 打开的文件数 该指标用于统计对象打开的文件数 ≥ 0 counts 执行全表搜索查询的数量 该指标用于统计对象执行全表搜索查询的数量 ≥ 0 counts InnoDB 平均每秒fsync操作次数 该指标用于统计对象InnoDB 平均每秒fsync操作次数 ≥ 0 counts InnoDB每秒写入redo log日志量(B) 该指标用于统计对象InnoDB每秒写入redo log日志量(B) ≥0 B mdl锁阻塞的连接数 该指标用于统计对象mdl锁阻塞的连接数 ≥ 0 counts relay log使用量 该指标用于统计对象relay log使用量 ≥0 MB redo log使用量 该指标用于统计对象redo log使用量 ≥0 MB 系统数据库数据量 该指标用于统计系统数据库数据量 ≥0 MB 用户数据库数据量 该指标用于统计对象用户数据库数据量 ≥0 MB 临时文件数据量 该指标用于统计对象临时文件数据量 ≥0 MB undo log使用量 该指标用于统计对象undo log使用量 ≥0 MB binlog使用量 该指标用于统计对象binlog使用量 ≥0 MB slow log使用量 该指标用于统计对象slow log使用量 ≥0 MB 平均每秒从所有客户端接收到的字节数 该指标用于统计对象平均每秒从所有客户端接收到的字节数 ≥0 KB 平均每秒发送给所有客户端的字节数 该指标用于统计对象平均每秒发送给所有客户端的字节数 ≥0 KB 当前全部会话 该指标用于统计当前全部会话 ≥ 0 counts 当前活跃会话 该指标用于统计当前活跃会话 ≥ 0 counts InnoDB Buffer Pool 刷Page请求数量 该指标用于统计对象InnoDB Buffer Pool 刷Page请求数量 ≥ 0 counts InnoDB 表总等待row locks次数 该指标用于统计对象InnoDB 表总等待row locks次数 ≥ 0 counts 从系统启动到现在锁定的总时间 该指标用于统计对象从系统启动到现在锁定的总时间 ≥0 ms InnoDB 表每秒等待row locks时间 该指标用于统计对象InnoDB 表每秒等待row locks时间 ≥0 ms InnoDB 表每秒等待row locks次数 该指标用于统计对象InnoDB 表每秒等待row locks次数 ≥ 0 counts InnoDB 表平均等待row locks时间 该指标用于统计对象InnoDB 表平均等待row locks时间 ≥0 ms 监控行锁个数 该指标用于统计对象监控行锁个数 ≥ 0 counts 读取源二进制日志的I/O线程是否正在运行 该指标用于统计对象读取源二进制日志的I/O线程是否正在运行 ≥ 0 counts 执行中继日志中事件的SQL线程是否正在运行 该指标用于统计对象执行中继日志中事件的SQL线程是否正在运行 ≥ 0 counts MySQL读写次数 该指标用于统计对象MySQL读写次数 ≥ 0 counts IOPS使用率 该指标用于统计对象IOPS使用率 0100% 慢查询 该指标用于统计对象的慢查询数量 ≥ 0 counts 等待表锁次数 该指标用于统计对象的等待表锁次数(dml级) ≥ 0 counts
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        监控与告警
        支持的监控指标
      • 步骤一(2):创建出云迁移任务
        本节主要介绍步骤一(2):创建出云迁移任务 数据库复制服务提供出云的功能,可以将本云上的数据库迁移至用户端数据库,方便进行数据回流处理。 本章节将以RDS for MySQL到ECS自建MySQL的迁移为示例,介绍在同一VPC网络场景下,通过数据库复制服务管理控制台配置数据迁移任务的流程,其他存储引擎的配置流程类似。 VPC网络适合本云内数据库之间的迁移。在数据库复制服务中,数据库迁移是通过任务的形式完成的,通过创建任务向导,可以完成任务信息配置、任务创建。迁移任务创建成功后,您也可以通过数据库复制服务管理控制台,对任务进行管理。 目前数据库复制服务支持每个用户最多可创建5个实时迁移任务。 前提条件 已登录数据库复制服务控制台。 账户余额大于等于100元。 满足实时迁移支持的数据库类型。 满足出云迁移的限制条件。 操作步骤 1、在“实时迁移管理”页面,单击“创建迁移任务”,进入创建迁移任务页面。 2、在“迁移实例”页面,填任务名称、任务异常通知设置、时延阈值、描述、迁移实例信息。 图 迁移任务信息 表 任务和描述 参数 描述 任务名称 任务名称在450位之间,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 任务异常通知设置 该项为可选参数,开启之后,需要填写手机号码或者邮箱作为指定收件人。当迁移任务状态异常时,系统将发送通知给指定收件人。 说明 收到确认短信或邮件之后,需要在48小时内处理,否则该订阅无效,将无法收到异常通知。 时延阈值 在增量迁移阶段,源数据库和目标数据库之间的实时同步有时会存在一个时间差,称为时延,单位为秒。 时延阈值设置是指时延超过一定的值后(时延阈值范围为1—3600s),DRS可以发送告警通知给指定收件人。告警通知将在时延稳定超过设定的阈值6min后发送,避免出现由于时延波动反复发送告警通知的情况。 说明 首次进入增量迁移阶段,会有较多数据等待同步,存在较大的时延,属于正常情况,不在此功能的监控范围之内。 设置时延阈值之前,需要设置任务异常通知。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 图 迁移实例信息 表 迁移实例信息 参数 描述 数据流动方向 选择出云。 出云指源端数据库为本云数据库的场景。 源数据库引擎 选择MySQL。 目标数据库引擎 选择MySQL。 网络类型 目前支持公网网络、VPC网络和VPN、专线网络类型,您可以根据具体的业务场景进行设置,此处场景以VPC网络为示例。 VPC网络:适合云上数据库之间的迁移。 VPN、专线网络:适合通过VPN、专线网络,实现其他云下自建数据库与云上数据库迁移、或云上跨Region的数据库之间的迁移。 公网网络:适合将其他云下或其他平台的数据库迁移到目标数据库。 源数据库实例 用户需要迁移的数据库实例。 迁移模式 全量:该模式为数据库一次性迁移,适用于可中断业务的数据库迁移场景,全量迁移将非系统数据库的全部数据库对象和数据一次性迁移至目标端数据库,包括:表、视图、存储过程等。 说明 如果用户只进行全量迁移时,建议停止对源数据库的操作,否则迁移过程中源数据库产生的新数据不会同步到目标数据库。 全量+增量:该模式为数据库持续性迁移,适用于对业务中断敏感的场景,通过全量迁移过程中完成的目标端数据库的初始化后,增量迁移阶段通过解析日志等技术,将源端和目标端数据库保持数据持续一致。 说明 选择“全量+增量”迁移模式,增量迁移可以在全量迁移完成的基础上实现数据的持续同步,无需中断业务,实现迁移过程中源业务和数据库继续对外提供访问。 3、在“源库及目标库”页面,迁移实例创建成功后,填选源库信息和目标库信息,并单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 图 源库信息 表 源库信息 参数 描述 数据库实例名称 默认为创建迁移任务时选择的关系型数据库实例,不可进行修改。 数据库用户名 源数据库对应的数据库用户名。 数据库密码 源数据库对应的数据库密码。任务为启动中、全量迁移、增量迁移、增量迁移失败状态时,可在“基本信息”页面的“迁移信息”区域,单击“源库密码”后的“替换密码”,在弹出的对话框中修改密码。 说明 源数据库的用户名和密码将在迁移过程中被加密暂存到数据库和迁移实例主机上,待该任务删除后会永久清除。 图 目标库信息 表 目标库信息 参数 描述 VPC 目标数据库所在的虚拟专用网络,可以对不同业务进行网络隔离。 子网 通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。子网在可用分区内才会有效,创建源数据库实例的子网需要开启DHCP功能,在创建过程中也不能关闭已选子网的DHCP功能。 IP地址或域名 目标数据库的IP地址或域名。 端口 目标数据库服务端口,可输入范围为1~65535间的整数。 数据库用户名 目标数据库的用户名。 数据库密码 目标数据库的用户名所对应的密码。支持在任务创建后修改密码。 任务为启动中、全量迁移、增量迁移、增量迁移失败状态时,可在“基本信息”页面的“迁移信息”区域,单击“目标库密码”后的“替换密码”,在弹出的对话框中修改密码。 SSL安全连接 通过该功能,用户可以选择是否开启对迁移链路的加密。如果开启该功能,需要用户上传SSL CA根证书。 说明 最大支持上传500KB的证书文件。 如果不使用SSL证书,请自行承担数据安全风险。 所有Definer迁移到该用户下 是 迁移后,所有源数据库对象的Definer都会迁移至该用户下,其他用户需要授权后才具有数据库对象权限。 否 迁移后,将保持源数据库对象Definer定义不变,选择此选项,需要配合下一步用户权限迁移功能,将源数据库的用户全部迁移,这样才能保持源数据库的权限体系完全不变。 说明: 目标数据库的IP地址、端口、用户名和密码将在迁移过程中被加密暂存到数据库和迁移实例主机上,待该任务删除后会永久清除。 4、在“迁移设置”页面,设置迁移用户和迁移对象等信息,单击“下一步”。 图 迁移模式 表 迁移模式 参数 描述 快照模式 如果您选择的是全量迁移模式的任务,数据库复制服务支持设置快照模式。 非快照式 适用于停止业务数据写入的导出,如果全量迁移中仍然有业务数据的修改,则导出数据为时间点非水平一致。稳定性和性能要优于快照式全量迁移。 快照式 可以在业务运行时产生一份时间水平一致的快照数据,具有业务数据分析价值,过程中的数据变化不会体现在导出数据中。 说明 快照读会使用MySQL备份锁进行全局锁表,在开启一致性读后自动解锁(加锁时间在3s以内),备份锁会对此期间的DML或者DDL操作造成阻塞,建议用户选择源库空闲的时间段使用快照备份功能。 目前仅MySQL全量模式的迁移任务支持快照模式设置。 是否过滤DROP DATABASE 增量迁移过程中,源数据库端执行的DDL操作在一定程度上会影响数据的迁移能力,为了降低迁移数据的风险,数据库复制服务提供了过滤DDL操作的功能。 目前支持默认过滤删除数据库的操作。 是,表示数据迁移过程中不会同步用户在源数据库端执行的删除数据库的操作。 否,则表示数据迁移过程中将相关操作同步到目标库。 说明 目前仅支持RDS for MySQL实例>MySQL数据库数据库的全量+增量的迁移场景。 迁移用户 数据库的迁移过程中,迁移用户需要进行单独处理。 常见的迁移用户一般分为三类:可完整迁移的用户、需要降权的用户和不可迁移的用户。您可以根据业务需求选择“迁移”或者“不迁移”,选择“迁移”后,可根据需要选择迁移用户。 迁移 当您选择迁移用户时,请参见《数据库复制服务用户指南》中“迁移用户”章节进行数据库用户、权限及密码的处理。 不迁移 迁移过程中,将不进行用户、权限和密码的迁移。 迁移对象 您可以根据业务需求,选择全部对象迁移、表级迁移或者库级迁移。 全部迁移:将源数据库中的所有对象全部迁移至目标数据库,对象迁移到目标数据库实例后,对象名将会保持与源数据库实例对象名一致且无法修改。 表级迁移:将选择的表级对象迁移至目标数据库。 库级迁移:将选择的库级对象迁移至目标数据库。 如果有切换源数据库的操作或源库迁移对象变化的情况,请务必在选择迁移对象前单击右上角的按钮,以确保待选择的对象为最新源数据库对象。 说明 若选择部分数据库进行迁移时,由于存储过程、视图等对象可能与其他数据库的表存在依赖关系,若所依赖的表未迁移,则会导致迁移失败。建议您在迁移之前进行确认,或选择全部数据库进行迁移。 选择对象的时候,对象名称的前后空格不显示,中间如有多个空格只显示一个空格。 选择对象的时候支持搜索,以便您快速选择需要的数据库对象。 5、在“预检查”页面,进行迁移任务预校验,校验是否可进行迁移。 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行迁移任务预校验。 预检查不通过项处理建议请参见《数据库复制服务用户指南》中的“预检查不通过项修复方法”。 图 预检查 预检查完成后,且预检查通过率为100%时,单击“下一步”。 说明 所有检查项结果均通过时,若存在待确认项,需要阅读并确认详情后才可以继续执行下一步操作 6、在“任务确认”页面,选择迁移任务的启动时间,并确认迁移任务信息无误后,单击“启动任务”,提交迁移任务。 说明 迁移任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”,优选“稍后启动”。 预计迁移任务启动后,会对源数据库和目标数据库的性能产生影响,强烈建议您将任务启动时间设定在业务低峰期,同时预留23天校对数据。 7、迁移任务提交后,您可在“实时迁移管理”页面,查看并管理自己的任务。 您可查看任务提交后的状态,状态请参见参考:任务状态含义。 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时迁移
        步骤一(2):创建出云迁移任务
      • 添加防护对象
        本文介绍如何通过独享型接入方式将网站接入WAF进行防护。 使用独享型接入方式接入WAF前,需要先添加防护对象。 前提条件 已购买WAF独享型实例,且当前实例支持接入的防护对象数量未超过限制。 操作步骤 1. 登录天翼云控制中心。 2. 单击页面顶部的区域选择框,选择区域。 3. 在产品服务列表页,选择“安全 > Web应用防火墙(原生版)”。 4. 进入到云WAF控制台,在左侧导航栏选择“接入管理”,选择“独享型接入”页签。 5. 点击“添加防护对象”进入信息配置页,依次配置“防护对象”、“服务器配置”、“代理情况”、“负载均衡策略”等信息。 配置项说明如下: 配置项 说明 选择实例 单击“选择实例”,在弹出的选择实例对话框中,找到目标实例,单击操作列的“选择”。 防护对象 填写防护网站的域名或IP。 域名:支持添加精确域名和泛域名。 精确域名:支持多级别精确域名,例如主域名ctyun.cn、子域名www.ctyun.cn等。 泛域名:支持使用泛域名格式,例如.ctyun.cn可以匹配www.ctyun.cn、test.ctyun.cn。 说明 使用泛域名后,WAF将自动匹配该泛域名对应的所有子域名,例如,.ctyun.cn能够匹配www.ctyun.cn、test.ctyun.cn等。 泛域名不支持匹配对应的主域名,例如.ctyun.cn不能匹配ctyun.cn。 如果同时存在精确域名和泛域名,则精确域名的转发规则和防护策略优先生效。 IP:支持防护公网IP、私网IP。 当填写公网IP时,指客户端访问业务系统直接指向的弹性IP(该弹性IP可能绑定在防火墙或WAF上)。 当填写私网IP时(用于内网访问防护场景),填写内网客户端访问的内网IP(因内网访问情况下,WAF代理业务系统,此处需填写WAF代理业务系统的IP而非业务系统本身的IP,即WAF业务网卡的VIP,业务系统内网IP填写在回源IP处)。 说明 采用内部IP代理场景下,因直接通过IP访问,WAF监听对象为WAF本身的IP,为了区分不同的业务,后端多业务不能采用相同端口,例如后端两个不同的业务不能同时采用80端口,否则WAF无法判断业务需要回源到哪个端口,会导致防护无法生效;若内部WAF采用域名进行区分则可配置相同端口。 防护对象名称 自定义防护网站的显示名称。 服务器配置 单击“添加一个服务器端口组”,弹出新增服务器端口组窗口。 选择网站使用的协议类型以及对应的转发服务端口: 协议类型:HTTP/HTTPS。 端口:选中协议后,系统会对应设置默认端口,HTTP协议默认为80端口,HTTPS协议默认为443端口。 用户也可自定义选择其他端口,可选类型: 标准端口:80、8080;443、8443。 非标端口:除以上标准端口以外的端口。 说明 如果防护域名使用非标准端口,请查看WAF支持的端口。 WAF通过此处添加的端口为网站提供流量的接入与转发服务,网站域名的业务流量只通过已添加的服务端口进行转发。对于未添加的端口,WAF不会转发任何该端口的访问请求流量到源站服务器,因此这些端口的启用不会对源站服务器造成任何安全威胁。 源站地址:设置网站的源站服务器地址,支持IP地址格式和域名格式。完成接入后,WAF将过滤后的访问请求转发到此处设置的服务器地址。设置说明如下: IP地址格式:填写源站的私网IP地址。 最多支持添加40个源站IP或服务器域名。 支持同时配置IPv4和IPv6地址。 说明 如果此处配置私网IP,请确保WAF到源站的网络路径是可访问的,以便于WAF能够对流量进行监控。 域名格式:一般对应该域名在DNS服务商处配置的CNAME。使用域名格式时, WAF会将客户端请求转发到回源域名解析出来的IP地址。 权重:当负载均衡算法为“加权轮询”时生效,所有请求将此处配置的权重轮流分配给源站服务器,权重越大,回源到该源站的几率越高。 不输入则视同为最低权重1。 当输入值为0时,业务不会回源到该站点。 取值范围:0~100的正整数。 说明 当健康检查发现站点出现问题时,剩余站点将按照剩余配置权重进行动态比例变化后的结果进行回源转发,节点回源请求比例节点权重/所有权重之和。 若回源列表中所有源站健康检查均失败了,为保障业务默认通路WAF将会强制回源至回源列表中顺序为第一个的站点。 若设置多个权重为0的节点,仅会回源至列表上第一个权重为0的节点。 所有站点全部健康检查失败,会强制回配置列表第一个节点。 证书配置 若选择HTTPS协议,还需要上传证书,且证书必须正确、有效,才能保证WAF正常防护网站的HTTPS协议访问请求。 1. 点击“上传证书”,进入服务器端证书配置页面。 2. 选择证书类型,支持“通用证书”和“国密证书”。 3. 配置证书。支持证书选择、手动填写、文件上传方式: 证书选择:如您使用了证书管理服务,可通过下拉框选择已有证书。 手动填写:填写证书名称,并将与域名关联的证书文件和私钥文件的文本内容的PEM编码分别复制粘贴到证书文件和证书私钥中。 文件上传:填写证书名称,点击“上传”,将与域名关联的证书文件和私钥文件上传至平台中。 说明 手动填写需要将证书和私钥的PEM编码内容填入。 上传证书时,如果证书是.PEM/.CER/.CRT的后缀,可以直接上传;私钥文件若为.KEY/.PEM的后缀,请确保内容格式为PME编码,即可上传。 高级设置 > HTTP强制跳转 选择HTTPS后,还支持启用HTTP强制跳转功能。 HTTPS强制跳转表示将客户端的HTTP请求强制转换为HTTPS请求,默认跳转到443端口。 如果您需要强制客户端使用HTTPS请求访问网站以提高安全性,则开启该设置。 说明 只有在未选中HTTP协议时,支持开启该设置。 请确保网站支持HTTPS业务再开启该设置。开启该设置后,部分浏览器将被强制设置为使用HTTPS请求访问网站。 高级设置 > TLS协议版本和加密套件 选择证书后,需要配置TLS协议版本和加密套件。WAF默认配置的TLS协议版本为“TLS1.0及以上版本”,加密套件为“全部加密套件”。 TLS协议版本 配置说明如下,为了确保网站安全,请根据业务实际需求进行配置: 支持TLS1.0及以上版本:所有的TLS协议都可以访问网站,兼容性最高,适用于网站无安全性要求的场景。 支持TLS1.1及以上版本:WAF将自动拦截TLS1.0协议的访问请求,适用于网站安全性能要求一般的场景。 支持TLS1.2及以上版本:WAF将自动拦截TLS1.0和TLS1.1协议的访问请求,适用于网站安全性能要求很高的场景。 自定义加密协议:WAF只允许所选TLS协议访问网站。 加密套件 配置说明: 全部加密套件:兼容性较高,安全性较低。 协议版本的自定义加密套件:请谨慎选择,避免影响业务。 WAF支持的加密套件及TLS协议版本详细信息请参见WAF支持的加密套件。 高级设置 > SSL解析方式 选择HTTPS后,支持配置SSL解析方式。支持“单向认证”和“双向认证”。 说明 国密证书暂不支持双向认证。 健康检查 开启健康检查将自动移除对失效源站的转发策略,当失效源站恢复健康后将重新加入转发列表。 开启后,还需配置健康检查策略。 代理情况 选择网站业务在接入WAF前是否开启了其他代理服务(例如DDoS高防、CDN等),按实际情况选择: 否:表示WAF收到的业务请求来自发起请求的客户端。WAF直接获取与WAF建立连接的IP作为客户端IP。 是:表示WAF收到的业务请求来自其他代理服务转发,而非直接来自发起请求的客户端。 为了保证WAF可以获取真实的客户端IP进行安全分析,需要进一步设置“源IP获取方式”。 源IP获取方式:系统默认设置为“从Socket连接中获取”,您也可按实际情况,创建一个有序的判定列表,系统将从列表的第一项开始查找,若不存在或者是非法的IP格式,则尝试下一条。 其中检测末项固定为“从Socket连接中获取”。获取方式列表最多可添加5条规则,可选项如下: 从Socket连接中获取 从XFowardedFor连接中获取倒数第x层代理 从HTTP头“XClientIP”中获取 负载均衡策略 当设置了多个源站服务器地址时,需设置多源站服务器间的负载均衡算法。可选项如下: 轮询:将所有请求轮流分配给不同的源站服务器。 IP Hash:将来自同一个IP的请求定向分配给同一个源站服务器。 加权轮询:根据同一组回源地址内配置的权重进行加权回源,权重越大,回源到该源站的几率越高。 设置生效后,WAF将根据设置的负载均衡算法向多个源站地址分发回源请求,实现负载均衡。 流量标记 开启流量标记功能,WAF在转发客户端请求到源站服务器时,通过在回源请求头部添加标记字段,标记该请求经过WAF转发,可以帮助源站判断请求来源。 如果请求中存在指定标记字段,则为WAF检测后的正常请求,放行该请求;如果请求中不存在指定标记字段,则为攻击者请求,拦截该请求。 单击“添加一个标记”,添加流量标记。最多支持添加5个标记字段。 支持如下标记类型: 自定义请求Header,配置自定义Header名、Header值。 客户端真实IP,配置客户端真实IP所在的HTTP Header名。 客户端真实源端口,配置客户端真实源端口所在的HTTP Header名。 注意 请勿填写标准的HTTP头部字段,否则会导致标准头部字段内容被自定义的字段值覆盖。 回源长连接 功能开启后,支持回源长连接功能,WAF独享版最大支持50000个回源长连接。 开启“回源长连接”后,还需配置“空闲连接超时时间”,默认值为10秒,最多支持60秒。 功能关闭后,将不支持WebSocket。 说明 当针对源站健康检查失败时,WAF会主动将失效的源站剔除回源列表,并将请求按照剩余站点权重比例/轮询转发至剩余健康站点,直至该源站恢复健康。 若回源列表中所有源站健康检查均失败了,为保障业务默认通路WAF将会强制回源至回源列表中顺序为第一个的站点。 源站响应超时切换时间公式:(检查间隔 + 响应超时时间) × 请求失败失效阈值。 源站恢复切换时间公式:(检查间隔 + 响应超时时间) × 失效后恢复健康阈值。 超时配置 开启超时配置,可以配置如下超时时间: 连接超时时间:WAF转发客户端请求时,与源站建立连接的超时时间。 读连接超时时间:WAF等待源站响应的超时时间。 写连接超时时间:WAF向源站发送请求的超时时间。 以上默认值均为60秒,最短支持10秒,最长支持1200秒。 备注 防护对象的描述信息,可以自定义。 6. 配置完成后单击“保存”,返回独享型接入页面。该网站的WAF防护开关默认开启。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        用户指南
        接入WAF
        网站接入WAF防护(独享型接入)
        添加防护对象
      • 生产消费验证
        本文介绍分布式消息服务RocketMQ入门指引的生产消费验证内容。 背景信息 RocketMQ的生产消费验证是指在使用RocketMQ进行消息生产和消费时的验证过程。具体而言,验证包括以下几个方面: 生产者验证:RocketMQ提供了丰富的生产者API,开发人员可以使用这些API将消息发送到RocketMQ的消息队列中。在验证阶段,可以通过发送消息并检查返回结果来确保消息成功发送到Broker节点。此外,生产者还应该验证消息的顺序性、事务性以及可靠性等方面。 消费者验证:RocketMQ的消费者可以订阅特定的消息主题,从而消费这些主题下的消息。在验证阶段,消费者应该能够正确地从Broker节点拉取消息并进行消费处理。消费者还可以验证消息的顺序性、重试机制以及消息过滤等功能。 操作步骤 1、 天翼云官网点击控制中心,选择产品分布式消息服务RocketMQ。 2、 登录分布式消息服务RocketMQ控制台,点击右上角地域选择对应资源池。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入Topic管理菜单,点击【拨测】按钮,进行生产消费的拨测验证,验证开通的消息实例和主题。 1)生产测试拨测: 选择消息类型,默认普通消息。 填写需要产生的测试消息数量,以及每条消息的大小,默认每条消息1KB,建议不超过4MB(4096KB)。 选择已建的消息主题,若无选项,请新增主题,详见上文创建主题和订阅组。 点击【测试】按钮,按照已填写规格及数量产生测试消息数据,展示消息数据的信息,包括消息ID(messageID)、发送状态、主题名(topic名)、Broker名、队列ID。 拨测功能涉及消息发送状态码,以下是RocketMQ消息发送状态码及其说明: ✧ SENDOK(发送成功):表示消息成功发送到了消息服务器。 ✧ FLUSHDISKTIMEOUT(刷新磁盘超时):表示消息已经成功发送到消息服务器,但是刷新到磁盘上超时。这可能会导致消息服务器在宕机后,尚未持久化到磁盘上的数据丢失。 ✧ FLUSHSLAVETIMEOUT(刷新从服务器超时):表示消息已经成功发送到消息服务器,但是刷新到从服务器上超时。这可能会导致主从同步不一致。 ✧ SLAVENOTAVAILABLE(从服务器不可用):表示消息已经成功发送到消息服务器,但是从服务器不可用。这可能是由于网络故障或从服务器宕机引起的。 ✧ UNKNOWNERROR(未知错误):表示发送消息时遇到了未知的错误。一般情况下建议重试发送消息。 ✧ MESSAGESIZEEXCEEDED(消息大小超过限制):表示消息的大小超过了消息服务器的限制。需要检查消息的大小是否合适。 ✧ PRODUCETHROTTLE(消息生产被限流):表示消息生产者的频率超出了消息服务器的限制。这可能是由于消息发送频率过高引起的。 ✧ SERVICENOTAVAILABLE(服务不可用):表示消息服务器不可用。这可能是由于网络故障或者消息服务器宕机引起的。 请注意,以上状态码仅适用于RocketMQ消息发送阶段,并且不代表消息是否成功被消费者接收。同时,这些状态码也可能因版本变化而有所不同,建议查阅官方文档获取最新信息。 2)消费测试拨测: 选择消息顺序,下拉选择无序/有序,默认选项为无序。 RocketMQ是一种开源的分布式消息中间件,它支持有序消息和无序消息。 ✧ 有序消息是指消息的消费顺序与发送顺序完全一致。在某些业务场景下,消息的处理需要保证顺序性,例如订单的处理或者任务的执行。RocketMQ提供了有序消息的支持,通过指定消息的顺序属性或使用消息队列的分区机制,可以确保消息按照指定的顺序进行消费。 ✧ 无序消息则是指消息的消费顺序与发送顺序无关。无序消息的特点是高吞吐量和低延迟,适用于一些不要求严格顺序的业务场景,如日志收集等。 在RocketMQ中,有序消息和无序消息的实现方式略有不同。有序消息需要借助MessageQueue的分区机制和消费者端的顺序消息消费来实现。而无序消息则是通过消息的发送和接收的并发处理来实现的。 总的来说,RocketMQ既支持有序消息也支持无序消息,根据业务需求选择合适的消息类型来满足业务的要求。 选择消费方式,目前仅提供pull方式。值得注意的是,RocketMQ还提供了推送(push)方式的消费模式,其中消息队列服务器会主动将消息推送给消费者。但在当前仅限于pull方式的消费模式。 填写消费数量。 下拉选择选择已建的消息主题和订阅组,若无选项,请新增主题和订阅组,详见上文创建主题和订阅组。 点击【测试】按钮,按照已填写规格及数量产生消费数据,展示消息数据的信息,包括消息ID(messageID)、主题名称(topicName)、生成时间、存储时间、队列ID、消费状态。 拨测功能涉及消息消费状态码,RocketMQ消费状态码是指在消息消费过程中,对消费结果进行标识的状态码。以下是常见的RocketMQ消费状态码: ✧ CONSUMESUCCESS(消费成功):表示消息成功被消费。 ✧ RECONSUMELATER(稍后重试):表示消费失败,需要稍后再次进行消费。 ✧ CONSUMEFAILURE(消费失败):表示消息消费出现异常或失败。 ✧ SLAVENOTAVAILABLE(从节点不可用):表示消费者无法访问从节点来消费消息。 ✧ NOMATCHEDMESSAGE(无匹配的消息):表示当前没有匹配的消息需要消费。 ✧ OFFSETILLEGAL(偏移量非法):表示消费的偏移量参数不合法。 ✧ BROKERTIMEOUT(Broker超时):表示由于Broker超时导致消费失败。 5、 用户应用按照规范接入RocketMQ,发送、消费消息。 1)生产者示例API 以下适用于南京3、上海7、重庆2、乌鲁木齐27、保定、石家庄20、内蒙6、晋中、北京5节点。 ctgmq引擎版本,SDK下载方式详见环境准备其他工具章节。 package com.ctg.guide; import com.ctg.mq.api.CTGMQFactory; import com.ctg.mq.api.IMQProducer; import com.ctg.mq.api.PropertyKeyConst; import com.ctg.mq.api.bean.MQMessage; import com.ctg.mq.api.bean.MQSendResult; import com.ctg.mq.api.exception.MQException; import com.ctg.mq.api.exception.MQProducerException; import java.util.Properties; / Producer,发送消息 / public class Producer { public static void main(String[] args) throws InterruptedException, MQException { Properties properties new Properties(); properties.setProperty(PropertyKeyConst.ProducerGroupName, "producergroup"); properties.setProperty(PropertyKeyConst.NamesrvAddr, "10.50.208.1:9876;10.50.208.2:9876;10.50.208.3:9876"); properties.setProperty(PropertyKeyConst.NamesrvAuthID, "app4test"); properties.setProperty(PropertyKeyConst.NamesrvAuthPwd, ""); properties.setProperty(PropertyKeyConst.ClusterName, "defaultMQBrokerCluster"); properties.setProperty(PropertyKeyConst.TenantID, "defaultMQTenantID"); IMQProducer producer CTGMQFactory.createProducer(properties);//建议应用启动时创建 int connectResult producer.connect(); if(connectResult ! 0){ return; } for (int i 0; i mqResultList) { //mqResultList 默认为1,可通过批量消费数量设置 for(MQResult result : mqResultList) { //TODO System.out.println(result); } return ConsumerTopicStatus.CONSUMESUCCESS;//对消息批量确认(成功) //return ConsumerTopicStatus.RECONSUMELATER;//对消息批量确认(失败) } }); } } 以下适用于华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3节点。 rocketmq引擎版本,SDK下载方式详见环境准备其他工具章节。 importorg.apache.rocketmq.client.consumer.DefaultMQPushConsumer; importorg.apache.rocketmq.client.consumer.listener.ConsumeConcurrentlyStatus; importorg.apache.rocketmq.client.consumer.listener.MessageListenerConcurrently; importorg.apache.rocketmq.client.exception.MQClientException; publicclassPushConsumer{ public static void main(String[] args) throws Exception{ AclClientRPCHook rpcHook newAclClientRPCHook(newSessionCredentials(ACCESSKEY, SECRETKEY)); DefaultMQPushConsumer consumer new DefaultMQPushConsumer(rpcHook); consumer.setConsumerGroup("ConsumerGroupName"); // 填入元数据地址 consumer.setNamesrvAddr("XXX:xxx"); ; //如果需要开启SSL,请增加此行代码 consumer.subscribe("YOUR TOPIC",""); consumer.registerMessageListener((MessageListenerConcurrently)(msgs, context)>{ System.out.printf("%s Receive New Messages: %s %n",Thread.currentThread().getName(), msgs); returnConsumeConcurrentlyStatus.CONSUMESUCCESS; }); consumer.start(); System.out.printf("Consumer Started.%n"); } } 示例参数说明: Namesrv地址 Namesrv地址可从控制台查看,多个地址按分号分隔。 应用用户和密码 这个应用用户和密码就是控制台创建的应用用户和密码。 租户id和集群名 集群名和租户id可以从应用用户管理查询。 订阅组 消费组名需要在控制台提前创建好。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        快速入门
        生产消费验证
      • 数据传输服务模块安装部署
        本页介绍天翼云TeleDB数据库数据传输服务模块的安装部署操作。 前提条件 本服务部署需要的全部组件按安装顺序排列如下: MySQL Zookeeper Docker 部署规划 本产品采用一键安装包的部署方式,安装包包含了后端运行所需的java应用。安装前需要检查、配置好安装所需的环境。安装后配置前端即可访问。 操作步骤 1. 查看操作系统版本 cat /etc/osrelease; 2. 查看系统架构 uname a; 3. 创建目录并挂载磁盘 sudo mkdir p /dts; 创建目录 sudo fdisk l 查看磁盘,选一块未挂载的/dev/xxx sudo mkdir /dts 创建挂载目录 sudo mkfs.xfs f /dev/sde 创建文件系统,例如选了sde这块盘 /dev/sde /dts xfs defaults 0 0 打开 /etc/fstab 文件末尾添加这一行 sudo mount a 挂载 df h 查看挂载结果 4. 创建用户 1. 执行以下命令,创建用户 sudo useradd dts; 2. 执行以下命令,为用户设置密码 sudo passwd dts; 3. 执行以下命令,修改目录权限 sudo chown R dts:dts /dts; 4. 执行以下命令,为用户添加sudoers权限,并设置免密登录 sudo vi /etc/sudoers; 打开该文件,添加以下行: dts ALL(ALL) NOPASSWD: ALL 保存退出。 5. 为用户开放更多系统资源,打开/etc/security/limits.conf sudo vi /etc/security/limits.conf 在文件末尾添加如下行: dts soft nofile 65535 dts hard nofile 65535 dts soft nproc 65535 dts hard nproc 65535 dts soft stack unlimited dts hard stack unlimited dts soft as unlimited dts hard as unlimited 保存并退出。 6. 执行以下命令,将dts用户加入root用户组 sudo usermod a G root dts; 5. 解压安装包 1. 将部署包拷贝到/dts目录下 sudo cp ctgpaasdts2.8.5P9.tar.gz /dts; 2. 修改压缩包权限 sudo chown dts:dts /dts/ctgpaasdts2.8.5P9.tar.gz; 3. 切换用户 sudo su dts; 4. 进入主目录 cd /dts; 5. 解压并进入解压后的目录内 tar zxvf ctgpaasdts2.8.5P9.tar.gz && cd ctgpaasdts2.8.5P9; 6. 查看主目录结构 ls l; 7. 查看依赖包目录 ls l ./pkg 6. 安装jdk 说明 dts基于java 11运行,因此要先安装jdk。 1. 进入pkg目录 cd ./pkg; 2. 如果是arm架构(鲲鹏机器),则执行如下命令解压 tar zxvf microsoftjdk11.0.12.7.1linuxaarch64.tar.gz 3. 如果x86架构(海光机器),则执行如下命令解压 tar zxvf openjdk11.0.18+10.tar.gz 4. 重命名解压后的目录 mv jdk11.0.12+7 jdk11 5. 配置java环境变量 vi ~/.bashrc 在文件末尾添加以下几行,保存并退出 export JAVAHOME/dts/jdk11 export CLASSPATH.:$JAVAHOME/lib/dt.jar:$JAVAHOME/lib/tools.jar export PATH$JAVAHOME/bin:$PATH 让环境变量生效: source ~/.bashrc; 查看java版本: java version; 7. 安装telnet dts的一键部署包,会用telnet命令检查程序是否安装成功,因此需要这个包。 先查看telnet是否有安装: rpm qa grep telnet; 如果有输出,则不用再安装,否则执行以下安装命令,(以x86架构为例) sudo rpm ivh xinetd2.3.1514.el7.x8664.rpm; sudo rpm ivh telnet0.1765.el78.x8664.rpm; sudo rpm ivh telnetserver0.1765.el78.x8664.rpm; 8. 安装openssl10 sudo rpm ivh compatopenssl101.0.2o3.el8.x8664.rpm; 9. 后端部署 10. 部署包目录架构 下面为执行tree命令输出: ctgpaasdts2.8.5P9arrch64 ├── api │ └── V280001BASEINIT.sql ├── arm64 │ └── install ├── config │ ├── application.yml │ ├── mysqlport.cnf │ ├── otter.properties │ └── start.sh ├── install ├── install.cfg ├── pkg │ ├── compatopenssl101.0.2o3.el8.aarch64.rpm │ ├── docker24.0.5.arrch64.tgz │ ├── manager.web.deploy2.8.5P9.tar.gz │ ├── microsoftjdk11.0.12.7.1linuxaarch64.tar.gz │ ├── mysql5.7.492023.q3.2.aarch64.tar.gz │ ├── ora2pgty4.tar.gz │ ├── telnet0.1776.el8.aarch64.rpm │ ├── telnetserver0.1776.el8.aarch64.rpm │ ├── xinetd2.3.1524.el8.aarch64.rpm │ └── zookeeper3.4.13.tar.gz ├── start ├── stop ├── tools │ ├── aarch64 │ │ ├── go │ │ ├── jdk │ │ │ ├── copyjdkconfigs3.73.ky10.noarch.rpm │ │ │ ├── giflib5.2.11.ky10.aarch64.rpm │ │ │ ├── java11openjdk11.0.6.104.ky10.ky10.aarch64.rpm │ │ │ ├── java11openjdkdevel11.0.6.104.ky10.ky10.aarch64.rpm │ │ │ ├── java11openjdkheadless11.0.6.104.ky10.ky10.aarch64.rpm │ │ │ ├── javapackagesfilesystem5.3.02.ky10.noarch.rpm │ │ │ ├── lksctptools1.0.1611.ky10.aarch64.rpm │ │ │ ├── luaposix33.3.112.ky10.aarch64.rpm │ │ │ ├── tzdatajava2020a1.p01.ky10.noarch.rpm │ │ │ ├── xorgx11fontsothers7.524.ky10.noarch.rpm │ │ │ └── xorgx11fontutils7.542.ky10.aarch64.rpm │ │ ├── mysql │ │ └── net │ │ └── telnet0.1776.ky10.aarch64.rpm │ ├── ELF │ │ └── mysql │ └── secureHandler └── uninstall 11. 填写配置文件 配置文件install.cfg模板如下 { "version": "DTS版本号", "deployPath": "DTS统一部署路径, 需确保目录已经存在且具备正常的读写权限", "db": { "mode": "common", "machine": [ { "username": "DTS管理库所在机器对应登录账号", "password": "DTS管理库所在机器对应登录账号, 明文", "ip": "DTS管理库所在机器对应IP", "port": "DTS管理库所在机器ssh端口" } ], "deploy": "是否部署新的管理库,int类型.如果复用已有库填0, 否则填1. 当取值0时, 上述username, password, port可不填", "auth": { "dbPort": "DTS管理库服务端口, int类型", "superPassword": "DTS管理库root账号对应初始密码, 明文. 如上述deploy取值0, 则可不填", "dbUser": "DTS管理库初始账号, 如上述deploy取值0, 则必须确保该账号已经存在", "dbPassword": "DTS管理库初始账号对应密码, 明文", "dbName": "DTS管理库初始schema" } }, "manager": { "mode": "common", "machine": [ { "username": "DTS控制台所在机器对应登录账号", "password": "DTS控制台所在机器对应登录账号, 明文", "ip": "DTS控制台所在机器对应IP", "port": "DTS控制台所在机器ssh端口" } ], "deploy": 1, "httpPort": "DTS控制台http服务端口, int类型", "httpsPort": "DTS控制台https服务端口, int类型", "conPort": "DTS控制台rpc服务端口, int类型", "specification": "DTS控制台规格信息, 可取值范围micro,min,standard,medium,large.注意:不同的规格在部署时需分配不同的内存,可提供不同的性能参数,具体规格说明见下面附录.一般情况下建议取值min", "prodInstId": "", "allowWebDomain": "" }, "zookeeper": { "mode": "common", "machine": [ { "username": "DTS调度节点(zookeeper)1所在机器对应登录账号", "password": "DTS调度节点(zookeeper)1所在机器对应登录账号, 明文", "ip": "DTS调度节点(zookeeper)1所在机器对应IP", "port": "DTS调度节点(zookeeper)1所在机器ssh端口" }, { "username": "DTS调度节点(zookeeper)2所在机器对应登录账号", "password": "DTS调度节点(zookeeper)2所在机器对应登录账号, 明文", "ip": "DTS调度节点(zookeeper)2所在机器对应IP", "port": "DTS调度节点(zookeeper)2所在机器ssh端口" }, { "username": "DTS调度节点(zookeeper)3所在机器对应登录账号", "password": "DTS调度节点(zookeeper)3所在机器对应登录账号, 明文", "ip": "DTS调度节点(zookeeper)3所在机器对应IP", "port": "DTS调度节点(zookeeper)3所在机器ssh端口" } ], "deploy": "是否部署新的zookeeper,int类型. 如复用已有zookeeper则填0, 否则填1. 当取值0时, 上述username, password, port可不填", "zkPort": "zookeeper对应服务端口,int类型", "zkElection": "zookeeper对应选举端口,int类型", "zkCommunication": "zookeeper对应通信端口,int类型" }, "scene": "standalone" } 先备份一下: cp install.cfg install.cfg.sample; 填写配置文件。 arm架构额外操作:如果是arm架构,则将arm64目录下的install文件拷贝到当前目录(x86不做此步骤) cp ./arm64/install ./ 12. 执行一键部署脚本 ./install 如果部署失败,则执行 chmod +x uninstall; ./uninstall; 解决问题后,重新执行一键部署。 13. 对接dcp 修改application.yml配置,注意需要修改的配置项如下,其他不用管 配置项 描述 填写示例 server.servlet.contextpath 后端服务路径,和dcp约定,必须填写为/dts /dts spring.applicaton.name 在dcp中的组件标识,必须填写为dts dts spring.cloud.inetutils.preferrednetworks 让dcp进行服务发现后的ip地址,如果dts所属服务器是多ip,要注意哪个ip是和dcp通的,这里就填写那个ip地址 182.42.233.200 spring.cloud.zookeeper.enabled 表示会去连zk,必须填写true true spring.cloud.zookeeper.connectstring dcp给出的zk的连接地址 182.42.233.200:2181 spring.cloud.zookeeper.discovery.root dcp给出的组件的注册路径 /services/gctest spring.cloud.zookeeper.maxretries 连接zk的重试次数,不配置默认为10 建议填写300 spring.cloud.zookeeper.maxsleepms 每次重试的等待时间,默认为500 建议填写1000 iam.server.responseApiUrl dcp给出的回单地址 示例如下: server: servlet: contextpath: /dts https: ssl: enabled: false port: 17971 keystoretype: PKCS12 keystore: keystore/dtsserver.p12 keystorepassword: keyalias: dtsserver enabledprotocols: TLSv1,TLSv1.1,TLSv1.2 ciphers: TLSECDHERSAWITHAES128CBCSHA256,TLSECDHERSAWITHAES128CBCSHA,TLSECDHERSAWITHAES256CBCSHA384,TLSECDHERSAWITHAES256CBCSHA,TLSECDHERSAWITHRC4128SHA,TLSRSAWITHAES128CBCSHA256,TLSRSAWITHAES128CBCSHA,TLSRSAWITHAES256CBCSHA256,TLSRSAWITHAES256CBCSHA,SSLRSAWITHRC4128SHA mybatis: typealiasespackage: com.chinatelecom.dts.shared.common.model mapperlocations: classpath:dao/.xml configuration: mapunderscoretocamelcase: true spring: application: name: dts cloud: inetutils: preferrednetworks: 182.42.233.200 loadbalancer: ribbon: enabled: false compatibilityverifier: enabled: false zookeeper: enabled: true connectstring: 182.42.233.200:2181 maxretries: 300 maxsleepms: 1000 discovery: preferipaddress: true root: /services/gctest iam.server.url: iam.server.syncApi: /openapi/v1/users/ctyun/sync iam.server.tenants: /openapi/v1/tenants iam.server.versionAgentUrl: /openapi/v1/versions/projectVersion iam.server.logUrl: iam.server.responseApiUrl: api: server: disable: true cluster: xxx:8901 key: TestApiServer digest: 45783632523044543459453955776E704767676F47773D3D 修改otter.properties配置中,otter.run.modeprivatedcp,表示私有云dcp运行环境,示例如下 otter.manager.monitor.email.host smtp.chinatelecom.cn otter.manager.monitor.email.password otter.manager.monitor.email.receiver rc@wq.com otter.manager.monitor.email.security tls otter.manager.monitor.email.stmp.port 465 otter.manager.monitor.email.switch off otter.manager.monitor.email.username otter.run.mode privatedcp otter.zookeeper.aclEnable true otter.zookeeper.authConfig dts:6f562b63312b6b5a6c4f38304c75436d4576693679413d3d otter.zookeeper.cluster.default 182.42.233.200:17973 otter.zookeeper.sessionTimeout 90000 停止manager服务 ./stop.sh 启动manager服务 ./start.sh 14. 前端部署 dcp会给一个前端部署目录,只要把前端文件拷贝到该目录下即可。例如dcp给出的目录为/dcp/teledbdcpfordms/teledbdts,那么 cd /dcp/teledbdcpfordms/teledbdts; 拷贝前端压缩包到console目录 cp teledbdts.zip /dcp/teledbdcpfordms/teledbdts; 解压teledbdts.zip,解压后的文件目录名为teledbdts unzip teledbdtszip; 重命名teledbdts mv teledbdts console; 15. 导入ADAM镜像 前提是部署好docker服务,然后导入ADAM镜像,注意要在DTS工作节点运行的那台机器上导入 docker load input ora2pgty4.tar latest 16. 添加开机启动 1. 给与可执行权限 sudo chmod +x autorestart.sh; 2. 打开/etc/cron.allow文件,在末尾添加上dts,允许dts用户执行crontab命令,保存退出 sudo vi /etc/cron.allow; 3. 编辑crontab crontab e; 4. 在末尾添加上自启命令,保存退出 @reboot /dts/dtsinstall/2.8.5/autorestart.sh /dts/dtsinstall/2.8.5/manager > /dts/dtsinstall/2.8.5/restart.log 2>&1
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        安装过程
        数据传输服务模块安装部署
      • 创建节点池
        操作场景 本章介绍了如何添加运行CCE集群的节点池以及对节点池执行操作。要了解节点池的工作原理,请参阅节点池概述。 操作步骤 将节点池添加到现有集群。 步骤 1 登录CCE控制台,在左侧导航栏中选择“资源管理 > 节点池管理”。 步骤 2 单击右上角的“创建节点池”。 步骤 3 在创建节点池页面中,参照如下说明设置节点池选型参数。 计费模式: 节点池仅支持“按需计费”的计费模式,该模式将根据实际使用的资源按小时计费。 节点池创建后,自建的节点池里的资源无法转包周期,默认节点池里的资源可以转包周期。您可以把自建节点池里的资源迁移到默认的节点池里后再进行转包周期的操作。如何迁移请参见迁移节点。 当前区域:指节点实例所在的物理位置。 请就近选择靠近您业务的区域,可减少网络时延,提高访问速度;不同区域的云服务产品之间内网互不相通。 节点池名称:新建节点池的名称,默认按“集群名nodepool随机数”生成名称,可自定义。 节点类型:目前仅支持虚拟机节点。 节点购买数量:该节点池下购买的节点数量,此处设置的节点数不能超过集群管理的最大节点规模,请根据业务需求和界面提示选择,如需更多配额,请单击提交工单申请扩大配额。 弹性扩缩容: − 默认不开启。 − 单击 开启后,节点池将根据集群负载情况自动创建或删除节点池内的节点,参数设置如下: 节点数上限和节点数下限:您可设置节点数的上限和下限,保证节点数在合理的范围内伸缩。 优先级:请根据业务需要设置相应数值,该数值表示节点池之间进行弹性扩缩容的优先级,数值越大优先级越高,如设置为4的节点池比设置为1的节点池优先启动弹性伸缩。若多个节点池的值设置相同,如都设置为2,表示这几个节点池之间不分优先级,系统将按最小资源浪费原则进行伸缩。 弹性缩容冷却时间:请设置时间,单位为分钟或小时。弹性缩容冷却时间是指当前节点池扩容出的节点多长时间不能被缩容。 说明: 节点池中的节点建议不要放置重要数据,以防止节点被弹性缩容,数据无法恢复。 为保证功能的正常使用,节点池开启弹性扩缩容功能后,请务必安装autoscaler。 可用区:可用区是在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 请根据业务需要进行选择。节点池创建之后不支持修改可用区属性,请谨慎选择。 如果您需要提高工作负载的高可靠性,建议您选择“随机可用区”,将节点随机均匀分布在不同可用区中。 节点规格:请根据业务需求选择相应的节点规格。 须知: 为确保节点稳定性,系统会自动预留部分资源,用于运行必须的系统组件,详细请参见节点预留资源计算公式 。 操作系统:请直接选择节点对应的操作系统。 须知:重装操作系统或修改操作系统配置将导致节点不可用,请务必谨慎操作。 虚拟私有云:跟随集群,不可变更。 所在子网:通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。 可选择该集群虚拟私有云下的任意子网,集群节点支持跨子网。 请确保子网下的DNS服务器可以解析对象存储服务域名,否则无法创建节点。 系统盘:设置工作节点的系统盘空间。您可以设置系统盘的规格为40GB1024GB之间的数值,缺省值为40GB。 在默认情况下,系统盘可提供高IO、超高IO两种基本的云硬盘类型。 数据盘:设置工作节点的数据盘空间。您可以设置数据盘的规格为100GB32768GB之间的数值,缺省值为100GB。数据盘可提供的云硬盘类型与系统盘一致,此处不再赘述,详情参见系统盘中的云硬盘类型介绍。 须知: 若数据盘卸载或损坏,会导致docker服务异常,最终导致节点不可用。建议不要删除该数据盘。 登录方式:支持密码和密钥对。 −选择“密码”:用户名默认为“root”,请输入登录节点的密码,并确认密码。 登录节点时需要使用该密码,请妥善管理密码,系统无法获取您设置的密码内容。 −选择“密钥对”:在选项框中选择用于登录本节点的密钥对,并单击勾选确认信息。 密钥对用于远程登录节点时的身份认证。若没有密钥对,可单击选项框右侧的“创建密钥对”来新建,创建密钥对操作步骤请参见。 步骤 4 云服务器高级设置:(可选),单击 展开后可对节点进行如下高级功能配置: 安装前执行脚本:请输入脚本命令,大小限制为0~1000字符。 脚本将在Kubernetes软件安装前执行,可能导致Kubernetes软件无法正常安装,需谨慎使用。常用于格式化数据盘等场景。 安装后执行脚本:请输入脚本命令,大小限制为0~1000字符。 脚本将在Kubernetes软件安装后执行,不影响Kubernetes软件安装。常用于修改Docker配置参数等场景。 步骤 5 Kubernetes高级设置:(可选),单击 展开后可对集群进行如下高级功能配置: 最大实例数:节点最大允许创建的实例数(Pod),该数量包含系统默认实例,取值范围为16~128。 该设置的目的为防止节点因管理过多实例而负载过重,请根据您的业务需要进行设置。 Taints:默认为空。支持给该节点池扩容出来的节点加Taints来设置反亲和性,每个节点池最多配置10条Taints,每条Taints包含以下3个参数: −Key:必须以字母或数字开头,可以包含字母、数字、连字符、下划线和点,最长63个字符;另外可以使用DNS子域作为前缀。 −Value:必须以字符或数字开头,可以包含字母、数字、连字符、下划线和点,最长63个字符。 −Effect:只可选NoSchedule,PreferNoSchedule或NoExecute。 须知: Taints配置时需要配合Pod的toleration使用,否则可能导致扩容失败或者Pod无法调度到扩容节点。 节点池创建后可单击列表项的“编辑”修改配置,修改后将同步到节点池下的已有节点。 K8S标签:K8S标签是附加到Kubernetes 对象(比如Pods)上的键值对,旨在用于指定对用户有意义且相关的对象的标识属性,但不直接对核心系统有语义含义。 详细请参见Labels and Selectors。 单容器可用数据空间:该参数用于设置一个容器可用的数据空间大小,设置范围为10G到80G。如果设置的参数超过数据盘中Docker可占用的实际数据空间(由数据盘设置项中的资源分配自定义参数指定,默认为数据盘大小的90%),将以Docker的实际空间大小为主。该参数仅在v1.13.10r0及以上版本的集群中显示。 步骤 6 (可选)您可以单击左侧的 按钮添加多个节点池,在按钮下方可以查看您可用的节点池配额数量。 步骤 7 完成配置后,单击“下一步:配置确认”,确认所设置的服务选型参数、规格和费用等信息。 步骤 8 确认规格和费用后,单击“提交”,节点池开始创建。 节点池创建预计需要610分钟,您可以单击“返回节点池管理”进行其他操作或单击“查看节点池事件列表”后查看节点池详情。待节点池状态为“正常”,表示节点池创建成功。 查看创建的节点池 步骤 1 登录CCE控制台,在左侧导航栏中选择“资源管理 > 节点池管理”。 步骤 2 在节点池管理页面中,单击右上角的集群选择框,选择集群后可显示当前集群下所有的节点池,并可查看每个节点池的节点类型、节点规格、弹性扩缩容状态和操作系统等。 须知: 节点池功能上线后,会在每个集群中创建一个默认节点池“DefaultPool”,该节点池不能被编辑、删除或迁移,集群中原有的节点及节点池外创建的节点均会显示在默认节点池“DefaultPool”中。 单击默认节点池“DefaultPool”中“节点”数据框,可查看DefaultPool中的节点列表。 步骤 3 单击右上角的Autoscaler状态选择框,可筛选全部、已启用、未启用Autoscaler功能的节点池。 步骤 4 在节点池列表中,单击节点池的名称,在节点池详情页面,可查看节点池的基本信息、ECS高级设置、Kubernetes高级设置、节点列表等信息。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        节点池管理
        创建节点池
      • 故障诊断
        查看诊断结果 在故障诊断页面诊断列表的操作列,点击目标诊断报告对应的诊断详情,在诊断详情页面查看详细诊断结果,诊断项状态为异常时,需要确认,如果是引起集群异常的问题需要处理。 注意 根据集群配置,具体检查项可能稍有不同。实际结果请以诊断页面结果为准。 支持的诊断项 诊断维度 诊断项 说明 修复方案 Service 检查Service后端Ready Pod数量 检查Service后端Ready Pod数量。 检查业务Pod状态,保证Pod存在且处于Ready状态。 Service 检查Service是否存在异常事件 检查集群中是否存在与该Service相关的异常事件。 请检查并处理Service异常事件中的描述信息,若无法处理,请提交工单。 节点 检查节点是否存在 检查集群中是否存在该节点。 请检查Node在集群中是否存在。 节点 检查节点状态是否Ready 检查节点在集群中的状态是否为Ready。 请登录到节点上执行systemctl status kubelet或journalctl exu kubelet查看节点上kubelet进程异常日志并尝试修复。 节点 检查节点状态是否不可调度 检查节点是否不可调度,不可调度的节点会影响Pod的正常运行。 节点不可调度,请检查节点调度设置。 节点 检查节点CPU装载率是否过高 检查节点CPU资源分配率是否过高。 请检查节点上pod的CPU request值设置的合理性。 节点 检查节点内存装载率是否过高 检查节点内存资源分配率是否过高。 请检查节点上pod的Memory request值设置的合理性。 节点 检查节点磁盘压力 检查节点磁盘使用率是否过高。 请检查节点磁盘使用情况,及时清理磁盘中不需要的文件或扩容磁盘。 节点 检查节点PID压力 检查节点PID使用率是否过高。 请检查节点PID使用情况。 节点 检查节点Chronyd进程状态是否正常 检查节点Chronyd进程是否异常,该进程异常可能会影响系统时钟同步。 节点Chronyd进程异常,可能影响节点系统时间同步。请尝试通过命令systemctl restart chronyd重启节点Chronyd进程。 节点 检查节点Ntpd进程状态是否正常 检查节点Ntpd进程是否异常,该进程异常时可能会影响系统时钟同步。 节点Ntpd进程异常,可能影响节点系统时间同步。请尝试通过命令systemctl restart ntpd重启节点Ntpd进程。 节点 检查节点Containerd状态是否正常 检查节点Containerd服务的状态,该进程异常时可能会影响Pod的正常运行。 节点Containerd状态异常,请收集节点日志并提交工单处理。 节点 检查节点Containerd镜像拉取是否正常 检查节点Containerd进程拉取pause镜像是否正常。 请检查节点网络及镜像配置。 节点 检查节点Docker状态是否正常 检查节点Dockerd服务的状态,该进程异常时可能会影响Pod的正常运行。 节点Docker状态异常,请收集节点日志并提交工单处理。 节点 检查节点Docker镜像拉取是否正常 检查节点Docker进程拉取pause镜像是否正常。 请检查节点网络及镜像配置。 节点 检查节点Kubelet状态是否正常 检查节点Kubelet服务的状态,该进程可能会影响Pod的正常运行。 请检查节点kubelet日志。 节点 检查节点Kubelet启动时间 检查节点Kubelet进程启动时间。 无 节点 节点OS版本 检查节点操作系统版本。 无 节点 节点内核版本 检查节点内核版本是否过低,内核版本过低可能造成系统异常。 请尝试更换节点升级内核。 节点 节点Systemd版本 检查节点systemd版本。 无 节点 节点runc版本 检查节点runc版本,runc版本过低可能造成系统异常。 无 节点 节点系统时间 检查节点系统时间。 无 节点 节点硬件时间 检查节点硬件时间。 无 节点 节点硬件时间漂移 检查节点硬件时钟与系统时间是否一致,时间相差超过2分钟可能引起组件异常。 请尝试登录节点,通过命令hwclock systohc将节点系统时间同步到硬件时间。 节点 检查节点内存交换区开启情况 检查节点内存交换区 (Memory Swap) 功能是否开启,K8s默认要求关闭内存交换区。 当前节点内存交换区 (Memory Swap) 功能不支持开启,请登录节点关闭该功能。 节点 检查Conntrack表使用情况 检查节点Conntrack表是否满,Conntrack表满可能影响网络性能。 请检查nfconntrackbuckets和nfconntrackmax内核参数。 节点 检查节点访问集群API Server是否正常 检查节点能否正常连接集群API Server,访问集群中其他K8s资源。 请检查集群相关配置。请检查集群相关配置。检查Master组件Pod是否异常。API Server使用的负载均衡ELB是否异常。 节点 节点DNS服务地址 检查节点能否正常使用主机DNS服务,通过主机DNS服务解析集群外域名。 请检查主机DNS服务是否正常。更多信息,请参见DNS解析异常问题排查。 节点 检查节点内网IP是否存在 检查节点内网IP是否存在。 节点内网IP不存在,请尝试移除节点后重新导入。 节点 检查节点能否访问公网 检查节点能否正常访问公网,无法访问公网可能影响公网镜像拉取。 请检查集群是否开启SNAT公网访问。 节点 节点CPU使用率 检查节点CPU负载是否过高,CPU负载过高可能影响系统性能。 无 节点 节点内存使用率 检查节点内存负载是否过高,内存过高可能影响系统性能。 无 Pod 检查Pod是否存在 检查集群中是否存在该Pod。 请检查Pod在集群中对应命名空间下是否存在。 Pod 检查Pod状态是否为Running 检查Pod是否处于Running状态。 请检查Pod状态及日志。更多信息,请参见Pod异常问题排查。 Pod Pod容器重启次数统计 统计Pod中容器重启次数。 请检查Pod状态及日志。更多信息,请参见Pod异常问题排查。 Pod 检查Pod容器是否存在镜像下载阻塞情况 检查Pod容器对应的镜像下载被阻塞。 请检查Pod状态及日志。更多信息,请参见Pod异常问题排查。 Pod 检查Pod容器镜像Secrets是否有效 检查Pod拉取镜像的Secrets是否有效。 请检查Pod状态及日志。更多信息,请参见Pod异常问题排查。 Pod 检查Pod到主机网络DNS服务器的连通性 检查Pod到主机网络DNS服务器的连通性。 请检查Pod到主机网络DNS服务器的连通性。 Pod 检查Pod容器进程处于D状态检查 检查Pod内的容器进程是否处于D状态。 Pod的部分容器进程处于D状态,通常为容器进程卡在磁盘IO中,请尝试重启宿主机ECS,如仍无法恢复,请提交工单处理。 Pod 检查Pod是否初始化成功 检查Pod是否正常初始化。 请检查Pod状态及日志。更多信息,请参见Pod异常问题排查。 Pod 检查Pod是否处于调度中状态 检查Pod是否正常调度。 请检查Pod状态及日志。更多信息,请参见Pod异常问题排查。 Pod 检查Pod是否配置了livenessProbe探针 检查Pod描述文件是否配置了livenessProbe探针。 请为Pod配置合适的livenessProbe健康检查。 Pod 检查Pod是否配置了ReadinessProbe探针 检查Pod描述文件是否配置了ReadinessProbe探针。 请为Pod配置合适的readinessProbe健康检查。 Pod 检查Pod是否配置了资源requests 检查Pod描述文件是否配置了资源requests。 请为Pod配置合适的request资源申请。 Pod 检查Pod是否配置了资源limits 检查Pod描述文件否配置了资源limits。 请为Pod配置合适的limit资源限制。 Pod 检查Pod在过去24小时内是否存在OOM Kill情况 检查Pod在过去24小时内是否存在因内存过载而被Kill的情况。 请检查Pod是否配置了合适的limit资源限制,同时检查Pod状态及日志。更多信息,请参见Pod异常问题排查。 Ingress 检查Ingress是否存在 检查与转发规则匹配的Ingress是否存在。 检查所提供的URL信息是否有能够对应的Ingress规则。若URL信息无误,可能是Ingress规则存在问题。 Ingress 检查Ingress名称规范 检查所匹配到的Ingress名称是否规范。 无 Ingress 检查是否使用了nginx.ingress.kubernetes.io/sessioncookiehash废弃注解 检查是否使用了在0.24.0版本废弃的nginx.ingress.kubernetes.io/sessioncookiehash注解key。 确认当前Ingress Controller版本,移除该注解或使用其他注解代替。 Ingress 检查是否使用了nginx.ingress.kubernetes.io/baseurlscheme废弃注解 检查是否使用了在0.22.0版本废弃的nginx.ingress.kubernetes.io/baseurlscheme注解key。 确认当前Ingress Controller版本,移除该注解或使用其他注解代替。 Ingress 检查是否使用了nginx.ingress.kubernetes.io/securebackends废弃注解 检查是否使用了在0.21.0版本废弃的nginx.ingress.kubernetes.io/securebackends注解key。 确认当前Ingress Controller版本,移除该注解或使用其他注解代替。 Ingress 检查是否使用了nginx.com/nginx.org注解 检查是否使用了不兼容社区版Nginx Ingress Controller的商业版Ingress注解key(以nginx.com/nginx.org开头)。 请使用对应功能的正确用法。关于Ingress更多信息,请参见社区官方文档Nginx Ingress Controller。(引用到官方文档) Ingress 检查是否使用了nginx.ingress.kubernetes.io/grpcbackend废弃注解 检查是否使用了在0.21.0版本废弃的nginx.ingress.kubernetes.io/grpcbackend注解key。 确认当前Ingress Controller版本,移除该注解或使用其他注解代替。 Ingress 检查是否使用了nginx.ingress.kubernetes.io/mirroruri废弃注解 检查是否使用了在0.24.0版本废弃的nginx.ingress.kubernetes.io/mirroruri注解key。 确认当前Ingress Controller版本,移除该注解或使用其他注解代替。 Ingress 检查是否启用了canary 使用了nginx.ingress.kubernetes.io/canary相关注解,但value值为"false‘,如果需要使用灰度功能,请指定nginx.ingress.kubernetes.io/canary: "true"。 如果您需要在该Ingress上开启Canary功能,请在Ingress规则上添加nginx.ingress.kubernetes.io/canary: "true"注解。 Ingress 检查Ingress是否存在异常事件 检查集群中是否存在与该Ingress相关的异常事件。 检查并处理异常事件描述信息中的报错,如无法解决,请提交工单处理。
        来自:
        帮助文档
        分布式容器云平台 CCE One
        用户指南
        注册集群
        注册集群控制台
        运维
        故障诊断
      • 状态码
        本产品接口请求的返回状态码列表,包含正常和异常状态码、状态码对应状态信息、描述等。 状态码 错误码 返回信息 含义 200 0 成功 成功操作 400 KMS.0101 参数缺失 所传参数缺失 400 KMS.0102 CmkUuid cannot be empty 主密钥id不能为空 400 KMS.0103 AliasName cannot be empty 别名不能为空 400 KMS.0104 Digest cannot be empty 待签名值不能为空 400 KMS.0105 KeyVersionId cannot be empty 请选择主密钥版本 400 KMS.0106 Sign algorithm cannot be empty 请选择签名算法 400 KMS.0107 Plaintext can notbe empty 请输入需要加密的明文 400 KMS.0108 Ciphertextblob cannot be empty 请输入待解密密文 400 KMS.0109 Reencrypt cmkuuid cannot be empty 请选择转加密主密钥 400 KMS.0110 Asymmetric encrypt need sourceuuid 非对称加密需选择密文对应的主密钥id 400 KMS.0111 Asymmetric encrypt need sourceKeyVersion 非对称加密需选择密文对应的主密钥版本 400 KMS.0112 DestinationUuid cannot be empty 转加密主密钥不能为空 400 KMS.0113 Protectionlevel cannot be empty 保护等级不可为空 400 KMS.0114 Algorithm cannot be empty 加密算法不能为空 400 KMS.0115 Regionid cannot be empty 资源池id不能为空 400 KMS.0116 Enableautoatocrotatiom cannot be empty 请选择是否进行密钥轮转 400 KMS.0117 Keyusage can not be empty 请选择密钥用途 400 KMS.0118 Rotationinterval cannot be empty 请选择密钥轮转周期 400 KMS.0119 Nextrotationdate is empty 下次轮转时间为空 400 KMS.0120 Algorithm for import cannot be empty 选择导入密钥加密算法 400 KMS.0121 KeySpec for publickey cannot be empty 选择公钥类型 400 KMS.0122 Pendingwindowindays cannot be empty 选择延迟删除时间 400 KMS.0123 Token cannot be empty token为空 400 KMS.0124 Encryptenkeymeterial cannot be empty 密钥材料不能为空 400 KMS.0125 Sign value cannot be empty 请输入签名值 400 KMS.0126 Keyspec cannot be empty 加密算法不能为空 400 KMS.0127 Userid cannot be empty 用戶id不能为空 400 KMS.0128 Request JSON format is illegal 请求JSON格式非法 400 KMS.0129 The request message is too long 请求消息太长 400 KMS.0130 The page size is too large 单页数据过多 400 KMS.0131 The public blob can not be empty 公钥不能为空 400 KMS.0132 AliasName is too long 别名长度过长 400 KMS.0133 AliasName is not legal 别名不合法 400 KMS.0134 Wrappingalgorithm cannot be empty 算法不能为空 400 KMS.0135 Product cannot be empty 产品不能为空 400 KMS.0136 Product is not exist 产品不存在 400 KMS.0137 Messagetype is wrong 消息格式错误 400 KMS.0138 The certificate id is wrong 证书ID错误 400 KMS.0139 Certificate does not match certificate chain 证书与证书链不匹配 400 KMS.0140 Certificate format error 证书格式错误 400 KMS.0141 Certificate algorithm not supported 证书算法不支持 400 KMS.0142 The privatekey of the certificate cannot be exported 证书私钥不可导出 400 KMS.0143 The cert is not availible 证书不存在 400 KMS.0144 The formate of cert export is wrong 导出证书格式错误 400 KMS.0201 Alias already exists 別名已存在 400 KMS.0202 The default CMK cannot create an alias 默认主密钥不能创建别名 400 KMS.0203 The selection CMK is not available 选择主密钥不可用 400 KMS.0204 The selected CMK is not available for signature and verification 选择的主密钥不可用于签名验签名 400 KMS.0205 The selected CMK is not available for encryption and decryption 选择的主密钥不可用于加密解密 400 KMS.0206 The CMK is disabled 密钥不是可用状态 400 KMS.0207 The CMK cannot be enabled 密钥不可启用 400 KMS.0208 The Cmk has deletion task 密钥已有删除计划 400 KMS.0209 The CMK has no deletion task 密钥无删除计划 400 KMS.0210 The CMK cannot be imported 密钥不可导入 400 KMS.0211 The CMK does not support automatic rotation 该密钥不支持自动轮转 400 KMS.0212 The selection algorithm is not supported 选择算法不支持 400 KMS.0213 The CMK is not a symmetric key 密钥不是对称密钥 400 KMS.0214 The CMK is not a asymmetric key 密钥不是非对称密钥 400 KMS.0215 Wrong algorithm format 算法格式错误 400 KMS.0216 Wrong keyusage type 密钥用途类型错误 400 KMS.0217 Wrong input of parameter format! Please enter true / false 参数格式输入有误!请输入true/false 400 KMS.0218 Wrong protectionlevel 保护等级错误 400 KMS.0219 Wrong ciphertext 密文有误 400 KMS.0220 Key length input error,this algorithm only supports AES256 密钥长度输入错误,该算法仅支持AES256 400 KMS.0221 Key length input error,this algorithm only supports SM4128 密钥长度输入错误,该算法仅支持SM4128 400 KMS.0222 Key length input error,this algorithm only supports RSA2048 密钥长度输入错误,该算法仅支持RSA2048 400 KMS.0223 This algorithm only supports AES/SM4 目前仅支持AES/SM4算法 400 KMS.0224 Wrong rotationlevel format 轮转周期格式不合法 400 KMS.0225 Asymmetric CMK cannot be imported 非对称密钥不可导入 400 KMS.0226 Wrong pendingwindowindays format 删除时间不合法 400 KMS.0227 Unsupported keyspec 不支持的密钥类型 400 KMS.0228 The number of the CMK rotation of the user has reached the upper limit 该用户密钥轮转次数已达上限! 400 KMS.0229 Failed to execute key rotation. The key has been rotated within 7 days! 执行密钥轮转失败,该密钥7天内已执行过轮转! 400 KMS.0230 The current CMK is in the state of pause rotation. Please enable the master key or cancel the plan deletion before operation! 当前密钥处于暂停轮转状态,请启用主密钥或取消计划删除后再操作 400 KMS.0231 PageSize exceeds threshold pagesize超过阈值 400 KMS.0232 Symmetric key can not use to sign or verify 对称密钥不能用于签名验签 400 KMS.0233 This key cannot operation alias 密钥不能操作别名 400 KMS.0234 Default key cannot delete alias 默认密钥不能删除别名 400 KMS.0235 WRONG time format 时间格式错误 400 KMS.0236 Wrong algorithm for import 导入密钥算法错误 400 KMS.0237 Wrong keyspec for import 算法格式错误 400 KMS.0238 The number of asymmetric keys in a region cannot be greater than 50 非对称密钥不能超过50个 400 KMS.0239 Key decryption failed 密钥解密失败 400 KMS.0240 Cmkuuid is not legal cmkuuid不合法 400 KMS.0241 Cmk length is wrong 对称密钥长度不合法 400 KMS.0242 Origin type wrong 密钥类型格式错误 400 KMS.0243 The default CMK cannot update an alias 默认主密钥不能创建别名 400 KMS.0244 The destinationKeyId is not a symmetric key 转加密密钥不是对称密钥 400 KMS.0245 The Meterial for import is already exist 密钥材料已经存在 400 KMS.0246 destinationKeyId cannot use ID无法使用 400 KMS.0247 Data key ciphertext wrong 数据密钥密文错误 400 KMS.0248 The cmk already has a meterial 该密钥已导入 400 KMS.0249 The length of plaintext exceeds the limit 加密数据长度超过限制 400 KMS.0250 Asymmetric CMK cannot create datakey 非对称主密钥不能创建数据密钥 400 KMS.0251 Only support RSA cmk 只支持RSA类型的密钥 400 KMS.0252 Plaintext need to be base64 非对称密钥加密解密的明文需要base64 400 KMS.0253 KeySpec cannot be empty 密钥类型不能为空 400 KMS0254 Subject cannot be empty 证书主体不能为空 400 KMS0255 certificateId cannot be empty 证书id不能为空 400 KMS0256 status cannot be empty 证书状态不能为空 400 KMS0257 the certificate has not been imported 证书未导入 400 KMS0258 the certificate has been active 证书已被启用 400 KMS0259 the certificate has been revoked 证书已被吊销 400 KMS0260 the certificate has been inactive 证书已被禁用 404 KMS.0301 The CMK does not exist or has been deleted 密钥不存在或已删除 404 KMS.0302 The target CMK does not exist 目标主密钥不存在 404 KMS.0303 The target alias does not exist 目标别名不存在 404 KMS.0304 The target CMK does not exist or in illegal status 目标主密钥不存在或状态不合法 404 KMS.0305 The destination cmk does not exist or has been deleted 密钥不存在或已删除 404 KMS.0306 The cmk is not enable 密钥不存在或已删除 404 KMS.0307 DestinationKeyId do not exist DestinationKeyId不存在 404 KMS.0308 The soucekeyid CMK does not exist 密钥不存在 404 KMS.0309 The certificate does not exist or has been deleted 证书不存在或已删除 404 KMS0310 The certificate hsa been deleted 证书已被删除 401 KMS.0401 Token validation failed token验证失败 401 KMS.0402 Sign wrong AKSK签名错误 401 KMS.0403 Time format wrong 时间格式错误 401 KMS.0404 Out of time 超时 401 KMS.0405 You cannot visit the url 无法访问 401 KMS.0406 User is freeze 用户被冻结 401 kms.0407 Interface counter exceeded 接口达到访问次数 500 KMS.0501 There are no rotation tasks to be performed 没有待执行的轮转任务 500 KMS.0502 Failed to delete alias 刪除别名失败 500 KMS.0503 Key initialization failed 密钥初始化失败 500 KMS.0504 Key decryption failed 密钥解密失败 500 KMS.0505 HSM failed to create user key 密码机创建用户密钥失败 500 KMS.0506 Failed to create delay delete task 创建延时删除任务失败 500 KMS.0507 Failed to send MQ for rotation task 轮转任务发送mq失败 500 KMS.0508 Delay delete task sending MQ failed 延时删除任务发送mq失败 500 KMS.0509 Failed to send MQ for delete key material task 删除密钥材料任务发送mq失败 500 KMS.0510 Failed to create default CMK 创建默认主密钥失败 500 KMS.0511 Failed to get random key 获取随机密钥失败 500 KMS.0512 Failed to create data key 创建数据密钥失败 500 KMS.0513 Data key decryption failed 数据密钥解密失败 500 KMS.0514 CMK encryption failed 用戶主密钥加密失败 500 KMS.0515 Failed to create CMK 创建用户密钥失败 500 KMS.0516 Key rotation failed! 执行密钥轮转失败 500 KMS.0517 Failed to execute key rotation policy 执行密钥轮转策略失败 500 KMS.0518 Failed to update key description 更新密钥轮转策略失败
        来自:
        帮助文档
        密钥管理
        API参考(OpenAPI)
        调用前必知
        状态码
      • autoscaler
        插件简介 autoscaler是Kubernetes中非常重要的一个Controller,它提供了微服务的弹性能力,并且和Serverless密切相关。 弹性伸缩是很好理解的一个概念,当微服务负载高(CPU/内存使用率过高)时水平扩容,增加pod的数量以降低负载,当负载降低时减少pod的数量,减少资源的消耗,通过这种方式使得微服务始终稳定在一个理想的状态。 云容器引擎简化了Kubernetes集群的创建、升级和手动扩缩容,而集群中应用的负载本身是会随着时间动态变化的,为了更好的平衡资源使用率以及性能,kubernetes引入了autoscaler插件,它可以根据部署的应用所请求的资源量自动的动态的伸缩集群。 开源社区地址: 插件说明 autoscaler可分成扩容和缩容两个方面: 自动扩容 当集群中的Pod由于工作节点资源不足而无法调度时,会触发集群扩容,扩容节点与所在分组资源配额一致。详情请参见创建节点伸缩策略。 当前该插件使用的是最小浪费策略,即若pod创建需要3核,此时有4核、8核两种规格,优先创建规格为4核的节点。 说明: 自动扩容策略在满足如下条件时才会执行: 1. 节点上的资源不足。 2. Pod的调度配置中不能包含节点亲和的策略(即Pod若已经设置亲和某个节点,则不会自动扩容节点),节点亲和策略设置方法请参见节点亲和性。 自动缩容 当集群节点处于一段时间空闲状态时(默认10min),会触发集群缩容操作(即节点会被自动删除)。当节点存在以下几种状态的pod时,不可缩容: − pod有设置PodDisruptionBudget,当移除pod不满足对应条件时,节点不会缩容。 − pod由于一些限制,如亲和、反亲和等,无法调度到其他节点,节点不会缩容。 − pod拥有clusterautoscaler.kubernetes.io/safetoevict: 'false'这个annotations时,节点不缩容。 − 节点上存在kubesystem namespace下的Pod(除kubesystem daemonset创建的Pod),节点不缩容。 − 节点上有非controller(deployment/replica set/job/stateful set)创建的Pod,节点不缩容。 约束与限制 集群为1.9.7r1及以上版本时,才支持此功能。 安装时请确保有足够的资源安装本插件。 该插件功能仅支持通过按需计费 方式购买的虚拟机节点 。 安装插件 步骤 1 登录CCE控制台,在左侧导航栏中选择“插件管理”,在“插件市场”页签下,单击autoscaler插件下的“安装插件”。 步骤 2 在安装插件页面,选择您要安装插件的集群和插件版本,单击“下一步:规格配置”。 步骤 3 参照下表配置插件安装参数。 表autoscaler基本配置 参数 支持的插件版本 参数说明 插件规格 所有版本 插件部署可选择“单实例”和“高可用”两种规格。 单实例:以单实例部署插件。 高可用:以多实例部署插件,具有高可用能力,需占用更多的计算资源。 实例数 所有版本 选择上方插件规格后,显示插件中的实例数,此处仅作显示。 容器 所有版本 选择插件规格后,显示插件容器的CPU和内存配额,此处仅作显示。 登录方式 部分版本无此参数 为自动扩容工作节点选择登录方式,当前支持“密码”和“密钥对”两种方式,您可根据需要进行选择。 选择“密码”方式: 密码:自动扩容工作节点密码。通过该密码登录工作节点执行相关操作,用户名为root。 确认密码:再次输入自动扩容工作节点密码。 选择“密钥对”方式: 密钥对:密钥对用于远程登录节点时的身份认证。 自动缩容 所有版本 默认不开启:将不开启自动缩容,只进行自动扩容。 开启:开启自动缩容,且自建节点和插件扩容所创建的节点均可缩容。 空置时间(min):当集群节点处于一段时间的空闲状态时,会触发集群缩容操作,删除节点,默认10min。 百分比:当集群节点资源低于多少百分比时,进行集群缩容扫描(默认0.5,即50%,cpu和mem都要满足的条件下才会缩容)。 扩容后缩容冷却时间:扩容执行后能再次启动缩容评估的时间间隔,默认10min。 节点删除后缩容冷却时间:删除节点后能再次启动缩容评估的时间间隔,默认10min。 缩容失败后缩容冷却时间:缩容失败后能再次启动缩容评估的时间间隔,默认3min。 空节点缩容最大并发数:默认10。 不可移除节点的重检查时间:节点被判定不可移除后能再次启动检查的时间间隔,默认5min。 说明 当节点处于以下几种状态时,不可缩容: a、pod设置为PodDisruptionBudget,当不满足条件时,节点不会缩容。 b、pod设置本地存储时,节点不会缩容。 c、pod由于一些限制,如亲和、反亲和等,无法调度到其他节点,节点不会缩容。 d、pod拥有clusterautoscaler.kubernetes.io/safetoevict: 'false'这个annotations时,节点不缩容。 e、节点上存在kubesystem命名空间下的Pod(除kubesystem daemonset创建的Pod)。 f、节点上有非controller(deployment/replica set/job/stateful set)创建的Pod。 预置节点池配置 部分版本无此参数 此为默认资源组。集群扩容时,若没有其他可用分组,将使用默认分组的资源规格进行扩容节点。 单击“添加预置节点池配置”进行参数设置: 可用区:选择一个可用区。可用区是指在同一区域下,电力、网络隔离的物理区域。 操作系统:选择节点对应的操作系统。 Taints:可选项,默认为空。 支持给该节点池扩容出来的节点加Taints来设置反亲和性,每个节点池最多配置10条Taints,每条Taints包含以下3个参数: − Key:必须以字母或数字开头,可以包含字母、数字、连字符、下划线和点,最长63个字符;另外可以使用DNS子域作为前缀。 − Value:必须以字母或数字开头,可以包含字母、数字、连字符、下划线和点,最长63个字符。 − Effect:只可选NoSchedule,PreferNoSchedule或NoExecute。 须知: 1、Taints配置时需要配合Pod的toleration使用,否则可能导致扩容失败或者Pod无法调度到扩容节点。 2、配置后无法修改,请您谨慎配置,错误的配置可能会导致扩容失败或pod无法调度。 3、标签管理:通过为资源添加标签,可以对资源进行自定义标记,实现资源的分类。 说明 您可以在TMS中创建“预定义标签”,预定义标签对所有支持标签功能的服务资源可见,通过使用预定义标签可以提升标签创建和迁移效率。 节点规格:节点的CPU配置和内存配置。 单击下方的“高级设置”,可以配置更多插件参数: 参数 插件版本 参数说明 节点总数 所有版本 可扩容的最大节点总数。 cpu总数(核) 所有版本 可扩容的最大cpu总数(核)。 内存总数(GB) 所有版本 可扩容的最大内存总数(GB)。 自动扩容 部分版本无此参数 未调度实例扩容:默认选中。 启用集群使用率扩容:可选,扩容能力增强。 cpu扩容使用率:当节点池CPU达到所设置的使用上限,将扩容当前预置节点池的节点数。 内存扩容使用率:当节点池内存达到所设置的使用上限,将扩容当前预置节点池的节点数。 磁盘 部分版本无此参数 系统盘和数据盘:设置节点磁盘空间。 系统盘:规格为[40,1024]GB,用户可以配置,缺省值为40GB。 数据盘:规格为[100,32678]GB,用户可以配置,缺省值为100GB。 勾选“资源分配自定义”后,您可以对数据盘中的Docker和Kubelet资源占比进行自定义设置。 须知 磁盘使用directlvm模式,移除将使用looplvm模式,有影响系统稳定性的风险。 Docker资源包含Docker镜像数据以及镜像元数据,Kubelet资源包含Pod配置文件、密钥以及临时存储EmptyDir等挂载数据。 数据盘:单击“新增数据盘”,您可以增加一块数据盘。 系统盘和数据盘均可提供以下性能规格的云硬盘: 普通IO:是指由SATA存储提供资源的磁盘类型。提供可靠的块存储,单个云硬盘的最大IOPS可达到1000,可运行关键应用程序。 高IO:是指由SAS存储提供资源的磁盘类型。提供可达到3000的高IO和低至1 ms的读写延时,支持NoSQL/关系型数据库,数据仓库,文件系统等应用。 超高IO:是指由SSD存储提供资源的磁盘类型。提供可达到20000的超高IO和低至1 ms超低读写时延,支持NoSQL/关系型数据库,数据仓库等应用。 命令行注入 部分版本无此参数 请输入脚本命令。 说明: 脚本命令大小限制:0~1000字符。 步骤 4 配置完成后,单击“安装”。 待插件安装完成后,单击“返回”,在“插件实例”页签下,选择对应的集群,可查看到运行中的实例,这表明该插件已在当前集群的各节点中安装。 升级插件 步骤 1 在CCE控制台中,单击左侧导航栏的“插件管理”,在“插件实例”页签下,选择对应的集群,单击autoscaler下的“ 升级”。 说明: 如果升级按钮处于冻结状态,则说明当前插件版本是最新的版本,不需要进行升级操作; 若升级按钮可单击,则单击升级按钮即可升级autoscaler插件。 升级autoscaler插件时,会替换原先节点上的旧版本的autoscaler插件,安装最新版本的autoscaler插件以实现功能的快速升级。 步骤 2 在弹出的窗口中,配置参数后,升级该插件。配置参数可参考安装插件中的参数说明。 卸载插件 步骤 1 登录CCE控制台,在左侧导航栏中选择“插件管理”,在“插件实例”页签下,选择对应的集群,单击autoscaler下的“卸载”。 步骤 2 在弹出的窗口中,单击“是”,可卸载该插件。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        插件管理
        autoscaler
      • 登录资源运维
        此小节介绍登录资源运维。 背景介绍 用户获取资源访问控制权限后,通过系统登录资源进行运维,运维过程被全程监控记录。 运维用户可根据资源类型选择不同登录方式。 操作步骤 不同登录方式说明 登录方式 适用资源 Web浏览器登录 l SSH、RDP、VNC和TELNET协议类型主机资源。 l 全部应用资源。 SSH客户端登录 SSH、TELNET和Rlogin协议类型主机资源。 FTP/SFTP/SCP客户端登录 适用于全部传输协议类型主机资源。 FTP、SFTP协议类型主机资源。 SSO单点客户端登录 适用于全部数据库类型主机资源。 l MySQL、SQL Server、Oracle和DB2协议类型主机资源。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        快速入门
        登录资源运维
      • 强制访问权限控制
        本页介绍天翼云TeleDB数据库中强制访问控制。 强制访问是基于自定义的安全策略最终通过标签实现对用户和表的行级安全加密。安全策略(Policy)是等级(Level)和隔离区(Compartment),组(Group)和标签(Label)的集合,最终通过绑定标签实现行级安全。其实现原理是将表和用户绑定到标签上,再由标签关联等级(必选),隔离区(可选)和安全组(可选),形成了一个多级的行级安全加密体系。 安全策略(Policy):是指创建等级(Level),隔离区(Compartment),组(Group)和标签(Label)必须指定所属的安全策略。 等级(Level):提供第二等级的安全控制,标签必须指定等级。 隔离区(Compartment):提供第二等级的安全控制,可选。 组(Group):提供第三等级的安全控制,一种树状的结构,可选。 标签(Label):最终通过标签绑定体现行级安全。仅当用户被赋予的标签比此行标签有相同或更高等时,该行才可以被用户存取。 注意 分号(:)和逗号(,)保留用于多级安全体系的表达,安全策略中组件的名字不要使用。 在Teledb中,创建安全策略需要通过teledbxmls插件,需要创建插件 SQL CREATE EXTENSION teledbxmls; 安全策略 通过MLSCLSCREATEPOLICY()函数创建安全策略 SQL SELECT MLSCLSCREATEPOLICY(policyname, policyid) 参数描述: policyname(策略名称): 要创建的策略的名称,大小写敏感,不可以空。 policyid(策略ID): 用于标识策略的唯一ID,取值范围[1, 100]。 安全等级(Level) 通过函数MLSCLSCREATELEVEL()函数创建安全等级。 SQL SELECT MLSCLSCREATELEVEL(policyname, levelid, shortname, longname) 参数描述: policyname(策略名称): 指定要添加安全级别的策略名称,不可以为空。 levelid(级别ID): 用于标识安全级别的唯一ID,取值范围[0, 32767]。 shortname(名称): 安全级别的名称,大小写敏感,不可为空,不可以含空格和tabj键。 shortname(名称): 安全级别的名称,大小写敏感,不可为空,不可以含空格和tabj键。 longname(完整名称): 安全级别的描述。 通过MLSCLSALTERLEVELDESCRIPTION()函数修改等级的标签描述。 SQL SELECT MLSCLSALTERLEVELDESCRIPTION(policyname, levelid, longname) 安全隔离区(Compartment) 通过MLSCLSCREATECOMPARTMENT()函数创建安全隔离区(Compartment)。 SQL SELECT MLSCLSCREATECOMPARTMENT(policyname, compartmentid, shortname, longname) 参数 描述 : policyname(策略名称): 指定要添加安全隔离区的策略名称。 compartmentid(隔离区ID): 用于标识安全隔离区的唯一ID,取值范围[0, 32767]。 shortname(简称): 安全隔离区的简称。 longname(完整名称): 安全隔离区的完整名称。 安全组(Group) 通过MLSCLSCREATEGROUPROOT()函数创建新的安全组根节点(Group Root) SQL SELECT MLSCLSCREATEGROUPROOT(policyname, rootid, shortname, longname) 参数描述: policyname(策略名称): 指定要创建安全组根节点的策略名称。 rootid(根节点ID): 用于标识安全组根节点的唯一ID。 shortname(简称): 安全组根节点的简称。 longname(完整名称): 安全组根节点的完整名称。 通过MLSCLSCREATEGROUPNODE()函数在数据库中创建新的安全组子节点(Group Node)并将其设置为指定父节点的子节点。 SQL SELECT MLSCLSCREATEGROUPNODE(policyname, childid, shortname, longname, parentshortz) 参数描述: policyname(策略名称): 指定要创建安全组子节点的策略名称。 childid(子节点ID): 用于标识安全组子节点的唯一ID。 shortname(简称): 安全组子节点的简称。 longname(完整名称): 安全组子节点的完整名称。 parentshortname(父节点简称): 安全组子节点所属的父节点的简称。 标签(LABEL) 通过MLSCLSCREATELABEL()函数创建或替换MLS 策略的标签(label),并将其存储到数据库中。 SQL SELECT MLSCLSCREATELABEL(policyname, labelid, labelstr) 参数描述: policyname(策略名称): 指定要添加标签的策略名称。 labelid(标签ID): 用于标识标签的唯一ID,取值范围[0, 32767]。 labelstr(标签名): 标签,不可为空,长度不超过256。由 ,其compartmentids和groupids由1到N个ID构成,ID间用,分割。有效的表达形式如下: levelid:compartmentid1,compartmentid2,...compartmentidN:groupid1,groupid2,...groupidN levelid:compartmentid:groupid levelid:compartmentid: levelid::groupid levelid:: 表标签绑定 通过MLSCLSCREATETABLELABEL()函数将指定标签绑定到指定的表(Table),并将相关数据存储到pgclstable系统表。 SQL SELECT MLSCLSCREATETABLELABEL(policyname labelid, schemaname, tablename) 参数描述: policyname(策略名称): 指定要应用的策略名称。 labelid(标签ID): 要应用于表的标签ID,取值范围[0, 32767]。 schemaname(模式名称): 表所在的模式名。 tablename(表格名称): 要应用标签的表名。 通过MLSCLSDROPTABLELABEL()函数删除绑定到表上的标签并更新pgclstable系统表数据。 SQL MLSCLSDROPTABLELABEL(policyname, schemaname, tablename) 用户标签绑定/删除 通过MLSCLSCREATEUSERLABEL()函数为指定的用户创建一个带有默认标签的用户账户,并将其存储到 pgclsuser 表中。 SQL SELECT MLSCLSCREATEUSERLABEL(policyname, username name, defreadlabel, defwritelabel, defrowlabel) 参数描述: policyname(策略名称): 指定要应用的策略名称。 username(用户名): 要创建标签的用户账户名称。 defreadlabel(默认读标签): 为用户定义的默认读标签ID。 defwritelabel(默认写标签): 为用户定义的默认写标签ID。 defrowlabel(默认行标签): 为用户定义的默认行标签ID。 通过MLSCLSDROPUSERLABEL()函数为指定用户删除标签,并将pgclsuser 表中指定用户的标签删除,且断开指定用户当前所有的数据库连接。 SQL SELECT MLSCLSDROPUSERLABEL(username) 参数描述: username(用户名): 要删除指定用户标签的用户账户名称。 示例: 初始化环境 SQL c mlsadmin 创建安全策略 select MLSCLSCREATEPOLICY('rlspolicy', 66); 创建安全等级 select MLSCLSCREATELEVEL('rlspolicy', 10, 'defaultlevel', 'default Level'); select MLSCLSCREATELEVEL('rlspolicy', 10, 'userlevel', 'user Level'); select MLSCLSCREATELEVEL('rlspolicy', 9, 'badlevel', 'bad Level'); select MLSCLSCREATELEVEL('rlspolicy', 100, 'goodlevel', 'good Level'); 创建隔离区 select MLSCLSCREATECOMPARTMENT('rlspolicy', 30, 'rlscom0', 'RLS compartment 0'); select MLSCLSCREATECOMPARTMENT('rlspolicy', 31, 'rlscom1', 'RLS compartment 1'); select MLSCLSCREATECOMPARTMENT('rlspolicy', 32, 'rlscom2', 'RLS compartment 2'); 创建安全组 select MLSCLSCREATEGROUPROOT('rlspolicy', 50, 'root', 'group root'); select MLSCLSCREATEGROUPNODE('rlspolicy', 51, 'child1', 'child of root node 1', 'root'); select MLSCLSCREATEGROUPNODE('rlspolicy', 52, 'child2', 'child of root node 2', 'root'); select MLSCLSCREATEGROUPNODE('rlspolicy', 511, 'child11', 'child of child1 node 1', 'child1'); select MLSCLSCREATEGROUPNODE('rlspolicy', 512, 'child12', 'child of child1 node 2', 'child1'); 创建安全标签,此时和安全等级,隔离区以及安全组进行绑定 select MLSCLSCREATELABEL('rlspolicy', 1024, 'defaultlevel:rlscom0:child12'); 将标签绑定到表 alter table public.tbl1 add column cls clsitem default '99:1024'; select MLSCLSCREATETABLELABEL('rlspolicy', 1024, 'public', 'tbl1'); 安全等级 SQL select MLSCLSCREATELABEL('rlspolicy', 1025, 'userlevel::'); select MLSCLSCREATELABEL('rlspolicy', 1026, 'badlevel::'); select MLSCLSCREATELABEL('rlspolicy', 1027, 'goodlevel::'); 将标签绑定到用户 select MLSCLSCREATEUSERLABEL('rlspolicy', 'godlike1', 1024, 1024, 1024); select MLSCLSCREATEUSERLABEL('rlspolicy', 'godlike2', 1025, 1025, 1025); select MLSCLSCREATEUSERLABEL('rlspolicy', 'badgodlike1', 1026, 1026, 1026); select MLSCLSCREATEUSERLABEL('rlspolicy', 'goodgodlike1', 1027, 1027, 1027); SQL c godlike1 insert into public.tbl1 select generateseries(1,3), generateseries(1,3); select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:1024 2 2 66:1024 3 3 66:1024 (3 rows) SQL c godlike2 insert into public.tbl1 select generateseries(4,6), generateseries(4,6); 当前用户不在隔离区,无法看到godlike1用户创建的数据 select from public.tbl1 order by col1; col1 col2 cls ++ 4 4 66:1025 5 5 66:1025 6 6 66:1025 (3 rows) SQL c badgodlike1 低优先级的用户无法看到高优先级的用户插入的数据 select from public.tbl1 order by col1; col1 col2 cls ++ (0 rows) SQL insert into public.tbl1 select generateseries(7,9), generateseries(7,9); 低优先级用户可以看到自己创建的数据 select from public.tbl1 order by col1; col1 col2 cls ++ 7 7 66:1026 8 8 66:1026 9 9 66:1026 (3 rows) SQL c goodgodlike1 高优先级用户可以看到低优先级用户创建的数据 同时无法看到隔离区的数据 select from public.tbl1 order by col1; col1 col2 cls ++ 4 4 66:1025 5 5 66:1025 6 6 66:1025 7 7 66:1026 8 8 66:1026 9 9 66:1026 (6 rows) SQL insert into public.tbl1 select generateseries(10,12), generateseries(10,12); select from public.tbl1 order by col1; col1 col2 cls ++ 4 4 66:1025 5 5 66:1025 6 6 66:1025 7 7 66:1026 8 8 66:1026 9 9 66:1026 10 10 66:1027 11 11 66:1027 12 12 66:1027 (9 rows) SQL c godlike1 高优先级用户可以看到比自己低优先级用户创建的数据 无法看到比自己优先级高的用户创建的数据 select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:1024 2 2 66:1024 3 3 66:1024 4 4 66:1025 5 5 66:1025 6 6 66:1025 7 7 66:1026 8 8 66:1026 9 9 66:1026 (9 rows) SQL c commonuser0 select from public.tbl1 order by col1; col1 col2 cls ++ (0 rows) 安全隔离区 SQL c mlsadmin select MLSCLSDROPUSERLABEL('godlike1'); select MLSCLSDROPUSERLABEL('godlike2'); select MLSCLSDROPUSERLABEL('badgodlike1'); select MLSCLSDROPUSERLABEL('goodgodlike1'); 创建安全标签,并绑定隔隔离区 select MLSCLSCREATELABEL('rlspolicy', 2048, 'defaultlevel:rlscom0:'); select MLSCLSCREATELABEL('rlspolicy', 2049, 'defaultlevel:rlscom0,rlscom1,rlscom2:'); select MLSCLSCREATELABEL('rlspolicy', 2050, 'defaultlevel:rlscom1,rlscom2:'); select MLSCLSCREATELABEL('rlspolicy', 2051, 'defaultlevel:rlscom0,rlscom2:'); 将标签绑定到用户 select MLSCLSCREATEUSERLABEL('rlspolicy', 'godlike1', 2048, 2048, 2048); select MLSCLSCREATEUSERLABEL('rlspolicy', 'godlike2', 2049, 2049, 2049); select MLSCLSCREATEUSERLABEL('rlspolicy', 'badgodlike1', 2050, 2050, 2050); select MLSCLSCREATEUSERLABEL('rlspolicy', 'goodgodlike1', 2051, 2051, 2051); SQL c godlike1 insert into public.tbl1 select generateseries(1,3), generateseries(1,3); select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:2048 2 2 66:2048 3 3 66:2048 (3 rows) SQL c godlike2 insert into public.tbl1 select generateseries(4,6), generateseries(4,6); 当前用户所在隔离区含godlike1用户隔离区,可以看到godlike1的数据 select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:2048 2 2 66:2048 3 3 66:2048 4 4 66:2049 5 5 66:2049 6 6 66:2049 (6 rows) SQL c badgodlike1 insert into public.tbl1 select generateseries(7,9), generateseries(7,9); 当前用户所在隔离区无法包含前面用户的隔离区,无法看到他们插入的数据 select from public.tbl1 order by col1; col1 col2 cls ++ 7 7 66:2050 8 8 66:2050 9 9 66:2050 (3 rows) SQL c goodgodlike1 insert into public.tbl1 select generateseries(10,12), generateseries(10,12); 相同等级,godlike1的隔离区是当前的子集,当前用户可以看到godlike1插入的数据 select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:2048 2 2 66:2048 3 3 66:2048 10 10 66:2051 11 11 66:2051 12 12 66:2051 (6 rows) SQL c godlike2 当前用户含rlscom0,rlscom1,rlscom2三个隔离区可以看到之前插入的所有数据 select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:2048 2 2 66:2048 3 3 66:2048 4 4 66:2049 5 5 66:2049 6 6 66:2049 7 7 66:2050 8 8 66:2050 9 9 66:2050 10 10 66:2051 11 11 66:2051 12 12 66:2051 (12 rows) 安全组 SQL c mlsadmin select MLSCLSDROPUSERLABEL('godlike1'); select MLSCLSDROPUSERLABEL('godlike2'); select MLSCLSDROPUSERLABEL('badgodlike1'); select MLSCLSDROPUSERLABEL('goodgodlike1'); 创建安全标签,并绑定用户组 select MLSCLSCREATELABEL('rlspolicy', 4096, 'defaultlevel:rlscom0:root'); select MLSCLSCREATELABEL('rlspolicy', 4097, 'defaultlevel:rlscom0:child1'); select MLSCLSCREATELABEL('rlspolicy', 4098, 'defaultlevel:rlscom0:child11,child12'); 将标签绑定到用户 select MLSCLSCREATEUSERLABEL('rlspolicy', 'godlike1', 4096, 4096, 4096); select MLSCLSCREATEUSERLABEL('rlspolicy', 'godlike2', 4097, 4097, 4097); select MLSCLSCREATEUSERLABEL('rlspolicy', 'badgodlike1', 4098, 4098, 4098); SQL c badgodlike1 insert into public.tbl1 select generateseries(1,3), generateseries(1,3); select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:4098 2 2 66:4098 3 3 66:4098 (3 rows) SQL c godlike2 insert into public.tbl1 select generateseries(4,6), generateseries(4,6); 安全组根节点可以看到子节点数据 select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:4098 2 2 66:4098 3 3 66:4098 4 4 66:4097 5 5 66:4097 6 6 66:4097 (6 rows) SQL c godlike1 insert into public.tbl1 select generateseries(7,9), generateseries(7,9); 安全组根节点可以看到所有子节点数据 select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:4098 2 2 66:4098 3 3 66:4098 4 4 66:4097 5 5 66:4097 6 6 66:4097 7 7 66:4096 8 8 66:4096 9 9 66:4096 (9 rows) SQL c badgodlike1 子节点 无法看到根节点数据 select from public.tbl1 order by col1; col1 col2 cls ++ 1 1 66:4098 2 2 66:4098 3 3 66:4098 (3 rows)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安全配置手册
        访问控制
        强制访问权限控制
      • 创建卷
        参数 参数 描述 n LUNNAME 或 name LUNNAME 设置卷名称。 取值:字符串形式,长度范围是1~16,只能由字母、数字和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 p CAPACITY 或 capacity CAPACITY 设置卷容量。 取值:整数形式,数字后面可以输入单位简写G/g、T/t或P/p,分别代表GiB、TiB、PiB,如果不输入,默认为GiB。 如果单位是GiB,取值为[1, 1048576]。 如果单位是TiB,取值为[1, 1024]。 如果单位是PiB,取值为1。 t TARGETNAME 或 target TARGETNAME 指定iSCSI Target名称。 取值:字符串形式,长度范围1~16,只能由小写字母、数字、句点(.)和短横线()组成,且仅支持以字母或数字开头。 说明 创建卷时,如果指定的iSCSI Target名称不存在,那么同时创建iSCSI Target,新创建iSCSI Target的回收策略默认为Delete。 priority SERVERID & 指定卷主备分布优先级的服务器ID(仅集群版支持),系统会根据指定的服务器ID顺序来选择卷的主备IQN。可以指定一个或者多个服务器ID,以英文逗号分开。 前置条件:iSCSI Target名称已经存在,且指定的服务器必须是iSCSI Target所在的服务器。 autofailback AUTOFAILBACK 是否根据指定的卷主备分布优先级自动进行主备切换(仅集群版支持),即针对卷主备状态,当高优先级的服务器恢复正常后,是否自动进行主备状态切换。 取值: Enabled:自动进行主备切换。 Disabled:不自动进行主备切换。 默认值为Enabled。 pool POOL 指定存储池(仅集群版支持),表示最终存储池,卷数据最终落在该存储池内。默认使用集群的基础存储池。 cachepool CACHEPOOL 指定缓存存储池(仅集群版支持)。如果指定了缓存存储池,卷数据首先写入缓存存储池,然后再存入存储池。 注意 存储池与缓存存储池不能是同一个存储池。 a HIGHAVAILABILITY 或 ha HIGHAVAILABILITY 选择卷的高可用类型(仅集群版支持): 取值: ActiveStandby(as):启用主备,该卷关联对应Target下的所有IQN。 Disabled(off):不启用主备,该卷关联对应Target下的1个IQN。客户端连接该类型的卷的方法可以参见Windows 客户端–单机版、Linux 客户端 – 单机版。 默认值为ActiveStandby(as)。 c LOCALSTORAGECLASS 或 localstorageclass LOCALSTORAGECLASS 卷冗余模式(仅集群版支持)。 取值: singlecopy:单副本。 2copy:两副本。 3copy:三副本。 EC N+M:纠删码模式。其中N、M为正整数,N≥M,且N+M≤128。表示将数据分割成N个片段,并生成M个校验数据。 默认值为EC 2+1。 说明 以下场景均为集群可用的前提下: 创建EC N+M的卷后: 卷所在存储池可用故障域数量大于等于卷的最小副本数时,可以向卷中写数据。卷所在存储池可用故障域数量小于最小副本数时,不能向卷写数据,且系统会产生告警。 卷所在存储池可用故障域数量大于等于N+M,卷数据正常,不会产生降级。卷所在存储池可用故障域数量处于[N, N+M),卷数据将处于降级状态,建议尽快添加或修复故障域。卷所在存储池可用故障域数量小于N时,已写入的数据发生损毁。 创建副本模式的卷后: 卷所在存储池可用故障域数量大于等于卷的最小副本数时,可以向卷中写数据。卷所在存储池可用故障域数量小于最小副本数时,不能向卷写数据,且系统会产生告警。 卷所在存储池可用故障域数量大于等于副本数,卷数据正常,不会产生降级。对于两副本、三副本卷,卷存储池所在故障域大于等于1,但小于副本数时,卷数据将处于降级状态,建议尽快添加或修复存储池故障域。卷所在存储池无可用故障域时,已写入的数据发生损毁。 minreplica MINREPLICA 最小副本数(仅集群版支持)。 对于副本模式的卷,假设卷副本数为X,最小副本数为Y(Y必须≤X),该卷每次写入时,至少Y份数据写入成功,才视为本次写入成功。对于EC N+M模式的卷,假设该卷最小副本数设置为Y(必须满足N≤Y≤N+M),必须满足总和至少为Y的数据块和校验块写入成功,才视为本次写入成功。 取值:整数。对于副本卷,取值范围是[1, N],N为副本模式卷的副本数,默认值为1。对于EC卷,取值范围是[N, N+M],默认值为N。 redundancyoverlap REDUNDANCYOVERLAP 指定卷的折叠副本数(仅集群版支持)。在数据冗余模式下,同一份数据的不同副本/分片默认分布在不同的故障域,当故障域损坏时,允许根据卷的冗余折叠原则,将多份数据副本放在同一个故障域中,但是分布在不同的path上。 注意 如果存储池故障域级别为path,此参数不生效。 取值:整数。对于副本卷,取值范围是[1, N],N为副本模式卷的副本数,默认值为1;对于EC模式,取值范围是[1, N+M],默认值为1。 ecfragmentsize ECFRAGEMENTSIZE 纠删码模式分片大小。卷冗余模式为EC模式时,此设置才生效,否则忽略。 取值:1、2、4、8、16、32、64、128、256、512、1024、2048、4096,单位是KiB。默认值为16。 o SECTORSIZE 或 sectorsize SECTORSIZE 设置扇区大小。 取值:512、4096,单位是bytes。默认值为4096。 说明 扇区大小的选取:根据自身业务场景,一般情况下,单次I/O操作的数据大小大于或接近4 KiB,则推荐选择4096;单次I/O操作的数据大小接近512 bytes,则推荐选择512。如果对接VMware等虚拟化平台,则推荐选择512 bytes。 w WRITEPOLICY 或 writepolicy WRITEPOLICY 卷的写策略: WriteBack(wb):回写,指数据写入到内存后即返回客户端成功,之后再异步写入磁盘。适用于对性能要求较高,稳定性要求不高的场景。 WriteThrough(wt):透写,指数据同时写入内存和磁盘,并在都写成功后再返回客户端成功。适用于稳定性要求较高,写性能要求不高,且最近写入的数据会较快被读取的场景。 WriteAround(wa):绕写,指数据直接写到磁盘,不写入内存。适用于稳定性要求较高,性能要求不高,且写多读少的场景。 默认值为WriteBack(wb)。 P PATH 或 path PATH 指定存储卷数据的数据目录(仅单机版支持)。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。 如果创建卷时不指定数据目录,使用服务器设置的默认数据目录。 m STORAGEMODE 或 mode STORAGEMODE 设置卷的存储类型: Local:本地模式,数据全部保留在本地。 Cache:缓存模式,本地保留部分热数据,全部数据异步存储到OOS中。 Storage:存储模式,本地保留全部数据,并异步存储到OOS中。 存储类型默认为Local。 cloudprovider CLOUDPROVIDER 对象存储服务名称: OOS:天翼云对象存储经典版I型。 S3:兼容S3的其他对象存储。 默认值为OOS。 B BUCKETNAME 或 bucket BUCKETNAME 已存在的存储桶的名称。 注意 请勿开启Bucket的生命周期设定和合规保留。 A ACCESSKEY 或 ak ACCESSKEY 对象存储服务的AccessKeyID。 S SECRETKEY 或 sk SECRETKEY 对象存储服务的SecretAccessKey。 C CLOUDSTORAGECLASS 或 cloudstorageclass CLOUDSTORAGECLASS 设置数据在对象存储的存储类型: STANDARD:标准存储。 STANDARDIA:低频访问存储。 默认为STANDARD。 E ENDPOINT 或 endpoint ENDPOINT 设置对象存储的Endpoint。 注意 Endpoint必须与所使用的对象存储服务一一对应:若使用OOS对象存储服务,需填写OOS的Endpoint;若使用兼容S3的其他对象存储服务,则需填写它的Endpoint。 如果仅输入域名将会使用HTTPS协议进行访问。 具体OOS Endpoint详见OOS Endpoint和区域。 signversion VERSION 指定上云签名认证的类型: v2:V2签名认证。 v4:V4签名认证。 默认值为v2。 region REGION 表示Endpoint资源池所在区域。具体region详见OOS Endpoint和区域。 V4签名时,此项必填。 M CLOUDCOMPRESSION 或 cloudcompression CLOUDCOMPRESSION 是否压缩数据上传至对象存储: Enabled(on):压缩数据上传至对象存储。 Disabled(off):不压缩数据上传至对象存储。 默认值为Enabled(on)。 O OBJECTSIZE 或 objectsize OBJECTSIZE 数据存储在对象存储中的大小。 取值:128、256、512、1024、2048、4096、8192,单位是KiB。默认值为1024。 X PREFIX 或 prefix PREFIX 设置对象存储中的前缀名称,设置前缀名称后,卷数据会存在存储桶以前缀命名的类文件夹中。如果未指定前缀,则直接存储在以卷名称命名的类文件夹中。 取值:字符串形式,长度范围是1~256。 qosname QOSNAME 指定QoS策略名称。 说明 创建卷时,如果指定QoS策略名称不存在,那么同时创建QoS策略,新创建的QoS策略的回收策略默认为Delete。 对于集群版,不指定QoS策略时: 如果卷的缓存存储池和存储池同时存在,卷的QoS策略为缓存存储池设置的“存储池内卷的默认QoS策略”;如果缓存存储池未设置“存储池内卷的默认QoS策略”,则卷无QoS策略。 如果卷只有存储池,卷的QoS策略为存储池设置的“存储池内卷的默认QoS策略”;如果存储池未设置“存储池内卷的默认QoS策略”,则卷无QoS策略。 取值:字符串形式,长度范围1~64,只能由字母、数字和短横线()组成,区分大小写,且仅支持以字母或数字开头。 注意 如果没有指定QOSNAME ,但是设置了IOPS/Bps中的任何一个参数,则根据IOPS/Bps自动创建一个QoS策略,系统为策略名赋值:lunlunnameqostimestamp。 如果指定了QOSNAME 以及IOPS/Bps中的任何一个参数,则QOSNAME不能与已存在的QoS策略重名。 如果指定了QOSNAME ,没有设置IOPS/Bps中的任何一个参数,则QOSNAME需要为已存在的QoS策略名称。 iops IOPS 每秒能够进行读写操作次数的最大值。 取值:整数形式,取值为[1, 999999999],默认值为1。1表示不限制。 readiops READIOPS 每秒能够进行读操作次数的最大值。 取值:整数形式,取值为[1, 999999999],默认值为1。1表示不限制。 writeiops WRITEIOPS 每秒能够进行写操作次数的最大值。 取值:整数形式,取值为[1, 999999999],默认值为1。1表示不限制。 bps BPS 每秒可传输数据量的最大值。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。 如果单位是B/s,取值为[1, 4096000000000]。 如果单位是KiB/s,取值为[1, 4000000000]。 如果单位是MiB/s,取值为[1, 3906250]。 如果单位是GiB/s,取值为[1, 3814]。 如果单位是TiB/s,取值为[1, 3]。 readbps READBPS 读带宽上限。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。 如果单位是B/s,取值为[1, 4096000000000]。 如果单位是KiB/s,取值为[1, 4000000000]。 如果单位是MiB/s,取值为[1, 3906250]。 如果单位是GiB/s,取值为[1, 3814]。 如果单位是TiB/s,取值为[1, 3]。 writebps WRITEBPS 写带宽上限。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。 如果单位是B/s,取值为[1, 4096000000000]。 如果单位是KiB/s,取值为[1, 4000000000]。 如果单位是MiB/s,取值为[1, 3906250]。 如果单位是GiB/s,取值为[1, 3814]。 如果单位是TiB/s,取值为[1, 3]。 iopsburst IOPSBURST 使用Burst功能时,每秒能够进行读写操作次数的最大值。 取值:整数形式。只有当iops IOPS 大于等于1时,此项设置为1或(IOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 readiopsburst READIOPSBURST 使用Burst功能时,每秒能够进行读操作次数的最大值。 取值:整数形式。只有当readiops READIOPS 大于等于1时,此项设置为1或(READIOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 writeiopsburst WRITEIOPSBURST 使用Burst功能时,每秒能够进行写操作次数的最大值。 取值:整数形式。只有当writeiops WRITEIOPS 大于等于1时,此项设置为1或(WRITEIOPS 999999999]内的正整数方可生效。默认值为1,表示不限制。 bpsburst BPSBURST 使用Burst功能时,每秒可传输的数据量最大值。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。只有当bps BPS大于等于1时,在单位相同的情况下,此项设置为下列取值范围方可生效: 如果单位是B/s,取值为1或(BPS, 4096000000000]内的正整数。 如果单位是KiB/s,取值为1或(BPS, 4000000000]内的正整数。 如果单位是MiB/s,取值为1或(BPS, 3906250]内的正整数。 如果单位是GiB/s,取值为1或(BPS, 3814]内的正整数。 如果单位是TiB/s,取值为1或(BPS, 3]内的正整数。 readbpsburst READBPSBURST 使用Burst功能时,读带宽上限。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。只有当readbps READBPS大于等于1时,在单位相同的情况下,此项设置为下列取值范围方可生效: 如果单位是B/s,取值为1或(READBPS, 4096000000000]内的正整数。 如果单位是KiB/s,取值为1或(READBPS, 4000000000]内的正整数。 如果单位是MiB/s,取值为1或(READBPS, 3906250]内的正整数。 如果单位是GiB/s,取值为1或(READBPS, 3814]内的正整数。 如果单位是TiB/s,取值为1或(READBPS, 3]内的正整数。 writebpsburst WRITEBPSBURST 使用Burst功能时,写带宽上限。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。只有当writebps WRITEBPS大于等于1时,在单位相同的情况下,此项设置为下列取值范围方可生效: 如果单位是B/s,取值为1或(WRITEBPS, 4096000000000]内的正整数。 如果单位是KiB/s,取值为1或(WRITEBPS, 4000000000]内的正整数。 如果单位是MiB/s,取值为1或(WRITEBPS, 3906250]内的正整数。 如果单位是GiB/s,取值为1或(WRITEBPS, 3814]内的正整数。 如果单位是TiB/s,取值为1或(WRITEBPS, 3]内的正整数。 iopsburstsecs IOPSBURSTSECS 使用Burst功能时,按照Burst上限的能力进行读写操作所能持续的时间。 注意 只有在IOPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。 readiopsburstsecs READIOPSBURSTSECS 使用Burst功能时,按照Burst上限的能力进行读操作所能持续的时间。 注意 只有在Read IOPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。 writeiopsburstsecs WRITEIOPSBURSTSECS 使用Burst功能时,按照Burst上限的能力进行写操作所能持续的时间。 注意 只有在Write IOPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。 bpsburstsecs BPSBURSTSECS 使用Burst功能时,按照Burst上限的流量能力所能持续的时间。 注意 只有在BPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。 readbpsburstsecs READBPSBURSTSECS 使用Burst功能时,按照Burst上限的读流量能力所能持续的时间。 注意 只有在Read BPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。 writebpsburstsecs WRITEBPSBURSTSECS 使用Burst功能时,按照Burst上限的写流量能力所能持续的时间。 注意 只有在Write BPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        卷操作
        创建卷
      • 天翼云SD-WAN与DeepSeek超强联动,开启云上高效互联新时代
        返回DeepSeek专题导航。
        来自:
        帮助文档
        物理机 DPS
        DeepSeek专题
        图解:DeepSeek与公有云深度融合
        天翼云SD-WAN与DeepSeek超强联动,开启云上高效互联新时代
      • 中国电信天翼云对象存储服务协议
        本节主要介绍OBS服务协议。 自2021年11月11日起,新版对象存储服务协议生效,详情请参见这里。 中国电信天翼对象存储系统服务协议 历史版本(2012年11月10日)
        来自:
        帮助文档
        对象存储 OBS
        相关协议
        中国电信天翼云对象存储服务协议
      • 天翼云微服务云应用平台服务协议
        目前微服务云应用平台处于公测阶段,服务协议请参见公测产品服务协议。
        来自:
        帮助文档
        微服务云应用平台
        相关协议
        天翼云微服务云应用平台服务协议
      • 中国电信天翼云对象存储服务等级协议
        天翼云为您提供对象存储服务等级协议,请您点击查看。 自2021年11月11日起,新版对象存储服务等级协议生效,详情请参见这里。 中国电信天翼对象存储系统服务等级协议 历史版本(2012年11月10日)
        来自:
        帮助文档
        对象存储 ZOS
        相关协议
        中国电信天翼云对象存储服务等级协议
      • 中国电信天翼云对象存储服务等级协议
        本节主要介绍OBS服务等级协议。 自2021年11月11日起,新版对象存储服务协议生效,详情请参见这里。 中国电信天翼对象存储系统服务协议 历史版本(2012年11月10日)
        来自:
        帮助文档
        对象存储 OBS
        相关协议
        中国电信天翼云对象存储服务等级协议
      • 中国电信天翼云对象存储服务协议
        对象存储服务协议生效,详情请参见这里。
        来自:
        帮助文档
        对象存储(经典版)I型
        相关协议
        中国电信天翼云对象存储服务协议
      • 中国电信天翼云对象存储服务等级协议
        对象存储服务等级协议生效,详情请参见这里。 中国电信天翼对象存储系统服务等级协议 历史版本(2012年11月10日)。
        来自:
        帮助文档
        对象存储(经典版)I型
        相关协议
        中国电信天翼云对象存储服务等级协议
      • 错误码列表
        本节主要介绍OOS API错误码。 状态码 错误码 错误信息 描述 400 AuthorizationHeaderMalformed The authorization header is malformed. 签名头格式不正确。 400 AuthorizationHeaderMalformed The authorization header is malformed, missing Credential. 签名头格式不正确,需补充Credential。 400 AuthorizationHeaderMalformed The authorization header is malformed, missing SignedHeaders. 签名头格式不正确,需补充SignedHeaders。 400 AuthorizationHeaderMalformed The authorization header is malformed, missing Signature. 签名头格式不正确,需补充Signature。 400 AuthorizationHeaderMalformed The authorization header is malformed, the Credential is malformed, expecting 'YOURAKID/YYYYMMDD/REGION/SERVICE/aws4request'. 签名头中Credential格式不正确,格式应该为'YOURAKID/YYYYMMDD/REGION/SERVICE/aws4request'。 400 AuthorizationHeaderMalformed The authorization header is malformed, the date format 'date' is wrong, expecting 'YYYYMMDD'. 签名头中date格式不正确,应该为'YYYYMMDD'。 400 AuthorizationHeaderMalformed The authorization header is malformed, the region'region' is wrong, expecting 'region'. 签名头中区域名不正确。 400 AuthorizationHeaderMalformed The authorization header is malformed, incorrect service 'service '. This endpoint belongs to 'endpoint'. 签名头不正确,服务域名不对。 400 AuthorizationHeaderMalformed The authorization header is malformed, incorrect terminal 'terminal'. This endpoint uses 'aws4request'. 签名头不正确,endpoint应使用服务aws4request。 400 AuthorizationPostFormFieldsError Form Post authentication version 4 requires the policy, xamzalgorithm, xamzcredential, xamzsignature, xamzdate form fields. V4签名中policy、xamzalgorithm、xamzcredential、xamzsignature、xamzdate不能为空。 400 AuthorizationPostFormFieldsError Xamzalgorithm only supports 'AWS4HMACSHA256'. v4签名算法仅支持AWS4HMACSHA256。 400 AuthorizationPostFormFieldsError Xamzdate must be in the ISO8601 Long Format "yyyyMMdd'T'HHmmss'Z'". xamzdate必须是ISO8601时间格式yyyyMMdd'T'HHmmss'Z'。 400 AuthorizationQueryParametersError XAmzAlgorithm only supports 'AWS4HMACSHA256'. V4预签名签名算法仅支持AWS4HMACSHA256。 400 AuthorizationQueryParametersError Querystring authentication version 4 requires the XAmzAlgorithm, XAmzCredential, XAmzSignature, XAmzDate, XAmzSignedHeaders, and XAmzExpires parameters. V4预签名需要下列参数:XAmzAlgorithm, XAmzCredential, XAmzSignature, XAmzDate, XAmzSignedHeaders, and XAmzExpires。 400 AuthorizationQueryParametersError XAmzExpires must be less than a week (in seconds); that is, the given XAmzExpires must be less than 604800 seconds. V4预签名生成时间不能超过7天。 400 AuthorizationQueryParametersError XAmzExpires must be nonnegative. V4预签名过期时间不能为负数。 400 AuthorizationQueryParametersError XAmzDate must be in the ISO8601 Long Format "yyyyMMdd'T'HHmmss'Z'". V4预签名XAmzDate必须是ISO8601时间格式yyyyMMdd'T'HHmmss'Z'。 400 AuthorizationQueryParametersError Invalid credential date"date". This date is not the same as XAmzDate:"date". V4预签名credential date与XAmzDate的日期需要保持一致。 400 BadDigest The ContentMD5 you specified did not match what we received. ContentMD5不正确。 400 BadRequest Advance cut's position is out of image. 剪切图片时起始坐标超过原图片尺寸。 400 CanNotModifyMetadataLocation Can not modifiy bucket metadata location. 不能修改元数据位置。 400 IdMismatch Document ID does not match the specified configuration ID. 请求头和请求体中清单ID输入不一致。 400 IncompleteBody You did not provide the number of bytes specified by the ContentLength HTTP header. ContentLength配置的长度与实际收到的数据长度不符,请检查后重发。 400 InvalidArgument User key must have a length greater than 0. 表单上传文件时Key项的值不能为空。 400 InvalidArgument The authorization header is invalid. Expected AccessKeyId:signature. v2签名格式不正确,应该为“AccessKeyId :signature”。 400 InvalidArgument xamzcontentsha256 must be UNSIGNEDPAYLOAD, STREAMINGAWS4HMACSHA256PAYLOAD, or a valid sha256 value. v4签名xamzcontentsha256必须是UNSIGNEDPAYLOAD, STREAMINGAWS4HMACSHA256PAYLOAD或者有效的sha256值。 400 InvalidArgument Unsupported authorization type. v4签名Authentication标头只支持AWS4HMACSHA256算法。 400 InvalidArgument Bucket POST must contain a field named 'AWSAccessKeyId'. If it is specified, please check the order of the fields. 必须包含字段AWSAccessKeyId。 400 InvalidArgument Bucket POST must contain a field named 'policy'. If it is specified, please check the order of the fields. 必须包含字段policy。 400 InvalidArgument Bucket POST must contain a field named 'signature'. If it is specified, please check the order of the fields. 必须包含字段signature。 400 InvalidArgument POST requires exactly one file upload per request. POST请求每次只能上传一个文件。 400 InvalidArgument Bucket POST must contain a field named 'key'. If it is specified, please check the order of the fields. 表单上传中必须指定key。如果已指定,请检查字段顺序。 400 InvalidArgument If the TargetBucket element does not exist, the TargetPrefix element cannot exist either. 在配置日志规则时,如果TargetBucket元素不存在,则TargetPrefix也不能存在。 400 InvalidArgument The target prefix exceeds 900 bytes. 配置日志记录规则时,TargetPrefix的长度不能超过900字节。 400 InvalidArgument ID length should not exceed allowed limit of 255. 配置生命周期规则时,Rule ID长度不能超过255。 400 InvalidArgument At least one action needs to be specified in a rule. 配置生命周期规则时,必须配置过期时间,Days或Date。 400 InvalidArgument 'Days' for [TransitionExpiration] action must be a positive integer. 配置生命周期规则时,Days必须为正整数。 400 InvalidArgument Only one action can be specified in the rule. 配置生命周期规则时,Days或Date只能存在一个。 400 InvalidArgument 'Date' must be at midnight GMT. 配置生命周期规则时,Date必须为ISO8601格式,并且为UTC的零点。 400 InvalidArgument Invalid target Storage class for Transition action. 指定的存储类型无效。 400 InvalidArgument Default retention period must be a positive integer value. 合规保留日期取值必须是正整数。 400 InvalidArgument Object lock configuration has been enabled and can not be disabled. 合规保留已经开启,不能关闭。 400 InvalidArgument Default retention period cannot be less than previously value. 设置的合规保留时长不能短于上次设置的时长。 400 InvalidArgument MaxUploads should be between 1~1000. maxuploads的取值范围为[1,1000]。 400 InvalidArgument The length of delimiter must be 1. delimiter长度不能超过1。并且只能是‘/’或空。 400 InvalidArgument MaxKeys should be between 1~1000. 参数maxKeys取值范围为[1,1000]。 400 InvalidArgument Maxparts should be between 1~1000. maxparts取值范围为[1,1000]。 400 InvalidArgument Partnumbermarker must be an integer between 0 and 2147483647. partnumbermarker必须是整数,取值范围是(0, 2147483647)。 400 InvalidArgument xamzlimitrate invalid. The input should be positive integer. xamzlimitrate取值必须为正整数。 400 InvalidArgument Invalid request parameter: value. 参数无效。 400 InvalidArgument The object size should be less than 5TiB. 文件大小不能超过5TiB。 400 InvalidArgument The 'Expires' field format invalid. The 'Expires' header format invalid. Expires格式不正确。 400 InvalidArgument The metadata size should be less than 2KiB. 用户自定义元数据不能超过2KiB。 400 InvalidArgument Insufficient information. Origin request header needed. 跨域预检时,请求头不正确。 400 InvalidArgument Please enter an integer not less than 1. CORS配置中MaxAgeSeconds取值为不小于1的整数。 400 InvalidArgument Invalid AccessControlRequestMethod:value . AccessControlRequestMethod无效。 400 InvalidArgument The xamzcopysourcerange value must be of the form bytesfirstlast where first and last are the zerobased offsets of the first and last bytes to copy. xamzcopysourcerange形式必须为bytesfirst last,其中第一个和最后一个都是以零为基础开始的偏移量。 400 InvalidArgument Invalid protocol, protocol can be http or https. If not defined the protocol will be selected automatically. 指定的http协议值不正确。 400 InvalidArgument The provided host name contains N characters. The maximum allowed redirect page size is 1024 characters. HostName包含的字符个数大于1024。 400 InvalidArgument The provided home page contains N characters. The maximum allowed home page size is 1024 characters. 首页包含的字符个数大于1024。 400 InvalidArgument The provided error page contains N characters. The maximum allowed error page size is 1024 characters. 错误页包含的字符个数大于1024。 400 InvalidArgument The provided replacement contains N characters. The maximum allowed replacement size is 1024 characters. 重定向规则中ReplaceKeyPrefixWith或者ReplaceKeyWith包含的字符个数大于1024。 400 InvalidArgument The provided prefix contains N characters.The maximum allowed prefix size is 1024 characters. 重定向规则中KeyPrefixEquals包含的字符个数大于1024。 400 InvalidArgument RedirectAllRequestsTo cannot be provided in conjunction with other Routing Rules. 重定向所有请求不能与其他规则同时存在。 400 InvalidArgument The IndexDocument Suffix cannot contain the "/" character. 索引页配置不能包含斜杠“/”。 400 InvalidArgument The IndexDocument Suffix cannot be blank. 索引页配置不能为空。 400 InvalidArgument Missing required key 'Redirect'. 缺少必需的参数Redirect。 400 InvalidArgument The ErrorDocument Key cannot be blank. 错误页配置不能为空。 400 InvalidArgument The HostName cannot be blank. HostName配置不能为空。 400 InvalidArgument The HostName cannot contain the "/" character. HostName不能包含斜杠“/”。 400 InvalidArgument The provided HTTP error code (value) is not valid. Valid codes are 4XX or 5XX. 重定向条件中的HttpErrorCodeReturnedEquals不是有效值。 400 InvalidArgument Missing required key 'HostName'. 缺少必需的参数HostName。 400 InvalidArgument The HostName cannot contain spaces. HostName配置不能包含空格。 400 InvalidArgument A value for IndexDocument Suffix must be provided if RedirectAllRequestsTo is empty. 重定向所有请求未配置时,索引文件必须配置。 400 InvalidArgument The destination bucket does not belong to you. 目的Bucket为他人的Bucket。 400 InvalidArgument Invalid Format value. 清单的格式不正确,取值只能为CSV。 400 InvalidArgument Invalid Field value. Field值填写错误。 400 InvalidArgument The maximum size of a Destination/Prefix is 512. Prefix最大长度为512。 400 InvalidArgument The maximum size of a Filter/Prefix is 1024. Prefix最大长度为1024。 400 InvalidArgument IsEnabled value expects true or false. IsEnabled的取值只能为true或false。 400 InvalidArgument Frequency value expects Daily or Weekly. Frequency的取值只能为Daily或Weekly。 400 InvalidArgument Schedule/Frequency missing. Frequency未填写。 400 InvalidArgument InventoryConfiguration/Destination/OOSBucketDestination/Bucket missing. 清单的目的Bucket未填写。 400 InvalidArgument IsEnabled missing. IsEnabled缺失。 400 InvalidArgument InventoryConfiguration/Destination/OOSBucketDestination/Format missing. 清单的输出格式缺失。 400 InvalidArgument Invalid id. Id无效。 400 InvalidArgument Id missing. 请求体中的id缺失。 400 InvalidArgument The type of 'IsAccessTime' must be Boolean. IsAccessTime取值应为布尔型,true或者false。 400 InvalidArgument 'Days' in the Expiration action for prefix 'prefix ' must be greater than 'Days' in the Transition action. 两生命周期规则重叠时,过期删除天数必须大于过期转储天数。 400 InvalidBucketCorsConfigure The XML you provided is not valid. XML无效。 400 InvalidBucketName The bucket name is:name . Bucket名字无效。 400 InvalidConfigurationId The specified configuration id is invalid. 请求头的清单ID未填写。 400 InvalidLocationConstraint The specified location constraint is not valid. 指定的数据位置无效。 400 InvalidObjectName The object name is:name . 文件名字无效。 400 InvalidOOSDestinationBucket Invalid Bucket ARN. Bucket ARN的格式不正确。 400 InvalidOOSDestinationBucket Invalid Bucket Name:bucketname . 清单输出的目的Bucket不存在。 400 InvalidPart One or more of the specified parts could not be found. The part may not have been uploaded, or the specified entity tag may not match the part's entity tag. 一个或者多个指定片段无法找到,片段可能没有被上传,或者指定的ETag值跟片段的ETag值不匹配。 400 InvalidPartNumber Part number must be an integer between 1 and 10000. 参数PartNumber的取值是[1, 10000]。 400 InvalidPartOrder The list of parts was not in ascending order. The parts list must be specified in order by part number. 分片片段列表没有按升序排列。片段列表必须根据分片号按顺序排列。 400 InvalidPartSize Your proposed upload is smaller than the minimum allowed object size. Each part must be at least 5 MiB in size, except the last part. 合并分片文件时,只允许最后一片小于5MiB,其他分片至少5MiB。 400 InvalidPolicyDocument Invalid Policy: JSON invalid:value . 策略无效,不是标准的json格式。 400 InvalidPolicyDocument Invalid according to Policy: Extra input fields:value . 策略无效,输入了额外的字段。 400 InvalidPolicyDocument Policy could not be parsed as a valid JSON string. 策略必须是json格式。 400 InvalidPolicyDocument Policy is missing required element Statement. 策略必须配置Statement。 400 InvalidPolicyDocument Policy is missing required element Principal. 策略必须配置Principal。 400 InvalidPolicyDocument Policy element has invalid value Principal. 策略配置的Principal值无效。 400 InvalidPolicyDocument Policy is missing required element Resource. 策略必须配置Resource元素。 400 InvalidPolicyDocument Policy is missing required element Resource content. 策略的Resource元素必须赋值。 400 InvalidPolicyDocument Policy has invalid resource resource . 策略配置的Resource无效。 400 InvalidPolicyDocument Policy has an invalid condition key key . 策略配置的condition key无效。 400 InvalidPolicyDocument No such condition type type. 策略配置的condition type无效。 400 InvalidPolicyDocument Action does not apply to any resource(s) in statement. 策略配置的Action无效。 400 InvalidPolicyDocument Policy is missing required element Effect. 策略必须配置Effect。 400 InvalidPolicyDocument Policy element has invalid value Effect :Effect . 策略配置的Effect无效。 400 InvalidPolicyDocument Policy element has invalid value Version :Version . 策略配置的Version无效。 400 InvalidRedirectLocation The website redirect location must be nonempty. xamzwebsiteredirectlocation头不能为空。 400 InvalidRedirectLocation The website redirect location must have a prefix of ' or ' or '/'. xamzwebsiteredirectlocation必须有前缀' 400 InvalidRedirectLocation The length of website redirect location cannot exceed 2,048 characters. xamzwebsiteredirectlocation长度不能超过2048。 400 InvalidRequest Missing required header for this request: xamzcontentsha256. v4签名必须携带xamzcontentsha256。 400 InvalidRequest Missing required header for this request: ContentMD5. 请求头必须包含ContentMD5。 400 InvalidRequest Please reduce your request rate. 请降低您的请求频率。 400 InvalidRequest The operation failed, please change a resource pool and try again. 请换其他资源池或者重试。 400 InvalidRequest This copy request is illegal because it is trying to copy an object to itself without changing the object's metadata or storage class. 复制文件时必须修改元数据或者存储类型。 400 InvalidRequest xamzlimitrate invalid.The input should be positive integer. xamzlimitrate只能是正整数。 400 InvalidRequest The source object size cannot be smaller than 5 GiB. 如果源文件取range进行拷贝,源文件大小不能小于5G。 400 InvalidRequest You can only define ReplaceKeyPrefix or ReplaceKey but not both. ReplaceKeyPrefix或者ReplaceKey不能同时存在。 400 InvalidRequest Condition cannot be empty. To redirect all requests without a condition, the condition element shouldn't be present. Condition配置不能为空。不带条件的情况下,重定向所有请求不应该出现condition元素。 400 InvalidRequest The maximum size of a prefix is 1024. 配置生命周期规则时,前缀的最大长度为1024。 400 InvalidRequest Number of lifecycle rules should not exceed allowed limit of 1000 rules. 同一Bucket配置的生命周期规则不能超过1000条。 400 InvalidRequest Rule ID must be unique. Found same ID for more than one rule. 配置生命周期规则时,Rule ID必须唯一。 400 InvalidRequest Found two rules with same prefix 'prefix ' for same action type [TransitionExpiration]. 同一Bucket的两条生命周期规则不能有相同的prefix。 400 InvalidRequest Found overlapping prefixes 'prefix ' and ' prefix ' for same action type [TransitionExpiration]. 同一Bucket的两条生命周期规则不能有前缀重叠的情况。 400 InvalidRequest Found overlapping prefixes 'prefix ' and '' for same action type [TransitionExpiration]. 同一Bucket的两条生命周期规则不能同时存在有前缀和无前缀规则。 400 InvalidStorageClass The storage class you specified is not valid. xamzstorageclass无效。 400 InvalidStorageClass Can not specify the storage class. 未合并的分段文件不能指定xamzstorageclass进行拷贝。 400 InvalidTargetBucketForLogging The target bucket name is:name. 日志记录规则时,目标Bucket不存在或者无目标Bucket的权限。 400 MalformedPOSTRequest The body of your POST request is not wellformed multipart/formdata. POST表单请求中contenttype配置的boundary格式不规范。 400 MalformedXML CORS Rule is empty. CORS Rule不能为空。 400 MalformedXML The number of CORS Rules you provided cannot exceed 100. CORS Rules个数不能超过100。 400 MalformedXML The length of CORS Rule ID you provided cannot exceed 255 characters. CORS Rule ID长度不能超255个字符。 400 MalformedXML AllowedOrigin does not exist. CORS配置中AllowedOrigin不存在。 400 MalformedXML AllowedMethod does not exist. CORS配置中AllowedMethod不存在。 400 MalformedXML AllowedOrigin "value" can not have more than one wildcard. CORS配置中AllowedOrigin最多只能携带一个通配符。 400 MalformedXML AllowedHeader "value" can not have more than one wildcard. CORS配置中AllowedHeader最多只能携带一个通配符。 400 MalformedXML ExposeHeader "value" contains wildcard. We currently do not support wildcard for ExposeHeader. CORS配置中ExposeHeader不能携带通配符。 400 MalformedXML CORS Rule ID is not unique. CORS Rule ID必须是唯一的。 400 MalformedXML The XML you provided was not wellformed or did not validate against our published schema. XML格式不正确。 400 MaxRequestBodyLengthExceeded Your request was too big, the maximum size is %s . 请求体长度太长。 400 MissingRequestBodyError Request Body is empty. 请求body体为空。 400 NoSuchUpload The specified upload does not exist. The uploadId may be invalid, or the upload may have been aborted or completed. 指定的分片上传过程不存在,上传ID可能非法,分片上传过程可能被终止或者已经完成。 400 PutObjectTooFast Upload:value is updated too fast. 同一文件并发上传过快。 400 TooManyBuckets You have attempted to create more buckets than allowed. Bucket数量已经到达上限。 400 TooManyConfigurations You are attempting to create a new configuration but have already reached the 10configuration limit. 超出清单配置规则的数量限制,每个Bucket最多配置10条清单。 403 InvalidAccessKeyId InvalidAccessKeyId. AccessKeyId无效。 403 InvalidAccessKeyId The AccessKeyId is invalid. AccessKeyId被禁用。 403 InvalidAccessKeyId The specified accessKey:accessKey does not exist. 临时密钥不存在,需重新申请。 403 AccessDenied Please use primary access key. 需要使用主密钥。 403 AccessDenied Nonprimary key can not list without prefix or prefix is not start with access key. 非主密钥只能list以自己access key为前缀的文件。 403 AccessDenied Nonprimary key can not operate bucket. 非主密钥,不能操作该Bucket。 403 AccessDenied Nonprimary key can not operate object that not start with access key. 非主密钥只能操作以自己access key为前缀的文件。 403 AccessDenied The secret token is expired, expiration:value . secret token过期。 403 AccessDenied The OOS service has been closed due to overdue payment. If the overdue payment exceed 15 days, the data will be deleted. Please recharge it in time. 由于逾期付款,OOS服务已关闭。如果逾期付款超过15天,数据将被删除。请及时充值。 403 AccessDenied OOS authentication requires a valid Date or xamzdate header. OOS 签名头中需要携带Date或xamzdate。 403 AccessDenied OOS authentication requires a valid Date or xamzdate header, expecting" YYYYMMDD'T'HHMMSS'Z'". OOS 签名头需要携带正确格式的Date或xamzdate,格式为YYYYMMDD'T'HHMMSS'Z'。 403 AccessDenied Invalid according to Policy: Policy expired. v4签名的xamzdate时间不能超过7天。 403 AccessDenied Invalid according to Policy: Policy Condition failed:xxx 签名策略不对。 403 AccessDenied Querystring authentication requires the Signature, Expires and AWSAccessKeyId parameters. V2预签名需要携带以下参数:Signature、Expires、AWSAccessKeyId。 403 AccessDenied Invalid date (should be seconds since epoch):date . 过期时间需要精确到秒。 403 AccessDenied Request has expired. 请求过期。 403 AccessDenied Anonymous access is forbidden for this operation. 匿名用户禁止此操作。 403 AccessDenied The user's permission is not enough. 用户权限不足。 403 AccessDenied You do not have permission to this resource pool, please try another resource pool. 没有该资源池的权限,请使用其他资源池。 403 AccessDenied CORSResponse: This CORS request is not allowed. This is usually because the evalution of Origin, request method / AccessControlRequestMethod or AccessControlRequestHeaders are not whitelisted by the resource's CORS spec. 跨域预检请求没有通过CORS规则校验。请检查Origin、AccessControlRequestMethod、AccessControlRequestHeaders是否在CORS列表的白名单中。 403 AccessDenied CORSResponse: CORS is not enabled for this bucket. 此Bucket未配置CORS。 403 AccessDenied Access denied by bucket policy. 受Bucket Policy的规则影响,被显示拒绝。 403 AccessDenied Access denied by bucket policy or anonymous access is forbidden. 匿名访问被拒绝,或者被Bucket Policy规则隐式拒绝。 403 AccessDenied User:user is not authorized to perform:action on resource: resource . 没有权限访问此资源。 403 AccessDenied The user does not belong to the region. 没有此资源池的上传权限,请更换其他资源池重试。 403 AccessDenied You do not have permission to request the value data region. Please change the data region for the bucket and try again. Bucket下配置的数据位置都已失效,请重新配置,或者修改为可以自动调度。 403 AccessDenied You are not allowed to set the publicreadwrite permission for the bucket. 您不具备将容器设置为公有的权限,请联系天翼云客服协助开通此功能。 403 AccessDenied You are not allowed to grant publicwrite permission to anonymous users. 您不可以向匿名用户授予写权限,请联系天翼云客服协助开通此功能。 403 AccessDenied Make sure that bucket's permissions are not private before using the static website hosting feature. 在使用静态网站托管功能之前,请确保Bucket权限不是私有。 403 Forbidden CORSResponse: Bucket not found. 如果是preflight CORS请求,Bucket必须存在。 403 IllegalObject The object "bucket/object " is illegal, forbid copy. 源文件是非法文件,不允许拷贝。 403 RequestTimeTooSkewed The difference between the request time and the server's time is too large. 客户端时间和服务器端时间相差超过15分钟。 403 SignatureDoesNotMatch The request signature we calculated does not match the signature you provided. Check your key and signing method. 签名计算错误,需按OOS的签名规则,请检查客户端签名计算方法。 403 SignatureDoesNotMatch The authorization type is malformed. V2签名头不是AWS开头,或者V4签名头不是AWS4HMACSHA256。 403 SignatureDoesNotMatch Invalid order of SignedHeaders. V4签名SignedHeasers需按字典序排序 404 MalformedContinuationToken The continuationtoken you provided invalid. continuationtoken的值不正确。 404 NoSuchBucket The resource you requested does not exist. 请求的Bucket不存在。 404 NoSuchBucket The request bucketname is name. 复制文件时源Bucket不存在。 404 NotSuchBucketPolicy The bucket policy configuration does not exist. 此Bucket Policy配置不存在。 404 NoSuchCORSConfiguration The CORS configuration does not exist. Bucket下没有配置CORS。 404 NoSuchLifecycleConfiguration The lifecycle configuration does not exist. 生命周期规则配置不存在。 404 NoSuchKey The resource you requested does not exist. 请求文件不存在。 404 NoSuchKey An Error Occurred While Attempting to Retrieve a Custom Error Document. 尝试检索自定义错误文档时发生错误。 404 NoSuchWebsiteConfiguration The specified bucket does not have a website configuration. Bucekt未开启website功能。 404 ObjectLockConfigurationNotFoundError Object lock configuration does not exist for this bucket. 此Bucket不存在合规保留配置。 405 MethodNotAllowed The specified location constraint is not valid. 指定的数据位置无效。 405 MethodNotAllowed The specified method is not allowed against this resource. 此资源不允许使用该方法。 409 BucketAlreadyExists BucketAlreadyExists. Bucket名字已存在,请更换名字。 409 BucketNotEmpty The bucket you tried to delete is not empty. Bucket非空,不能删除。 411 MissingContentLength You must provide the ContentLength HTTP header. 需要提供ContentLength消息头。 412 PreconditionFailed Bucket post must be of the enclosuretype multipart/formdata. POST表单的contenttype请求头不正确。 412 PreconditionFailed The preconditions xamzcopysourceifmodifiedsince you specified did not hold. 预处理条件下,指定的xamzcopysourceifmodifiedsince不匹配。 503 ServiceUnavailable Service is busy.Please try again. 服务器繁忙,请重试。 503 SlowDown Please reduce your request rate. 请降低请求频率。
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        存储桶(Bucket)和文件(Object)
        错误响应
        错误码列表
      • 应用托管入门指引
        本节介绍应用托管快速入门。 关于如何订购应用托管,详见应用托管快速入门
        来自:
        帮助文档
        天翼云息壤一体化智算服务平台
        快速入门
        应用托管入门指引
      • 应用托管常见问题
        本节介绍应用托管常见问题。 您在使用应用托管时,可根据以下问题分类匹配问题场景和解决方案。 分类 帮助文档 计费类 计费类 操作类 操作类
        来自:
        帮助文档
        天翼云息壤一体化智算服务平台
        常见问题
        应用托管常见问题
      • 科研助手最佳实践
        本文为您介绍科研助手最佳实践。 关于如何通过科研助手使用科研服务、快速生成应用、搭建知识库、进行图像生成等,请参考帮助中心>>科研助手>>最佳实践。
        来自:
        帮助文档
        天翼云息壤一体化智算服务平台
        最佳实践
        科研助手最佳实践
      • 训推服务最佳实践
        本文为您介绍训推服务最佳实践。 关于如何通过训推服务定制模型、部署服务、管理数据集等,请参考帮助中心>>训推服务>>最佳实践。
        来自:
        帮助文档
        天翼云息壤一体化智算服务平台
        最佳实践
        训推服务最佳实践
      • 应用托管最佳实践
        本文为您介绍应用托管最佳实践。 关于如何应用托管构建知识库、部署服务等,请参考帮助中心>>应用托管>>最佳实践。
        来自:
        帮助文档
        天翼云息壤一体化智算服务平台
        最佳实践
        应用托管最佳实践
      • 公共算力服务常见问题
        本节介绍公共算力服务常见问题。 您在使用公共算力服务时,可根据以下问题分类匹配场景和解决方案。 分类 帮助文档 产品咨询类 产品咨询类常见问题 操作类 操作类常见问题
        来自:
        帮助文档
        天翼云息壤一体化智算服务平台
        常见问题
        公共算力服务常见问题
      • 公共算力服务入门指引
        本节介绍公共算力服务快速入门。 关于如何订购公共算力服务,详见公共算力服务快速入门
        来自:
        帮助文档
        天翼云息壤一体化智算服务平台
        快速入门
        公共算力服务入门指引
      • 1
      • ...
      • 293
      • 294
      • 295
      • 296
      • 297
      • ...
      • 312
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      AI Store

      公共算力服务

      智算一体机

      推荐文档

      如何退换发票?

      公告

      如何充值?

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号