活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 聚力AI赋能 天翼云大模型专项 大模型特惠专区·Token Plan 轻享包低至9.9元起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V4-Flash
  • GLM-5.1
  • Qwen3.5-122B-A10B
  • DeepSeek-V3.2(旗舰版)
  • GLM-5(正式版)
  • Qwen3.5-397B-A17B(正式版)
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      函数计算_相关内容
      • 常见问题
        使用RDS要注意些什么 1、实例的操作系统,对用户都不可见,这意味着,只允许用户应用程序访问数据库对应的IP地址和端口。 2、对象存储服务(Object Storage Service,简称OBS)上的备份文件以及关系型数据库服务使用的弹性云服务器(Elastic Cloud Server,简称ECS),都对用户不可见,它们只对关系型数据库服务的后台管理系统可见。 3、申请RDS后,您还需要做什么。 申请关系型数据库实例后,您不需要进行数据库的基础运维(比如高可用、安全补丁等),但是您还需要重点关注以下事情: 4、关系型数据库实例的CPU、IOPS、空间是否足够,如果不够需要变更规格或者扩容。 5、关系型数据库实例是否存在性能问题,是否有大量的慢SQL,SQL语句是否需要优化,是否有多余的索引或者缺失的索引等。 什么是RDS实例可用性 关系型数据库实例可用性的计算公式: 实例可用性(1–故障时间/服务总时间)×100% 可以通过创建模板的方式创建实例吗 目前不支持实例模板。 RDS与其他数据库解决方案间的差异 功能 RDS 自购服务器搭建数据库服务 服务可用性 请参见《弹性云服务器用户指南》。 需自行保障,自行搭建主从复制,自建RAID等。 数据可靠性 请参见《云硬盘用户指南》。 需自行保障,自行搭建主从复制,自建RAID等。 系统安全性 防DDoS,及时修复各种数据库安全漏洞。 自行部署,价格高昂;自行修复数据库安全漏洞。 数据库备份 自动备份。 自行实现,但需要寻找备份存放空间以及定期验证备份是否可恢复。 软硬件投入 无软硬件投入,按需付费。 数据库服务器成本相对较高。 系统托管 无托管费用。 托管费用比较高。 维护成本 无需运维。 需招聘专职DBA来维护,花费大量人力成本。 部署扩容 即时开通,快速部署,扩容,按需开通。 需硬件采购、机房托管、部署机器等工作,周期较长。 资源利用率 按实际结算,利用率高。 考虑峰值,资源利用率很低。 RDS实例是否会受其他用户实例的影响 关系型数据库实例不会受其他用户实例影响,因为每个用户的关系型数据库实例与其他用户的实例是相互独立的,并且有资源隔离,互不影响。 关系型数据库支持跨AZ高可用吗 RDS支持跨AZ高可用。当用户购买实例的时候,选择主备,可以选择主可用区和备可用区不在同一个可用区(AZ)。 导出SQL查询结果到Excel出现乱码 编码导致出现乱码,默认是utf8,需要将默认编码转换为Unicode。 为何使用了RDS后网站登录较慢 推荐您做如下两个处理: 通过关系型数据库服务的管理控制台查看关系型数据库实例的性能情况。 与应用程序有很大关系,使用命令查看当前数据库连接状态,比较本地数据库和关系型数据库的差异。 云数据库如何进行主备切换 关系型数据库(Relational Database Service,简称RDS)服务提供高可用类型,推荐您选择主备模式。 故障切换 也叫计划外的切换。当主机出现故障时,系统会在1~5分钟内自动切换到备机,主备实例的连接IP不变,整个过程无需人工干预。切换过程中不可访问,需要您设置好程序跟关系型数据库服务的自动重连,避免因为切换导致服务不可用。 手动切换 也叫计划内的切换。当实例运行正常时,用户可以自主手动触发主备切换,以满足业务需求。 步骤 1登录管理控制台。 步骤 2单击管理控制台左上角的,选择区域和项目。 步骤 3选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4在“实例管理”页面,选择指定的主备实例,单击实例名称,进入实例的“基本信息”页面。 步骤 5在“基本信息”页面中“数据库信息”模块的“实例类型”处,单击“主备切换”。 您也可以在“基本信息”页面,单击“实例拓扑图”模块的。进行主备切换。 主备切换可能会造成几秒或几分钟的服务闪断(闪断时间与复制时延有关),并有可能在主备同步时延过大的情况下,导致少量数据丢失。 主备切换后,请注意对业务进行预热,避免业务高峰期出现阻塞。 在“主备切换”弹框,单击“是”进行主备实例的切换。 在“复制状态”为“正常”的情况下,复制时延大于300s,主备切换任务无法下发。 主备切换成功后,单击“返回实例列表”,用户可以在“实例管理”页面对其进行查看和管理。 切换过程中,状态显示为“主备切换中”。 在实例列表的右上角,单击刷新列表,可查看到主备切换完成后,实例状态显示为“正常”。 多台弹性云服务器是否可以使用同一个RDS数据库 在数据库的压力承载范围内,多台弹性云服务器是可以使用同一个关系型数据库来支撑业务的。 RDS主备实例是否可以在一个可用区 可用区指在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 关系型数据库服务支持在同一个可用区内或者跨可用区部署数据库主备实例,备机的选择和主机可用区对应情况: 相同(默认),主机和备机会部署在同一个可用区。 不同,主机和备机会部署在不同的可用区,以提供不同可用区之间的故障转移能力和高可用性。
        来自:
      • 步骤一:购买DRDS实例及RDS for MySQL实例
        参数 说明 计费模式 支持“包年/包月”和“按需付费”两种模式,购买后同时支持计费模式互转。 包年/包月:用户选购完服务配置后,可以根据需要设置购买时长,系统会一次性按照购买价格对账户余额进行扣费。 按需计费:用户选购完服务配置后,无需设置购买时长,系统会根据消费时长对账户余额进行扣费。 区域 DRDS实例所在区域,可根据需要直接切换区域。 项目 DRDS实例所在的项目。 实例名称 DRDS实例的名称。 名称不能为空。 只能以英文字母开头。 长度为4到64位的字符串。 可包含英文字母、数字、下划线()和中划线()。 时区 由于世界各国家与地区经度不同,地方时也有所不同,因此会划分为不同的时区。 节点个数 实例所含有节点个数,最多支持32个节点数。 说明 单节点存在高可用风险,建议至少创建2节点。 DRDS实例单个节点的磁盘使用情况:系统盘40G + 数据盘1G。 可用区 可选择的可用区。 为了避免单个物理机故障影响多台云主机的情况发生,相同可用区内,DRDS支持不同虚拟机反亲和性部署,即集群里不同虚拟机部署在不同物理主机上。 DRDS支持跨可用区部署,以增强DRDS实例高可用性,达到跨可用区的容灾。 如果您的实例需要跨可用区部署,可以选择多个可用区,DRDS实例的节点将部署在不同的可用区中。 说明 跨可用区部署会产生一定的网络时延,建议将应用程序和数据库服务(DRDS、RDS)配置在相同可用区,减少网络时延。 节点规格 DRDS实例的规格,支持“通用增强型”。 说明 为了使所购买的DRDS实例能更好地满足应用需求,您需要先评估应用所需的计算能力和存储能力,结合业务类型及服务规模,选择合适的实例规格,主要包括:CPU、内存。 设置密码 可以选择“现在设置”、“创建后设置” 说明 设置的是管理员账号信息。选择“创建后设置”,可以在需要的时候,根据新增管理员账号操作步骤进行设置。 管理员账号 设置密码选择“现在设置”时,必填。管理员账号,不能与账号管理中的账号重复,创建后不能删除。 密码 设置密码选择“现在设置”时,必填。管理员账号的密码。 说明 可以在需要的时候,根据重新设置密码操作步骤进行重置。 确认密码 设置密码选择“现在设置”时,必填。管理员账号的密码。 虚拟私有云 DRDS实例所在的虚拟专用网络,可对不同业务进行网络隔离,方便地管理、配置内部网络,进行安全、快捷的网络变更。 单击“查看虚拟私有云”,系统跳转到虚拟私有云界面,可以查看相应的虚拟私有云,以及安全组的出方向规则和入方向规则。 说明 创建DRDS实例选择的虚拟私有云要与RDS for MySQL实例保持一致。 DRDS实例必须与应用程序、RDS for MySQL实例处于相同的VPC,以保证网络连通。 目前DRDS实例创建后不支持切换虚拟私有云,请谨慎选择。 子网 通过子网提供与其他网络隔离的、可以独享的网络资源,来提高网络安全性。创建DRDS实例时会自动为您配置内网地址,实例创建成功后该内网地址可修改。 IPv6 启用IPv6前,请确保数据库实例所在的VPC和子网已开启IPv6配置,在VPC和子网开启IPv6配置的应用场景和操作步骤,请参见《虚拟私有云操作指导》中的“IPv4/IPv6双栈管理”章节。 启用IPv6后,数据库实例可在双堆栈模式下运行,即可以拥有两个不同版本的IP地址:IPv4地址和IPv6地址。此时实例通过IPv4和IPv6进行通信,且IPv4和IPv6通信彼此独立。 内网安全组 已创建的内网安全组。 建议DRDS实例与应用程序、RDS for MySQL实例选择相同的安全组,三者网络访问不受限制。如果选择了不同的安全组,请注意添加安全组访问规则,开通网络访问。 企业项目 企业项目管理提供了一种按企业项目管理云资源的方式,帮助您实现以企业项目为基本单元的资源及人员的统一管理。 参数模板 您可以选择已有参数;同时支持单击查看参数模板,在参数模板页面,进行设置参数信息。 标签 可选配置。使用标签可以方便识别和管理您拥有的分布式数据库中间件服务资源。 您可以为DRDS实例添加标签,每个DRDS实例最多支持添加20个标签。 新建标签 您可以在DRDS控制台新建标签。新建标签时,需要设置相应的标签“键”和“值”。 键:该项为必选参数,不能为空。 − 对于每个实例,每个标签的键唯一。 − 长度为1~36个字符。 − 不能为空字符串,不能以“ sys ”开头和以空格开头、结尾。 − 不能包含下列字符: 非打印字符ASCII(031),“”,“<”,“>”,“”,“,”,“”,“/”。 值:该项为必选参数。 − 可以不填值,此时默认为空字符串。 − 长度为0~43个字符。 − 不能包含下列字符: 非打印字符ASCII(031),“”,“<”,“>”,“”,“,”,“”。 实例创建成功后,您可以单击实例名称,在“标签”页签下查看对应标签,也可以修改或删除标签。同时,您还可以通过标签快速筛选指定实例。 如果您在申请实例时未添加标签,可以待实例创建成功后,再为实例添加标签。 购买时长 购买DRDS实例的时长,该参数仅当“计费模式”为“包年/包月”时才显示。 您可选择1个月、2个月、3个月、4个月、5个月、6个月、7个月、8个月、9个月和1年。
        来自:
        帮助文档
        分布式关系型数据库
        快速入门
        步骤一:购买DRDS实例及RDS for MySQL实例
      • 通过JDBC连接RDS for MySQL实例
        本节介绍了通过JDBC连接RDS for MySQL实例的方法。 通过JDBC连接实例的方式有无需下载SSL证书连接和用户下载SSL证书连接两种,其中使用SSL证书连接通过了加密功能,具有更高的安全性。RDS for MySQL新实例默认关闭SSL数据加密,开启SSL请参考设置SSL数据加密。SSL连接实现了数据加密功能,但同时也会增加网络连接响应时间和CPU消耗,不建议开启SSL数据加密。 前提条件 用户需要具备以下技能: 熟悉计算机基础知识。 了解java编程语言。 了解JDBC基础知识。 使用SSL证书连接 说明 使用SSL证书连接实例,即通过证书校验并连接数据库。RDS for MySQL实例不支持X509认证方式。 步骤 1 下载CA证书或捆绑包。 1. 在“实例管理”页面,单击实例名称进入“基本信息”页面。 2. 单击“SSL”处的“下载”。 步骤 2 使用keytool工具通过CA证书生成truststore文件。 plaintext ./keytool.exe importcert alias ­file keystore storepass 表 变量说明 变量 说明 请替换为JDK或JRE安装路径的bin目录,例如C:Program Files (x86)Javajdk­11.0.7bin。 请设置truststore文件的名称。建议设置为具有业务意义的名称,便于后续识别。 请替换为步骤1中下载解压后CA证书的名称,例如ca.pem。 请设置truststore文件的存放路径。 请设置truststore文件的密码。 代码示例(使用JDK安装路径下的keytool工具生成truststore文件): plaintext Owner: CNMySQLServer5.7.17AutoGeneratedCACertificate Issuer: CNMySQLServer5.7.17AutoGeneratedCACertificate Serial number: 1 Valid from: Thu Feb 16 11:42:43 EST 2017 until: Sun Feb 14 11:42:43 EST 2027 Certificate fingerprints: MD5: 18:87:97:37:EA:CB:0B:5A:24:AB:27:76:45:A4:78:C1 SHA1: 2B:0D:D9:69:2C:99:BF:1E:2A:25:4E:8D:2D:38:B8:70:66:47:FA:ED SHA256:C3:29:67:1B:E5:37:06:F7:A9:93:DF:C7:B3:27:5E:09:C7:FD:EE:2D:18:86:F4:9C:40:D8:26:CB:DA:95: A0:24 Signature algorithm name: SHA256withRSA Subject Public Key Algorithm: 2048bit RSA key Version: 1 Trust this certificate? [no]: y Certificate was added to keystore 步骤 3 通过JDBC连接MySQL数据库,代码中的JDBC连接格式如下: plaintext jdbc:mysql:// : / ?param1value1¶m2value2 表 参数说明 参数 说明 请替换为实例的IP地址。 说明 如果通过弹性云主机连接,“instanceip”是实例的“内网地址”。您可以在该实例的“连接管理”页面查看。 如果通过公网连接,“instanceip”为该实例已绑定的“弹性公网IP”。您可以在该实例的“连接管理”页面查看。 请替换为实例的数据库端口,默认为3306。 说明 您可以在该实例的“连接管理”页面查看。 请替换为连接实例使用的数据库名,默认为mysql。 requireSSL,用于设置服务端是否支持SSL连接。取值如下: true:支持。 false:不支持。 说明 requireSSL与其他连接参数、sslMode之间的关系请参考表 连接参数与SSLMode的关系说明。 useSSL,用于设置客户端是否使用SSL连接服务端。取值如下: true:使用。 false:不使用。 说明 useSSL与其他连接参数、sslMode之间的关系请参考表 连接参数与SSLMode的关系说明。 verifyServerCertificate,客户端是否校验服务端的证书。取值如下: true:校验。 false:不校验。 说明 verifyServerCertificate与其他连接参数、sslMode之间的关系请参考表 连接参数与SSLMode的关系说明。 trustCertificateKeyStoreUrl,取值为file: 。 请替换为步骤2中truststore文件设置的存储路径。 trustCertificateKeyStorePassword,取值为步骤2中truststore文件设置的密码。 表 连接参数与SSLMode的关系说明 useSSL requireSSL verifyServerCertificate sslMode false 不涉及 不涉及 DISABLED true false false PREFERRED true true false REQUIRED true 不涉及 true VERIFYCA 代码示例(连接MySQL数据库的java代码): plaintext import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.Statement; import java.sql.SQLException; // 认证用的用户名和密码直接写到代码中有很大的安全风险,建议在配置文件或者环境变量中存放(密码应密文存放,使用时解密),确保安全。 // 本示例以用户名和密码保存在环境变量中为例,运行本示例前请先在本地环境中设置环境变量(环境变量名称请根据自身情况进行设置)EXAMPLEUSERNAMEENV和EXAMPLEPASSWORDENV。 public class JDBCTest { String USER System.getenv("EXAMPLEUSERNAMEENV"); String PASS System.getenv("EXAMPLEPASSWORDENV"); public static void main(String[] args) { Connection conn null; Statement stmt null; // url中所需的连接参数根据实际情况配置 String url "jdbc:mysql:// : / ?param1value1¶m2value2"; try { Class.forName("com.mysql.cj.jdbc.Driver"); conn DriverManager.getConnection(url, USER, PASS); stmt conn.createStatement(); String sql "show status like 'ssl%'"; ResultSet rs stmt.executeQuery(sql); int columns rs.getMetaData().getColumnCount(); for (int i 1; i < columns; i++) { System.out.print(rs.getMetaData().getColumnName(i)); System.out.print("t"); } while (rs.next()) { System.out.println(); for (int i 1; i < columns; i++) { System.out.print(rs.getObject(i)); System.out.print("t"); } } rs.close(); stmt.close(); conn.close(); } catch (SQLException se) { se.printStackTrace(); } catch (Exception e) { e.printStackTrace(); } finally { // release resource .... } } } 结束
        来自:
      • 通过JDBC连接RDS for MySQL实例
        本节介绍了通过JDBC连接RDS for MySQL实例的方法。 通过JDBC连接实例的方式有无需下载SSL证书连接和用户下载SSL证书连接两种,其中使用SSL证书连接通过了加密功能,具有更高的安全性。RDS for MySQL新实例默认关闭SSL数据加密,开启SSL请参考设置SSL数据加密。SSL连接实现了数据加密功能,但同时也会增加网络连接响应时间和CPU消耗,不建议开启SSL数据加密。 前提条件 用户需要具备以下技能: 熟悉计算机基础知识。 了解java编程语言。 了解JDBC基础知识。 使用SSL证书连接 说明 使用SSL证书连接实例,即通过证书校验并连接数据库。RDS for MySQL实例不支持X509认证方式。 步骤 1 下载CA证书或捆绑包。 1. 在“实例管理”页面,单击实例名称进入“基本信息”页面。 2. 单击“SSL”处的“下载”。 步骤 2 使用keytool工具通过CA证书生成truststore文件。 plaintext ./keytool.exe importcert alias ­file keystore storepass 表 变量说明 变量 说明 请替换为JDK或JRE安装路径的bin目录,例如C:Program Files (x86)Javajdk­11.0.7bin。 请设置truststore文件的名称。建议设置为具有业务意义的名称,便于后续识别。 请替换为步骤1中下载解压后CA证书的名称,例如ca.pem。 请设置truststore文件的存放路径。 请设置truststore文件的密码。 代码示例(使用JDK安装路径下的keytool工具生成truststore文件): plaintext Owner: CNMySQLServer5.7.17AutoGeneratedCACertificate Issuer: CNMySQLServer5.7.17AutoGeneratedCACertificate Serial number: 1 Valid from: Thu Feb 16 11:42:43 EST 2017 until: Sun Feb 14 11:42:43 EST 2027 Certificate fingerprints: MD5: 18:87:97:37:EA:CB:0B:5A:24:AB:27:76:45:A4:78:C1 SHA1: 2B:0D:D9:69:2C:99:BF:1E:2A:25:4E:8D:2D:38:B8:70:66:47:FA:ED SHA256:C3:29:67:1B:E5:37:06:F7:A9:93:DF:C7:B3:27:5E:09:C7:FD:EE:2D:18:86:F4:9C:40:D8:26:CB:DA:95: A0:24 Signature algorithm name: SHA256withRSA Subject Public Key Algorithm: 2048bit RSA key Version: 1 Trust this certificate? [no]: y Certificate was added to keystore 步骤 3 通过JDBC连接MySQL数据库,代码中的JDBC连接格式如下: plaintext jdbc:mysql:// : / ?param1value1¶m2value2 表 参数说明 参数 说明 请替换为实例的IP地址。 说明 如果通过弹性云主机连接,“instanceip”是实例的“内网地址”。您可以在该实例的“连接管理”页面查看。 如果通过公网连接,“instanceip”为该实例已绑定的“弹性公网IP”。您可以在该实例的“连接管理”页面查看。 请替换为实例的数据库端口,默认为3306。 说明 您可以在该实例的“连接管理”页面查看。 请替换为连接实例使用的数据库名,默认为mysql。 requireSSL,用于设置服务端是否支持SSL连接。取值如下: true:支持。 false:不支持。 说明 requireSSL与其他连接参数、sslMode之间的关系请参考表 连接参数与SSLMode的关系说明。 useSSL,用于设置客户端是否使用SSL连接服务端。取值如下: true:使用。 false:不使用。 说明 useSSL与其他连接参数、sslMode之间的关系请参考表 连接参数与SSLMode的关系说明。 verifyServerCertificate,客户端是否校验服务端的证书。取值如下: true:校验。 false:不校验。 说明 verifyServerCertificate与其他连接参数、sslMode之间的关系请参考表 连接参数与SSLMode的关系说明。 trustCertificateKeyStoreUrl,取值为file: 。 请替换为步骤2中truststore文件设置的存储路径。 trustCertificateKeyStorePassword,取值为步骤2中truststore文件设置的密码。 表 连接参数与SSLMode的关系说明 useSSL requireSSL verifyServerCertificate sslMode false 不涉及 不涉及 DISABLED true false false PREFERRED true true false REQUIRED true 不涉及 true VERIFYCA 代码示例(连接MySQL数据库的java代码): plaintext import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.Statement; import java.sql.SQLException; // 认证用的用户名和密码直接写到代码中有很大的安全风险,建议在配置文件或者环境变量中存放(密码应密文存放,使用时解密),确保安全。 // 本示例以用户名和密码保存在环境变量中为例,运行本示例前请先在本地环境中设置环境变量(环境变量名称请根据自身情况进行设置)EXAMPLEUSERNAMEENV和EXAMPLEPASSWORDENV。 public class JDBCTest { String USER System.getenv("EXAMPLEUSERNAMEENV"); String PASS System.getenv("EXAMPLEPASSWORDENV"); public static void main(String[] args) { Connection conn null; Statement stmt null; // url中所需的连接参数根据实际情况配置 String url "jdbc:mysql:// : / ?param1value1¶m2value2"; try { Class.forName("com.mysql.cj.jdbc.Driver"); conn DriverManager.getConnection(url, USER, PASS); stmt conn.createStatement(); String sql "show status like 'ssl%'"; ResultSet rs stmt.executeQuery(sql); int columns rs.getMetaData().getColumnCount(); for (int i 1; i < columns; i++) { System.out.print(rs.getMetaData().getColumnName(i)); System.out.print("t"); } while (rs.next()) { System.out.println(); for (int i 1; i < columns; i++) { System.out.print(rs.getObject(i)); System.out.print("t"); } } rs.close(); stmt.close(); conn.close(); } catch (SQLException se) { se.printStackTrace(); } catch (Exception e) { e.printStackTrace(); } finally { // release resource .... } } } 结束
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        连接实例
        通过JDBC连接RDS for MySQL实例
      • 全站加速业务实例
        本文介绍全站加速业务实例。 背景信息 对于首次使用全站加速的用户,虽然帮助中心对各个模块都有详细介绍。但是,在初次使用者较难快速熟悉各模块,又希望快速实现业务接入,一次配置就获得较优的加速效果的情形,可通过参照本实践案例,从服务开通、域名配置、业务验收、CNAME切量等步骤入手,实现一步到位完成业务接入的目的。 前提说明 本实例,针对加速场景同时有动静态内容,如文字,图片,视频等静态可缓存内容,以及接口类、在线交易类需要实时回源的动态内容的加速。 业务场景 加速域名:a.ctyun.cn。 加速内容:文字、图片、接口等。 加速区域:仅中国内地,即该网站的用户都集中在中国内地。 业务要求:客户自己提供源站,对传输安全性要求高,因此推荐客户使用https安全传输协议。 操作流程 步骤一: 在创建域名之前,需要先通过天翼云官网进行注册和实名制认证、开通全站加速服务。步骤详见:开通全站加速服务。 步骤二:全站加速服务开通后,就可以通过客户控制台来进行创建域名。登录控制台的步骤详见:进入客户控制台。 步骤三: 在客户控制台上,可以添加域名并配置。步骤详见:添加加速域名。域名创建成功的标志是,在域名列表中,可以查到新建域名,以及CNAME地址。 为了帮忙您获得更优的加速效果,建议如下高阶配置方案: 场景 描述 相关链接 动静态资源加速 智能分离动静态内容,静态内容通过配置缓存提升命中率;动态内容通过动态加速配置多种回源策略(择优回源、轮询回源、保持登录回源等)实现最优路径提速回源。 缓存配置 动态回源策略 HTTPS配置 HTTPS是以安全为目标的HTTP通道,实现客户端和全站加速节点之间请求的HTTPS加密,保障数据传输的安全性。 HTTPS配置概述 IPv6 开启IPv6功能后,当您的用户处于IPv6环境时,客户端可以通过IPv6协议访问天翼云全站加速节点。 IPv6配置 海外加速 开启海外加速,可满足出海企业本地化cdn节点覆盖当地用户的迫切需求,保障跨国网络访问的高速、稳定和安全,助力企业拓展全球化业务。 变更加速区域 性能优化 开启页面优化功能后,可有效去除页面的冗余信息,缩小文件体积,提高加速分发效率,同时也可以提升页面的可阅读性。 开启压缩功能后,能够带来两个明显的好处,一是减少存储空间,二是通过网络传输文件时,可以减少传输的时间。 html页面优化 文件压缩 步骤四: 在客户控制台成功添加加速域名后,为保证DNS解析顺利切换而不影响现有业务,建议先模拟访问进行功能验收,验收无误后,再切换DNS解析。 具体流程如下: 1. 在天翼云客户控制台的【域名管理】【域名列表】,复制加速域名对应的CNAME记录值。 2. 通过ping(Windows)或dig(MAC) CNAME记录的方式,如 ping .ctdns.cn 获取该CNAME解析出来的天翼云已为您分配的某个节点IP,即为可测试验证功能的线上节点IP。 3. 用户修改本地电脑“C:WindowsSystem32Driversetc”的hosts文件,添加一条记录,如:“IP 加速域名”,让本地电脑访问加速域名时,强制绑定解析到该节点IP,由该节点IP进行服务,从而可以通过本地电脑来验证加速域名对应的相关业务功能和场景;如遇到修改后的host文件无法访问,可参考如下步骤: Hosts文件无法保存解决方法: Hosts文件无法修改可能是因为没有管理员权限所致的,完成以下的设置后,当我们修改了Hosts文件后就可以顺利保存了。 打开“计算机”,依次进入“C:WindowsSystem32Driversetc”(不同系统不同版本下,该文件的位置可能不同,仅供参考),找到hosts文件。 先选择“hosts”文件,打开其“属性”。 切换到“安全”选项卡,点击“高级”。 在“权限”下,点击“更改权限”。 点击“添加”,增添一个新权限。 点击“高级”进入高级设置。 选择“立即查找”,并在下方选择当前的系统账户,点击“确定”将其打开。 将“完全控制”勾上允许,并点击“确定”。 此时弹出一个安全警告窗口,点击“是”即可。 4. 验证内容: 成功绑定hosts文件后,您可以打开浏览器,在本地电脑访问加速域名进行连通性测试,测试结果可通过浏览器自带的开发者工具(F12)查看。如果浏览器访问到的IP和您在hosts文件中绑定的IP一致,表示配置正确。如果访问到的IP和您在hosts文件中绑定的IP不一致,表示配置不正确,您需要检查hosts文件中绑定的IP地址是否正确,确保该IP地址是CNAME地址的IP。 在电脑本地成功访问加速域名绑定的IP后,您可以基于自己的测试用例,或者必要的核验步骤,验证相关功能的准确性,如果功能验证不如预期,请提交工单联系运维处理。 步骤五: 如果您在步骤四的验证均正常,或者您通过其他方式已完成功能的验收测试,证明配置已经符合切量解析条件。为了实现正式的全站加速,您需要在域名解析服务商处将加速域名的DNS解析记录指向天翼云为您分配的CNAME域名,访问请求才能转发到CDN节点上,实现加速。配置CNAME的操作详见:配置CNAME。
        来自:
        帮助文档
        全站加速
        最佳实践
        全站加速业务实例
      • 域名全站加速最佳实践
        对于首次使用边缘安全加速平台的初次使用者,如果在熟悉各模块之前,又希望快速实现业务接入,一次配置就获得较优的加速效果,可通过参照本实践案例,从服务开通、域名配置、业务验收、CNAME切量等步骤入手,实现一步到位完成业务接入的目的。 背景信息 对于首次使用边缘安全加速平台的初次使用者,如果在熟悉各模块之前,又希望快速实现业务接入,一次配置就获得较优的加速效果,可通过参照本实践案例,从服务开通、域名配置、业务验收、CNAME切量等步骤入手,实现一步到位完成业务接入的目的。 前提说明 本实例,针对加速场景同时有动静态内容,如文字,图片,视频等静态可缓存内容,以及接口类、在线交易类需要实时回源的动态内容的加速。 业务场景 加速域名:ctyun.cn1 加速内容:文字、图片、接口等。 加速区域:仅中国内地,即该网站的用户都集中在中国内地。 业务要求:客户自己提供源站,对传输安全性要求高,因此推荐客户使用https安全传输协议。 操作流程 步骤一 : 在创建域名之前,需要先通过天翼云官网进行注册和实名制认证、开通边缘安全加速平台的安全与加速服务。步骤详见:开通安全与加速服务。 步骤二 :安全与加速服务开通后,就可以通过客户控制台来进行创建域名,点击进入客户控制台。 步骤三 : 在客户控制台的域名管理页面可以添加域名并配置。域名创建成功的标志是,在域名列表中,域名状态为已启动并且可以查到新建域名的CNAME地址。 为获得更优的加速效果,建议如下配置方案: 1. 指定CDN回源请求访问到源站上的具体站点。 源站是域名时,例如,源站为www.ctyun.cn1,回源HOST为www.ctyun.cn,那么实际回源是请求到www.ctyun.cn1解析到的IP: A,对应IP为A主机上的站点www.ctyun.cn。 源站是IP时,例如,源站为1.1.1.1,回源HOST为www.ctyun.cn2,那么实际回源的是1.1.1.1对应主机上的站点www.ctyun.cn2。 2. 开启HTTPS功能,提高数据传输安全。 3. 开启IPv6功能,当您的用户处于IPv6环境时,客户端可以通过IPv6协议访问天翼云全站加速节点。 4. 通过配置静态缓存策略提升静态内容缓存命中率。 5. 通过动态加速配置多种回源策略实现动态内容最优路径提速回源。 如果您的加速域名有多个源站,可以配置合适的回源策略来实现不同的效果。动态回源策略支持择优回源、按权重回源、保持登录三种回源方式;静态回源策略默认轮询回源,无需配置。 择优回源:顾名思义,即根据全站加速节点探测源站的结果,选择最快的源站回源。 按权重回源:根据每个源站配置的不同权重,轮询回源。目前客户控制台上默认所有源站权重相同,如您需要对不同源站配置不同的权重,请提交工单申请。 保持登录:基于客户端IP进行哈希,保证相同客户端IP的多次请求始终访问到相同的源站。 步骤四 : 在客户控制台成功添加加速域名后,为保证DNS解析顺利切换而不影响现有业务,建议先模拟访问进行功能验收,验收无误后,再切换DNS解析。 具体流程如下: 1.获取加速域名CNAME 在天翼云客户控制台的域名管理页面,复制加速域名对应的CNAME记录值。 2.获取CNAME对应的边缘节点IP 通过ping(Windows)或dig(MAC) CNAME记录的方式,如 ping .ctdns.cn获取该CNAME解析出来的天翼云已为您分配的某个节点IP,即为可测试验证功能的线上节点IP。 3.本地HOST绑定边缘节点IP 用户修改本地电脑“C:WindowsSystem32Driversetc”的hosts文件,添加一条记录,如:“IP 加速域名”,让本地电脑访问加速域名时,强制绑定解析到该节点IP,由该节点IP进行服务,从而可以通过本地电脑来验证加速域名对应的相关业务功能和场景;如遇到修改后的host文件无法访问,可参考如下步骤: Hosts文件无法保存解决方法: Hosts文件无法修改可能是因为没有管理员权限所致的,完成以下的设置后,当我们修改了Hosts文件后就可以顺利保存了。 1. 打开“计算机”,依次进入“C:WindowsSystem32Driversetc”(不同系统不同版本下,该文件的位置可能不同,仅供参考),找到hosts文件。 2. 先选择“hosts”文件,打开其“属性”。 3. 切换到“安全”选项卡,点击“高级”。 4. 在“权限”下,点击“更改权限”。 5. 点击“添加”,增添一个新权限。 6. 点击“高级”进入高级设置。 7. 选择“立即查找”,并在下方选择当前的系统账户,点击“确定”将其打开。 8. 将“完全控制”勾上允许,并点击“确定”。 9. 此时弹出一个安全警告窗口,点击“是”即可。 4.验证内容: 成功绑定hosts文件后,您可以打开浏览器,在本地电脑访问加速域名进行连通性测试,测试结果可通过浏览器自带的开发者工具(F12)查看。如果浏览器访问到的IP和您在hosts文件中绑定的IP一致,表示配置正确。如果访问到的IP和您在hosts文件中绑定的IP不一致,表示配置不正确,您需要检查hosts文件中绑定的IP地址是否正确,确保该IP地址是CNAME地址的IP。 在电脑本地成功访问加速域名绑定的IP后,您可以基于自己的测试用例,或者必要的核验步骤,验证相关功能的准确性,如果功能验证不如预期,请提工单联系运维处理。 步骤五 :如果您在步骤四的验证均正常,或者您通过其他方式已完成功能的验收测试,证明配置已经符合切量解析条件。为了实现正式的全站加速,您需要在域名解析服务商处将加速域名的DNS解析记录指向天翼云为您分配的CNAME域名,访问请求才能转发到CDN节点上,实现加速。 配置CNAME的步骤如下: 1.在天翼云客户控制台的域名管理页面,复制加速域名对应的CNAME记录值。 2.前往您的域名解析(DNS)服务商(如万网、阿里云解析、DNSPod、新网、腾讯云解析、route 53、godaddy等),添加该CNAME记录。 3.验证CDN服务是否生效。配置CNAME后,不同的服务商CNAME生效的时间也不同,一般新增的CNAME记录会立即生效,修改的CNAME记录需要较长时间生效。您可以 ping 或 dig 您所添加的加速域名,如果被指向配置的CNAME即表示配置已经生效。
        来自:
        帮助文档
        边缘安全加速平台
        最佳实践
        技术最佳实践
        域名全站加速最佳实践
      • 弹性资源池队列管理
        本章节主要介绍如何进行弹性资源池队列管理。 弹性资源池上可以添加多个不同队列用于作业运行,具体添加弹性资源池添加队列的操作可以参考弹性资源池添加队列。添加完队列后,可以根据不同队列计算资源使用量的波峰和波谷和优先级来配置要扩缩容的CU数,从而来保障作业的稳定运行。 注意事项 在全天的任意一个时间段内,弹性资源池中所有队列的最小CU数之和必须小于等于弹性资源池的最小CU数。 在全天的任意一个时间段内,弹性资源池中任意一个队列的最大CU必须小于等于弹性资源池的最大CU。 同一队列不同扩缩容策略的时间段区间不能有交集。 弹性资源池队列中的扩缩容策略时间段仅支持整点的时间段设置,并且包含设置的开启时间,不包含设置的结束时间,例如设置时间段0009,则时间段范围为:[00:00,09:00)。默认的扩缩容策略不支持时间段配置修改。 弹性资源池扩缩容策略生效规则为:在任意一个时间段周期内,优先满足所有队列的最小CU数,剩余的CU(弹性资源池最大CU所有队列的最小CU数之和)则根据配置的优先级顺序分配,直到剩余的CU数分配完成。 队列扩容成功后,系统开始对扩容的CU进行计费,直到缩容成功停止对扩容的CU计费。因此,要注意如果业务没有需求的情况下,要及时清理释放资源,否则不管CU是否真正的使用,都会一直计费。 弹性资源池扩缩容CU分配场景说明(无任务场景) 场景 弹性资源池CU数分配说明 弹性资源池当前最大CU为256CU,添加了两个队列,分别为队列A和队列B。两个队列设置的扩缩容策略如下: l 队列A扩缩容策略:优先级5,时间段:00:009:00,最小CU是32,最大CU是64 l 队列B扩缩容策略:优先级10,时间段:00:009:00,最小CU是64,最大CU是128 到了00:009:00时间段: 1. 弹性资源池优先满足两个队列的最小CU,队列A先分配32CU,队列B分配64CU,剩余CU数为160CU:弹性资源池的最大CU两个队列的最小CU之和2563264160CU。 2. 剩余CU数根据优先级高低来分配,因为队列B的优先级高于队列A,则优先将128CU分配给队列B,剩余的32CU全部分配给队列A。 弹性资源池当前最大CU为96CU,添加了两个队列,分别为队列A和队列B。两个队列设置的扩缩容策略如下: l 队列A扩缩容策略:优先级5,时间段:00:009:00,最小CU是32,最大CU是64 l 队列B扩缩容策略:优先级10,时间段:00:009:00,最小CU是64,最大CU是128 到了00:009:00时间段: 1. 弹性资源池优先满足两个队列的最小CU,队列A先分配32CU,队列B分配64CU,剩余CU数为0CU:弹性资源池的最大CU两个队列的最小CU之和9632640CU。 2. 因为剩余的CU数已经没有,则停止分配。 弹性资源池当前最大CU为128CU,添加了两个队列,分别为队列A和队列B。两个队列设置的扩缩容策略如下: l 队列A扩缩容策略:优先级5,时间段:00:009:00,最小CU是32,最大CU是64 l 队列B扩缩容策略:优先级10,时间段:00:009:00,最小CU是64,最大CU是128 到了00:009:00时间段: 1. 弹性资源池优先满足两个队列的最小CU,队列A先分配32CU,队列B分配64CU,剩余CU数为32CU:弹性资源池的最大CU两个队列的最小CU之和128326432CU。 2. 按照优先级,则优先将剩余的32CU分配给B队列后停止分配。 弹性资源池当前最大CU为128CU,添加了两个队列,分别为队列A和队列B。两个队列设置的扩缩容策略如下: l 队列A扩缩容策略:优先级5,时间段:00:009:00,最小CU是32,最大CU是64 l 队列B扩缩容策略:优先级5,时间段:00:009:00,最小CU是64,最大CU是128 到了00:009:00时间段: 1. 弹性资源池优先满足两个队列的最小CU,队列A先分配32CU,队列B分配64CU,剩余CU数为32CU:弹性资源池的最大CU两个队列的最小CU之和128326432CU。 2. 因为两个队列的优先级相同,则剩余32CU随机分配给两个队列。 弹性资源池扩缩容CU分配场景说明(有任务场景) 场景 弹性资源池实际CUs 队列A资源分配 队列B资源分配 弹性资源池CU数分配说明 弹性资源池添加了两个队列,分别为队列A和队列B。两个队列设置的扩缩容策略如下: l 队列A扩缩容策略:时间段:00:009:00,最小CU是32,最大CU是64 l 队列B扩缩容策略:00:009:00,最小CU是64,最大CU是128 192CUs 64CUs 128CUs 当弹性资源池实际cu大于等于两个队列最大 cu之和,队列都分配最大值 弹性资源池添加了两个队列,分别为队列A和队列B。两个队列设置的扩缩容策略如下: l 队列A扩缩容策略:时间段:00:009:00,最小CU是32,最大CU是64 l 队列B扩缩容策略:00:009:00,最小CU是64,最大CU是128 96CUs 32CUs 64CUs 弹性资源池会优先满足两个队列的最小CU, 两个队列分配了最小CU后,无可用资源进行分配 弹性资源池添加了两个队列,分别为队列A和队列B。两个队列设置的扩缩容策略如下: l 队列A扩缩容策略:时间段:00:009:00,最小CU是32,最大CU是64 l 队列B扩缩容策略:00:009:00,最小CU是64,最大CU是128 128CUs 32CUs64CUs 64CUs96CUs 弹性资源池会优先满足两个队列的最小CU,即队列A先分配32CUs,队列B分配64CUs,有剩余32CUs可供分配。 剩余部分按照队列的负载以及队列优先级进行分配。队列实际CU会在列出的范围内变化。
        来自:
        帮助文档
        数据湖探索
        用户指南
        弹性资源池
        弹性资源池基本操作
        弹性资源池队列管理
      • 快速构建FTP站点(Windows)
        本文介绍了如何使用天翼云弹性云主机的Windows实例搭建FTP站点。该指导具体操作以Windows 2012 Standard R2 64位中文版为例。 Windows实例搭建FTP站点具体操作步骤 1. 添加IIS的角色和功能。 2. 创建FTP服务用户名及密码。 3. 设置共享文件权限。 4. 配置FTP站点。 5. 配置FTP防火墙。 6. 配置安全组规则及防火墙策略。 7. 客户端进行连接测试。 示例环境 实例类型:s3.large.2 2核 4G 通用型云主机 所在区域:山西 系统盘:40GB 操作系统:Windows 2012 Standard R2 64位中文版 公网弹性IP带宽:1Mbps 操作步骤 1. 添加IIS的角色和功能。 1. 登录弹性云主机。 2. 选择“开始 > 服务器管理器”。 3. 单击“添加角色和功能”。 4. 在弹出的“开始之前”对话框中,单击“下一步”。 5. 选择“基于角色或基于功能的安装”,单击“下一步”。 6. 选择需要部署FTP的服务器,单击“下一步”。 7. 选择“Web服务器(IIS)”,并在弹出的对话框中单击“添加功能”,然后单击“下一步”。 8. 连续单击“下一步”,到“角色服务”页面。 9. 选择“FTP服务器”以及“IIS管理控制台”,单击“下一步”。 10. 单击“安装”,开始部署服务角色。 11. 安装完成后,单击“关闭”。 1. 添加IIS的角色和功能 2. 添加IIS的角色和功能 3. 添加IIS的角色和功能 4. 添加IIS的角色和功能 2. 创建FTP服务用户名及密码。 1. 在“服务器管理器”中,选择“仪表板 > 工具 > 计算机管理”。 2. 选择“系统工具 > 本地用户和组 >用户”,在右侧空白处右击,并选择“新用户”。 3. 设置“用户名”和“密码”,此处用户名以“ftp”为例。 3. 设置共享文件权限。 需要在FTP站点为共享给用户的文件夹设置访问及修改等权限。 1. 在服务器上创建一个供FTP使用的文件夹,选择文件夹,并单击右键选择“属性”。此处以“share”文件夹为例。 2. 在“安全”页签,选择 “Everyone”,单击“编辑”。如果没有“Everyone”用户可以直接选择,需要先进行添加。 3. 选择“Everyone”,然后根据需要,选择“Everyone”的权限,并单击“确定”。此处以允许所有权限为例。 4. 配置FTP站点。 1. 在“服务器管理器”中,选择“仪表板 > 工具 >Internet Information Services (IIS)管理器 ”。 2. 选择“网站”并单击右键,然后选择“添加FTP站点”。 3. 在弹出的窗口中,填写FTP站点名称及共享文件夹的物理路径,然后单击“下一步”。此处站点名称以“ftp”为例。 4. 输入该弹性云主机的公网IP地址以及端口号,并设置SSL,单击“下一步”。 端口号默认为21,也可自行设置。 SSL根据需要进行设置。 无: 不需要SSL加密。 允许:允许FTP服务器与客户端的非SSL和SSL连接。 需要:需要对FTP服务器和客户端之间的通信进行SSL加密。 5. 设置身份认证和授权信息,并单击“完成”。 身份认证 匿名:允许任何仅提供用户名 “anonymous” 或 “ftp” 的用户访问内容。 基本:需要用户提供有效用户名和密码才能访问内容。但是基本身份验证通过网络传输密码时不加密,因此建议在确认客户端和FTP服务器之间的网络连接安全时使用此身份验证方法。 授权 允许访问 所有用户:所有用户均可访问相应内容。 匿名用户:匿名用户可访问相应内容。 指定角色或用户组:仅指定的角色或用户组的成员才能访问相应内容。如果选择此项,需要在下面输入框中输入指定的角色或用户组。 指定用户:仅指定的用户才能访问相应内容。如果选择此项,需要在下面输入框中输入指定的用户。 权限:选择经过授权的用户的“读取”和“写入”权限。 6. 绑定弹性云主机的公网IP。 选择“网站”,选中创建的FTP站点,单击“绑定”;在弹出的“网站绑定”窗口单击“添加”,然后在弹出的窗口中添加弹性云主机的私网IP地址,并单击“确定。 5. 配置FTP防火墙支持。 如果需要使用FTP服务器的被动模式,则需要配置FTP防火墙支持。 如果天翼云上的服务器需要通过公网IP地址访问天翼云上的实例搭建的FTP服务器时,需要配置FTP服务器的被动模式。 双击“FTP防火墙支持”,打开FTP防火墙支持的配置界面。 配置相关参数,数据通道端口范围:指定用于被动连接的端口范围。可指定的有效端口范围为102565535,请根据实际需求进行设置,此处配置50006000,防火墙的外部IP地址:输入该弹性云主机的公网IP地址,并单击“应用”。 重启云主机使防火墙配置生效。 6. 配置安全组规则及防火墙策略。 搭建好FTP站点后,需要在弹性云主机安全组的入方向添加一条放行FTP端口的规则,如果配置了“FTP防火墙支持”,需要在安全组中同时放行FTP站点使用的端口和FTP防火墙使用的数据通道端口。 服务器防火墙默认放行TCP的21端口用于FTP服务。如果选用其他端口,需要在防火墙中添加一条放行此端口的入站规则。 FTP模式 方向 协议 端口 源地址 主动模式 入方向 TCP 20端口和21端口 0.0.0.0/0 被动模式 入方向 TCP 21端口和1024~65535间的端口(根据上文配置,此处50006000) 0.0.0.0/0 7. 客户端进行连接测试。 打开客户端的计算机,在路径栏输入“ftp://FTP服务器IP 地址 :FTP 端口 ”(如果不填端口则默认访问21端口)。弹出输入用户名和密码的对话框表示配置成功,正确的输入用户名和密码后,即可对FTP文件进行相应权限的操作,share文件夹下创建工作事项.txt文件,在本地访问共享文件夹可以查看并下载。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        搭建网站/应用最佳实践
        快速构建FTP站点(Windows)
      • 产品能力地图
        本文列举了支持并行文件服务的资源池和功能限制,供您选购时参考。 产品能力地图 并行文件服务 HPFS 支持在以下资源池访问,且在不同资源池有不同的能力。可以根据您的业务场景,选择和您计算资源同一资源池创建并行文件系统。资源可售卖情况动态变化,具体以线上环境为准。 注意 部分资源池的并行文件服务在创建文件系统时需指定集群,且该集群须与物理机规格匹配,否则将无法挂载成功。 例如您在武汉41资源池可用区1,有台“physical.lcas910b.2xlarge1”规格的 GPU 物理机,创建文件系统时您需要选择集群“hbRoce01”。 部分集群的并行文件服务客户端不支持 Ubuntu 和 CTyunos3 服务器操作系统,需更换操作系统或选择其他 HPFS 集群 下表列举了 HPFS 产品在各个资源池提供的功能情况: √ 表示支持本项功能; × 表示不支持本项功能; 白名单提供 表示支持本项功能支持试用,可以提交工单申请试用。 资源池 可用区 存储类型 协议类型 挂载主机类型 是否指定集群 挂载 GPU 物理机规格 迁移服务器规格 CPU 性能规格 协议服务 NFS 挂载云主机 FILESET 子目录配额 创建/查询目录API 操作系统限制 华东1 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 hd0004 physical.h7ns.4xlarge5 physical.h7ns.4xlarge15 physical.h7ns.4xlarge25 无 200MB/s/TB 400MB/s/TB √ × √ 华东1 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 hdRoce01 physical.lcas910b.2xlarge11 无 200MB/s/TB × × √ 华东1 可用区2 HPC 性能型 HPFSPOSIX 物理机挂载 hdTcp001 physical.h7es.4xlarge3.2 physical.h7es.5xlarge3.1 无 200MB/s/TB × × × 武汉41 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 hb0001 physical.h8ns.6xlarge8 physical.h8ns.6xlarge18 physical.s5.2xlarge7.9ac 200MB/s/TB × × √ 武汉41 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 hbTcp001 physical.lcas910b.2xlarge1 physical.acas910b.2xlarge11 physical.h7es.4xlarge3.3 physical.h7es.5xlarge3.2 physical.h7ns.4xlarge25.2 physical.h8ns.6xlarge28.2 physical.s5.2xlarge7.9 200MB/s/TB × √ √ 北京9 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 bj0001 physical.h8ns.6xlarge18 physical.h8ns.6xlarge28 physical.h8ns.6xlarge28.3 physical.s5.2xlarge7.5 不支持指定基线 √ × √ 华南2 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 hnRoce01 physical.acas910b.2xlarge11 physical.s5.2xlarge7.9 200MB/s/TB 400MB/s/TB × × √ 上海15 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 sh0001 physical.h8ns.6xlarge8 physical.h8ns.6xlarge18 physical.h8ns.6xlarge28 无 不支持指定基线 × × √ 上海15 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 shIb0002 physical.h7ns.3xlarge21 physical.h6ns.2xlarge11 physical.s5.2xlarge7.9ac 不支持指定基线 × √ √ 上海15 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 shRoce01 physical.lcas910b.2xlarge1 physical.lcas910b.2xlarge11 physical.s5.2xlarge7.9 不支持指定基线 × × √ 不支持ubuntu、CTyunos3 上海15 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 shRoce02 physical.lcas910b.2xlarge1 physical.lcas910b.2xlarge11 physical.s5.2xlarge7.9 不支持指定基线 × × √ 不支持ubuntu、CTyunos3 上海15 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 shRoce03 physical.lcas910b.2xlarge1 physical.lcas910b.2xlarge11 physical.s5.2xlarge7.9 不支持指定基线 × × √ 上海15 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 shRoce04 physical.lcas910b.2xlarge1 physical.lcas910b.2xlarge11 physical.s5.2xlarge7.9 不支持指定基线 × √ √ 上海15 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 shRoce05 physical.lcas910b.2xlarge1 physical.lcas910b.2xlarge11 physical.s5.2xlarge7.9 不支持指定基线 × √ √ 华北2 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 hb0001 physical.acas910b.2xlarge11 physical.s5.2xlarge7.9 不支持指定基线 × × √ 不支持ubuntu、CTyunos3 华北2 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 hbTcp002 physical.lcas910b.2xlarge11 physical.s5.2xlarge17.9 不支持指定基线 √ √ √ 华北2 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 hbRoce03 physical.lcas910b.2xlarge11 physical.s5.2xlarge17.9 不支持指定基线 × × √ 西南2贵州 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 xn0001 physical.acas910b.2xlarge1 physical.acas910b.2xlarge11 physical.s5.2xlarge7.5 不支持指定基线 × × √ 不支持ubuntu、CTyunos3 西南2贵州 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 xnTcp001 physical.acas910b.2xlarge1 physical.acas910b.2xlarge11 physical.s5.2xlarge7.5 不支持指定基线 × × √ 杭州7 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 hzRoce01 physical.lcas910b.2xlarge1 physical.lcas910b.2xlarge11 physical.s5.2xlarge7.9 不支持指定基线 √ × √ 不支持ubuntu、CTyunos3 杭州7 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 hzIb0001 physical.h8ns.5xlarge17 physical.s5.2xlarge7.9ac 不支持指定基线 × × √ 杭州7 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 hzIb0002 physical.h7ns.3xlarge12 physical.h7ns.4xlarge15 physical.s5.2xlarge7.9ac1 不支持指定基线 × × √ 芜湖4 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 whIb0001 physical.h8ns.6xlarge28 physical.s5.2xlarge7.9ac 200MB/s/TB × × × 芜湖4 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 whRoce01 physical.lcas910b.2xlarge11 physical.s5.2xlarge7.9 200MB/s/TB × × × 不支持ubuntu、CTyunos3 长沙42 可用区2 HPC 性能型 HPFSPOSIX 物理机挂载 不支持指定集群 physical.acas910b.2xlarge11 无 不支持指定基线 √ √ √ 西南1 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 不支持指定集群 physical.lcas910b.2xlarge11 physical.lcas910b.2xlarge12 physical.s5.2xlarge7.9 不支持指定基线 √ × √ 沈阳8 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 不支持指定集群 physical.acas910b.2xlarge11 无 不支持指定基线 √ √ √ 不支持ubuntu、CTyunos3 呼和浩特3 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 hhRoce01 physical.acas910b.2xlarge11 无 200MB/s/TB × × √ 呼和浩特3 可用区1 HPC 性能型 HPFSPOSIX 物理机挂载 hhRoce02 physical.acas910b.2xlarge11 无 200MB/s/TB × × √ 贵州3 HPC 性能型 HPFSPOSIX 物理机挂载 gzIb0001 physical.h7ns.4xlarge33.1 physical.h7es.4xlarge3.1 无 不支持指定基线 × × √ 贵州3 HPC 性能型 HPFSPOSIX 物理机挂载 gzIb0002 physical.h7ns.4xlarge33.2 无 不支持指定基线 × × √
        来自:
        帮助文档
        并行文件服务 HPFS
        产品介绍
        产品能力地图
      • 创建节点池
        操作场景 本章介绍了如何添加运行CCE集群的节点池以及对节点池执行操作。要了解节点池的工作原理,请参阅节点池概述。 操作步骤 将节点池添加到现有集群。 步骤 1 登录CCE控制台,在左侧导航栏中选择“资源管理 > 节点池管理”。 步骤 2 单击右上角的“创建节点池”。 步骤 3 在创建节点池页面中,参照如下说明设置节点池选型参数。 计费模式: 节点池仅支持“按需计费”的计费模式,该模式将根据实际使用的资源按小时计费。 节点池创建后,自建的节点池里的资源无法转包周期,默认节点池里的资源可以转包周期。您可以把自建节点池里的资源迁移到默认的节点池里后再进行转包周期的操作。如何迁移请参见迁移节点。 当前区域:指节点实例所在的物理位置。 请就近选择靠近您业务的区域,可减少网络时延,提高访问速度;不同区域的云服务产品之间内网互不相通。 节点池名称:新建节点池的名称,默认按“集群名nodepool随机数”生成名称,可自定义。 节点类型:目前仅支持虚拟机节点。 节点购买数量:该节点池下购买的节点数量,此处设置的节点数不能超过集群管理的最大节点规模,请根据业务需求和界面提示选择,如需更多配额,请单击提交工单申请扩大配额。 弹性扩缩容: − 默认不开启。 − 单击 开启后,节点池将根据集群负载情况自动创建或删除节点池内的节点,参数设置如下: 节点数上限和节点数下限:您可设置节点数的上限和下限,保证节点数在合理的范围内伸缩。 优先级:请根据业务需要设置相应数值,该数值表示节点池之间进行弹性扩缩容的优先级,数值越大优先级越高,如设置为4的节点池比设置为1的节点池优先启动弹性伸缩。若多个节点池的值设置相同,如都设置为2,表示这几个节点池之间不分优先级,系统将按最小资源浪费原则进行伸缩。 弹性缩容冷却时间:请设置时间,单位为分钟或小时。弹性缩容冷却时间是指当前节点池扩容出的节点多长时间不能被缩容。 说明: 节点池中的节点建议不要放置重要数据,以防止节点被弹性缩容,数据无法恢复。 为保证功能的正常使用,节点池开启弹性扩缩容功能后,请务必安装autoscaler。 可用区:可用区是在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 请根据业务需要进行选择。节点池创建之后不支持修改可用区属性,请谨慎选择。 如果您需要提高工作负载的高可靠性,建议您选择“随机可用区”,将节点随机均匀分布在不同可用区中。 节点规格:请根据业务需求选择相应的节点规格。 须知: 为确保节点稳定性,系统会自动预留部分资源,用于运行必须的系统组件,详细请参见节点预留资源计算公式 。 操作系统:请直接选择节点对应的操作系统。 须知:重装操作系统或修改操作系统配置将导致节点不可用,请务必谨慎操作。 虚拟私有云:跟随集群,不可变更。 所在子网:通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。 可选择该集群虚拟私有云下的任意子网,集群节点支持跨子网。 请确保子网下的DNS服务器可以解析对象存储服务域名,否则无法创建节点。 系统盘:设置工作节点的系统盘空间。您可以设置系统盘的规格为40GB1024GB之间的数值,缺省值为40GB。 在默认情况下,系统盘可提供高IO、超高IO两种基本的云硬盘类型。 数据盘:设置工作节点的数据盘空间。您可以设置数据盘的规格为100GB32768GB之间的数值,缺省值为100GB。数据盘可提供的云硬盘类型与系统盘一致,此处不再赘述,详情参见系统盘中的云硬盘类型介绍。 须知: 若数据盘卸载或损坏,会导致docker服务异常,最终导致节点不可用。建议不要删除该数据盘。 登录方式:支持密码和密钥对。 −选择“密码”:用户名默认为“root”,请输入登录节点的密码,并确认密码。 登录节点时需要使用该密码,请妥善管理密码,系统无法获取您设置的密码内容。 −选择“密钥对”:在选项框中选择用于登录本节点的密钥对,并单击勾选确认信息。 密钥对用于远程登录节点时的身份认证。若没有密钥对,可单击选项框右侧的“创建密钥对”来新建,创建密钥对操作步骤请参见。 步骤 4 云服务器高级设置:(可选),单击 展开后可对节点进行如下高级功能配置: 安装前执行脚本:请输入脚本命令,大小限制为0~1000字符。 脚本将在Kubernetes软件安装前执行,可能导致Kubernetes软件无法正常安装,需谨慎使用。常用于格式化数据盘等场景。 安装后执行脚本:请输入脚本命令,大小限制为0~1000字符。 脚本将在Kubernetes软件安装后执行,不影响Kubernetes软件安装。常用于修改Docker配置参数等场景。 步骤 5 Kubernetes高级设置:(可选),单击 展开后可对集群进行如下高级功能配置: 最大实例数:节点最大允许创建的实例数(Pod),该数量包含系统默认实例,取值范围为16~128。 该设置的目的为防止节点因管理过多实例而负载过重,请根据您的业务需要进行设置。 Taints:默认为空。支持给该节点池扩容出来的节点加Taints来设置反亲和性,每个节点池最多配置10条Taints,每条Taints包含以下3个参数: −Key:必须以字母或数字开头,可以包含字母、数字、连字符、下划线和点,最长63个字符;另外可以使用DNS子域作为前缀。 −Value:必须以字符或数字开头,可以包含字母、数字、连字符、下划线和点,最长63个字符。 −Effect:只可选NoSchedule,PreferNoSchedule或NoExecute。 须知: Taints配置时需要配合Pod的toleration使用,否则可能导致扩容失败或者Pod无法调度到扩容节点。 节点池创建后可单击列表项的“编辑”修改配置,修改后将同步到节点池下的已有节点。 K8S标签:K8S标签是附加到Kubernetes 对象(比如Pods)上的键值对,旨在用于指定对用户有意义且相关的对象的标识属性,但不直接对核心系统有语义含义。 详细请参见Labels and Selectors。 单容器可用数据空间:该参数用于设置一个容器可用的数据空间大小,设置范围为10G到80G。如果设置的参数超过数据盘中Docker可占用的实际数据空间(由数据盘设置项中的资源分配自定义参数指定,默认为数据盘大小的90%),将以Docker的实际空间大小为主。该参数仅在v1.13.10r0及以上版本的集群中显示。 步骤 6 (可选)您可以单击左侧的 按钮添加多个节点池,在按钮下方可以查看您可用的节点池配额数量。 步骤 7 完成配置后,单击“下一步:配置确认”,确认所设置的服务选型参数、规格和费用等信息。 步骤 8 确认规格和费用后,单击“提交”,节点池开始创建。 节点池创建预计需要610分钟,您可以单击“返回节点池管理”进行其他操作或单击“查看节点池事件列表”后查看节点池详情。待节点池状态为“正常”,表示节点池创建成功。 查看创建的节点池 步骤 1 登录CCE控制台,在左侧导航栏中选择“资源管理 > 节点池管理”。 步骤 2 在节点池管理页面中,单击右上角的集群选择框,选择集群后可显示当前集群下所有的节点池,并可查看每个节点池的节点类型、节点规格、弹性扩缩容状态和操作系统等。 须知: 节点池功能上线后,会在每个集群中创建一个默认节点池“DefaultPool”,该节点池不能被编辑、删除或迁移,集群中原有的节点及节点池外创建的节点均会显示在默认节点池“DefaultPool”中。 单击默认节点池“DefaultPool”中“节点”数据框,可查看DefaultPool中的节点列表。 步骤 3 单击右上角的Autoscaler状态选择框,可筛选全部、已启用、未启用Autoscaler功能的节点池。 步骤 4 在节点池列表中,单击节点池的名称,在节点池详情页面,可查看节点池的基本信息、ECS高级设置、Kubernetes高级设置、节点列表等信息。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        节点池管理
        创建节点池
      • 错误码列表
        状态码 错误码 错误信息 描述 400 AuthorizationHeaderMalformed The authorization header is malformed. 签名头格式不正确。 400 AuthorizationHeaderMalformed The authorization header is malformed, missing Credential. 签名头格式不正确,需补充Credential。 400 AuthorizationHeaderMalformed The authorization header is malformed, missing SignedHeaders. 签名头格式不正确,需补充SignedHeaders。 400 AuthorizationHeaderMalformed The authorization header is malformed, missing Signature. 签名头格式不正确,需补充Signature。 400 AuthorizationHeaderMalformed The authorization header is malformed, the Credential is malformed, expecting 'YOURAKID/YYYYMMDD/REGION/SERVICE/aws4request'. 签名头中Credential格式不正确,格式应该为'YOURAKID/YYYYMMDD/REGION/SERVICE/aws4request'。 400 AuthorizationHeaderMalformed The authorization header is malformed, the date format ' date ' is wrong, expecting 'YYYYMMDD'. 签名头中date格式不正确,应该为'YYYYMMDD'。 400 AuthorizationHeaderMalformed The authorization header is malformed, the region'region' is wrong, expecting ' region '. 签名头中区域名不正确。 400 AuthorizationHeaderMalformed The authorization header is malformed, incorrect service ' service '. This endpoint belongs to ' endpoint '. 签名头不正确,服务域名不对。 400 AuthorizationHeaderMalformed The authorization header is malformed, incorrect terminal ' terminal '. This endpoint uses 'aws4request'. 签名头不正确,endpoint应使用服务aws4request。 400 AuthorizationPostFormFieldsError Form Post authentication version 4 requires the policy, xamzalgorithm, xamzcredential, xamzsignature, xamzdate form fields. V4签名中policy、xamzalgorithm、xamzcredential、xamzsignature、xamzdate不能为空。 400 AuthorizationPostFormFieldsError Xamzalgorithm only supports 'AWS4HMACSHA256'. v4签名算法仅支持AWS4HMACSHA256。 400 AuthorizationPostFormFieldsError Xamzdate must be in the ISO8601 Long Format "yyyyMMdd'T'HHmmss'Z'". xamzdate必须是ISO8601时间格式yyyyMMdd'T'HHmmss'Z'。 400 AuthorizationQueryParametersError XAmzAlgorithm only supports 'AWS4HMACSHA256'. V4预签名签名算法仅支持AWS4HMACSHA256。 400 AuthorizationQueryParametersError Querystring authentication version 4 requires the XAmzAlgorithm, XAmzCredential, XAmzSignature, XAmzDate, XAmzSignedHeaders, and XAmzExpires parameters. V4预签名需要下列参数:XAmzAlgorithm, XAmzCredential, XAmzSignature, XAmzDate, XAmzSignedHeaders, and XAmzExpires。 400 AuthorizationQueryParametersError XAmzExpires must be less than a week (in seconds); that is, the given XAmzExpires must be less than 604800 seconds. V4预签名生成时间不能超过7天。 400 AuthorizationQueryParametersError XAmzExpires must be nonnegative. V4预签名过期时间不能为负数。 400 AuthorizationQueryParametersError XAmzDate must be in the ISO8601 Long Format "yyyyMMdd'T'HHmmss'Z'". V4预签名XAmzDate必须是ISO8601时间格式yyyyMMdd'T'HHmmss'Z'。 400 AuthorizationQueryParametersError Invalid credential date"date" . This date is not the same as XAmzDate: "date". V4预签名credential date与XAmzDate的日期需要保持一致。 400 BadDigest The ContentMD5 you specified did not match what we received. ContentMD5不正确。 400 BadRequest Advance cut's position is out of image. 剪切图片时起始坐标超过原图片尺寸。 400 CanNotModifyMetadataLocation Can not modifiy bucket metadata location. 不能修改元数据位置。 400 IdMismatch Document ID does not match the specified configuration ID. 请求头和请求体中清单ID输入不一致。 400 IncompleteBody You did not provide the number of bytes specified by the ContentLength HTTP header. ContentLength配置的长度与实际收到的数据长度不符,请检查后重发。 400 InvalidArgument User key must have a length greater than 0. 表单上传文件时Key项的值不能为空。 400 InvalidArgument The authorization header is invalid. Expected AccessKeyId:signature. v2签名格式不正确,应该为“ AccessKeyId : signature ”。 400 InvalidArgument xamzcontentsha256 must be UNSIGNEDPAYLOAD, STREAMINGAWS4HMACSHA256PAYLOAD, or a valid sha256 value. v4签名xamzcontentsha256必须是UNSIGNEDPAYLOAD, STREAMINGAWS4HMACSHA256PAYLOAD或者有效的sha256值。 400 InvalidArgument Unsupported authorization type. v4签名Authentication标头只支持AWS4HMACSHA256算法。 400 InvalidArgument Bucket POST must contain a field named 'AWSAccessKeyId'. If it is specified, please check the order of the fields. 必须包含字段AWSAccessKeyId。 400 InvalidArgument Bucket POST must contain a field named 'policy'. If it is specified, please check the order of the fields. 必须包含字段policy。 400 InvalidArgument Bucket POST must contain a field named 'signature'. If it is specified, please check the order of the fields. 必须包含字段signature。 400 InvalidArgument POST requires exactly one file upload per request. POST请求每次只能上传一个文件。 400 InvalidArgument Bucket POST must contain a field named 'key'. If it is specified, please check the order of the fields. 表单上传中必须指定key。如果已指定,请检查字段顺序。 400 InvalidArgument If the TargetBucket element does not exist, the TargetPrefix element cannot exist either. 在配置日志规则时,如果TargetBucket元素不存在,则TargetPrefix也不能存在。 400 InvalidArgument The target prefix exceeds 900 bytes. 配置日志记录规则时,TargetPrefix的长度不能超过900字节。 400 InvalidArgument ID length should not exceed allowed limit of 255. 配置生命周期规则时,Rule ID长度不能超过255。 400 InvalidArgument At least one action needs to be specified in a rule. 配置生命周期规则时,必须配置过期时间,Days或Date。 400 InvalidArgument 'Days' for [TransitionExpiration] action must be a positive integer. 配置生命周期规则时,Days必须为正整数。 400 InvalidArgument Only one action can be specified in the rule. 配置生命周期规则时,Days或Date只能存在一个。 400 InvalidArgument 'Date' must be at midnight GMT. 配置生命周期规则时,Date必须为ISO8601格式,并且为UTC的零点。 400 InvalidArgument Invalid target Storage class for Transition action. 指定的存储类型无效。 400 InvalidArgument Default retention period must be a positive integer value. 合规保留日期取值必须是正整数。 400 InvalidArgument Object lock configuration has been enabled and can not be disabled. 合规保留已经开启,不能关闭。 400 InvalidArgument Default retention period cannot be less than previously value. 设置的合规保留时长不能短于上次设置的时长。 400 InvalidArgument MaxUploads should be between 1~1000. maxuploads的取值范围为[1,1000]。 400 InvalidArgument The length of delimiter must be 1. delimiter长度不能超过1。并且只能是‘/’或空。 400 InvalidArgument MaxKeys should be between 1~1000. 参数maxKeys取值范围为[1,1000]。 400 InvalidArgument Maxparts should be between 1~1000. maxparts取值范围为[1,1000]。 400 InvalidArgument Partnumbermarker must be an integer between 0 and 2147483647. partnumbermarker必须是整数,取值范围是(0, 2147483647)。 400 InvalidArgument xamzlimitrate invalid. The input should be positive integer. xamzlimitrate取值必须为正整数。 400 InvalidArgument Invalid request parameter: value. 参数无效。 400 InvalidArgument The object size should be less than 5TiB. 文件大小不能超过5TiB。 400 InvalidArgument The 'Expires' field format invalid. The 'Expires' header format invalid. Expires格式不正确。 400 InvalidArgument The metadata size should be less than 2KiB. 用户自定义元数据不能超过2KiB。 400 InvalidArgument Insufficient information. Origin request header needed. 跨域预检时,请求头不正确。 400 InvalidArgument Please enter an integer not less than 1. CORS配置中MaxAgeSeconds取值为不小于1的整数。 400 InvalidArgument Invalid AccessControlRequestMethod: value . AccessControlRequestMethod无效。 400 InvalidArgument The xamzcopysourcerange value must be of the form bytesfirstlast where first and last are the zerobased offsets of the first and last bytes to copy. xamzcopysourcerange形式必须为bytes first last ,其中第一个和最后一个都是以零为基础开始的偏移量。 400 InvalidArgument Invalid protocol, protocol can be http or https. If not defined the protocol will be selected automatically. 指定的http协议值不正确。 400 InvalidArgument The provided host name contains N characters. The maximum allowed redirect page size is 1024 characters. HostName包含的字符个数大于1024。 400 InvalidArgument The provided home page contains N characters. The maximum allowed home page size is 1024 characters. 首页包含的字符个数大于1024。 400 InvalidArgument The provided error page contains N characters. The maximum allowed error page size is 1024 characters. 错误页包含的字符个数大于1024。 400 InvalidArgument The provided replacement contains N characters. The maximum allowed replacement size is 1024 characters. 重定向规则中ReplaceKeyPrefixWith或者ReplaceKeyWith包含的字符个数大于1024。 400 InvalidArgument The provided prefix contains N characters.The maximum allowed prefix size is 1024 characters. 重定向规则中KeyPrefixEquals包含的字符个数大于1024。 400 InvalidArgument RedirectAllRequestsTo cannot be provided in conjunction with other Routing Rules. 重定向所有请求不能与其他规则同时存在。 400 InvalidArgument The IndexDocument Suffix cannot contain the "/" character. 索引页配置不能包含斜杠“/”。 400 InvalidArgument The IndexDocument Suffix cannot be blank. 索引页配置不能为空。 400 InvalidArgument Missing required key 'Redirect'. 缺少必需的参数Redirect。 400 InvalidArgument The ErrorDocument Key cannot be blank. 错误页配置不能为空。 400 InvalidArgument The HostName cannot be blank. HostName配置不能为空。 400 InvalidArgument The HostName cannot contain the "/" character. HostName不能包含斜杠“/”。 400 InvalidArgument The provided HTTP error code ( value ) is not valid. Valid codes are 4XX or 5XX. 重定向条件中的HttpErrorCodeReturnedEquals不是有效值。 400 InvalidArgument Missing required key 'HostName'. 缺少必需的参数HostName。 400 InvalidArgument The HostName cannot contain spaces. HostName配置不能包含空格。 400 InvalidArgument A value for IndexDocument Suffix must be provided if RedirectAllRequestsTo is empty. 重定向所有请求未配置时,索引文件必须配置。 400 InvalidArgument The destination bucket does not belong to you. 目的Bucket为他人的Bucket。 400 InvalidArgument Invalid Format value. 清单的格式不正确,取值只能为CSV。 400 InvalidArgument Invalid Field value. Field值填写错误。 400 InvalidArgument The maximum size of a Destination/Prefix is 512. Prefix最大长度为512。 400 InvalidArgument The maximum size of a Filter/Prefix is 1024. Prefix最大长度为1024。 400 InvalidArgument IsEnabled value expects true or false. IsEnabled的取值只能为true或false。 400 InvalidArgument Frequency value expects Daily or Weekly. Frequency的取值只能为Daily或Weekly。 400 InvalidArgument Schedule/Frequency missing. Frequency未填写。 400 InvalidArgument InventoryConfiguration/Destination/OOSBucketDestination/Bucket missing. 清单的目的Bucket未填写。 400 InvalidArgument IsEnabled missing. IsEnabled缺失。 400 InvalidArgument InventoryConfiguration/Destination/OOSBucketDestination/Format missing. 清单的输出格式缺失。 400 InvalidArgument Invalid id. Id无效。 400 InvalidArgument Id missing. 请求体中的id缺失。 400 InvalidArgument The type of 'IsAccessTime' must be Boolean. IsAccessTime取值应为布尔型,true或者false。 400 InvalidArgument 'Days' in the Expiration action for prefix ' prefix ' must be greater than 'Days' in the Transition action. 两生命周期规则重叠时,过期删除天数必须大于过期转储天数。 400 InvalidBucketCorsConfigure The XML you provided is not valid. XML无效。 400 InvalidBucketName The bucket name is: name . Bucket名字无效。 400 InvalidConfigurationId The specified configuration id is invalid. 请求头的清单ID未填写。 400 InvalidLocationConstraint The specified location constraint is not valid. 指定的数据位置无效。 400 InvalidObjectName The object name is: name . 文件名字无效。 400 InvalidOOSDestinationBucket Invalid Bucket ARN. Bucket ARN的格式不正确。 400 InvalidOOSDestinationBucket Invalid Bucket Name: bucketname . 清单输出的目的Bucket不存在。 400 InvalidPart One or more of the specified parts could not be found. The part may not have been uploaded, or the specified entity tag may not match the part's entity tag. 一个或者多个指定片段无法找到,片段可能没有被上传,或者指定的ETag值跟片段的ETag值不匹配。 400 InvalidPartNumber Part number must be an integer between 1 and 10000. 参数PartNumber的取值是[1, 10000]。 400 InvalidPartOrder The list of parts was not in ascending order. The parts list must be specified in order by part number. 分片片段列表没有按升序排列。片段列表必须根据分片号按顺序排列。 400 InvalidPartSize Your proposed upload is smaller than the minimum allowed object size. Each part must be at least 5 MiB in size, except the last part. 合并分片文件时,只允许最后一片小于5MiB,其他分片至少5MiB。 400 InvalidPolicyDocument Invalid Policy: JSON invalid: value . 策略无效,不是标准的json格式。 400 InvalidPolicyDocument Invalid according to Policy: Extra input fields: value . 策略无效,输入了额外的字段。 400 InvalidPolicyDocument Policy could not be parsed as a valid JSON string. 策略必须是json格式。 400 InvalidPolicyDocument Policy is missing required element Statement. 策略必须配置Statement。 400 InvalidPolicyDocument Policy is missing required element Principal. 策略必须配置Principal。 400 InvalidPolicyDocument Policy element has invalid value Principal. 策略配置的Principal值无效。 400 InvalidPolicyDocument Policy is missing required element Resource. 策略必须配置Resource元素。 400 InvalidPolicyDocument Policy is missing required element Resource content. 策略的Resource元素必须赋值。 400 InvalidPolicyDocument Policy has invalid resource resource . 策略配置的Resource无效。 400 InvalidPolicyDocument Policy has an invalid condition key key . 策略配置的condition key无效。 400 InvalidPolicyDocument No such condition type type . 策略配置的condition type无效。 400 InvalidPolicyDocument Action does not apply to any resource(s) in statement. 策略配置的Action无效。 400 InvalidPolicyDocument Policy is missing required element Effect. 策略必须配置Effect。 400 InvalidPolicyDocument Policy element has invalid value Effect : Effect . 策略配置的Effect无效。 400 InvalidPolicyDocument Policy element has invalid value Version : Version . 策略配置的Version无效。 400 InvalidRedirectLocation The website redirect location must be nonempty. xamzwebsiteredirectlocation头不能为空。 400 InvalidRedirectLocation The website redirect location must have a prefix of ' or ' or '/'. xamzwebsiteredirectlocation必须有前缀' 400 InvalidRedirectLocation The length of website redirect location cannot exceed 2,048 characters. xamzwebsiteredirectlocation长度不能超过2048。 400 InvalidRequest Missing required header for this request: xamzcontentsha256. v4签名必须携带xamzcontentsha256。 400 InvalidRequest Missing required header for this request: ContentMD5. 请求头必须包含ContentMD5。 400 InvalidRequest Please reduce your request rate. 请降低您的请求频率。 400 InvalidRequest The operation failed, please change a resource pool and try again. 请换其他资源池或者重试。 400 InvalidRequest This copy request is illegal because it is trying to copy an object to itself without changing the object's metadata or storage class. 复制文件时必须修改元数据或者存储类型。 400 InvalidRequest xamzlimitrate invalid.The input should be positive integer. xamzlimitrate只能是正整数。 400 InvalidRequest The source object size cannot be smaller than 5 GiB. 如果源文件取range进行拷贝,源文件大小不能小于5G。 400 InvalidRequest You can only define ReplaceKeyPrefix or ReplaceKey but not both. ReplaceKeyPrefix或者ReplaceKey不能同时存在。 400 InvalidRequest Condition cannot be empty. To redirect all requests without a condition, the condition element shouldn't be present. Condition配置不能为空。不带条件的情况下,重定向所有请求不应该出现condition元素。 400 InvalidRequest The maximum size of a prefix is 1024. 配置生命周期规则时,前缀的最大长度为1024。 400 InvalidRequest Number of lifecycle rules should not exceed allowed limit of 1000 rules. 同一Bucket配置的生命周期规则不能超过1000条。 400 InvalidRequest Rule ID must be unique. Found same ID for more than one rule. 配置生命周期规则时,Rule ID必须唯一。 400 InvalidRequest Found two rules with same prefix ' prefix ' for same action type [TransitionExpiration]. 同一Bucket的两条生命周期规则不能有相同的prefix。 400 InvalidRequest Found overlapping prefixes ' prefix ' and ' prefix ' for same action type [TransitionExpiration]. 同一Bucket的两条生命周期规则不能有前缀重叠的情况。 400 InvalidRequest Found overlapping prefixes ' prefix ' and '' for same action type [TransitionExpiration]. 同一Bucket的两条生命周期规则不能同时存在有前缀和无前缀规则。 400 InvalidStorageClass The storage class you specified is not valid. xamzstorageclass无效。 400 InvalidStorageClass Can not specify the storage class. 未合并的分段文件不能指定xamzstorageclass进行拷贝。 400 InvalidTargetBucketForLogging The target bucket name is: name . 日志记录规则时,目标Bucket不存在或者无目标Bucket的权限。 400 MalformedPOSTRequest The body of your POST request is not wellformed multipart/formdata. POST表单请求中contenttype配置的boundary格式不规范。 400 MalformedXML CORS Rule is empty. CORS Rule不能为空。 400 MalformedXML The number of CORS Rules you provided cannot exceed 100. CORS Rules个数不能超过100。 400 MalformedXML The length of CORS Rule ID you provided cannot exceed 255 characters. CORS Rule ID长度不能超255个字符。 400 MalformedXML AllowedOrigin does not exist. CORS配置中AllowedOrigin不存在。 400 MalformedXML AllowedMethod does not exist. CORS配置中AllowedMethod不存在。 400 MalformedXML AllowedOrigin " value " can not have more than one wildcard. CORS配置中AllowedOrigin最多只能携带一个通配符。 400 MalformedXML AllowedHeader " value " can not have more than one wildcard. CORS配置中AllowedHeader最多只能携带一个通配符。 400 MalformedXML ExposeHeader " value " contains wildcard. We currently do not support wildcard for ExposeHeader. CORS配置中ExposeHeader不能携带通配符。 400 MalformedXML CORS Rule ID is not unique. CORS Rule ID必须是唯一的。 400 MalformedXML The XML you provided was not wellformed or did not validate against our published schema. XML格式不正确。 400 MaxRequestBodyLengthExceeded Your request was too big, the maximum size is % s . 请求体长度太长。 400 MissingRequestBodyError Request Body is empty. 请求body体为空。 400 NoSuchUpload The specified upload does not exist. The uploadId may be invalid, or the upload may have been aborted or completed. 指定的分片上传过程不存在,上传ID可能非法,分片上传过程可能被终止或者已经完成。 400 PutObjectTooFast Upload: value is updated too fast. 同一文件并发上传过快。 400 TooManyBuckets You have attempted to create more buckets than allowed. Bucket数量已经到达上限。 400 TooManyConfigurations You are attempting to create a new configuration but have already reached the 10configuration limit. 超出清单配置规则的数量限制,每个Bucket最多配置10条清单。 403 InvalidAccessKeyId InvalidAccessKeyId. AccessKeyId无效。 403 InvalidAccessKeyId The AccessKeyId is invalid. AccessKeyId被禁用。 403 InvalidAccessKeyId The specified accessKey: accessKey does not exist. 临时密钥不存在,需重新申请。 403 AccessDenied Please use primary access key. 需要使用主密钥。 403 AccessDenied Nonprimary key can not list without prefix or prefix is not start with access key. 非主密钥只能list以自己access key为前缀的文件。 403 AccessDenied Nonprimary key can not operate bucket. 非主密钥,不能操作该Bucket。 403 AccessDenied Nonprimary key can not operate object that not start with access key. 非主密钥只能操作以自己access key为前缀的文件。 403 AccessDenied The secret token is expired, expiration: value . secret token过期。 403 AccessDenied The OOS service has been closed due to overdue payment. If the overdue payment exceed 15 days, the data will be deleted. Please recharge it in time. 由于逾期付款,OOS服务已关闭。如果逾期付款超过15天,数据将被删除。请及时充值。 403 AccessDenied OOS authentication requires a valid Date or xamzdate header. OOS 签名头中需要携带Date或xamzdate。 403 AccessDenied OOS authentication requires a valid Date or xamzdate header, expecting" YYYYMMDD'T'HHMMSS'Z'". OOS 签名头需要携带正确格式的Date或xamzdate,格式为YYYYMMDD'T'HHMMSS'Z'。 403 AccessDenied Invalid according to Policy: Policy expired. v4签名的xamzdate时间不能超过7天。 403 AccessDenied Invalid according to Policy: Policy Condition failed:xxx 签名策略不对。 403 AccessDenied Querystring authentication requires the Signature, Expires and AWSAccessKeyId parameters. V2预签名需要携带以下参数:Signature、Expires、AWSAccessKeyId。 403 AccessDenied Invalid date (should be seconds since epoch): date . 过期时间需要精确到秒。 403 AccessDenied Request has expired. 请求过期。 403 AccessDenied Anonymous access is forbidden for this operation. 匿名用户禁止此操作。 403 AccessDenied The user's permission is not enough. 用户权限不足。 403 AccessDenied You do not have permission to this resource pool, please try another resource pool. 没有该资源池的权限,请使用其他资源池。 403 AccessDenied CORSResponse: This CORS request is not allowed. This is usually because the evalution of Origin, request method / AccessControlRequestMethod or AccessControlRequestHeaders are not whitelisted by the resource's CORS spec. 跨域预检请求没有通过CORS规则校验。请检查Origin、AccessControlRequestMethod、AccessControlRequestHeaders是否在CORS列表的白名单中。 403 AccessDenied CORSResponse: CORS is not enabled for this bucket. 此Bucket未配置CORS。 403 AccessDenied Access denied by bucket policy. 受Bucket Policy的规则影响,被显示拒绝。 403 AccessDenied Access denied by bucket policy or anonymous access is forbidden. 匿名访问被拒绝,或者被Bucket Policy规则隐式拒绝。 403 AccessDenied User: user is not authorized to perform: action on resource: resource . 没有权限访问此资源。 403 AccessDenied The user does not belong to the region. 没有此资源池的上传权限,请更换其他资源池重试。 403 AccessDenied You do not have permission to request the value data region. Please change the data region for the bucket and try again. Bucket下配置的数据位置都已失效,请重新配置,或者修改为可以自动调度。 403 AccessDenied You are not allowed to set the publicreadwrite permission for the bucket. 您不具备将容器设置为公有的权限,请联系天翼云客服协助开通此功能。 403 AccessDenied You are not allowed to grant publicwrite permission to anonymous users. 您不可以向匿名用户授予写权限,请联系天翼云客服协助开通此功能。 403 AccessDenied Make sure that bucket's permissions are not private before using the static website hosting feature. 在使用静态网站托管功能之前,请确保Bucket权限不是私有。 403 Forbidden CORSResponse: Bucket not found. 如果是preflight CORS请求,Bucket必须存在。 403 IllegalObject The object " bucket/object " is illegal, forbid copy. 源文件是非法文件,不允许拷贝。 403 RequestTimeTooSkewed The difference between the request time and the server's time is too large. 客户端时间和服务器端时间相差超过15分钟。 403 SignatureDoesNotMatch The request signature we calculated does not match the signature you provided. Check your key and signing method. 签名计算错误,需按OOS的签名规则,请检查客户端签名计算方法。 403 SignatureDoesNotMatch The authorization type is malformed. V2签名头不是AWS开头,或者V4签名头不是AWS4HMACSHA256。 403 SignatureDoesNotMatch Invalid order of SignedHeaders. V4签名SignedHeasers需按字典序排序 404 MalformedContinuationToken The continuationtoken you provided invalid. continuationtoken的值不正确。 404 NoSuchBucket The resource you requested does not exist. 请求的Bucket不存在。 404 NoSuchBucket The request bucketname is name. 复制文件时源Bucket不存在。 404 NotSuchBucketPolicy The bucket policy configuration does not exist. 此Bucket Policy配置不存在。 404 NoSuchCORSConfiguration The CORS configuration does not exist. Bucket下没有配置CORS。 404 NoSuchLifecycleConfiguration The lifecycle configuration does not exist. 生命周期规则配置不存在。 404 NoSuchKey The resource you requested does not exist. 请求文件不存在。 404 NoSuchKey An Error Occurred While Attempting to Retrieve a Custom Error Document. 尝试检索自定义错误文档时发生错误。 404 NoSuchWebsiteConfiguration The specified bucket does not have a website configuration. Bucekt未开启website功能。 404 ObjectLockConfigurationNotFoundError Object lock configuration does not exist for this bucket. 此Bucket不存在合规保留配置。 405 MethodNotAllowed The specified location constraint is not valid. 指定的数据位置无效。 405 MethodNotAllowed The specified method is not allowed against this resource. 此资源不允许使用该方法。 409 BucketAlreadyExists BucketAlreadyExists. Bucket名字已存在,请更换名字。 409 BucketNotEmpty The bucket you tried to delete is not empty. Bucket非空,不能删除。 411 MissingContentLength You must provide the ContentLength HTTP header. 需要提供ContentLength消息头。 412 PreconditionFailed Bucket post must be of the enclosuretype multipart/formdata. POST表单的contenttype请求头不正确。 412 PreconditionFailed The preconditions xamzcopysourceifmodifiedsince you specified did not hold. 预处理条件下,指定的xamzcopysourceifmodifiedsince不匹配。 503 ServiceUnavailable Service is busy.Please try again. 服务器繁忙,请重试。 503 SlowDown Please reduce your request rate. 请降低请求频率。
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        存储桶(Bucket)和文件(Object)
        错误响应
        错误码列表
      • 通过CTRN获取层版本信息(1)
        参数 是否必填 参数类型 说明 示例 下级对象 ctrn 是 String 层的ctrn ctrn:cf:200000002368:testOuterTenantId123456:layers/testLayer/versions/1
        来自:
      • 流程执行简介
        流程执行简介 概述 工作流执行是指对流程的一次具体运行。创建流程后,您可以多次执行同一个流程,每次执行可根据实际需求传入不同的输入参数。 执行属性 下文列出了执行的属性,除了 执行名称 和 执行输入 是开始执行输入外,其他是执行的输出信息。 执行名称(executionName): 执行的名称。可以为空。 工作流执行时定义 (executionWorkflowDsl): 执行时对应工作流定义的快照,工作流定义详情见工作流定义。 执行输入(input): 执行的输入,不可为空,必须是JSON对象格式。 执行输出(output): 执行完成后的输出,JSON对象格式。 执行模式(executionMode): 执行模式。包含 快速模式(express)、标准模式(standard)。 执行状态(status): 执行的状态。包含started、completed、faulted、canceled 执行开始时间(startTime): 执行的开始时间。 执行结束时间(endTime): 执行的结束时间。 执行事件历史 通常,一个流程包含多个步骤。在执行过程中,每个步骤都会产生相应的事件,这些事件详细记录了步骤的执行状态。通过这些事件,您可以清晰了解流程当前所处的步骤、输入输出、执行时长及失败原因等信息。同时,云工作流服务会利用这些状态数据实时跟踪流程执行,保障系统的高可用性。 您可以通过下述信息了解执行事件(Event)的属性。其中,事件详情(EventDetail)为 JSON 对象格式字符串,不同事件类型(Type)对应的事件详情内容可能有所差异。 事件类型(eventType): 事件类型。包含 started、 submitted、failed、succeeded 。 状态名称(taskName):步骤名称。对应流程定义语言中的步骤名称。 状态类型(taskType): 步骤类型,如http、cloudflow:executionworkflow、cf:invokeFunction、noop、sleep、switch、parallel、foreach。 事件执行时间(eventTime): 事件发生时间。 执行输入(input): 事件发生时的输入。 执行输出(output): 事件发生时的输出。
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        控制台操作
        工作流执行
        流程执行简介
      • 指标监控
        监控指标 概述 本文档介绍了云工作流监控指标的取值和含义,您可以通过这些指标查看工作流的执行情况与状态转换情况。 工作流执行(次) 指标名称 指标含义 统计周期 单位 执行开始 统计周期内工作流的启动执行次数 自定义,最长14天 次 执行成功 统计周期内工作流执行完成并成功次数 自定义,最长14天 次 执行失败 统计周期内工作流执行失败次数 自定义,最长14天 次 执行超时 统计周期内工作流执行超时次数 自定义,最长14天 次 工作流状态转换(次) 指标名称 指标含义 统计周期 单位 状态转换 工作流状态转换次数,产生一个执行事件算1次 自定义,最长14天 次 执行时长(秒) 指标名称 指标含义 统计周期 单位 执行时间 统计周期内工作流的平均执行时长 自定义,最长14天 秒
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        控制台操作
        指标监控
      • Q&A:典型问题解析与策略应对
        天翼云提供了底层资源,DeepSeek模型还是要客户自己部署的吗? 天翼云提供了预置DeepSeek模型的镜像,开机即用。 DeepSeek模型、Ollama工具下载慢,我该怎么办? 目前使用天翼云的镜像源,可加快访问速度。如果想使用其他模型,也可以自定义部署。 昇腾版本和英伟达版本有啥区别? 昇腾和英伟达版本主要区别在于硬件设备(如A100和昇腾),具体的参数层面区别难以量化。 开箱即用的镜像,能否更换其他参数规模的模型? 可以的,GPU云主机提供了预置DeepSeek R1:7B 和DeepSeek R1:70B 两款模型镜像,提供了DeepSeek LLamaFactory模型微调镜像,并配备完整的ollama、openWebUI工具,用户可根据需要进行自定义部署。 模型部署过程中发现云盘的容量不够怎么办? 根据云硬盘扩容概述对已有云盘进行扩容或购买数据盘进行挂载。 天翼云公有云哪些资源池有DeepSeek预置镜像? 目前DeepSeek R1:7B Ubuntu云主机镜像,已上线至福州25、郑州5、长沙42、上海36、华北2、华南2、西南1、华东1,其余资源池按需加载;裸金属镜像DeepSeek R1:7B Ubuntu已上线上海15资源池,其余资源池按需加载。
        来自:
        帮助文档
        函数计算
        DeepSeek专题
        Q&A:典型问题解析与策略应对
      • 云工作流集成
        执行模式 云工作流集成工作流执行, 支持请求响应(RequestComplete)、等待系统回调(WaitForSystemCallback)和等待任务令牌(WaitForTaskToken)三种模式。执行模式详细介绍可查看服务集成模式。 示例代码与解析 对不同执行模式的工作流进行示例说明。 请求响应(RequestComplete)示例 plaintext specVersion: "0.8" name: "standarddemo" start: "ExecuteWorkflow" states: name: "ExecuteWorkflow" type: "Operation" metadata: {} stateDataFilter: {} actions: retryRef: [] catchRef: [] functionRef: type: "cloudflow:executeWorkflow" arguments: workflowName: "expressdemo" workflowType: "express" executionName: "test1" workflowInput: k1: "v1" regionId: "bb9fdb42056f11eda1610242ac110002" actionExecuteMode: "RequestComplete" end: true 以上工作流定义解析如下: type :固定为Operation,标识这是一个Operation状态。 functionRef.type:固定为cloudflow:executeWorkflow。 functionRef.arguments:工作流执行输入参数, JSON格式。 actionExecuteMode :示例使用RequestComplete,表示同步执行, 等待工作流执行结果。注意快速工作流仅支持RequestComplete模式。 等待任务令牌(WaitForTaskToken)示例 plaintext specVersion: "0.8" name: "standarddemo" start: "ExecuteWorkflow" states: name: "ExecuteWorkflow" type: "Operation" metadata: {} stateDataFilter: {} actions: retryRef: [] catchRef: [] functionRef: type: "cloudflow:executeWorkflow" arguments: workflowName: "standardforsystemcallback" workflowType: "standard" executionName: "test1" workflowInput: k1: "v1" taskToken: "{ $Context.taskToken }" regionId: "bb9fdb42056f11eda1610242ac110002" actionExecuteMode: "WaitForTaskToken" end: true 以上工作流定义解析如下: type :固定为Operation,标识这是一个Operation状态。 functionRef.type:固定为cloudflow:executeWorkflow。 functionRef.arguments: 工作流执行输入参数, JSON格式; 另外在参数需要添加任务令牌{ $Context.taskToken }输入参数。 actionExecuteMode :示例使用WaitForTaskToken,表示等待任务令牌,仅标准工作流可设置。 当前状态执行完成需要等待到用户用户获取TaskToken后通过ReportTaskSuccess或ReportTaskFailure OpenApi触发回调,继续执行。
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        工作流集成
        云工作流集成
      • 输入和输出
        输出设置 当状态(State)执行完成时,可在输出设置里对输出数据过滤以及输出数据重构等场景, 在未设置的情况下, 输出数据会原始传递到下一个状态作为下一个状态执行的输入。这里简单介绍以以输出设置使用JsonPath部分参数为例进行介绍: 工作流流程可视化 工作流流程定义 plaintext specVersion: "0.8" name: "demo" start: "Hello" states: name: "Hello" type: "Operation" actions: functionRef: type: "Noop" end: true stateDataFilter: input: newK1: "newK1" newK2: "{ $.k2. k21 }" output: "{ $.newK1 }" 进行工作流执行: 工作流执行输入 状态状态执行输入 状态执行输出 plaintext { "k1": { "k11": "v11", "k12": 12 }, "k2": { "k21": "v21", "k22": 22 }, "k3": "v3" }
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        流程定义
        工作流定义
        输入和输出
      • 快速工作流和标准工作流
        执行指标 标准工作流 快速工作流 最长执行时长 365天 5分钟 执行语义 异步执行,遵循至少执行一次(At least once)语义,支持持久化,但是在特殊条件下可能会导致数据被重复处理。 同步执行 执行历史 可通过API查询指定工作流执行历史、工作流执行详情。 可通过API查询指定工作流执行历史、工作流执行详情。 服务集成 云服务集成调用模式支持如下三种集成模式。更多信息,请参见 服务集成模式 。 请求响应模式(RequestComplete) 等待系统回调(WaitForSystemCallback) 等待任务令牌(WaitForTaskToken) 仅支持请求响应模式(RequestComplete)
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        流程定义
        工作流概述
        快速工作流和标准工作流
      • 数据传递
        数据传递 同类型的状态(State)存在不同的输入输出逻辑, 在没有输入输出过滤处理逻辑的情况下, 不同状态(State)的输入输出逻辑如下: Operation(操作):通过数据访问章节的说明的方式访问和操作状态的输入数据, 再将执行任务的结果作为输出传递给后续状态。 Noop(传递) Sleep(暂停) Fail(失败):只接入输入, 不做任何处理, 直接输出。 Switch(条件分支):只具备输入能力,会将自身的输入传递到最终执行的条件分支跳转的状态。 Parallel(并行): 将自身输入深拷贝后传递到各个并行分支。输出会按照map[string]interface形式组织输出, key是按照并行分支"branch0 ~ branch$N"的方式命名, 对应的value是每个并行分支实际处理的结果。 Foreach(迭代):仅接受输入数据是数组形式。执行Foreach状态时, 会对数组进行迭代, 将每一个数组元素作为迭代处理器的输入。最终结果会按照数组形式组织输出, 数组的每个元素对应每次迭代输入对应的输出。 以包含Noop和Parallel状态的工作流执行为例, 工作流流程定义如下: 可视化流程 对应工作流流程定义yaml plaintext specVersion: "0.8" name: "demo" start: "Hello" states: name: "Hello" type: "Operation" actions: functionRef: type: "Noop" transition: nextState: "Parallel" name: "Parallel" type: "Parallel" branches: processor: startAt: "Noop" states: name: "Noop" type: "Operation" actions: functionRef: type: "Noop" end: true processor: startAt: "Noop1" states: name: "Noop1" type: "Operation" actions: functionRef: type: "Noop" end: true end: true 工作流执行输入数据为: plaintext { "k1": "v1", "k2": "v2" } 执行后, 各个状态对应的输入输出为: 状态名(状态类型) 输入数据 输出数据 Hello(Noop) plaintext { "k1": "v1", "k2": "v2" } plaintext { "k1": "v1", "k2": "v2" } Parallel(Parallel) plaintext { "k1": "v1", "k2": "v2" } plaintext { "branch0": { "k1": "v1", "k2": "v2" }, "branch1": { "k1": "v1", "k2": "v2" } }
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        流程定义
        工作流定义
        数据传递
      • 流程执行管理
        图形视图 功能说明 : 在 图形视图页签 中,您可以选择任意状态节点,右侧将显示该状态的 输入、输出和执行事件。 特殊场景支持: Foreach 状态 : 如果工作流包含 迭代(Foreach)状态 ,在流程执行完成后,您可在 Foreach 区域 选择具体迭代编号,查看每次迭代的执行数据。 表格视图 功能说明 : 在 表格视图页签 中,您可选择任意状态节点,右侧将显示该状态的 输入 和 输出。 特殊场景支持: Foreach 状态 : 如果工作流包含 迭代(Foreach)状态 ,流程执行完成后,您可单击表格中对应的行,查看每次 迭代 以及每次 迭代对应子任务的状态节点 的 输入 和 输出。 Parallel 状态 : 如果工作流包含 并行(Parallel)状态 ,流程执行完成后,您可单击表格中对应的行,查看每次 并行执行 以及 对应并行分支对应子任务状态节点 的 输入 和 输出。 执行事件 功能说明 : 执行事件 详细记录了每个步骤的执行数据,包括以下信息: 状态名称 状态类型 输入与输出 事件类型 事件执行时间 失败原因 (如有) 您可以通过 执行事件列表 了解流程的完整执行过程和状态。
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        控制台操作
        工作流执行
        流程执行管理
      • 日志触发器
        前提条件 创建工作流 创建日志单元 【创建事件总线委托】创建事件总线类触发器前,需要先确认开通事件总线对工作流的服务委托,赋予事件总线调用工作流的权限。 操作步骤 1. 登录工作流控制台,点击目标工作流,进入工作流详情详情。 2. 在配置选项卡中,选择左边的 工作流调度 选项卡。 3. 点击 创建工作流调度 ,在弹出的右抽屉中选择 日志触发器,配置参数解释如下表。 配置项 操作 示例 触发器类型 选择日志触发器。 日志触发器 名称 填写自定义的触发器名称。 alstrigger 日志项目 选择目标日志项目。 日志单元 选择目标日志单元。
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        控制台操作
        工作流调度
        事件总线类触发器
        日志触发器
      • 高性能GPU云主机助力DeepSeek深度应用
        返回DeepSeek专题导航。
        来自:
        帮助文档
        函数计算
        DeepSeek专题
        图解:DeepSeek与公有云深度融合
        高性能GPU云主机助力DeepSeek深度应用
      • HTTP集成
        返回值说明 HTTP请求的返回结果会被包装为JSON对象,结构如下: plaintext { "Header": { "ContentType": "application/json;charsetUTF8", "AccessControlAllowMethods": "GET,POST,OPTIONS" }, "Code": 200, "Body": "hello world" } Header:响应头部信息,如内容类型、允许方法等。 Code:HTTP状态码,如200表示成功,404表示资源未找到。 Body:响应正文,可能是字符串或JSON数据,依服务返回而定。 后续状态可通过json路径(如{ $.Body })访问这些字段,用于条件判断或数据处理,详见数据传递文档。 执行模式 云工作流HTTP集成支持两种执行模式,具体如下: RequestComplete: 定义:发起HTTP调用后,当前任务完成,输出为HTTP服务器的返回数据。 特点:同步执行,适合需要立即获取结果的场景。 适用场景:实时数据获取、API查询。 示例中采用此模式,GET请求后直接结束。 WaitForTaskToken: 定义:发起HTTP调用后,流程暂停,等待外部系统通过回调恢复执行。 特点:异步模式,依赖任务令牌(taskToken)实现回调。 工作原理 :调用时,任务令牌通过{ $Context.taskToken }获取。外部服务需调用ReportTaskSucceeded或ReportTaskFailed接口,携带令牌和状态,触发流程继续。 适用场景:需要外部系统异步处理,如审批流程、长任务执行。 注意:用户需确保外部服务支持回调机制,流程挂起期间需监控任务状态。
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        工作流集成
        HTTP集成
      • GPU物理机:物理机搭建DeepSeek指南
        GPU物理机:物理机搭建DeepSeek指南
        来自:
        帮助文档
        函数计算
        DeepSeek专题
        实践指南:DeepSeek驱动高效能云生态
        GPU物理机:物理机搭建DeepSeek指南
      • 工作流简介
        工作流流程(workflow)定义了业务逻辑描述以及流程执行所需要的通用信息, 例如一个审批权限申请流程可能包含创建审批、处理审批, 通过审批、拒绝审批等。在创建流程(workflow)后, 可以多次触发工作流执行(Execution),每次执行可以设置不同的输入, 例如每次审批的申请人以及审批通过权限的有效时长是不一样的。 同时, 云工作流提供了丰富的控制类状态去描述流程的业务逻辑, 可以串行、并行或者条件执行某些任务,以及针对一类数组数据并行执行一系列任务等。 如何使用工作流 工作流创建 使用工作流,首先需要创建工作流,云工作流支持创建标准和快速两种模式的工作流。创建工作流的核心是完成工作流定义, 工作流定义详细看流程定义介绍。工作流创建可以使用云工作流控制台、OpenAPI等方式进行创建和管理, 详细可看创建工作流。 工作流调用 工作流完成创建后, 可以通过云工作流控制台、OpenAPI等方式触发工作流的执行。 同时也可通过在控制台创建触发器的方式按照事件驱动的方式触发工作流执行。工作流启动后, 工作流会按照流程定义的顺序和规则执行任务, 并按照JSON格式输出工作流执行结果, 同时在控制台工作流执行详情,可以查看工作流执行后各个任务执行的输入输出。详细可看工作流执行。
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        流程定义
        工作流概述
        工作流简介
      • 创建流程
        创建流程本文以创建一个执行 HTTP 请求的简单流程为例,介绍如何通过云工作流控制台创建流程。概述云工作流的流程(Cloudflow)用于定义业务逻辑和流程执行所需的通用信息。例如,一个订单管理流程可 创建流程 本文以创建一个执行 HTTP 请求的简单流程为例,介绍如何通过云工作流控制台创建流程。 概述 云工作流的流程(Cloudflow)用于定义业务逻辑和流程执行所需的通用信息。例如,一个订单管理流程可能包含:创建订单、处理支付、预留库存、配送商品和通知等。流程创建完成后,您可以多次执行该流程,每次执行时输入内容可能不同(如每次下单时输入订单信息)。云工作流支持丰富的控制原语,包括串行、并行、选择性执行任务,以及针对数据集的批量并行任务。 操作步骤 1. 登录 云工作流控制台,在顶部菜单栏选择地域。 2. 在 工作流列表 页面,点击 创建工作流。 3. 在弹出的 创建工作流 对话框中,选择 使用空白画布 ,选择 工作流模式 ,设置 工作流名称 和 描述 ,然后点击 创建。 本文以创建快速模式的工作流为例。关于不同工作流模式的说明,请参见 标准工作流 和 快速工作流。 4. 在 CloudFlow Studio 页面,选择状态浏览区的常用节点 Http,长按鼠标左键拖动至画布,出现横线或竖线时松开鼠标,将节点放入流程。 5. 单击选中 Http 节点,设置其基本配置、输入配置、输出配置和错误处理。 基本配置 重点项如下,其余可保持默认。输入、输出和错误配置详见输入和输出和错误处理。 6. 输入配置 重点项如下: 配置项 说明 示例值 节点名称 当前节点的名称 Req 请求方法 选择 HTTP 请求方法,如 GET POST 请求 URL 填写完整的 HTTP 服务 URL < 下一个状态 选择下一个节点,无则选 End End 1. (可选)点击 工作流配置 页签,设置流程角色信息。依次点击 保存 和 退出。 若已创建 IAM 委托角色,可直接选择现有 IAM 委托角色,执行角色相关详细看控制台操作执行角色说明。 本文示例为调用 HTTP 请求,无需配置委托角色。若流程涉及集成云产品服务,需配置具备相应权限策略的角色。
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        快速入门
        创建流程
      • 概述
        事件总线类触发器是一类基于天翼云默认事件总线的能力,以总线为事件源,通过规则配置的触发器。该类型触发器不直接与其他云产品通信,只会订阅总线消息,总线基于规则分发消息发送到工作流实例,事件传递机制如下:
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        控制台操作
        工作流调度
        事件总线类触发器
        概述
      • 从基础设施到智能中枢:DeepSeek如何重塑公有云服务价值链
        天翼公有云×DeepSeek 产品架构和技术优势 天翼公有云智算底座主推产品 天翼公有云×DeepSeek方案 返回DeepSeek专题导航。
        来自:
        帮助文档
        函数计算
        DeepSeek专题
        图解:DeepSeek与公有云深度融合
        从基础设施到智能中枢:DeepSeek如何重塑公有云服务价值链
      • 什么是VPC?
        虚拟私有云(Virtual Private Cloud,VPC),为云服务器、云容器、云数据库等云上资源构建隔离、私密的虚拟网络环境。您可以完全掌控自己的专有网络,VPC丰富的功能帮助您灵活管理云上网络,包括创建子网、设置安全组和网络ACL、管理路由表、申请弹性公网IP和带宽等。此外,您还可以通过云专线、VPN等服务将VPC与传统的数据中心互联互通,灵活整合资源,构建混合云网络。
        来自:
        帮助文档
        函数计算
        常见问题
        函数管理
        什么是VPC?
      • GPU云主机/弹性云主机:零基础搭建DeepSeek云端环境指南
        GPU云主机/弹性云主机:零基础搭建DeepSeek云端环境指南
        来自:
        帮助文档
        函数计算
        DeepSeek专题
        实践指南:DeepSeek驱动高效能云生态
        GPU云主机/弹性云主机:零基础搭建DeepSeek云端环境指南
      • WAN助力DeepSeek模型定向加速
        SDWAN跨境:SDWAN助力DeepSeek模型定向加速
        来自:
      • 智算容器:云容器引擎与DeepSeek融合实践
        智算容器:云容器引擎与DeepSeek融合实践
        来自:
        帮助文档
        函数计算
        DeepSeek专题
        实践指南:DeepSeek驱动高效能云生态
        智算容器:云容器引擎与DeepSeek融合实践
      • 1
      • ...
      • 123
      • 124
      • 125
      • 126
      • 127
      • ...
      • 129
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      聚力AI赋能 天翼云大模型专项

      大模型特惠专区·Token Plan 轻享包低至9.9元起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务 MDR

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      训推服务

      AI Store

      公共算力服务

      推荐文档

      适用场景

      迁移准备

      云课堂 第十一课:天翼云虚拟IP地址及其在高可用集群中

      客户端下载安装

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号