爆款云主机低至25.83元/年
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 云聚517 · 好价翼起拼 NEW 爆款云主机低至25.83元/年,参与拼团享更多优惠,拼成得额外优惠券
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 聚力AI赋能 天翼云大模型专项 大模型特惠专区·Token Plan 轻享包低至9.9元起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 企业出海解决方案 NEW 助力您的业务扬帆出海,通达全球!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
Token服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V4-Flash
  • GLM-5.1
  • Qwen3.5-122B-A10B
  • DeepSeek-V3.2(旗舰版)
  • GLM-5(正式版)
智算一体机
  • 智算一体机
智能体引擎
  • 智能体引擎
智算安全专区
  • 大模型安全评测
  • 大模型安全护栏
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      对象存储(经典版)I型_相关内容
      • 修改数据库端口
        本章节介绍在控制台如何修改数据库端口。 操作场景 关系型数据库服务支持修改主实例和只读实例的数据库端口,对于主备实例,修改主实例的数据库端口,该实例下备实例的数据库端口会被同步修改。 对于配置了安全组规则连接数据库实例的场景,修改数据库端口后,需要同步修改数据库实例所属安全组的入方向规则。 操作步骤 1、登录管理控制台。 2、单击管理控制台左上角的,选择区域和项目。 3、选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 4、在“实例管理”页面,选择指定的实例,单击主实例名称,或单击,单击只读实例名称。 5、在“基本信息”,在“连接信息”模块“数据库端口”处,单击,修改数据库端口。 您也可以在左侧导航栏,单击“连接管理”,在“连接信息”模块“数据库端口”处,单击 ,修改数据库端口。 说明 Microsoft SQL Server实例的端口设置范围为1433(默认)或2100~9500(其中5355和5985不可设置)。对于2019 EE、2019 SE、2019 Web版,5050、5353和5986不可设置。 单击 ,提交修改。 在弹出框中,单击“确定”,提交修改。 修改主实例数据库端口,对应的主备实例均会被修改且重启。 修改只读实例数据库端口,仅修改并重启该只读实例。 此过程需要1~5分钟左右。 说明 RDS for SQL Server2019企业版和2017企业版支持只读实例。 在弹出框中,单击“取消”,取消本次修改。 单击 ,取消修改。 6、在实例的“基本信息”页面,查看修改结果。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        连接管理
        修改数据库端口
      • 基于LLaMA-Factory微调DeepSeek-R1-Distill-Qwen-7B最佳实践
        步骤一:安装Nvidia显卡驱动与CUDA库 plaintext 安装nvidia显卡驱动(如已选择带驱动镜像,则忽略) apt update apt install ubuntudriverscommon alsautils 查看推荐的驱动版本 ubuntudrivers devices 安装推荐版本 apt install nvidiadriver550 重启一次云主机 reboot 安装cuda12.2 wget 注意取消对nvidia driver的安装 sh cuda12.2.0535.54.03linux.run 安装完成后在~/.bashrc中写入环境变量 添加CUDA可执行文件路径 export PATH/usr/local/cuda12.2/bin${PATH:+:${PATH}} 添加CUDA库文件路径 export LDLIBRARYPATH/usr/local/cuda12.2/lib64${LDLIBRARYPATH:+:${LDLIBRARYPATH}} 使环境变量生效 source ~/.bashrc 步骤二:安装git与下载模型 plaintext 安装git和lfs apt update apt install git curl s bash apt install gitlfs git lfs install 下载模型 国内用modelscope源速度最快 git clone 清理掉不用的.git目录下lfs大文件版本数据(能节省一半存储空间) git lfs prune f 步骤三:安装LLaMAFactory及相关训练环境 plaintext 安装miniconda wget 下载完成后手动安装 sh Miniconda3[版本号]Linuxx8664.sh 使环境变量生效 source ~/.bashrc 安装LLaMAFactory git clone depth 1 cd LLaMAFactory pip install e ".[torch,metrics]" i pip install deepspeed i pip install flashattn nobuildisolation i
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        AIGC实践
        基于LLaMA-Factory微调DeepSeek-R1-Distill-Qwen-7B最佳实践
      • 应用场景
        本节介绍分布式缓存服务Redis版产品的应用场景 电商类应用场景 在电商类场景中,分布式缓存服务Redis版广泛用于商品展示、购物推荐、在线选号以及在大型促销秒杀活动中的库存、计数控制等 热门商品展示:秒杀活动通常会吸引大量用户的访问,商品信息的读取是非常频繁的操作。为了减轻数据库负载和提高响应速度,可以使用Redis将热门商品的信息缓存起来。这样,用户每次请求秒杀商品时,可以先从Redis中获取商品信息,而不必每次都查询数据库,可以显著提升电商网站的性能和响应速度。 库存控制:秒杀活动对商品的库存有严格的限制,需要保证商品数量的准确性和并发访问的安全性。Redis提供了原子性操作和分布式锁的支持,可以使用Redis的原子减操作来实现商品库存的扣减,同时可以使用Redis的分布式锁来保护库存操作的并发安全性。可参考最佳实践:秒杀库存控制 异步处理订单:秒杀活动结束后,会有大量的订单需要处理。为了提高系统的并发能力和响应速度,可以使用Redis作为消息队列,将订单信息存储在Redis的列表中。然后通过多个消费者进程或线程从Redis中获取订单消息进行处理,实现订单的异步处理和解耦。 游戏类应用场景 分布式缓存服务Redis版是游戏中重要的组件,一般用于玩家数据的缓存和持久化。 缓存玩家数据:分布式缓存服务Redis版可以用作玩家数据的缓存存储,包括玩家的角色信息、道具装备、技能等业务数据。通过将玩家数据存储在Redis中,可以提高数据的读取速度,并减轻数据库的负载。这对于需要频繁读取玩家数据的游戏来说尤为重要。 排行榜数据存储:在一个在线游戏中,我们需要实时统计玩家的得分,并展示排行榜,以便玩家之间进行竞争和比较。可使用分布式缓存服务Redis版的有序集合数据结构存储用户排行榜,利用Redis提供的排序功能快速获取排名信息。可参考最佳实践:排行榜功能 状态管理和计数器:Redis的计数器和键值存储特性可以用于游戏中的状态管理和计数功能。例如,可以使用Redis的计数器记录游戏中的击杀数、经验值等,以及管理玩家的在线状态,同时可以使用Redis的键值存储功能存储和读取游戏中的各种状态信息。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品介绍
        应用场景
      • 初始化
        请求参数 参数 类型 描述 是否必须 storName String HBlock名称。 取值:长度范围是1~64,可以包含字母、数字、下划线()和短横线(),字母区分大小写,且仅支持以字母或数字开头。 是 userName String HBlock的管理员用户名。 取值:长度范围是5~16,只能由数字和字母组成,字母区分大小。默认值为storuser。 否 newPassword String 设置的新密码。初始化时必须修改密码。 取值:长度范围8~16,至少包含以下字符中的3种:大写字母、小写字母、数字、特殊字符 (~ ! @ $ % ^ & ( ) + [ ] { } ; : , . / ?),区分大小写。不能包含:3个连续重复的字符,3个连续或反序的数字、或字母(不区分大小写),3个连续或反序的键盘序列(不区分大小写)。 是 edition String 指定版本类型。 取值: Free:免费版。 Commercial:商业版。 默认值为Commercial。 否 iSCSIPort Integer iSCSI端口。 取值:[1, 65535],默认值为3260。 否 portRange String 指定端口范围。存储服务以及未指定端口的服务将从此范围中自动取值。 取值:[1, 65535],port1为端口范围最小值,port2为端口范围最大值,且port1 < port2 。port1 默认取值为20000,port2默认取值为20500。 说明 建议指定的端口范围至少包含500个端口。 否 faultDomain String 设置基础存储池的故障域级别(仅集群版支持)。初始化时设置的集群拓扑中,包含的数据目录节点都加入到基础存储池中。 取值: room:机房级别。 rack:机架级别。 path:数据目录级别。 server:服务器级别。 默认值为server。 注意 如果故障域级别为room或者rack,则必须使用拓扑文件导入方式进行初始化。 否 ports.dataPort1 Integer 数据端口1(仅集群版支持)。 取值:[1, 65535]。 否 ports.managementPort1 Integer 管理服务端口1。 取值:[1, 65535]。 否 ports.managementPort2 Integer 管理服务端口2。 取值:[1, 65535]。 否 ports.managementPort3 Integer 管理服务端口3。 取值:[1, 65535]。 否 ports.managementPort4 Integer 管理服务端口4。 取值:[1, 65535]。 否 ports.managementPort5 Integer 管理服务端口5(仅集群版支持)。 取值:[1, 65535]。 否 ports.managementPort6 Integer 管理服务端口6。 取值:[1, 65535]。 否 ports.metadataPort1 Integer 元数据端口1(仅集群版支持)。 取值:[1, 65535]。 否 ports.metadataPort2 Integer 元数据端口2(仅集群版支持)。 取值:[1, 65535]。 否 ports.metadataPort3 Integer 元数据端口3(仅集群版支持)。 取值:[1, 65535]。 否 ports.metadataPort4 Integer 元数据端口4(仅集群版支持)。 取值:[1, 65535]。 否 ports.metadataPort5 Integer 元数据端口5(仅集群版支持)。 取值:[1, 65535]。 否 ports.metadataPort6 Integer 元数据端口6(仅集群版支持)。 取值:[1, 65535]。 否 ports.metadataPort7 Integer 元数据端口7(仅集群版支持)。 取值:[1, 65535]。 否 ports.metadataPort8 Integer 元数据端口8(仅集群版支持)。 取值:[1, 65535]。 否 topology String 导入集群拓扑文件内容(仅集群版支持)。 取值:拓扑文件需要采用UTF8编码,且为JSON文件格式,然后转换成字符串格式复制给该参数。拓扑文件的构成详见集群拓扑文件。 注意 “topology”与“servers”必须选一种,且只能选一种。如果故障域级别为room或者rack,则必须使用拓扑文件导入方式进行初始化。 否 servers Array of server HBlock服务器的属性集合,详见“表1 请求参数server说明(仅集群版支持)”。 注意 “topology”与“servers”必须选一种,且只能选一种。如果故障域级别为room或者rack,则必须使用拓扑文件导入方式进行初始化。 否 services Array of server 服务地址的集合(仅集群版支持),详见“表3 请求参数service说明(仅集群版支持)”。 否 clusterNetwork String 集群网络(仅集群版支持),用于集群间的数据通信。 如果指定集群网络,为了保证HBlock的各个服务器之间能够正常通信,请确保每个服务器上都有与指定网段相符的IP,系统会自动选取该IP进行通信。 如果未指定集群网络,默认使用服务器列表中HBlock服务器IP,此时HBlock的服务器IP不能指定为localhost、127.0.0.1或0:0:0:0:0:0:0:1。 取值:如果指定地址范围,IP地址后加掩码表示,如192.163.1.5/24。 否 publicNetwork String 业务网络,用于客户端和HBlock之间的数据传输式。 如果指定业务网络,请确保每个服务器上都有与指定网段相符的IP,系统会自动选取该IP和客户端进行通信。 如果未指定业务网络,或指定了业务网络,但指定的网段与服务器所有IP均不相符,默认使用服务器列表中HBlock服务器IP,此时HBlock服务器IP不能指定为localhost、127.0.0.1或0:0:0:0:0:0:0:1。 取值:如果指定地址范围,IP地址后加掩码表示,如192.163.1.5/24列表。 否 表1 请求参数servers说明 参数 类型 描述 是否必须 nodeName String 拓扑节点名称。 取值:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 否 ip String HBlock的服务器IP。 取值:IPv4或[IPv6]地址。 是 apiPort Integer 管理API端口。 取值:[1, 65535],默认值为1443。需要和该服务器安装HBlock时设置的API端口号保持一致。 否 diskPaths Array of server 数据目录属性集合,详见“表2 请求参数diskPaths说明”。 否 表2 请求参数diskPath说明 参数 类型 描述 是否必须 path String 指定数据目录。数据目录用于存储数据,建议不要与操作系统共用磁盘或文件系统。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。 说明 对于单机版,第一个数据目录为默认数据目录。对于集群版,需要至少有一个数据目录。 注意 如果故障域是server和path级别,此项必填。 否 capacityQuota Long 指定数据目录的容量配额,即针对加入到服务器中的每个数据目录,HBlock可写入的数据总量。当HBlock的使用空间一旦达到配额,就立刻阻止数据写入,不允许再使用超出配额的空间。 取值:小于数据目录所在磁盘的总容量,单位是bytes。负整数表示无限制写入,0表示禁止写入。默认不限制写入。 注意 如果相同的数据目录出现多次,以第一次出现的数据目录的容量配额为准。 否 表3 请求参数services说明(仅集群版支持) 参数 类型 描述 是否必须 mdm Array of mdm 元数据管理服务(仅集群版支持),详见“表4 请求参数mdm说明(仅集群版支持)”。 否 ls Array of ls 日志服务(仅集群版支持),详见“表5 请求参数ls说明(仅集群版支持)”。 否 cs Array of cs 协调服务(仅集群版支持),详见“表6 请求参数cs说明(仅集群版支持)”。 否 表4 请求参数mdm说明(仅集群版支持) 参数 类型 描述 是否必须 ip String 元数据管理服务的地址(仅集群版支持)。 如果指定元数据管理服务的地址,必须同时指定集群中的2个IP地址。 取值:IPv4或[IPv6]地址。 否 metaDir String 元数据服务的数据目录(仅集群版支持),用于存储元数据服务的相关数据信息。 说明 为了提升读写性能,建议元数据服务的数据目录与安装目录、存储数据的数据目录分开。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。默认目录为安装目录。 否 表5 请求参数ls说明(仅集群版支持) 参数 类型 描述 是否必须 ip String 日志服务的地址(仅集群版支持)。 如果指定日志服务的地址,必须同时指定集群中的3个IP地址。 取值:IPv4或[IPv6]地址。 否 metaDir String 日志服务的数据目录(仅集群版支持),用于存储日志服务的相关数据信息。 说明 为了提升读写性能,建议日志服务的数据目录与安装目录、存储数据的数据目录分开。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。默认目录为安装目录。 否 表6 请求参数cs说明(仅集群版支持) 参数 类型 描述 是否必须 ip String 协调服务的地址(仅集群版支持)。 如果指定协调服务的地址,必须同时指定集群中的3个IP地址。 取值:IPv4或[IPv6]地址。 否 metaDir String 协调服务的数据目录(仅集群版支持),用于存储协调服务的相关数据信息。 说明 为了提升读写性能,建议协调服务的数据目录与安装目录、存储数据的数据目录分开。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。默认目录为安装目录。 否
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        初始化
        初始化
      • 使用约束
        本节向您介绍数据安全中心的使用约束。 数据安全中心DSC仅支持管理天翼云上的数据资产,暂不支持管理其他云厂商的数据资产。 支持的数据源 关系型数据库(Relational Database Service,RDS) 对象存储服务(Object Storage Service,OBS) 数据仓库服务(Data Warehouse Service,DWS) 文档数据库服务(Document Database Service,DDS) MapReduce服务(MapReduce Service,MRS) 云搜索服务(Cloud Search Service,CSS) 数据湖探索服务(Data Lake Insight,DLI) 弹性云服务器(Elastic Cloud Server ,ECS)的自建数据库 裸金属服务器(Bare Metal Server,BMS)的自建数据库 支持的数据库类型及版本 DSC支持的数据库类型及版本如下表所示。 数据库类型 版本 MySQL 5.6、5.7、5.8、8.0 SQL Server 2017SE、2017EE、2017WEB 2016SE、2016EE、2016WEB 2014SE、2014EE 2012SE、2012EE、2012WEB 2008R2EE、2008R2WEB PostgreSQL 11、10、9.6、9.5、9.4、9.1 Oracle 10、12
        来自:
        帮助文档
        数据安全中心
        产品介绍
        使用约束
      • 查询计算增强云电脑磁盘类型列表v3
        参数 是否必填 参数类型 说明 示例 下级对象 regionId 是 String 资源池ID。 xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx flavorType 是 String 主机规格类型。枚举值范围:[Common通用型, GpuGPU型, Hpn高性能网络型, Kp鲲鹏, Hg海光] forSysDisk 否 Boolean 是否用于系统盘。true则返回系统盘可用磁盘类型,false则返回数据盘可用磁盘类型。默认为true。
        来自:
        帮助文档
        天翼云电脑(政企版)
        API参考
        API
        2023-10-30
        计算增强型云电脑
        查询计算增强云电脑磁盘类型列表v3
      • 动态获取IPv6地址
        设置云主机获取IPv6地址超时时间 CentOS 6.x和Debian操作系统的云主机内部配置IPv6自动获取功能之后,将该云主机制作为私有镜像,使用该镜像在非IPv6网络环境中创建云主机时,由于等待获取IPv6地址超时,导致云主机启动较慢,您可以参考本节操作设置获取IPv6地址超时时间为30s,然后再重新制作私有镜像。 CentOS 6.x: a. 执行以下命令编辑“dhclient.conf”文件。 vi /etc/dhcp/dhclient.conf b. 按“i”进入编辑模式,在文件中增加timeout属性。 timeout 30; c. 输入:wq保存后退出。 Debian 7.5: a. 执行以下命令编辑“networking”文件。 vi /etc/init.d/networking b. 按“i”进入编辑模式,增加延迟命令timeout,修改点如下图所示。 修改点1 修改点2 Debian 8.2.0/8.8.0 a. 执行以下命令编辑“networkpre.conf”文件。 vi /lib/systemd/system/networking.service.d/networkpre.conf b. 按“i”进入编辑模式,在文件中增加timeout属性。 [Service] TimeoutStartSec30 Debian 9.0 a. 执行以下命令编辑“networking.service”文件。 vi /etc/system/system/networkonline.target.wants/networking.service b. 按“i”进入编辑模式,将TimeoutStartSec5min改为TimeoutStartSec30。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        网卡
        动态获取IPv6地址
      • 解冻归档对象
        参数 是否必填 参数类型 说明 示例 下级对象 regionCode 是 String 区域编码 0001 bucket 是 String 桶名 testbucket object 是 String 对象名,只允许归档型类型未取回对象 test
        来自:
        帮助文档
        媒体存储
        API参考
        API(OpenAPI)
        关于对象的操作
        基础操作
        解冻归档对象
      • 专属存储三副本技术
        本文主要介绍专属存储三副本技术 什么是三副本技术 专属云(存储独享型)的存储系统采用三副本机制来保证数据的可靠性,即针对某份数据,默认将数据分为1 MB大小的数据块,每一个数据块被复制为3个副本,然后按照一定的分布式存储算法将这些副本保存在集群中的不同节点上。 专属云(存储独享型)三副本技术的主要特点如下: 存储系统自动确保3个数据副本分布在不同服务器的不同物理磁盘上,单个硬件设备的故障不会影响业务。 存储系统确保3个数据副本之间的数据强一致性。 例如,对于服务器A的物理磁盘A上的数据块P1,系统将它的数据备份为服务器B的物理磁盘B上的P1''和服务器C的物理磁盘C上的P1',P1、P1'和P1''共同构成了同一个数据块的三个副本。若P1所在的物理磁盘发生故障,则P1'和P1''可以继续提供存储服务,确保业务不受影响。 图 数据块存储示意图 三副本技术怎样确保数据一致性 数据一致性表示当应用成功写入一份数据到存储系统时,存储系统中的3个数据副本必须一致。当应用无论通过哪个副本再次读取这些数据时,该副本上的数据和之前写入的数据都是一致的。 专属存储三副本技术主要通过以下机制确保数据一致性: 写入数据时,同时在3个副本执行写入操作 当应用写入数据时,存储系统会同步对3个副本执行写入数据的操作,并且只有当多个副本的数据都写入完成时,才会向应用返回数据写入成功的响应。 读取数据失败时,自动修复损坏的副本 当应用读数据失败时,存储系统会判断错误类型。如果是物理磁盘扇区读取错误,则存储系统会自动从其他节点保存的副本中读取数据,然后在物理磁盘扇区错误的节点上重新写入数据,从而保证数据副本总数不减少以及副本数据一致性。
        来自:
        帮助文档
        专属云(存储独享型)
        产品介绍
        专属存储三副本技术
      • 基于OceanFS进行Cloudreve网盘搭建
        参数 说明 存储类型 OceanFS容量型。 协议类型 NFS。 选择网络 选择与弹性云主机相同VPC。
        来自:
        帮助文档
        海量文件服务 OceanFS
        最佳实践
        基于OceanFS进行Cloudreve网盘搭建
      • 设置同区域备份策略
        本节介绍了设置同区域备份策略的操作场景、约束限制、操作步骤等相关内容。 操作场景 创建关系型数据库实例时,系统默认开启自动备份策略,安全考虑,实例创建成功后不可关闭。您可根据业务需要设置自动备份策略,关系型数据库服务按照您设置的自动备份策略对数据库进行备份。 关系型数据库服务的备份操作是实例级的,而不是数据库级的。当数据库故障或数据损坏时,可以通过备份恢复数据库,从而保证数据可靠性。备份以压缩包的形式存储在对象存储服务上,以保证用户数据的机密性和持久性。由于开启备份会损耗数据库读写性能,建议您选择业务低峰时间段设置自动备份。 设置自动备份策略后,会按照策略中的备份时间段和备份周期进行全量备份。实例在执行备份时,按照策略中的保留天数进行存放,备份时长和实例的数据量有关。 在进行全量备份的同时系统每5分钟或一定数据量时会自动生成增量备份,用户不需要设置。生成的增量备份可以用来将数据恢复到指定时间点。 约束限制 仅主实例支持设置自动备份策略,只读实例不支持设置自动备份策略。 查看或修改自动备份策略 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,选择指定的实例,单击实例名称。 步骤 5 在左侧导航栏,单击“备份恢复”,单击“同区域备份策略”。您可以查看到已设置的备份策略,如需修改备份策略,请调整以下参数的值。 自动备份保留天数:保留天数为全量自动备份和Binlog备份的保留时长,默认为7天,范围为1~732天。 − 增加保留天数,可提升数据可靠性,请根据需要设置。 − 减少保留天数,会针对已有的备份文件生效,但手动备份不会自动删除,请您谨慎选择。 全量备份文件自动删除策略: 考虑到数据完整性,自动删除时仍然会保留最近的一次超过保留天数的全量备份,保证在保留天数内的数据可正常恢复。 假如备份周期选择“周一”、“周二”,保留天数设置为“2”,备份文件的删除策略如下: − 本周一产生的全量备份,会在本周四当天自动删除。原因如下: 本周二的全量备份在本周四当天超过保留天数,按照全量备份文件自动删除策略,会保留最近的一个超过保留天数的全量备份(即本周二的备份会被保留),因此周四当天删除本周一产生的全量备份文件。 − 本周二产生的全量备份,会在下周三当天自动删除。原因如下: 下周一产生的全量备份在下周三超过保留天数,按照全量备份文件自动删除策略,会保留最近的一个超过保留天数的全量备份(即下周一的备份会被保留),因此下周三当天删除本周二产生的全量备份。 备份时间段:默认为24小时中,间隔一小时的随机的一个时间段 ,例如01:00~02:00,12:00~13:00等。备份时间段并不是指整个备份任务完成的时间,指的是备份的开始时间,备份时长和实例的数据量有关。 说明 建议根据业务情况,选择业务低峰时段。备份时间段以UTC时区保存。如果碰到夏令时/冬令时切换,备份时间段会因时区变化而改变。 备份周期:默认全选,可修改,且至少选择一周中的1天。 步骤 6 单击“确定”,确认修改。 结束
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        数据备份
        创建实例级备份
        设置同区域备份策略
      • 下载SSL CA证书
        本页介绍如何下载关系数据库MySQL版实例的SSL CA证书。 操作场景 为了提高关系数据库MySQL版的链路安全性,您可以启用SSL(Secure Sockets Layer)加密,并安装SSL CA证书到需要的应用服务。SSL在传输层对网络连接进行加密,能提升通信数据的安全性和完整性,同时会增加网络连接响应时间。 约束限制 数据库版本: 5.7,8.0 实例类型为:单机版,一主一备、一主两备、数据库代理实例。 实例的SSL状态需要为开启状态。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例基本信息页面。 4. 单击数据安全 ,并选择SSL加密 页签,查看SSL开关状态。 单击SSL设置 ,进入SSL设置 对话框。然后单击SSL链路加密 右侧的图标,单击确定,开启SSL加密。 注意 如果是数据库代理实例,请于代理实例页面的连接地址区域查看。 5. 单击服务器证书 右侧下载证书。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        访问管理
        下载SSL CA证书
      • 地域切换
        本节主要介绍在控制台怎么进行OOS域名(Endpoint)切换。 用户可以在OOS控制台对OOS地域(Endpoint)进行切换,根据选择跳转到不同的地域。 可以选择“中国大陆区域”的“对象存储网络”、“对象存储网络2”、其他地域 。 对象存储网络 :包含分布在全国多个省、市、自治区及直辖市的资源池,这些资源池间的存储桶(Bucket)、对象(Object)、访问密钥(AccessKeyID和SecretAccessKey)信息互通,可以实现全国数据的就近读取和写入。 对象存储网络2:包含分布在全国多个省、市、自治区及直辖市的资源池,这些资源池间的存储桶(Bucket)、文件(Object)、访问密钥(AccessKeyId和SecretAccessKey)信息互通,可以实现全国数据的就近读取和写入。 其他地域 :存储桶、对象、访问密钥信息是不互通的。
        来自:
        帮助文档
        对象存储(经典版)I型
        快速入门
        控制台快速入门
        地域切换
      • 地域切换
        本节主要介绍在控制台怎么进行OOS域名(Endpoint)切换。 用户可以在OOS控制台对OOS地域(Endpoint)进行切换,根据选择跳转到不同的地域。 可以选择“中国大陆区域”的“对象存储网络”、“对象存储网络2”、其他地域 。 对象存储网络 :包含分布在全国多个省、市、自治区及直辖市的资源池,这些资源池间的存储桶(Bucket)、对象(Object)、访问密钥(AccessKeyID和SecretAccessKey)信息互通,可以实现全国数据的就近读取和写入。 对象存储网络2:包含分布在全国多个省、市、自治区及直辖市的资源池,这些资源池间的存储桶(Bucket)、文件(Object)、访问密钥(AccessKeyId和SecretAccessKey)信息互通,可以实现全国数据的就近读取和写入。 其他地域 :存储桶、对象、访问密钥信息是不互通的。
        来自:
        帮助文档
        对象存储(经典版)I型
        控制台指南
        域名(Endpoint)
        地域切换
      • 通过DMS登录SQL Server实例
        本页介绍如何通过数据管理服务DMS登录关系数据库SQL Server版实例。 操作场景 创建关系数据库SQL Server版实例后,可以通过登录数据管理服务DMS对数据库实例进行数据管理、用户授权、SQL审计、数据可视化等管理操作。 前置条件 创建数据库和账号。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 关系数据库SQL Server版】,进入关系数据库SQL Server产品页面。然后单击【管理控制台】,进入TeleDB数据库【概览】页面。 2. 在左侧导航栏,选择【SQL Server > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 您有三种方式可以进入数据管理服务DMS。 1. 在实例列表上方,单击【进入数据管理服务】,即可进入到DMS的首页,根据提示信息填写相关信息,即可登入DMS。 2. 在实例列表中,单击目标实例名称,进入实例【基本信息】页面,单击右上角的【登录数据库】,即可进入该实例的DMS登录页面。 3. 在实例列表中,找到目标实例,在【操作】列选择【更多 > 登录数据库】,即可进入该实例的DMS登录页面。 4. 登入DMS后,即可对相应实例的数据库实例进行管理。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        数据库工具
        通过DMS登录SQL Server实例
      • 产品价格
        收费项 计费模式 计费单位 价格 企业版VPN网关基础型 按需 元/个/小时 1.88 企业版VPN网关专业型1 按需 元/个/小时 2.58 企业版VPN网关专业型2 按需 元/个/小时 3.98 企业版VPN网关国密型 按需 元/个/小时 3.98
        来自:
        帮助文档
        VPN连接
        计费说明
        产品价格
      • 套件概述(1)
        本节介绍智算套件概述。 前提条件 已创建云容器引擎智算版集群。 智算套件介绍 套件名称 套件功能 驱动管理 为GPU云主机或物理机的算力调度提供硬件驱动。 弹性数据集 支持数据集版本管理,提供弹性加载能力。 GPU安全容器 支持Kata安全容器运行时,满足业务高安全需求。 智算套件控制面引擎 提供高可用控制面,管理智算套件控制台正常运行。 监控 为集群提供硬件监控能力,可采集GPU/NPU,显存等,支持可视化查看GPU的分配、使用和健康状态。 网络 为集群容器提供使用RDMA网络的能力,包括IB和RoCE。 模型预热 将模型从对象存储预热到本地盘,大幅提升模型部署效率。 智能调度 为集群提供智能任务调度策略,可支持Gang、Capacity、Binpack/Spread和Queue等智能调度。 弹性训练 为集群提供AI任务接入,兼容主流AI框架和工具,包括TensorFlow、PyTorch、Horovod、Spark等。 故障诊断 为集群提供集群巡检、故障诊断等能力。 存储 为集群容器提供挂载HPFS和ZOS的能力。 日志 为集群的系统组件以及控制面组件收集日志。
        来自:
      • 使用mysqldump迁移RDS for MySQL数据
        导入数据 通过弹性云主机或可访问关系型数据库的设备,用相应客户端连接关系型数据库实例,将导出的SQL文件导入到关系型数据库。 说明 如果源数据库中包含触发器、存储过程、函数或事件调用,则需确保导入前设置目标数据库参数logbintrustfunctioncreatorsON。 步骤 1 登录已准备的弹性云主机,或可访问关系型数据库的设备。 步骤 2 导入表结构到关系型数据库。 mysql f h P u root p /dumpdefs.sql RDSADDRESS为关系型数据库实例的IP地址。 DBPORT为当前数据库实例的端口。 BACKUPDIR为“dumpdefs.sql”所在目录。 示例如下: mysql f h 172.16.66.198 P 3306 u root p P u root p /dumpdata.sql RDSADDRESS为关系型数据库实例的IP地址。 DBPORT为当前数据库实例的端口。 BACKUPDIR为“dumpdata.sql”所在目录。 示例如下:
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据库迁移实例
        使用mysqldump迁移RDS for MySQL数据
      • 性能测试概述
        本页主要介绍关系数据库MySQL版的性能概述以及指标说明。 性能概述 天翼云关系数据库MySQL版是一款基于云计算平台的在线关系型数据库服务,完全兼容MySQL 5.7、MySQL 8.0,提供单机、主备、一主两备、只读四种实例类型,提供备份、恢复、扩容、监控等数据库服务。 具有即开即用、稳定可靠、安全运行、弹性伸缩等特点,您仅需要简单的几步配置,就可在分钟级获得可用的生产数据库。天翼云关系数据库MySQL版不断优化RDS的各项参数,不断提升服务质量,保证产品的高稳定、高可靠和高可用性。 指标说明 实例性能测试的指标包括: 每秒执行事务数TPS(Transactions Per Second) 数据库每秒执行的事务数,以COMMIT成功次数为准。 SysBench标准OLTP读写混合场景中一个事务包含18个读写SQL。 SysBench标准OLTP只读场景中一个事务包含14个读SQL(10条主键点查询、4条范围查询)。 SysBench标准OLTP只写场景中一个事务包含4个写SQL(2条UPDATE、1条DETELE、1条INSERT)。 每秒执行请求数QPS(Queries Per Second) 数据库每秒执行的SQL数,包含INSERT、SELECT、UPDATE、DETELE、COMMIT等。
        来自:
        帮助文档
        关系数据库MySQL版
        性能白皮书
        性能测试概述
      • 使用V4签名时的HttpURLConnection开发
        本节主要介绍使用V4签名时的HttpURLConnection开发。 应用场景 V4签名下,使用HttpURLConnection开发。 前提条件 已开通对象存储(经典版)Ⅰ型服务。 具体操作 可以参考下列示例进行HttpURLConnection开发。 package cn.ctyun.oos.sample; import java.io.BufferedReader; import java.io.InputStream; import java.io.InputStreamReader; import java.io.OutputStream; import java.io.UnsupportedEncodingException; import java.net.HttpURLConnection; import java.net.URL; import java.net.URLEncoder; import java.security.MessageDigest; import java.text.SimpleDateFormat; import java.util.ArrayList; import java.util.Collections; import java.util.Date; import java.util.HashMap; import java.util.Iterator; import java.util.List; import java.util.Map; import java.util.SortedMap; import java.util.TimeZone; import java.util.TreeMap; import java.util.regex.Matcher; import java.util.regex.Pattern; import javax.crypto.Mac; import javax.crypto.spec.SecretKeySpec; public class OOSDemoForV4Signer { private static final SimpleDateFormat ISO8601DATEFORMAT new SimpleDateFormat("yyyyMMdd'T'HHmmss'Z'"); private static final SimpleDateFormat ISO8601DAYFORMAT new SimpleDateFormat("yyyyMMdd"); private static final char[] HEXCODE "0123456789abcdef".toCharArray(); private static final String UNSIGNEDPAYLOAD "UNSIGNEDPAYLOAD"; private static final String SCHEME "AWS4"; private static final String ALGORITHM "HMACSHA256"; private static final String TERMINATOR "aws4request"; private static final String HMACSHA256 "HmacSHA256"; private static final String OOSACCESSKEY "youraccesskey"; private static final String OOSSECRETKEY "yoursecretkey"; private static final String OOSENDPOINT "ooscn.ctyunapi.cn"; private static final String OOSBUCKET "your bucket name"; private static final String OOSOBJECTNAME "yourobjectname"; private static final String OOSOBJECTCONTENT "yourobjectcontent"; private static final int DEFAULTTIMEOUT 30000; static { TimeZone utc TimeZone.getTimeZone("UTC"); ISO8601DATEFORMAT.setTimeZone(utc); ISO8601DAYFORMAT.setTimeZone(utc); } public static void main(String[] args) throws Exception { OOSDemoForV4Signer demo new OOSDemoForV4Signer(); demo.putObject(); demo.getObject(); demo.deleteObject(); } public void getObject() { try { HttpURLConnection connection generateConnection("GET", OOSBUCKET, OOSOBJECTNAME); connection.connect(); int responseCode connection.getResponseCode(); // 在responseCode为200 的情况下, 可将connection.getInputStream()的对象数据读出。 if(responseCode 200) { System.out.println("get object success"); } try (InputStream inputStream responseCode 200 ? connection.getInputStream() : connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } public void putObject() { try { HttpURLConnection connection generateConnection("PUT", OOSBUCKET, OOSOBJECTNAME); connection.setDoOutput(true); connection.connect(); // Create the object byte[] requestBody OOSOBJECTCONTENT.getBytes(); try (OutputStream outputStream connection.getOutputStream()) { outputStream.write(requestBody); } // Execute the request and print the response int responseCode connection.getResponseCode(); if (responseCode 200) { System.out.println("put object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } public void deleteObject() { try { HttpURLConnection connection generateConnection("DELETE", OOSBUCKET, OOSOBJECTNAME); connection.connect(); int responseCode connection.getResponseCode(); if (responseCode 204) { System.out.println("delete object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } private HttpURLConnection generateConnection(String method, String bucket, String objectKey) throws Exception { String requestUrl " + bucket + "." + OOSENDPOINT + "/" + urlEncode(objectKey, true); Map headers new HashMap<>(); // 1 加在headers里的所有头域,都参与计算签名。 // 2 任何头以xamzmeta这个前缀开始都会被认为是用户的元数据,当用户检索时,它将会和对象一起被存储并返回。PUT请求头大小限制为8KiB。在PUT请求头中,用户定义的元数据大小限制为2KiB。 // headers.put("xamzmetatest", "oos"); Map querys new HashMap (); URL url new URL(requestUrl); String authorization v4Sign(headers, querys, UNSIGNEDPAYLOAD, url, method); headers.put("Authorization", authorization); HttpURLConnection connection (HttpURLConnection)new URL(requestUrl).openConnection(); connection.setRequestMethod(method); connection.setConnectTimeout(DEFAULTTIMEOUT); connection.setReadTimeout(DEFAULTTIMEOUT); headers.forEach(connection::setRequestProperty); return connection; } / 以下是签名计算相关方法 / private String v4Sign(Map headers, Map queryParameters, String bodyHash, URL endpointUrl, String httpMethod) { String host endpointUrl.getHost(); String serviceName parseServiceName(host); String regionName parseRegionName(host); // first get the date and time for the subsequent request, and convert // to ISO 8601 format for use in signature generation Date now new Date(); String dateTimeStamp ISO8601DATEFORMAT.format(now); // update the headers with required 'xamzdate' and 'host' values if (headers null) { headers new HashMap (); } headers.put("xamzdate", dateTimeStamp); headers.put("xamzcontentsha256", bodyHash); int port endpointUrl.getPort(); if (port > 1 && port ! 80 && port ! 443) { host host.concat(":" + Integer.toString(port)); } headers.put("Host", host); // canonicalize the headers; we need the set of header names as well as the // names and values to go into the signature process String canonicalizedHeaderNames getCanonicalizeHeaderNames(headers); String canonicalizedHeaders getCanonicalizedHeaderString(headers); // if any query string parameters have been supplied, canonicalize them String canonicalizedQueryParameters getCanonicalizedQueryString(queryParameters); // canonicalize the various components of the request String canonicalRequest getCanonicalRequest(endpointUrl, httpMethod, canonicalizedQueryParameters, canonicalizedHeaderNames, canonicalizedHeaders, bodyHash); // construct the string to be signed String dateStamp ISO8601DAYFORMAT.format(now); String scope dateStamp + "/" + regionName + "/" + serviceName + "/" + TERMINATOR; String stringToSign getStringToSign(SCHEME, ALGORITHM, dateTimeStamp, scope, canonicalRequest); // compute the signing key byte[] kSigning createSignatureKey(OOSSECRETKEY, dateStamp, regionName, serviceName); byte[] signature sign(stringToSign, kSigning, HMACSHA256); String credentialsAuthorizationHeader "Credential" + OOSACCESSKEY + "/" + scope; String signedHeadersAuthorizationHeader "SignedHeaders" + canonicalizedHeaderNames; String signatureAuthorizationHeader "Signature" + toHex(signature); String authorizationHeader SCHEME + "" + ALGORITHM + " " + credentialsAuthorizationHeader + ", " signedHeadersAuthorizationHeader + ", " + signatureAuthorizationHeader; return authorizationHeader; } private String getCanonicalizedQueryString(Map parameters) { if (parameters null parameters.isEmpty()) { return ""; } SortedMap sorted new TreeMap (); Iterator > pairs parameters.entrySet().iterator(); while (pairs.hasNext()) { Map.Entry pair pairs.next(); String key pair.getKey(); String value pair.getValue(); sorted.put(urlEncode(key, false), urlEncode(value, false)); } StringBuilder builder new StringBuilder(); pairs sorted.entrySet().iterator(); while (pairs.hasNext()) { Map.Entry pair pairs.next(); builder.append(pair.getKey()); builder.append(""); builder.append(pair.getValue()); if (pairs.hasNext()) { builder.append("&"); } } return builder.toString(); } private String getCanonicalizedHeaderString(Map headers) { if (headers null headers.isEmpty()) { return ""; } // step1: sort the headers by caseinsensitive order List sortedHeaders new ArrayList (); sortedHeaders.addAll(headers.keySet()); Collections.sort(sortedHeaders, String.CASEINSENSITIVEORDER); // step2: form the canonical header:value entries in sorted order. // Multiple white spaces in the values should be compressed to a single // space. StringBuilder buffer new StringBuilder(); for (String key : sortedHeaders) { buffer.append(key.toLowerCase().replaceAll("s+", " ") + ":" + headers.get(key).replaceAll("s+", " ")); buffer.append("n"); } return buffer.toString(); } private String getCanonicalizeHeaderNames(Map headers) { List sortedHeaders new ArrayList (); sortedHeaders.addAll(headers.keySet()); Collections.sort(sortedHeaders, String.CASEINSENSITIVEORDER); StringBuilder buffer new StringBuilder(); for (String header : sortedHeaders) { if (buffer.length() > 0) buffer.append(";"); buffer.append(header.toLowerCase()); } return buffer.toString(); } private String getCanonicalRequest(URL endpoint, String httpMethod, String queryParameters, String canonicalizedHeaderNames, String canonicalizedHeaders, String bodyHash) { String canonicalRequest; if (bodyHash null bodyHash.equals("")) { canonicalRequest httpMethod + "n" + getCanonicalizedResourcePath(endpoint) + "n" + queryParameters "n" + canonicalizedHeaders + "n" + canonicalizedHeaderNames; } else { canonicalRequest httpMethod + "n" + getCanonicalizedResourcePath(endpoint) + "n" + queryParameters "n" + canonicalizedHeaders + "n" + canonicalizedHeaderNames + "n" + bodyHash; } return canonicalRequest; } private String getStringToSign(String scheme, String algorithm, String dateTime, String scope, String canonicalRequest) { String stringToSign scheme + "" + algorithm + "n" + dateTime + "n" + scope + "n" + toHex(hash(canonicalRequest)); return stringToSign; } private byte[] createSignatureKey(String key, String dateStamp, String regionName, String serviceName) { byte[] kSecret (SCHEME + key).getBytes(); byte[] kDate sign(dateStamp, kSecret, HMACSHA256); byte[] kRegion sign(regionName, kDate, HMACSHA256); byte[] kService sign(serviceName, kRegion, HMACSHA256); byte[] kSigning sign(TERMINATOR, kService, HMACSHA256); return kSigning; } private byte[] sign(String stringData, byte[] key, String algorithm) { try { byte[] data stringData.getBytes("UTF8"); Mac mac Mac.getInstance(algorithm); mac.init(new SecretKeySpec(key, algorithm)); return mac.doFinal(data); } catch (Exception e) { throw new RuntimeException("Unable to calculate a request signature: " + e.getMessage(), e); } } private String getCanonicalizedResourcePath(URL endpoint) { if (endpoint null) { return "/"; } String path endpoint.getPath(); if (path null path.isEmpty()) { return "/"; } // String encodedPath urlEncode(path, true); String encodedPath path; if (encodedPath.startsWith("/")) { return encodedPath; } else { return "/".concat(encodedPath); } } private String urlEncode(String url, boolean keepPathSlash) { String encoded; try { encoded URLEncoder.encode(url, "UTF8"); } catch (UnsupportedEncodingException e) { throw new RuntimeException("UTF8 encoding is not supported.", e); } if (keepPathSlash) { encoded encoded.replace("%2F", "/"); } return encoded; } private String toHex(byte[] data) { StringBuilder r new StringBuilder(data.length 2); for (byte b : data) { r.append(HEXCODE[(b >> 4) & 0xF]); r.append(HEXCODE[(b & 0xF)]); } return r.toString(); } private byte[] hash(String text) { try { MessageDigest md MessageDigest.getInstance("SHA256"); md.reset(); md.update(text.getBytes("UTF8")); return md.digest(); } catch (Exception e) { throw new RuntimeException("Unable to compute hash while signing request: " + e.getMessage(), e); } } private String parseRegionName(String host) { String pattern "oos([w]).ctyunapi.cn$"; Pattern r Pattern.compile(pattern); Matcher m r.matcher(host); if (m.find()) { return m.group(1).toLowerCase(); } else { throw new RuntimeException("parse region error, please check endpoint."); } } private String parseServiceName(String host) { if (host.endsWith("iam.ctyunapi.cn")) { return "sts"; } else { return "s3"; } } }
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        使用HttpURLConnection开发
        使用V4签名时的HttpURLConnection开发
      • 产品优势
        天翼云弹性云主机为您提供优质的服务体验,本文带您了解弹性云主机的产品优势。 快捷易用,动态调整计算资源 即开即用:无论一台还是百台,均可在几分钟内开通使用; 大规模开通:通过调用云主机API,可在十分钟内开通千台实例; 弹性伸缩:提供弹性伸缩服务,可根据业务灵活调整云主机数量。 配置丰富,支持根据业务按需选购 多种实例规格:提供通用计算型、计算增强型、内存优化型、GPU型等多种规格,同时支持规格升级,面向各类场景满足用户的实时需求; 多种存储类型:支持单独购买云硬盘挂载到云主机上,并提供多种存储类型,满足不同的 I/O 性能要求。 专有网络,可灵活自定义网络空间 通过隧道技术实现100%二层网络隔离,满足不同行业客户的安全隔离需要; 基于安全组和访问ACL进行三层以上网络双重访问控制,满足行业用户的网络安全规范; 自定义子网网段划分、IP地址及路由策略,按需配置,即开即通; 支持专线、VPN等多种方式接入云端。 安全稳定,多重防护保障数据可靠性 高达99.9999999%的数据持久性; 云硬盘采用三副本技术,支持云硬盘自动备份,进一步保障数据安全性; 提供云主机安全、网站安全服务等精细化专业防护能力。
        来自:
        帮助文档
        弹性云主机 ECS
        产品概述
        产品优势
      • 查询计算增强型云电脑镜像列表v3
        接口功能介绍 查询计算增强型云电脑镜像列表v3 接口约束 无 URI GET /v3/ecs/describeMirror 路径参数 无 Query参数 参数 是否必填 参数类型 说明 示例 下级对象 regionId 是 String 资源池ID。 xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx mirrorType 是 String 镜像类型。枚举值范围:[PUBLIC:公共镜像,PRIVATE:自定义镜像,SHARED:共享镜像] flavorType 是 String 主机规格类型。枚举值范围:[Common通用型, GpuGPU型, Hpn高性能网络型, Kp鲲鹏, Hg海光] billMode 否 String 计费方式。枚举值[ResBag资源包,Cycle包月计费],默认为ResBag. 请求参数 请求头header参数 无 请求体body参数 无 响应参数 参数 参数类型 说明 示例 下级对象 statusCode Integer 状态码。可能值: 800:请求成功。 900:请求失败。 800 error String 错误码。 ECPC1000 message String 提示信息。 OK. returnObj Array of Objects 返回数据对象 returnObj 表 returnObj 参数 参数类型 说明 示例 下级对象 imageOid String 镜像ID imageName String 镜像名称 osName String 操作系统名称 osType String 操作系统类型(Windows;Linux) platform String 操作系统平台(Windows;Centos;Ubuntu;UOS;Kylin银河麒麟;NeoKylin中标麒麟) gpuType Integer GPU类型[0:非GPU,1:GPU类型] mirrorType String 镜像类型[PUBLIC:公共镜像,PRIVATE:自定义镜像,SHARED:共享镜像] osBits String 操作系统位数 (32,64) sysDisk Object 系统盘相关信息 sysDisk 表 sysDisk 参数 参数类型 说明 示例 下级对象 diskSize Integer 盘大小(单位:GB)
        来自:
        帮助文档
        天翼云电脑(政企版)
        API参考
        API
        2023-10-30
        计算增强型云电脑
        查询计算增强型云电脑镜像列表v3
      • 产品规格
        参数 SFS Turbo标准型 SFS Turbo性能型 最大带宽 1.5GB/s 2GB/s 最高IOPS 5000 30000 时延 10ms 3ms 容量 500GB起步,默认32TB上限,可 500GB起步,默认32TB上限,可 扩容步长 1GB 1GB 优势 低成本 低时延 应用场景 适用于大容量、低时延的业务,如代码存储、日志存储、Web服务、虚拟桌面等。 适用于海量小文件、随机IO密集型以及时延敏感型业务,如高性能计算、文件共享、内容管理等。
        来自:
        帮助文档
        弹性文件服务 SFS
        产品简介
        产品规格
      • 任务中心
        任务名称 说明 创建实例 创建社区版集群实例、副本集实例。 扩容存储 扩容社区版集群实例shard节点的存储容量、副本集实例的存储容量。 变更规格 变更社区版集群实例的规格、副本集实例的规格。 添加节点 添加社区版集群实例的节点。 重启操作 重启集群实例、集群节点组、集群节点、副本集实例。 恢复到新实例 社区版集群实例、副本集实例恢复到新实例。 恢复到当前实例 社区版集群实例、副本集实例恢复到新实例。 恢复到指定时间点 副本集实例恢复到指定时间点。 库表级时间点恢复 副本集实例库表级数据恢复到指定时间点。 主备切换 副本集实例主备切换。 绑定和解绑弹性公网IP 社区版集群实例、副本集实例绑定和解绑弹性公网IP。 切换SSL 社区版集群实例、副本集实例切换SSL。 修改数据库端口 社区版集群实例、副本集实例修改数据库端口。 修改安全组 社区版集群实例、副本集实例修改安全组。 修改内网地址 社区版集群实例、副本集实例修改内网地址。 迁移可用区 社区版集群实例、副本集实例迁移可用区。 显示shard/config IP 社区版集群实例开启shard/config地址。 修改oplog大小 社区版集群实例、副本集实例修改oplog大小。 物理备份 社区版集群实例、副本集实例自动和手动备份。 升级数据库补丁 社区版集群和副本集实例进行补丁升级。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        任务中心
      • 云日志服务C++ SDK
        3.1. 基本使用 使用 SDK访问 LTS 的服务,需要设置正确的 AccessKey、SecretKey 和服务端 Endpoint,所有的服务可以使用同一 key 凭证来进行访问,但不同的服务需要使用不同的 endpoint 进行访问,详情参考天翼云官网SDK接入概述。在调用前SDK,需要已知以下参数: 1、云日志服务访问地址。详情请查看访问地址(Endpoint)。 2、key凭证:accessKey和secretKey 。详情请查看如何获取访问密钥(AK/SK)。 3、日志项目编码:logProject,在使用SDK前,需要确保您有至少一个已经存在的日志项目,日志项目就是您要将日志上传到的地方。 4、日志单元编码:logUnit,在使用SDK前,需要确保日志项目中有至少一个已经存在的日志单元。 参数 参数类型 描述 是否必须 endpoint string 域名 是 accessKey string AccessKey,简称ak 是 secretKey string SecretKey ,简称sk 是 logProject string 日志项目编码 是 logUnit string 日志单元编码 是 目前通过SDK将日志上传到云日志服务有两种上传形式:同步上传和异步批量上传,详细信息请参考代码内README文档。 同步上传:当调用日志上传接口时,sdk会立即进行http请求调用,并返回发送结果。这种方式结构简单,可用于发送频率不高的场景。 异步批量上传:当调用日志上传接口时,后台线程会将日志进行累积,当达到发送条件时,会进行一次合并发送。对于需要频繁调用发送接口的场景,这种方式性能更卓越,更高效。 示例代码:同步上传 cpp int main(int argc, char argv) { string ak "your accessKey"; string sk "your secretKey"; string logProject "log project Code"; string logUnit "log unit Code"; string endpoint "endpoint"; int lognum 10; //每次发送10条日志 vector logItems; for (int k 0; k contents; map labels; contents["level"] string("error"); contents["unitid"] 3.1415926; labels["usertag"] string("string"); LogItem logItem; logItem.logTimestamp logTimestamp; logItem.oriMessage oriMessage; logItem.contents contents; logItem.labels labels; logItems.pushback(logItem); } try { Client client new Client(endpoint, ak, sk); for (int i 0; i PutLogs(logProject, logUnit, logItems); cout logItems; for (int k 0; k contents; map labels; contents["level"] string("error"); contents["unitid"] 3.1415926; labels["usertag"] string("string"); LogItem logItem; logItem.logTimestamp logTimestamp; logItem.oriMessage oriMessage; logItem.contents contents; logItem.labels labels; logItems.pushback(logItem); } try { ProducerConfig producerConfig ProducerConfig(); //使用默认producer配置 ClientConfig clientConfig(endpoint, ak, sk, logProject);//可使用不同client配置,生成多个client,如果希望使用同一个,logProject默认设置为"" 即可 Client client createClient(clientConfig); map clientPool; clientPool.insert(makepair(client>GetLogProject(), client)); IoWorker ioWorker(clientPool, producerConfig.getMaxWorkerCount()); //线程池 LogAccumulator logAccumulator(producerConfig, ioWorker); //日志累加器 Mover mover(logAccumulator, ioWorker, producerConfig.getLingerMs()); //定时器 Producer producer(producerConfig, ioWorker, logAccumulator, mover); //日志发送器 producer.start(); for (int i0;i<5000;i++){ producer.sendLogsCallback(logProject,logUnit,logItems); } std::thisthread::sleepfor(std::chrono::milliseconds(5000)); for (int i 0; i < 5000; i++) { producer.sendLogsCallback(logProject, logUnit, logItems); } std::thisthread::sleepfor(std::chrono::milliseconds(3000)); producer.safeClose(); } catch (exception &e) { cout<
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        SDK接入
        云日志服务C++ SDK
      • 如何实现RabbitMQ的高性能
        使用集群的负载均衡 队列的性能受单个CPU内核控制,当一个RabbitMQ节点处理消息的能力达到瓶颈时,可以通过集群进行扩展,从而达到提升吞吐量的目的。 使用多个节点,集群会自动将队列均衡的创建在各个节点上。除了使用集群模式,您还可以使用以下两个插件优化负载均衡: Consistent hash exchange 该插件使用交换器来平衡队列之间的消息。根据消息的路由键,发送到交换器的消息一致且均匀地分布在多个队列中。该插件创建路由键的散列,并将消息传播到与该交换器具有绑定关系的队列中。使用此插件时,需要确保消费者从所有队列中消费。 使用示例如下: 使用不同的路由键来路由消息。 public class ConsistentHashExchangeExample1 { private static String CONSISTENTHASHEXCHANGETYPE "xconsistenthash"; public static void main(String[] argv) throws IOException, TimeoutException, InterruptedException { ConnectionFactory cf new ConnectionFactory(); Connection conn cf.newConnection(); Channel ch conn.createChannel(); for (String q : Arrays.asList("q1", "q2", "q3", "q4")) { ch.queueDeclare(q, true, false, false, null); ch.queuePurge(q); } ch.exchangeDeclare("e1", CONSISTENTHASHEXCHANGETYPE, true, false, null); for (String q : Arrays.asList("q1", "q2")) { ch.queueBind(q, "e1", "1"); } for (String q : Arrays.asList("q3", "q4")) { ch.queueBind(q, "e1", "2"); } ch.confirmSelect(); AMQP.BasicProperties.Builder bldr new AMQP.BasicProperties.Builder(); for (int i 0; i args new HashMap<>(); args.put("hashheader", "hashon"); ch.exchangeDeclare(EXCHANGE, EXCHANGETYPE, true, false, args); for (String q : Arrays.asList("q1", "q2")) { ch.queueBind(q, EXCHANGE, "1"); } for (String q : Arrays.asList("q3", "q4")) { ch.queueBind(q, EXCHANGE, "2"); } ch.confirmSelect(); for (int i 0; i hdrs new HashMap<>(); hdrs.put("hashon", String.valueOf(i)); ch.basicPublish(EXCHANGE, "", bldr.headers(hdrs).build(), "".getBytes("UTF8")); } ch.waitForConfirmsOrDie(10000); System.out.println("Done publishing!"); System.out.println("Evaluating results..."); // wait for one stats emission interval so that queue counters // are uptodate in the management UI Thread.sleep(5); System.out.println("Done."); conn.close(); } } 使用消息属性来路由消息,例如messageid、correlationid或timestamp属性。该方式需要使用“hashproperty”参数来声明交换器,且消息必须带有所选择的消息属性,否则会被路由到相同的队列。 public class ConsistentHashExchangeExample2 { public static final String EXCHANGE "e2"; private static String EXCHANGETYPE "xconsistenthash"; public static void main(String[] argv) throws IOException, TimeoutException, InterruptedException { ConnectionFactory cf new ConnectionFactory(); Connection conn cf.newConnection(); Channel ch conn.createChannel(); for (String q : Arrays.asList("q1", "q2", "q3", "q4")) { ch.queueDeclare(q, true, false, false, null); ch.queuePurge(q); } Map args new HashMap<>(); args.put("hashheader", "hashon"); ch.exchangeDeclare(EXCHANGE, EXCHANGETYPE, true, false, args); for (String q : Arrays.asList("q1", "q2")) { ch.queueBind(q, EXCHANGE, "1"); } for (String q : Arrays.asList("q3", "q4")) { ch.queueBind(q, EXCHANGE, "2"); } ch.confirmSelect(); for (int i 0; i hdrs new HashMap<>(); hdrs.put("hashon", String.valueOf(i)); ch.basicPublish(EXCHANGE, "", bldr.headers(hdrs).build(), "".getBytes("UTF8")); } ch.waitForConfirmsOrDie(10000); System.out.println("Done publishing!"); System.out.println("Evaluating results..."); // wait for one stats emission interval so that queue counters // are uptodate in the management UI Thread.sleep(5); System.out.println("Done."); conn.close(); } }
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        最佳实践
        如何实现RabbitMQ的高性能
      • 查询指定的HBlock告警
        名称 类型 描述 alarmId String 告警ID。 instanceId String 告警实例ID。 instanceSnapshot String 告警实例快照,即告警发生时告警实例的详细信息。 alarmRule String 告警规则。 severity Enum 告警级别: Warning:警告。 Major:重要。 Critical:严重。 alarmStatus Enum 告警状态: Unresolved:告警中。 Resolved:告警已解除。 Expired:告警已失效。 duration Long 告警持续时长。unix时间戳(UTC),精确到毫秒。 alarmTime Long 告警发生时间。unix时间戳(UTC),精确到毫秒。 alarmValue String 告警时数值。仅有数值型指标对应的告警会有返回此项,以下告警规则会涉及数值型指标: AlarmNumberApproachingLimit:告警中的告警条数接近上限,显示告警中数据容量使用率,百分比,单位是%。计算公式:(告警中的告警总条数/告警中条数上限)100%。 ResourceUsageApproachingLimit:资源用量接近使用上限,显示许可证可用容量使用率,百分比,单位是%。计算公式:(本地卷总容量/许可证允许的容量)100%。 CapacityQuotaUsageExceedsThreshold:配额使用率超阈值,显示存储池或数据目录关联磁盘的配额使用率(PathCapQuotaRate),百分数,单位是%。 CapacityQuotaUsageApproachLimit:配额用尽,显示存储池或数据目录关联磁盘的配额使用率(PathCapQuotaRate),百分数,单位是%。 DiskUsageExceedsThreshold:磁盘使用率超阈值,显示存储池或数据目录关联磁盘的使用率(PathRate),百分数,单位是%。 InsufficientSpaceonInstallationPath:安装目录剩余空间不足,显示目录所在磁盘的文件系统剩余空间,单位是GiB。 InsufficientSpaceonMetaDir:基础服务数据目录剩余空间不足,显示目录所在磁盘的文件系统剩余空间,单位是GiB。 currentValue String 当前数值。仅有数值型指标对应的告警会有返回此项,以下告警规则会涉及数值型指标: AlarmNumberApproachingLimit:告警中的告警条数接近上限,显示告警中数据容量使用率,百分比,单位是%。计算公式:(告警中的告警总条数/告警中条数上限)100%。 ResourceUsageApproachingLimit:资源用量接近使用上限,显示许可证可用容量使用率,百分比,单位是%。计算公式:(本地卷总容量/许可证允许的容量)100%。 CapacityQuotaUsageExceedsThreshold:配额使用率超阈值,显示存储池或数据目录关联磁盘的配额使用率(PathCapQuotaRate),百分数,单位是%。 CapacityQuotaUsageApproachLimit:配额用尽,显示存储池或数据目录关联磁盘的配额使用率(PathCapQuotaRate),百分数,单位是%。 DiskUsageExceedsThreshold:磁盘使用率超阈值,显示存储池或数据目录关联磁盘的使用率(PathRate),百分数,单位是%。 InsufficientSpaceonInstallationPath:安装目录剩余空间不足,显示目录所在磁盘的文件系统剩余空间,单位是GiB。 InsufficientSpaceonMetaDir:基础服务数据目录剩余空间不足,显示目录所在磁盘的文件系统剩余空间,单位是GiB。 muteStatus Enum 静默状态: Muted:静默。 Normal:正常。 muteDueTime Long 静默截止时间,unix时间戳(UTC),精确到毫秒。 如果多次静默,返回最后一次操作的静默截止时间。 muteOperations Array of muteOperation 静默操作,详见“ 表1 响应参数muteOperation说明 ”。
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        告警
        查询指定的HBlock告警
      • 断点续训加速
        万卡规模国产化集群下,断点续训在5类故障下实现1分钟检测、5分钟内定位、15分钟内恢复训练。 测试数据及代码准备 数据集 数据集大小 使用模型 Wikipediaen (1M条) 9.1GB Llama270B /Llama3.1405B 使用预处理为MindRecord格式的Wikipediaen (1M条)数据集,上传到对象存储,并由对象存储下载到平台HPFS。 测试代码在gitlab仓库下载到本地,并放置于/work/home下。 脚本和任务准备 按照下面修改run.sh脚本 plaintext ! /bin/bash huijuformers的绝对路径, 需要修改pathtohuijuformers export BASEDIR/work/data/llama29216/huijuformers 以下为平台自动注入的环境变量 yaml文件中需要修改的环境变量 export BATCHSIZE1 export EPOCHS350 export LEARNINGRATE6.e5 export DATAPARALLEL256 export MODELPARALLEL4 export PIPELINESTAGE9 模型微调相关 export FINETUNEMODELTYPEllama270bbase 合并为一个参数,与模型存放文件夹名称一致(与后端沟通过) export FINETUNINGTYPEALL export TIMETAG$(date +"%m%d%H%M") 数据相关 export DATASETPATH${BASEDIR}/data export DATASETFILEoriginaldata.json 需要修改 以下为平台后端需要自行更改后传入的环境变量 平台数据格式转换,专用数据调试时用不到 export DATASETTMPPATH${BASEDIR}/data/processeddata/${FINETUNEMODELTYPE} mkdir p ${DATASETTMPPATH} 模型输入 专业模式,平台训练时需要按照平台的挂载路径去修改这一块的变量 export CHECKPOINTDIR'' 低代码模式,微调时约定挂载为下面的路径 export CHECKPOINTDIR/work/mount/publicModel/${FINETUNEMODELTYPE}/${FINETUNEMODELTYPE} 输出文件夹路径,runmode为训练模式,如train,lora,full runmodetrain export OUTPUTDIR${BASEDIR}/output/${FINETUNEMODELTYPE}/${runmode}/${TIMETAG} export OUTPUTROOTDIR${BASEDIR}/output/${FINETUNEMODELTYPE}/${runmode} rm rf ${OUTPUTDIR}/resumerecord 获取节点IP、名称,记录至文件 echo $(hostname I awk '{print $1}'),$NODENAME >> ${BASEDIR}/output/nodes sed i '/pamlimits.so/s/^//' /etc/pam.d/sshd 启动脚本 cd ${BASEDIR}/bin/scripts apt install netcat y 微调 bash finetune.sh 预训练 export MSTOPOTIMEOUT7200 bash train.sh 启动训练任务 点击训练任务页面的新建任务,按照如下的示例配置训练命令和模型挂载等,然后启动任务。 Llama270B万卡测试结果 在平台使用9216卡对Llama270B进行预训练,万卡规模国产化集群下,断点续训在5类故障下实现1分钟检测、5分钟内定位、15分钟内恢复训练。
        来自:
        帮助文档
        训推服务
        用户指南
        训推加速
        断点续训加速
      • 产品定义
        说明:本章节会介绍关系型数据库的定义以及包含哪些数据库引擎 关系型数据库(Relational Database Service,简称RDS)是一种基于云计算平台的即开即用、稳定可靠、弹性伸缩、便捷管理的在线关系型数据库服务。专属云关系型数据库目前支持以下引擎: MySQL PostgreSQL 关系型数据库服务具有完善的性能监控体系和多重安全防护措施,并提供了专业的数据库管理平台, 让用户能够在云中轻松的进行设置和扩展关系型数据库。通过关系型数据库服务的管理控制台,用户几乎可以执行所有必需任务而无需编程,简化运营流程,减少日常运维工作量,从而专注于开发应用和业务发展。 专属云数据库MySQL 专属云(RDSMySQL)是在物理上隔离的专属虚拟化资源池上搭建的RDS服务,专属云内,用户独享专用的服务器/集群,可选择独享存储/网络资源,并可在管理控制台统一管理。 MySQL是目前最受欢迎的开源数据库之一,其性能卓越,搭配LAMP(Linux + Apache + MySQL + Perl/PHP/Python),成为WEB开发的高效解决方案。 云数据库拥有即开即用、稳定可靠、安全运行、弹性伸缩、轻松管理、经济实用等特点。 架构成熟稳定,支持流行应用程序,适用于多领域多行业支持各种WEB应用,成本低,中小企业首选。 管理控制台提供全面的监控信息,简单易用,灵活管理,可视又可控。 随时根据业务情况弹性伸缩所需资源,按需开支,量身订做。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        产品简介
        产品定义
      • 产品咨询
        版本 支持的数据库实例个数 资源需求 性能参数 标准版 3个 CPU:4U 内存:16GB 硬盘:512GB 吞吐量峰值:3,000条/秒 入库速率值:360万条/小时 4亿条在线SQL语句存储。 50亿条归档SQL语句存储。 高级版 6个 CPU:8U 内存:32GB 硬盘:1TB 吞吐量峰值:6,000条/秒 入库速率值:720万条/小时 6亿条在线SQL语句存储。 100亿条归档SQL语句存储。 企业版 12个 CPU:16U 内存:64GB 硬盘:2TB 吞吐量峰值:12,000条/秒 入库速率值:1440万条/小时 10亿条在线SQL语句存储。 200亿条归档SQL语句存储。 旗舰版 30个 CPU:16U 内存:64GB 硬盘:5TB 吞吐量峰值:35,000条/秒 入库速率值:1440万条/小时 16亿条在线SQL语句存储。 200亿条归档SQL语句存储。
        来自:
        帮助文档
        数据库审计
        常见问题
        产品咨询
      • 查询一台轻量型云主机的Web管理终端地址
        查询一台轻量型云主机的Web管理终端地址 接口功能介绍 该接口提供用户查询一台轻量型云主机的Web管理终端地址。 获取到轻量型云主机访问地址如下所示: 有如上信息后,在轻量型云主机为开机状态时,直接浏览器输入访问地址进行访问 URI GET /v4/ecs/lite/vnc/details 路径参数 无 Query参数 参数 是否必填 参数类型 说明 示例 下级对象 regionID 是 String 资源池ID,您可以调用regionID查看最新的天翼云资源池列表 88f8888888dd88ec888888888d888d8b instanceID 是 String 云主机ID 8d8e88888ed888b888cb888f8b8cf8fa 请求参数 请求头header参数 无 请求体body参数 无 响应参数 参数 参数类型 说明 示例 下级对象 statusCode Integer 返回状态码(800为成功,900为失败) 800 errorCode String 业务细分码,为product.module.code三段式码,详见错误码说明 Openapi.PatternCheck.NotValid message String 失败时的错误描述,一般为英文描述 SUCCESS description String 失败时的错误描述,一般为中文描述 成功 returnObj Object 成功时返回的数据 returnObj 表 returnObj 参数 参数类型 说明 示例 下级对象 token String token
        来自:
        帮助文档
        轻量型云主机
        API参考
        API(公测中)
        查询一台轻量型云主机的Web管理终端地址
      • 功能特性
        本文介绍云容器引擎Serverless版的功能特性。 虚拟节点 Serverless集群无需管理节点,但为了兼容原生Kubernetes,以及提供应对突发业务流量的弹性能力,您仍会在集群中看到虚拟节点的存在。 Pod配置 在Serverless集群中创建Pod时,您可以通过添加Annotation来定制Pod。 网络管理 Serverless集群支持Service和Ingress等对象的个性化定制,并且允许通过CoreDNS和弹性IP等办法提供服务发现功能。 存储管理 支持天翼云盘挂载,提供标准的CSI,支持存储卷的自动创建。 可观测性 Serverless集群支持安装相应组件启动监控功能。 镜像管理 Serverless集群支持使用ImageCache来加速创建Pod,帮助您快速响应业务。 组件管理 Serverless集群提供多种类型的组件,以扩展集群的各种功能。根据业务需求,您可以随时部署、升级或卸载这些组件。 应用管理 Serverless集群支持灰度发布、蓝绿发布、应用监控以及应用弹性伸缩。同时,内置的模板市场支持Helm应用一键部署,大大简化云服务集成。
        来自:
        帮助文档
        云容器引擎 Serverless版
        产品简介
        功能特性
      • 1
      • ...
      • 26
      • 27
      • 28
      • 29
      • 30
      • ...
      • 449
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      云聚517 · 好价翼起拼

      爆款云主机低至25.83元/年,参与拼团享更多优惠,拼成得额外优惠券

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      聚力AI赋能 天翼云大模型专项

      大模型特惠专区·Token Plan 轻享包低至9.9元起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      企业出海解决方案

      助力您的业务扬帆出海,通达全球!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      产品推荐

      多活容灾服务 MDR

      镜像服务 IMS

      轻量型云主机

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      Token服务

      应用托管

      科研助手

      推荐文档

      删除云安备本地主机

      入驻条件

      重置密码

      开通备案

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 息壤智算平台
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号