活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      对象存储(经典版)II型_相关内容
      • 回收存储库
        本文介绍如何回收混合备份存储库空间。 操作场景 当混合存储库需要立即释放已过期版本的备份数据所占用的使用空间时,可以对存储库进行回收操作。 前提条件 已成功创建混合备份存储库。 操作步骤 1. 登录控制中心。 2. 在控制中心左上角选择地域,此处选择华东华东1。 3. 选择“存储>云备份”,进入云备份控制台。 4. 在云备份页面,单击左侧“混合备份(存储版)”按钮,进入混合备份控制台。 5. 在存储库页面,单击待回收存储库所在行的“操作>回收”按钮。 6. 在弹出页面确认是否进行回收操作,单击“确定”后,回到存储库页面,可以看到存储库已用容量更新,则表明回收操作成功。
        来自:
        帮助文档
        云备份 CBR
        用户指南
        存储库管理
        混合备份存储库
        回收存储库
      • Redis节点磁盘IO高负载(1)
        本章节介绍Redis节点磁盘IO高负载故障演练。 背景介绍 Redis 的高可用性和数据持久性依赖磁盘 IO。当高并发写入、数据复制或硬件瓶颈导致 IO 达到极限时,可能引起持久化延迟、主备复制滞后,甚至阻塞主进程。本演练模拟磁盘IO高负载,帮助您验证业务容错能力及 Redis 在存储瓶颈下的表现。 基本原理 在节点先通过dd命令将数据写入文件中,然后再通过循环读写文件占用磁盘带宽。 故障注入 1、纳管实例资源 1. 导航至 故障演练 > 目标应用 > 应用资源页面。 2. 在资源类型页签中选择分布式缓存服务Redis版 ,然后单击添加资源。 3. 在弹出的对话框中,勾选目标Redis 实例,单击确定。 2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择分布式缓存服务Redis版。 添加实例 :单击添加实例 ,勾选上一步中添加的Redis实例。 添加故障动作 :单击立即添加 ,在列表中选择磁盘IO高负载动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 故障节点 :注入故障的目标节点(主节点或备节点)。 块大小:控制单次读写操作的数据块大小,单位为MB。增大此值可以提升单次操作的IO压力,通常保持默认值即可。
        来自:
      • 物理备份文件恢复到自建数据库
        本页介绍了如何将物理备份文件恢复到自建数据库。 关系数据库MySQL版支持将实例产生的物理备份文件恢复到自建数据库。 操作场景 如果您暂时不再使用关系数据库MySQL版,您可以使用本方法将实例的物理备份恢复到自建数据库从而保留实例中的数据。 如果您的实例已注销,而您又保留有下载好的物理备份文件,您可以使用本方法将实例的物理备份恢复到自建数据库。 前提条件 实例使用对象存储来保存备份,使用备份机存放的备份暂不支持直接下载。 实例未开启透明数据加密,开启透明数据加密的实例暂不支持进行备份操作。 影响 如果您的自建数据库正在运行其他业务,将物理备份恢复到此数据库后,原有业务将不可用。建议您将物理备份恢复到无其他业务的数据库。 本文介绍的恢复方案是将数据恢复到一个新建的数据库数据目录中,对自建数据库中原数据无影响。 注意 建议执行恢复任务前,确认自建的MySQL数据库版本包与当前备份的数据库实例的版本包一致。由于不同版本包之间的特性差异可能导致恢复失败。如果您需要获取和当前备份数据库实例一致的版本可提单进行咨询。 在执行恢复任务前,请确保当时备份的数据库实例中不存在与自建数据库同名的数据库或者表,以防数据覆盖造成的数据丢失。 在执行恢复任务时,如果您因某种原因中断了恢复任务,可能导致数据恢复失败。 操作步骤 1. 准备工作
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        备份与恢复
        恢复
        物理备份文件恢复到自建数据库
      • 从对象存储导入
        Redis管理控制台支持从对象存储导入数据至目标实例,您可以选择将存储在对象存储的备份数据,导入至目标Redis缓存实例中。 说明 如果目标缓存实例为Cluster直连集群,则备份数据均会被导入db0中。 出现相同key时,对象存储中的备份数据将覆盖目标Redis缓存中的数据。 前提条件 只有当分布式缓存Redis缓存实例处于“运行中”状态,才能执行此操作。 对象存储和当前实例需处于同一资源池,才能执行操作,否则两者网络不通。 对象存储的存放的对象,必须是.rdb后缀的对象或者天翼云缓存实例备份的对象。 操作步骤 1. 登录 Redis管理控制台。 2. 在管理控制台右上角选择实例所在的区域。 3. 在实例列表页,单击目标实例名称进入实例详情页面。 4. 左侧菜单点击备份与恢复,进入备份管理操作页面。 5. 点击“从对象存储导入”,进入操作页面,选择待导入的文件,点击导入即可。 6. 导入操作提交成功后,自动展示对象存储导入记录。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例备份恢复管理
        从对象存储导入
      • 流量
        项目 描述 时间选择 流量查询的时间段,可以选择查看下列时间段的流量: 今日。 昨日。 近7日。 近30日。 根据日历按钮,选择查询任意90天内的流量。 时间粒度 流量查询的时间粒度,可以选择: 按五分钟查询:统计信息按每5分钟展示,可以选择查询今日、昨日或按日历选择任意1天的数据。 按小时查询:统计信息按每小时展示,可以查询今日、昨日、近7日或按日历选择任意7天内的数据。 按天查询:统计信息按天展示,可以查询今日、昨日、近7日、近30天或按日历按钮选择任意90天内的数据。 数据位置 流量查询数据位置,可以选择: 全部数据位置:展示所有数据位置的流量之和。 具体数据位置:根据显示的数据位置进行选择,查看对应数据位置的流量。 存储桶 容量查询的存储桶,可以选择: 全部存储桶:展示所有存储桶的流量之和。 具体存储桶:根据显示的存储桶,选择查看对应存储桶的流量。 流量类型 选择流量统计的类型(所有流量均为累计值): 全部流量:所有流量和值,包括互联网直接流量、互联网漫游流量、非互联网直接流量、非互联网漫游流量。 互联网直接流量:从互联网上传下载文件,并且未经对象存储网络内部调度产生的流量。 互联网漫游流量:从互联网上传下载文件,并且经过对象存储网络内部调度产生的流量。 非互联网直接流量:从非互联网(例如内网)上传下载文件,并且未经对象存储网络内部调度产生的流量。 非互联网漫游流量:从非互联网(例如内网)上传下载文件,并且经过对象存储网络内部调度产生的流量。 存储类型 选择流量查询的存储类型: 全部存储类型:分别展示标准存储和低频访问存储的流量。 标准类型:标准存储的流量。 低频访问存储:低频访问存储的流量。
        来自:
        帮助文档
        对象存储(经典版)I型
        控制台指南
        统计概览
        统计
        流量
      • 超高IO型实例类型总览
        本文主要介绍超高IO型实例类型总览 超高I/O型弹性云主机使用高性能NVMe SSD本地磁盘,提供高存储IOPS以及低读写时延,您可以通过管理控制台创建挂载有高性能NVMe SSD盘的弹性云主机。 在售:Ir7n、Ir3、I3、Ir7 规格名称 计算 磁盘类型 网络 :::: 超高I/O型Ir7n CPU/内存配比:1:4 vCPU数量范围:264 处理器:第三代英特尔® 至强® 可扩展处理器 基频/睿频:2.6GHz/3.4GHz 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程 高IO 超高IO 通用型SSD 极速型SSD 支持IPv6 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:600万PPS 最大内网带宽:40Gbps 超高I/O型Ir7 CPU/内存配比:1:4 vCPU数量范围:264 处理器:第三代英特尔® 至强® 可扩展处理器 基频/睿频:3.0GHz/3.5GHz 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程 高IO 超高IO 通用型SSD 极速型SSD 支持IPv6 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:600万PPS 最大内网带宽:40Gbps 最大网络连接数:500万 超高I/O型Ir3 CPU/内存配比:1:4 vCPU数量范围:232 处理器:第二代英特尔® 至强® 可扩展处理器 基频/睿频:2.6GHz/3.5GHz 高IO 超高IO 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:450万PPS 最大内网带宽:30Gbps 超高I/O型I3 CPU/内存配比:1:8 vCPU数量范围:864 处理器:英特尔® 至强® 可扩展处理器 基频/睿频:3.0GHz/3.4GHz 高IO 超高IO 通用型SSD 极速型SSD 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:500万PPS 最大内网带宽:25Gbps
        来自:
        帮助文档
        弹性云主机 ECS
        产品介绍
        实例规格(X86)
        超高IO型
        超高IO型实例类型总览
      • 复制备份
        本节介绍了复制备份的操作场景、约束限制、操作步骤等相关内容。 操作场景 关系型数据库服务支持复制自动和手动备份。 限制条件 只支持在同一区域下复制并使用备份,暂不支持跨region操作。 备份保留策略 如果删除实例,该实例的自动备份将会被同步删除。 如果开启了实例的自动备份策略,当实例的自动备份保留期结束,该实例的自动备份也将会被同步删除。 如果需要长期保留自动备份,您可以复制该自动备份生成一个手动备份,该手动备份在您删除之前将会一直保留。 如果手动备份所使用的空间超过您的默认存储空间,则可能会增加关系型数据库存储成本。 复制备份不会影响实例上的业务。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,单击实例名称,进入“基本信息”页面,在左侧导航栏,单击“备份恢复”,选择目标备份,单击操作列中的“复制”。 您也可以在左侧导航栏,单击“备份管理”,在“备份管理”页面,选择目标备份,单击操作列中的“复制”。 步骤 5 填写新备份名称和描述,单击“确定”。 备份名称的长度在4~64个字符之间,必须以字母开头,区分大小写,可以包含字母、数字、中划线或者下划线,不能包含其他特殊字符。 备份描述不能超过256个字符,不能包含回车和>!<"&'特殊字符。 步骤 6 新备份创建成功后,用户可在“备份管理”页面,查看并管理自己的备份。 结束
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        数据备份
        创建实例级备份
        复制备份
      • 术语解释
        存储桶(Bucket) 对象存储桶是用于存储对象(Object)的容器,所有的对象都必须隶属于某个存储桶。用户可以设置和修改存储桶属性用来控制地域、访问权限、生命周期等,这些属性设置直接作用于该存储桶内所有对象,因此用户可以通过灵活创建不同的存储桶来完成不同的管理功能。 同一个存储桶的内部是扁平的,没有文件系统的目录等概念,所有的对象都直接隶属于其对应的存储桶。 每个用户可以拥有多个存储桶。 每个桶都有自己的访问权限、所属区域等属性,用户可以在不同区域创建具有不同访问权限的存储桶,满足来自不同场景的访问需求。 存储桶的名称在媒体存储同一区域内必须是唯一的,一旦创建之后无法修改名称。 存储桶内部的对象数目没有限制。 对象/文件(Object) 对象是存储数据的基本单元。对象由元信息(Object Meta),用户数据(Data)和文件名(Key)组成。另外,对象还包括对象元信息,对象元信息是一对键值对,表示了对象的一些属性,比如最后修改时间、大小等信息,同时用户也可以在元信息中存储一些自定义的信息。 文件可以是文本、图片、音频、视频等,用户可以上传、下载、删除和共享Object。
        来自:
        帮助文档
        媒体存储
        产品介绍
        术语解释
      • 开启一台轻量型云主机
        开启一台轻量型云主机 接口功能介绍 该接口提供用户开启一台轻量型云主机功能。 接口约束 轻量云主机需要处于关机状态 URI POST /v4/ecs/lite/start 路径参数 无 Query参数 无 请求参数 请求头header参数 无 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 regionID 是 String 资源池ID,您可以调用regionID查看最新的天翼云资源池列表 81f7728662dd11ec810800155d307d5b instanceID 是 String 云主机ID adc614e0e838d73f0618a6d51d09070a 响应参数 参数 参数类型 说明 示例 下级对象 statusCode Integer 返回状态码(800为成功,900为失败) 800 errorCode String 业务细分码,为product.module.code三段式码,详见错误码说明 Openapi.PatternCheck.NotValid message String 失败时的错误描述,一般为英文描述 SUCCESS description String 失败时的错误描述,一般为中文描述 成功 returnObj Object 成功时返回的数据 returnObj 表 returnObj 参数 参数类型 说明 示例 下级对象 jobID String 开机任务ID osffe1fe3c36be469da5ea593662bb40b4
        来自:
        帮助文档
        轻量型云主机
        API参考
        API(公测中)
        开启一台轻量型云主机
      • 重启一台轻量型云主机
        重启一台轻量型云主机 接口功能介绍 该接口提供用户重启一台轻量型云主机功能。 接口约束 轻量云主机需要处于开机状态 URI POST /v4/ecs/lite/reboot 路径参数 无 Query参数 无 请求参数 请求头header参数 无 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 regionID 是 String 资源池ID,您可以调用regionID查看最新的天翼云资源池列表 81f7728662dd11ec810800155d307d5b instanceID 是 String 云主机ID adc614e0e838d73f0618a6d51d09070a 响应参数 参数 参数类型 说明 示例 下级对象 statusCode Integer 返回状态码(800为成功,900为失败) 800 errorCode String 业务细分码,为product.module.code三段式码,详见错误码说明 Openapi.PatternCheck.NotValid message String 失败时的错误描述,一般为英文描述 SUCCESS description String 失败时的错误描述,一般为中文描述 成功 returnObj Object 成功时返回的数据 returnObj 表 returnObj 参数 参数类型 说明 示例 下级对象 jobID String 重启任务ID osffe1fe3c36be469da5ea593662bb40b4
        来自:
        帮助文档
        轻量型云主机
        API参考
        API(公测中)
        重启一台轻量型云主机
      • 管理节点状态
        您可以根据实际情况,启动或停止GiServer节点。 背景信息 节点状态包括:运行中 和已停止。 注意事项 索引服务管理 页面展示已启动的GiServer节点,如未启动,则无法使用全局索引服务,启动操作,请参见开启全局索引。启动的节点将占据DBProxy的部分内存,可于参数管理页面修改GiServer服务的相关参数已达到最优性能。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 单击全局索引 ,进入GiServer存储设置页签。 5. 单击索引服务管理页签,进入索引服务管理页面。 6. 在节点列表中,查看节点的状态。 您可以根据实际情况,单击操作 列的停止 或启动,即可停止或启动节点。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        全局索引
        索引服务管理
        管理节点状态
      • 术语解释
        本页为数据传输服务DTS相关的术语解释。 位点 位点指的是用于标识复制源和复制目标之间数据同步的位置信息,主要用于记录源数据库的更新操作以及标识目标数据库需要同步的位置。位点可以帮助确保数据在源和目标之间的一致性,同时也可以用于数据恢复和备份等操作。 HA切换 HA(High Availability,高可用性)切换是指在系统出现故障或其他不可用情况时,自动或手动将工作负载从一个节点切换到另一个节点,以确保服务的连续可用性。 VPC网络 基于虚拟私有云(Virtual Private Cloud,简称VPC)网络的数据迁移是指实时迁移场景下,源数据库与目标数据库属于同一个虚拟网络内或者跨可通信虚拟网络内,不需要您额外搭建其他网络服务。 迁移实例 迁移实例是帮助实现数据迁移的辅助型资源,存在于迁移任务的整个生命周期。数据传输服务可以通过迁移实例连接源数据库,读取源数据,然后将数据复制到目标数据库中。 同步实例 同步实例是帮助实现实时同步的辅助型资源,存在于同步任务的整个生命周期。数据传输服务可以通过同步实例连接源数据库,读取源数据,然后将实时同步到目标数据库中。 预检查 预检查是指在启动迁移/同步任务之前,对可能影响任务成功的因素及条件进行的检查。如果预检查项失败,需要根据具体的修复方法进行修复后,重新进行预检查,直到预检查项全部通过才可启动任务。 结构迁移 在结构迁移阶段,DTS将待迁移对象的结构定义从源数据库迁移到目标数据库,例如表、视图、触发器和存储过程。对于异构数据库之间的结构迁移,DTS会将源库的结构定义转换为目标库支持的结构定义, 例如将Oracle数据库中的NUMBER数据类型转换为MySQL数据库中的DECIMAL数据类型。
        来自:
        帮助文档
        数据传输服务DTS
        产品概述
        术语解释
      • 查询未绑定的配额列表
        接口功能介绍 单台服务器切换配额版本中待绑定的企业版配额列表。 接口约束 确认已经购买系统配额。 URI POST /v1/quota/unBindList 路径参数 无 Query参数 无 请求参数 请求头header参数 参数 是否必填 参数类型 说明 示例 下级对象 ContentType 是 String ContentType application/json 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 quotaVersion 是 Integer 配额版本 1基础版 2企业版 3旗舰版 1 currentPage 是 Integer 分页当前页码 1 pageSize 是 Integer 每页大小 10 响应参数 参数 参数类型 说明 示例 下级对象 error String 返回码 CTCSSCN000000:成功 CTCSSCN000001:失败 CTCSSCN000003:用户未签署协议,安全卫士系统无法正常使用 CTCSSCN000004:鉴权错误 CTCSSCN000005:用户没有付费版配额,功能不可用 CTCSSCN000000 message String 返回信息 success returnObj Object 返回对象 returnObj traceId String traceId 211111111111111111111 statusCode String 状态码 200成功 200 表 returnObj 参数 参数类型 说明 示例 下级对象 total Integer 总数 100 list Array of Objects 结果集 list pageNum Integer 当前页 1 pageSize Integer 每页的数量 10 表 list 参数 参数类型 说明 示例 下级对象 virusDatabaseUpdateTime String 病毒数据库更新时间 20220704 00:00:00 agentGuid String agentGuid testid publicIp String 公网IP 192.168.1.1 agentIp String 私网IP 192.168.1.1 custName String 主机名称 testhostname unHandle Integer 未处理告警数量 0 hostNum Integer 病毒查杀风险主机数量 0 quotaVersion Integer 配额版本 1基础版 2企业版 3旗舰版 1 quotaId String 防护配额ID 6c8caaa32418441c8c164e3f43d76791 expirationDate String 防护配额到期时间 20220704 10:00:00
        来自:
        帮助文档
        服务器安全卫士(原生版)
        API参考
        API
        2022-10-20
        配额管理
        查询未绑定的配额列表
      • Redis节点磁盘IO高负载
        本章节介绍Redis节点磁盘IO高负载故障演练。 背景介绍 Redis 的高可用性和数据持久性依赖磁盘 IO。当高并发写入、数据复制或硬件瓶颈导致 IO 达到极限时,可能引起持久化延迟、主备复制滞后,甚至阻塞主进程。本演练模拟磁盘IO高负载,帮助您验证业务容错能力及 Redis 在存储瓶颈下的表现。 基本原理 在节点先通过dd命令将数据写入文件中,然后再通过循环读写文件占用磁盘带宽。 故障注入 1、纳管实例资源 1. 导航至 故障演练 > 目标应用 > 应用资源页面。 2. 在资源类型页签中选择分布式缓存服务Redis版 ,然后单击添加资源。 3. 在弹出的对话框中,勾选目标Redis 实例,单击确定。 2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择分布式缓存服务Redis版。 添加实例 :单击添加实例 ,勾选上一步中添加的Redis实例。 添加故障动作 :单击立即添加 ,在列表中选择磁盘IO高负载动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 故障节点 :注入故障的目标节点(主节点或备节点)。 块大小:控制单次读写操作的数据块大小,单位为MB。增大此值可以提升单次操作的IO压力,通常保持默认值即可。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        数据库
        分布式缓存服务Redis版
        Redis节点磁盘IO高负载
      • 恢复归档存储对象
        本节主要介绍怎么通过控制台恢复归档存储对象。 对于存储类别为归档存储的对象,用户需要先恢复才能下载、通过对象URL访问对象、配置对象的ACL权限、设置对象元数据。 约束与限制 归档存储的对象正在恢复的过程中,不允许暂停或删除恢复任务。 对象的恢复状态为恢复中时,对象不能再次恢复。 数据恢复恢复后,会产生一个标准存储类别的对象副本,即对象同时存在标准存储类别的对象副本和归档存储类别的对象,恢复有效期到期后标准存储类别的对象副本会自动删除。 操作步骤 步骤 1 在OBS管理控制台桶列表中,单击待操作的桶,进入“对象”页面。 步骤 2 选中待恢复的文件,并单击右侧的“恢复”。也可以选中多个文件,单击文件列表上方的“更多>恢复”恢复多个文件。 说明 恢复中的对象不能加入批量恢复文件中。 步骤 3 恢复对象需要设置对象的有效期和恢复速率,参数解释如下表所示: 参数 说明 :: 有效期 对象恢复后,保持为“已恢复”状态的时长,从对象恢复完成开始计时。有效期时长可设置130天的整数。系统默认有效期为30天。 例如:恢复对象时,有效期设置为20天,则从对象恢复成功后开始算起,20天后,该对象则会从“已恢复”状态变成“未恢复”状态。 速率 对象的恢复速度。 加急:可在15分钟内恢复归档存储数据。 标准:可在35小时内恢复归档存储数据。 慢速:可在512小时内以较低的成本恢复大量(千兆字节)数据。 步骤 4 单击“确定”。对象恢复状态可在对象列表中查看。单击页面右上角的“刷新”按钮 可手动刷新恢复任务状态。 说明 系统每天会在UTC 00:00点检查一次文件恢复情况,过期时间是根据最近一次系统检查时间开始计算的。
        来自:
        帮助文档
        对象存储 OBS
        用户指南
        管理对象
        恢复归档存储对象
      • 使用V4签名时的HttpURLConnection开发
        本节主要介绍使用V4签名时的HttpURLConnection开发。 应用场景 V4签名下,使用HttpURLConnection开发。 前提条件 已开通对象存储(经典版)Ⅰ型服务。 具体操作 可以参考下列示例进行HttpURLConnection开发。 package cn.ctyun.oos.sample; import java.io.BufferedReader; import java.io.InputStream; import java.io.InputStreamReader; import java.io.OutputStream; import java.io.UnsupportedEncodingException; import java.net.HttpURLConnection; import java.net.URL; import java.net.URLEncoder; import java.security.MessageDigest; import java.text.SimpleDateFormat; import java.util.ArrayList; import java.util.Collections; import java.util.Date; import java.util.HashMap; import java.util.Iterator; import java.util.List; import java.util.Map; import java.util.SortedMap; import java.util.TimeZone; import java.util.TreeMap; import java.util.regex.Matcher; import java.util.regex.Pattern; import javax.crypto.Mac; import javax.crypto.spec.SecretKeySpec; public class OOSDemoForV4Signer { private static final SimpleDateFormat ISO8601DATEFORMAT new SimpleDateFormat("yyyyMMdd'T'HHmmss'Z'"); private static final SimpleDateFormat ISO8601DAYFORMAT new SimpleDateFormat("yyyyMMdd"); private static final char[] HEXCODE "0123456789abcdef".toCharArray(); private static final String UNSIGNEDPAYLOAD "UNSIGNEDPAYLOAD"; private static final String SCHEME "AWS4"; private static final String ALGORITHM "HMACSHA256"; private static final String TERMINATOR "aws4request"; private static final String HMACSHA256 "HmacSHA256"; private static final String OOSACCESSKEY "youraccesskey"; private static final String OOSSECRETKEY "yoursecretkey"; private static final String OOSENDPOINT "ooscn.ctyunapi.cn"; private static final String OOSBUCKET "your bucket name"; private static final String OOSOBJECTNAME "yourobjectname"; private static final String OOSOBJECTCONTENT "yourobjectcontent"; private static final int DEFAULTTIMEOUT 30000; static { TimeZone utc TimeZone.getTimeZone("UTC"); ISO8601DATEFORMAT.setTimeZone(utc); ISO8601DAYFORMAT.setTimeZone(utc); } public static void main(String[] args) throws Exception { OOSDemoForV4Signer demo new OOSDemoForV4Signer(); demo.putObject(); demo.getObject(); demo.deleteObject(); } public void getObject() { try { HttpURLConnection connection generateConnection("GET", OOSBUCKET, OOSOBJECTNAME); connection.connect(); int responseCode connection.getResponseCode(); // 在responseCode为200 的情况下, 可将connection.getInputStream()的对象数据读出。 if(responseCode 200) { System.out.println("get object success"); } try (InputStream inputStream responseCode 200 ? connection.getInputStream() : connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } public void putObject() { try { HttpURLConnection connection generateConnection("PUT", OOSBUCKET, OOSOBJECTNAME); connection.setDoOutput(true); connection.connect(); // Create the object byte[] requestBody OOSOBJECTCONTENT.getBytes(); try (OutputStream outputStream connection.getOutputStream()) { outputStream.write(requestBody); } // Execute the request and print the response int responseCode connection.getResponseCode(); if (responseCode 200) { System.out.println("put object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } public void deleteObject() { try { HttpURLConnection connection generateConnection("DELETE", OOSBUCKET, OOSOBJECTNAME); connection.connect(); int responseCode connection.getResponseCode(); if (responseCode 204) { System.out.println("delete object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } private HttpURLConnection generateConnection(String method, String bucket, String objectKey) throws Exception { String requestUrl " + bucket + "." + OOSENDPOINT + "/" + urlEncode(objectKey, true); Map headers new HashMap<>(); // 1 加在headers里的所有头域,都参与计算签名。 // 2 任何头以xamzmeta这个前缀开始都会被认为是用户的元数据,当用户检索时,它将会和对象一起被存储并返回。PUT请求头大小限制为8KiB。在PUT请求头中,用户定义的元数据大小限制为2KiB。 // headers.put("xamzmetatest", "oos"); Map querys new HashMap (); URL url new URL(requestUrl); String authorization v4Sign(headers, querys, UNSIGNEDPAYLOAD, url, method); headers.put("Authorization", authorization); HttpURLConnection connection (HttpURLConnection)new URL(requestUrl).openConnection(); connection.setRequestMethod(method); connection.setConnectTimeout(DEFAULTTIMEOUT); connection.setReadTimeout(DEFAULTTIMEOUT); headers.forEach(connection::setRequestProperty); return connection; } / 以下是签名计算相关方法 / private String v4Sign(Map headers, Map queryParameters, String bodyHash, URL endpointUrl, String httpMethod) { String host endpointUrl.getHost(); String serviceName parseServiceName(host); String regionName parseRegionName(host); // first get the date and time for the subsequent request, and convert // to ISO 8601 format for use in signature generation Date now new Date(); String dateTimeStamp ISO8601DATEFORMAT.format(now); // update the headers with required 'xamzdate' and 'host' values if (headers null) { headers new HashMap (); } headers.put("xamzdate", dateTimeStamp); headers.put("xamzcontentsha256", bodyHash); int port endpointUrl.getPort(); if (port > 1 && port ! 80 && port ! 443) { host host.concat(":" + Integer.toString(port)); } headers.put("Host", host); // canonicalize the headers; we need the set of header names as well as the // names and values to go into the signature process String canonicalizedHeaderNames getCanonicalizeHeaderNames(headers); String canonicalizedHeaders getCanonicalizedHeaderString(headers); // if any query string parameters have been supplied, canonicalize them String canonicalizedQueryParameters getCanonicalizedQueryString(queryParameters); // canonicalize the various components of the request String canonicalRequest getCanonicalRequest(endpointUrl, httpMethod, canonicalizedQueryParameters, canonicalizedHeaderNames, canonicalizedHeaders, bodyHash); // construct the string to be signed String dateStamp ISO8601DAYFORMAT.format(now); String scope dateStamp + "/" + regionName + "/" + serviceName + "/" + TERMINATOR; String stringToSign getStringToSign(SCHEME, ALGORITHM, dateTimeStamp, scope, canonicalRequest); // compute the signing key byte[] kSigning createSignatureKey(OOSSECRETKEY, dateStamp, regionName, serviceName); byte[] signature sign(stringToSign, kSigning, HMACSHA256); String credentialsAuthorizationHeader "Credential" + OOSACCESSKEY + "/" + scope; String signedHeadersAuthorizationHeader "SignedHeaders" + canonicalizedHeaderNames; String signatureAuthorizationHeader "Signature" + toHex(signature); String authorizationHeader SCHEME + "" + ALGORITHM + " " + credentialsAuthorizationHeader + ", " signedHeadersAuthorizationHeader + ", " + signatureAuthorizationHeader; return authorizationHeader; } private String getCanonicalizedQueryString(Map parameters) { if (parameters null parameters.isEmpty()) { return ""; } SortedMap sorted new TreeMap (); Iterator > pairs parameters.entrySet().iterator(); while (pairs.hasNext()) { Map.Entry pair pairs.next(); String key pair.getKey(); String value pair.getValue(); sorted.put(urlEncode(key, false), urlEncode(value, false)); } StringBuilder builder new StringBuilder(); pairs sorted.entrySet().iterator(); while (pairs.hasNext()) { Map.Entry pair pairs.next(); builder.append(pair.getKey()); builder.append(""); builder.append(pair.getValue()); if (pairs.hasNext()) { builder.append("&"); } } return builder.toString(); } private String getCanonicalizedHeaderString(Map headers) { if (headers null headers.isEmpty()) { return ""; } // step1: sort the headers by caseinsensitive order List sortedHeaders new ArrayList (); sortedHeaders.addAll(headers.keySet()); Collections.sort(sortedHeaders, String.CASEINSENSITIVEORDER); // step2: form the canonical header:value entries in sorted order. // Multiple white spaces in the values should be compressed to a single // space. StringBuilder buffer new StringBuilder(); for (String key : sortedHeaders) { buffer.append(key.toLowerCase().replaceAll("s+", " ") + ":" + headers.get(key).replaceAll("s+", " ")); buffer.append("n"); } return buffer.toString(); } private String getCanonicalizeHeaderNames(Map headers) { List sortedHeaders new ArrayList (); sortedHeaders.addAll(headers.keySet()); Collections.sort(sortedHeaders, String.CASEINSENSITIVEORDER); StringBuilder buffer new StringBuilder(); for (String header : sortedHeaders) { if (buffer.length() > 0) buffer.append(";"); buffer.append(header.toLowerCase()); } return buffer.toString(); } private String getCanonicalRequest(URL endpoint, String httpMethod, String queryParameters, String canonicalizedHeaderNames, String canonicalizedHeaders, String bodyHash) { String canonicalRequest; if (bodyHash null bodyHash.equals("")) { canonicalRequest httpMethod + "n" + getCanonicalizedResourcePath(endpoint) + "n" + queryParameters "n" + canonicalizedHeaders + "n" + canonicalizedHeaderNames; } else { canonicalRequest httpMethod + "n" + getCanonicalizedResourcePath(endpoint) + "n" + queryParameters "n" + canonicalizedHeaders + "n" + canonicalizedHeaderNames + "n" + bodyHash; } return canonicalRequest; } private String getStringToSign(String scheme, String algorithm, String dateTime, String scope, String canonicalRequest) { String stringToSign scheme + "" + algorithm + "n" + dateTime + "n" + scope + "n" + toHex(hash(canonicalRequest)); return stringToSign; } private byte[] createSignatureKey(String key, String dateStamp, String regionName, String serviceName) { byte[] kSecret (SCHEME + key).getBytes(); byte[] kDate sign(dateStamp, kSecret, HMACSHA256); byte[] kRegion sign(regionName, kDate, HMACSHA256); byte[] kService sign(serviceName, kRegion, HMACSHA256); byte[] kSigning sign(TERMINATOR, kService, HMACSHA256); return kSigning; } private byte[] sign(String stringData, byte[] key, String algorithm) { try { byte[] data stringData.getBytes("UTF8"); Mac mac Mac.getInstance(algorithm); mac.init(new SecretKeySpec(key, algorithm)); return mac.doFinal(data); } catch (Exception e) { throw new RuntimeException("Unable to calculate a request signature: " + e.getMessage(), e); } } private String getCanonicalizedResourcePath(URL endpoint) { if (endpoint null) { return "/"; } String path endpoint.getPath(); if (path null path.isEmpty()) { return "/"; } // String encodedPath urlEncode(path, true); String encodedPath path; if (encodedPath.startsWith("/")) { return encodedPath; } else { return "/".concat(encodedPath); } } private String urlEncode(String url, boolean keepPathSlash) { String encoded; try { encoded URLEncoder.encode(url, "UTF8"); } catch (UnsupportedEncodingException e) { throw new RuntimeException("UTF8 encoding is not supported.", e); } if (keepPathSlash) { encoded encoded.replace("%2F", "/"); } return encoded; } private String toHex(byte[] data) { StringBuilder r new StringBuilder(data.length 2); for (byte b : data) { r.append(HEXCODE[(b >> 4) & 0xF]); r.append(HEXCODE[(b & 0xF)]); } return r.toString(); } private byte[] hash(String text) { try { MessageDigest md MessageDigest.getInstance("SHA256"); md.reset(); md.update(text.getBytes("UTF8")); return md.digest(); } catch (Exception e) { throw new RuntimeException("Unable to compute hash while signing request: " + e.getMessage(), e); } } private String parseRegionName(String host) { String pattern "oos([w]).ctyunapi.cn$"; Pattern r Pattern.compile(pattern); Matcher m r.matcher(host); if (m.find()) { return m.group(1).toLowerCase(); } else { throw new RuntimeException("parse region error, please check endpoint."); } } private String parseServiceName(String host) { if (host.endsWith("iam.ctyunapi.cn")) { return "sts"; } else { return "s3"; } } }
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        使用HttpURLConnection开发
        使用V4签名时的HttpURLConnection开发
      • Cluster单机
        Redis Cluster集群实例,为直连集群版,兼容开源Redis的Cluster,基于去中心化集群部署架构,Cluster中每一个节点存储一部分数据。 Redis Cluster集群实例的特点如下: 支持智能客户端JedisCluster的使用方式。 对比单机规格,整体性能与Redis分片数近乎线性增长。 架构示意图 Cluster集群的去中心化架构中,数据存储和处理负载不再由单一中心节点来管理,而是由多个节点共同参与。这种架构设计旨在提高系统的可伸缩性、可用性和容错性。 数据分布在多个节点上,从而实现更好的性能和可靠性。 数据分片 在Cluster集群中,数据分片是指将整个数据集划分为多个片段,并分别存储在不同的节点上。这种分片机制带来了一系列好处,包括横向扩展性、负载均衡和提高系统性能。Cluster会预先分配16384个slot,每个Redis的server存储所有slot与redis server的映射关系。 适用场景 数据量较大 可以支持单个Redis分片规格164G自由选择,Redis分片数量从364G可选,最大可支持4TB规格,可有效满足业务扩展要求。 QPS压力较大的场景 采用多节点部署,突破Redis单线程的性能瓶颈,可较好支撑QPS较大的场景。 吞吐密集型应用场景 提供高性能、高可用性和横向扩展性,适用于需要处理大量读写请求的需求场景。 对Redis协议兼容性要求较高的场景 兼容Redis社区原生Cluster集群,各业务可实现平滑迁移。 缓存数据无高可用场景 由于Cluster单机实例采用单副本集群部署架构,不具备高可用性与服务连续性,若使用请务必确认风险。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品介绍
        实例类型
        Cluster单机
      • 创建独享型负载均衡器
        参数 说明 取值样例 实例规格类型 负载均衡的实例类型。 独享型 计费模式 按需计费。 按需计费 区域 不同区域的资源之间内网不互通。请选择靠近业务的区域,可以降低网络时延、提高访问速度。 可用区 可以选择在多个可用区创建负载均衡实例,提高服务的可用性。如业务需考虑容灾能力,建议选择多个可用区。当某一可用区出现故障时,业务可以快速切换到另一个可用区的负载均衡继续提供服务。 此外,选择多个可用区之后,对应的性能规格(新建连接数/并发连接数等)会加倍。例如:单实例最大支持2kw并发,那么双AZ就支持4kw并发。 说明: 对于 公网访问 ,会根据源IP的不同将流量分配到创建的多个AZ中的ELB上。 对于 内网访问 : 当从 创建ELB的AZ 访问时,流量将被分配到本AZ中的ELB上,当本AZ的ELB不可用时,容灾到创建的其他AZ的ELB上; 当从 未创建ELB的AZ 访问时,会根据源IP的不同将流量分配到创建的多个AZ中的ELB上。 说明: 针对已有实例,如果修改可用区配置,可能会导致该实例的业务闪断数秒,请在购买时做好规划,确实要修改的话建议选择闲时操作。 跨VPC后端 开启后,用户可以为负载均衡器添加当前VPC以外的后端,跨VPC后端通过IP地址形式添加。 说明: 若要使用该功能,请先正确配置VPC路由,确保后端可达。 开启跨VPC后端,需要占用后端子网下的IP地址,请确保预留足够的IP地址。 网络类型 可以单独选择一个网络类型,也可以同时选择多个。 IPv4公网:负载均衡器通过IPv4公网IP对外提供服务。 IPv4私网:负载均衡器通过IPv4私网IP对外提供服务。 IPv6:系统会为实例分配一个IPv6地址,转发来自IPv6客户端的请求。 说明: 如果公网或私网IP均未选择,则ELB实例创建完成后无法与客户端通信。 IPv4公网 所属VPC 所属虚拟私有云。无论选择哪种网络类型,均需配置此项。 您可以选择使用已有的虚拟私有云网络,或者单击“查看虚拟私有云”创建新的虚拟私有云。 vpc4536 子网 选择创建负载均衡实例的子网。 无论选择哪种网络类型,均需配置此项。 当网络类型选择“IPv6”,且所选的VPC下无支持IPv6的子网时,请为已有子网开启IPv6或创建支持IPv6的子网。 subnet4536 IPv4公网配置 弹性IP 当网络类型勾选“IPv4公网”时,需要指定弹性IP。 新创建 公网带宽 弹性IP使用的带宽类型。 加入共享带宽 IPv4私网配置 IPv4地址 选择IPv4地址的分配方式。 自动分配IP地址 IPv6网络配置 IPv6地址 选择IPv6的IP地址的分配方式。 说明: 负载均衡器的IP地址不受所在VPC子网ACL配置的限制,所以能够被客户端直接访问。建议您使用监听器的访问控制功能限制客户端访问负载均衡器。 自动分配IP地址 公网带宽 选择IPv6的共享带宽。可以选择暂不设置共享带宽或选择已有的共享带宽或新建共享带宽。 暂不设置 规格 “应用型(HTTP/HTTPS)”和“网络型(TCP/UDP)”请至少勾选一种,勾选后可选择相应能力的规格。 应用型(HTTP/HTTPS)的不同规格所需的子网的IP地址不同。 不同的实例规格在性能上存在差异。 中型 II 名称 负载均衡器的名称。 elb93wd 企业项目 企业项目是一种云资源管理方式,企业项目管理服务提供统一的云资源按项目管理,以及项目内的资源管理、成员管理。 default 高级配置 描述 可添加负载均衡器相关描述。 标签 标签用于标识云资源,可对云资源进行分类和搜索。标签由标签“键”和标签“值”组成,标签键用于标记标签,标签值用于表示具体的标签内容。 键:elbkey1 值:elb01
        来自:
        帮助文档
        弹性负载均衡 ELB
        用户指南
        负载均衡器
        创建独享型负载均衡器
      • 对象存储迁移
        本节主要介绍对象存储迁移 对象存储迁移服务的典型应用场景有: 对象数据搬迁:将典型Web应用搬迁到天翼云上时,把用户的对象存储数据搬迁到天翼云中。 云上容灾:出于灾备,把用户对象存储数据复制到天翼云中。 对象数据恢复:利用其他云服务提供商备份的数据,恢复用户在天翼云丢失的对象存储数据。 对象存储迁移流程图: 具体步骤: 背景需求收集,填写对象存储迁移信息收集表 控制端部署:天翼云目标资源池申请ECS资源,安装部署RDA工具和oms agent。 创建源端和目的端的访问密钥(AK/SK)。 源端:参见源端云服务提供商的相关资料。 目的端:参见天翼云官网创建访问密钥(AK/SK)。 创建目的端桶:在对象存储服务中创建用于存放迁移数据的桶。 参考天翼云官网帮助中心创建桶。 RDA工具基础资源配置。 RDA中创建迁移任务,开始迁移。 参见创建单个迁移任务。 在对象存储迁移服务中检查迁移任务的结果。 迁移任务成功,迁移完成。 迁移任务失败,查看失败详情并尝试重启。 参见查看迁移任务、管理迁移任务。 数据校验,业务验证。
        来自:
        帮助文档
        云迁移工具RDA
        最佳实践
        对象存储迁移
      • 设置utf8mb4字符集以支持全面的字符显示
        本文主要介绍如何通过统一使用utf8mb4字符集来实现在MySQL实例中存储emoji表情的最佳实践。 我们将从客户端、会话连接和MySQL实例等多个方面介绍如何配置和修改字符集以支持utf8mb4。 客户端和会话连接的字符集配置 为了确保能够正确存储和显示emoji表情,我们首先需要在客户端和会话连接中统一使用utf8mb4字符集。 客户端配置:保证客户端输出的字符串的字符集为utf8mb4。这可以通过设置客户端的字符集编码来实现,确保输出的数据是以utf8mb4编码发送到MySQL实例。 会话连接配置:确保到RDS实例的会话连接支持utf8mb4字符集。以JDBC连接为例,需要使用MySQL Connector/J 5.1.13及以上的版本,并且在连接串中不配置"characterEncoding"选项。 MySQL实例的字符集配置 为了完全支持utf8mb4字符集并存储emoji表情,我们需要在MySQL实例中进行相应的配置。 修改控制台参数: 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入TeleDB数据库概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例基本信息页面。 4. 单击参数设置,进入参数列表页面。 5. 找到charactersetserver 参数并将其值修改为utf8mb4。 6. 单击保存。 设置数据库字符集:在创建数据库时,显式指定字符集为utf8mb4,并为数据库授权相关帐号访问权限。 配置表的字符集:在创建或修改表时,显式指定表的字符集为utf8mb4,以确保表中的数据能够正确存储和显示emoji表情。 如果创建或修改列时没有显式指定字符集和比较规则,则该列将默认使用所属表的字符集和比较规则。同样地,如果创建或修改表时没有显式指定字符集和比较规则,则该表将默认使用所属数据库的字符集和比较规则。如果创建或修改数据库时没有显式指定字符集和比较规则,则该数据库将默认使用服务器的字符集和比较规则。 通过上述设置,能够有效降低乱码风险,并实现在MySQL实例中存储和展示复杂汉字和emoji表情的需求。 综上所述,我们建议在MySQL实例时选择utf8mb4字符集,并确保客户端、会话连接和MySQL实例的字符集配置统一。通过统一使用utf8mb4字符集,我们可以提供更好的用户体验,并避免由于字符集不匹配而导致的乱码问题。 注意 修改字符集和比较规则可能会增加数据存储空间,但不会影响现有数据的质量和兼容性。
        来自:
        帮助文档
        关系数据库MySQL版
        最佳实践
        设置utf8mb4字符集以支持全面的字符显示
      • zosfs介绍及下载
        本文为您介绍zosfs的主要功能和使用场景等信息。 工具简介 zosfs是一个通过FUSE技术,将天翼云对象存储ZOS的bucket(存储桶)挂载为本地目录的工具。 zosfs利用gorountine,通过异步的并发操作,实现对本地文件的高效上传、对云端对象的高效下载,同时,zosfs也优化了对目录列举的操作,提升目录列举的效率。 使用场景 zosfs主要支持模型训练、模型推理等计算密集型场景,解决密集计算对存储数据加载和写入的特殊需要。具体而言,这类场景对存储数据操作以顺序读取、随机读取、顺序(追加)写入为主。 主要功能 兼容基础的POSIX语义操作,能有效利用ZOS的服务端读写能力。 针对计算密集的数据读写需要,提供高效的大文件顺序读写能力。 适配环境 计算平台:X86计算平台、ARM计算平台 操作系统:ctyunOS 23.01、ctyunOS 2.0.1、ctyunOS 22.06 使用限制 zosfs为特定挂载场景优化,因此存在一定的使用限制,请使用前仔细阅读zosfs使用限制章节,了解工具的限制条件。 注意 我们建议您在使用zosfs工具前,了解工具的使用限制,并对工具进行使用测试,避免对您的业务产生影响。 获取zosfs 适配X86计算平台 点击下载工具:zosfs0.6.1x86.tar.gz 适配ARM计算平台 点击下载工具:zosfs0.6.1arm.tar.gz 说明 此处提供的zosfs工具包,解压后无需安装即可运行。
        来自:
        帮助文档
        对象存储 ZOS
        常用工具
        zosfs(预览版)
        zosfs介绍及下载
      • 相关术语解释
        本节主要介绍OOS涉及到的相关术语。 账户( Account ) 在使用OOS之前,需要在天翼云网站www.ctyun.cn注册一个Account(账户)。注册时邮箱、密码和手机号码是必填项。正确填写所需信息并进行实名认证之后,联系天翼云客服人员(客服电话:4008109889)申请开通OOS服务。开通OOS服务成功之后,用户可以用该账户登录并使用OOS服务。 服务( Service ) Service是OOS为注册成功的用户提供的服务,该服务为用户提供弹性可扩展的存储空间,用户可以根据自己的业务需要建立1至10个存储桶(Bucket)。 存储桶( Bucket ) 存储桶(Bucket)是存储文件(Object)的容器。对象存储系统的每个文件(Object)都必须包含在一个存储桶中。对象存储提供的是基于桶和文件的扁平化存储方式,桶中的所有文件都处于同一逻辑层级,去除了文件系统中的多层级树形目录结构。 您可以设置存储桶的属性,用来控制数据存储位置、访问权限、生命周期等,这些属性设置直接作用于该存储桶内的所有文件,因此您可以通过灵活的属性设置,来创建不同的存储桶,完成不同的管理功能。每个用户最多可以建立10个存储桶。用户只有对Bucket拥有相应的权限,才可以对其进行操作,这样保证了数据的安全性,防止非授权用户的非法访问。 对象( Object ) 对象(Object)是用户存储在OOS上的数据基本单元,也被称为OOS的文件。文件可以是文本、图片、音频、视频或者网页。OOS支持的单个文件的大小从1字节到5T字节。 用户可以上传、下载、删除和共享文件。同时用户还可以对文件的组织形式进行管理,将文件移动或者复制到目标目录下。
        来自:
        帮助文档
        对象存储(经典版)I型
        快速入门
        相关术语解释
      • 修改参数模板描述
        本文介绍如何修改参数模板的描述。 注意事项 只能修改自定义参数模板的描述,不能修改系统参数模板的描述。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 关系数据库SQL Server版】,进入关系数据库SQL Server产品页面。然后单击【管理控制台】,进入TeleDB数据库【概览】页面。 2. 在左侧导航栏,选择【SQL Server > 参数模板】,进入参数模板管理页面。然后在顶部菜单栏,选择区域和项目。 3. 选择自定义参数模板标签页,选择某个待修改的自定义参数模板。 4. 选择【更多 > 修改描述】,填写描述,单击【确定】,修改参数模板的描述。 说明 参数模板的描述长度不能超过128个字符。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        参数模板管理
        修改参数模板描述
      • 使用流程
        本章节介绍控制台使用对象存储的快速入门流程。 使用流程 媒体存储控制台提供常见的基础操作,如创建存储桶,上传对象、下载对象等。 控制台使用对象存储流程如下: 登录控制台:具体登录方式可参考 登录控制台 。 创建存储桶:控制台创建Bucket操作可参考 创建存储桶 。 上传对象:控制台上传对象操作可参考 上传对象 。 下载对象:控制台下载对象可参考:下载对象 。 相关文档 如需了解更多控制台操作,可参考:控制台指南。
        来自:
        帮助文档
        媒体存储
        快速入门
        控制台快速入门
        对象存储
        使用流程
      • 实例日志管理
        本章节主要介绍在DRDS管理控制台上查看和修改实例日志保留时间和日志文件大小的方法。 注意事项 日志文件滚动存储,单个日志文件大小上限为3072MB,每日最多保留10个。 总存储空间默认为40GB(含其他文件占用),空间用尽后实例会异常,日志文件将无法写入,请谨慎设置。 修改日志策略后,需要重启实例节点,才能生效。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 在左侧目录单击计算节点管理页签。 5. 在节点列表中,找到目标节点,然后在操作 列选择更多 > 查看日志。 6. 在查看日志 面板中,单击日志管理。 7. 在对话框中,配置如下参数。 参数 描述 日志保留时间 单个日志文件保留的时间,取值范围:1天 30天。 日志文件大小 单个日志文件的大小,取值范围:1MB 3072MB。 8. 选中设置日志管理策略后,需手动重启实例节点才生效 ,然后单击确定。 注意 选中该提示语,仅表示已知晓需要手动重启实例节点日志策略,并非系统会自动重启。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        日志管理
        实例日志管理
      • HBlock服务
        本节主要介绍HBlock服务。 服务 服务名称 作用 stor:mdm 元数据管理服务(仅集群版支持) 管理整个系统的元数据。 stor:fc 故障转移控制服务(仅集群版支持) 进行系统健康检测,实现故障转移控制。 stor:ls 日志服务(仅集群版支持) 提供基于日志的数据同步功能。 stor:dsx 数据服务(仅集群版支持) 管理用户的文件数据块。 stor:cs 协调服务(仅集群版支持) 监视各服务器的状态,触发通知事件,确保集群服务高可用。 stor:ms 管理服务 处理请求信息,维护集群运行状态。 stor:ws 监控服务 监控各个服务的状态,并负责服务的启动。 stor:ps 协议解析服务 负责iSCSI协议解析与数据存储。 stor:ag 数据采集服务 负责采集性能数据。 stor:ua 升级监听服务 负责接收升级请求,执行升级相关操作。
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        附录
        HBlock服务
      • 系列升级
        如果您的实例类型不能满足业务需求,您可以手动升级实例以提高实例性能,例如将单机升级至一主一备。本文介绍关系数据库MySQL版产品的系列升级功能。 前提条件 实例状态为运行中。 内核版本为最新。 注意事项 实例系列升级期间数据库服务将不可用,时间为5分钟左右(时间可能会根据网络等原因有所变化,以实际为准),建议您合理安排业务,谨慎操作。 系列升级后,数据库实例的节点信息发生变更,若实例已开启数据库代理,则需要在数据库代理页面重新设置节点权重,以刷新后端的节点信息。 系列升级过程中,新节点的数据初始化会对主节点带来额外的IO开销,可能会影响正常的业务SQL执行效率。建议您选择业务低峰期操作。 操作步骤 注意 关系数据库MySQL版产品系列升级支持: 单机升级至一主一备 单机升级至一主两备 一主一备升级至一主两备 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,然后在操作 列选择更多 > 系列升级。 4. 在系列升级页面,对实例进行升级操作。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        实例管理
        系列升级
      • 只读实例
        本文主要介绍SQL Server实例只读实例的计费项,仅支持企业版。 天翼云提供了多种规格的SQL Server只读实例,区分通用型和独享型,其中独享型包含计算增强型和内存优化型。 注意 只读实例仅支持企业版。 独享型 CPU(核) 内存(GB) 标准价格 (元/小时) 标准价格(元/月) 2 8 4.73 2776.00 2 16 4.94 2943.00 4 8 8.85 5410.00 4 16 9.42 5563.00 4 32 9.83 5726.00 8 16 17.08 10440.00 8 32 18.79 11046.00 8 64 19.63 11372.00 16 32 33.83 20681.00 16 64 34.4 22193.00 16 128 35.93 22844.00 24 192 56.14 34316.00 32 128 68.76 44485.00 32 256 71.83 45789.00 64 256 136.44 83405.00 通用型 CPU(核) 内存(GB) 标准价格 (元/小时) 标准价格 (元/月) 2 4 1.05 690.00 2 8 1.83 1040.00 4 8 2.06 1340.00 4 16 3.55 2100 8 16 4.02 2590.00 8 32 6.99 3940 16 32 11.95 7304 16 64 13.24 8490.00 说明 包年预付费优惠政策:1年65折,2年55折,3年45折,4年35折,5年3折。
        来自:
        帮助文档
        关系数据库SQL Server版
        计费说明
        产品资费
        只读实例
      • 对象存储访问日志
        本文主要介绍如何接入对象存储访问日志。 云日志服务支持导入对象存储访问日志。出于分析或审计等目的,您可以在对象存储中开启日志管理功能,并导入云日志服务中。通过访问日志记录,桶的拥有者可以深入分析访问该桶的用户请求性质、类型或趋势。 前置条件 已开通对象存储服务。 注意 1. 接入对象存储访问日志,云日志服务侧将产生相关存储费用与流量费用,详情请查看云日志服务计费说明。 2. 开启访问日志转储,会产生对象存储服务费用,相关费用信息请参考对象存储服务文档。 配置流程 1. 登录对象存储ZOS控制台。 2. 选择指定的Bucket名称桶,进入"概览"页面。 3. 点击"日志管理"标签,在日志管理界面下点击"设置"按钮。 4. 选择"开启日志存储",按照日志管理配置规则,选择日志存储位置与日志前缀,单击"保存"开启日志存储功能。 5. 进入云日志服务控制台,在左侧菜单栏点击“日志接入”,选择“对象存储访问日志”。 6. 选择需要存储日志数据的日志项目与日志单元。点击下一步进入日志配置页面。 7. 在日志配置页面中,选择上述第四步已配置的ZOS存储桶以及目录前缀,点击“下一步”,即可完成配置
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        云服务日志接入
        对象存储访问日志
      • 对象存储管理
        本页介绍天翼云TeleDB数据库对象存储管理相关操作。 操作步骤 1. 以用户名和密码登录TeleDBDCP数据库管理平台。 2. 在左侧导航树上,选择资源管理 > 对象存储管理 ,进入对象存储管理页面。 3. 添加对象存储 1. 单击添加对象存储 ,出现添加对象存储对话框。 2. 在对象存储对话框,根据下表填写相关信息。 参数名称 参数说明 对象存储名称 可自定义,必填,您可根据业务需求填写。 归属区域 可填,您可根据业务需求填写。 接入点 必填,您可根据业务需求填写。 Access Key ID 必填,您可根据业务需求填写。 Access Key Secret 必填,您可根据业务需求填写。 备注 可填,根据自己需求填写。 3. 填写完信息,确认信息无误后,单击测试是否连通 ,当出现绿色标识,表示已通过,您可单击确定完成对象存储添加。 4. 您可在对象存储列表查看已添加的对象存储。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        控制台操作指南
        资源管理
        对象存储管理
      • 恢复文件
        本文介绍如何通过控制台等方式恢复文件。 使用场景 开启多版本功能后,删除的文件或文件夹不会立即彻底删除,而是保留在“历史版本”的文件列表中,您可以选择“恢复”文件。 恢复文件会把当前文件恢复为最新版本的文件。 前提条件 开启版本管理中的版本控制功能。详情请参见配置多版本。 约束及限制 归档文件恢复前需要先解冻文件。 使用限制 归档存储的文件在恢复时,无法暂停或删除恢复任务。 数据恢复后,将生成标准存储类型的对象副本,即该对象既有标准存储类型的对象副本,又有归档存储类型的对象。恢复归档存储对象时,对象的恢复状态将显示为“已恢复”,并且标准存储类型对象的生成副本不会显示在存储桶中。 在恢复的有效期内,将同时收取该数据在标准存储和归档存储中的存储费用。恢复期到期后,将自动删除标准存储类型的对象副本。 使用方式 使用方式 参考文档 控制台 详情请参见恢复文件。 SDK ZOS支持多种SDK,关于SDK的代码示例请参见开发者文档。
        来自:
        帮助文档
        对象存储 ZOS
        用户指南
        对象管理
        删除
        恢复文件
      • 扩容存储库
        本文介绍如何扩容混合备份存储库。 操作场景 当混合存储库容量不足时,可以对存储库进行扩容,以满足存储需求。 操作须知 扩容容量为在原有基础上增加的容量。 扩容后的存储库容量不得超过1000TB。 操作步骤 1. 登录控制中心。 2. 在控制中心左上角选择地域,此处选择华东华东1。 3. 选择“存储>云备份”,进入云备份控制台。 4. 在云备份页面,单击左侧“混合备份(存储版)”按钮,进入混合备份控制台。 5. 在存储库页面,单击待扩容存储库所在行的“操作>扩容”按钮。 6. 在弹出的扩容页面选择扩容容量,确定配置信息后,单击“确定”,进入订单页面,完成购买。 7. 回到存储库页面,可以看到存储库容量更新,则表明扩容成功。
        来自:
        帮助文档
        云备份 CBR
        用户指南
        存储库管理
        混合备份存储库
        扩容存储库
      • 1
      • ...
      • 30
      • 31
      • 32
      • 33
      • 34
      • ...
      • 402
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      GPU云主机

      轻量型云主机

      天翼云CTyunOS系统

      训推服务

      应用托管

      科研助手

      一站式智算服务平台

      智算一体机

      推荐文档

      创建只读实例

      使用场景

      iOS客户端需求

      性能瓶颈定界

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号