活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      全局事务服务 GTS_相关内容
      • 通过JDBC连接池连接DRDS
        本章节主要介绍了如何通过JDBC连接池与DRDS对接,实现数据操作。 应用连接池选择 连接资源是数据库中非常宝贵及有限的资源,应用并发量很大时,如果没有连接池,会占用大量的数据库的连接,导致后端数据库连接不足,无法正常提供服务,我们建议应用使用连接池来完成连接工作。在java中,推荐HikariCP作为应用连接池。 JDBC约束 不支持 rewriteBatchedStatementstrue 参数设置(默认为 false)。 BLOB, BINARY, VARBINARY 字段不能使用 setBlob() 或 setBinaryStream() 方法设置参数 。 操作步骤 1. 在控制台创建表并配置分片规则,参考建表DDL如下。 json create table if not exists enumtable( id int not null, code int not null, content varchar(250) not null, primary key(id) )engineinnodb charsetutf8; 2. 配置依赖。 json com.zaxxer HikariCP 4.0.3 3. 配置JDBC连接池参数。 yaml > 4. 连接DRDS实例执行相关sql。 json import com.zaxxer.hikari.HikariDataSource; import org.springframework.context.ApplicationContext; import org.springframework.context.support.ClassPathXmlApplicationContext; import java.sql.Connection; import java.sql.PreparedStatement; import java.sql.ResultSet; import java.sql.SQLException; public class JDBCTest { public static void main(String[] args) throws SQLException { ApplicationContext app new ClassPathXmlApplicationContext("application.xml"); HikariDataSource dataSource (HikariDataSource) app.getBean("dataSourceHikari"); Connection conn null; try { conn dataSource.getConnection(); //开启事务 conn.setAutoCommit(false); // 插入测试数据 PreparedStatement ps1 conn.prepareStatement("insert into enumtable (id,code,content) values (?,?,?);"); ps1.setInt(1, 1); ps1.setInt(2, 1001); ps1.setString(3, "测试数据"); ps1.executeUpdate(); conn.commit (); //查询条件带上分片键或切片索引键,否则语句将广播执行 PreparedStatement ps2 conn.prepareStatement("SELECT FROM enumtable WHERE id ?"); ps2.setInt(1, 1); ResultSet rs ps2.executeQuery(); rs.next(); String space ""; for (int i 1; i < rs.getMetaData().getColumnCount(); i++) { System.out.print(space + rs.getMetaData().getColumnName(i) + " " + rs.getString(i)); space ", "; } } catch (Exception e) { e.printStackTrace(); } finally { if (conn ! null) { conn.close(); } } } }
        来自:
        帮助文档
        分布式关系型数据库
        最佳实践
        通过JDBC连接池连接DRDS
      • 数据库使用
        与开源Redis5.0相比,GeminiDB Redis支持和限制的命令有哪些 GeminiDB Redis支持的命令请参见使用规范。 业务侧原本做了数据分片,切换到GeminiDB Redis后如何处理这部分逻辑 充分考虑到业务后期的规模扩张,GeminiDB Redis采用存算分离架构,在计算层实现了动态数据分片管理,提供强劲的平滑扩缩容能力。因此,接入GeminiDB Redis实例后,业务侧无需再做数据分片。 GeminiDB Redis是否支持keys命令的模糊查询 出于安全角度考虑,GeminiDB Redis不支持通过keys命令进行模糊查询。建议您使用scan搭配match来进行模糊匹配。 GeminiDB Redis是否支持多DB GeminiDB Redis的多DB功能将于2022年3月底上线,此前创建的实例暂不支持该功能,也不支持通过升级开启该功能。 使用GeminiDB Redis多DB功能时,您需要关注以下约束与限制: DB数支持的范围为0~65535。 不支持swapdb命令。 dbsize命令当前仅能统计所有DB下的key的数量,flushdb后dbsize返回的结果并不会降为0。 不支持info keyspace,如需统计某个DB下key的数量,请使用scan进行扫描查询。 不支持在Lua脚本中使用select和flushdb命令。 不支持在事务中使用select和flushdb命令。 暂不支持move命令。 对于scan类的操作,GeminiDB Redis接口与开源Redis 5.0的返回值顺序为什么有差异 开源Redis没有规定如下情况的排序准则,故GeminiDB Redis接口的返回顺序可能和开源Redis不一样,但两者均满足开源文档描述行为。 scan/hscan/sscan操作的返回值。 在zset类型的元素具有相同score时,执行zscan操作的返回值。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        常见问题
        数据库使用
      • 营业执照识别
        2.请求失败返回响应参数 参数 是否必填 参数类型 说明 示例 下级对象 statusCode 是 Int 错误码,参见本文档错误码说明部分 400010 message 是 String 返回对应的错误信息 Action值设置错误 details 是 String 返回对应的错误描述 Action值设置错误 error 是 String 返回对应的错误码 AIOP400010 返回值示例 1.请求成功返回值示例 json { "statusCode": 0, "message": "success", "returnObj": { "licensetype": "Business License", "detail": { "unionid": "", "registno": "32050XXXXXX8749", "name": "苏州市XXXX有限公司", "type": "有限公司(自然人控股)", "addr": "苏州市相城区XXXXXXXXX", "legalrep": "潘X", "registcaptial": "200万元人民币", "establishdate": "2005年6月9日", "businessscope": "一般经营项目XXXXXXXXX", "nationalemblem": true, "qrcode": true, "seal": true, "isduplication": true, "operationperiod": "2005年06月09日至2015年06月08日", "realcaptial": "200万元人民币", "composingform": "", "serialnumber": "" } } } 2.请求失败返回值示例 json { "statusCode": 400010, "message": "Action值设置错误", "details": "Action值设置错误", "error":"AIOP400010" } 状态码 http状态码 描述 200 表示请求成功 错误码说明 6 位错误码。4 开头为业务错误码,5 开头为服务错误码。全局请求返回错误码请参考章节API概览​>状态码 错误码 错误信息 错误描述 CTAPI10000 API Not Found CTAPI0009 无效json的body参数 AIOP400005 请求体类型错误 请求体需为字典,不能为其他类型 AIOP400006 必传的参数未传 必须的参数('Action'、'ImageData')未传 AIOP400008 请求体的字段类型错误 Action字段值为string类型 ImageData 字段值为string类型 AIOP400009 请求体的参数字段值为空 Action字段值为空字符 ImageData 字段值为空字符 AIOP400010 请求体的参数字段值设置错误 Action 值设置错误 AIOP400011 base64 数据处理异常 ImageData 字段的 base64 字符串转换字节码异常 AIOP400012 请求文件格式不合法 仅支持 jpeg/png/jpg/bmp 格式 AIOP400013 图片文件大小不符合要求 该文件大小不符合要求,静态图片要求小于7M AIOP410001 图片解码错误 字节码解码为图片错误 AIOP410002 图片尺寸不符合要求 分辨率长宽尺寸应不高于5000不低于32 AIOP500001 服务接口异常,请联系管理员 需要联系管理员处理
        来自:
        帮助文档
        印刷文字识别
        API参考
        API
        营业执照识别
      • 跨天翼云账号迁移MySQL数据
        本文介绍了如何通过数据传输服务DTS跨账号迁移天翼云关系数据库MySQL版数据。 前提条件 源端 账号权限要求: 对MySQL库的查询权限。 对待迁移库的查询权限。 部分全局权限:RELOAD、LOCK TABLES、REPLICATION CLIENT、REPLICATION SLAVE、SHOW VIEW、PROCESS。 如果是整实例迁移,需要对所有数据库的查询权限。 其他要求: 已绑定公网eip。 目标端 账号权限要求: 需要以下全局权限:ALTER、ALTER ROUTINE、CREATE、CREATE ROUTINE、CREATE TEMPORARY TABLES、CREATE USER、CREATE VIEW、DELETE、DROP、EVENT、EXECUTE、INDEX、INSERT、LOCK TABLES、PROCESS、RELOAD、SELECT、SHOW DATABASES、SHOW VIEW、TRIGGER、UPDATE。 其他要求: 已创建关系数据库MySQL版。 已绑定公网eip。 注意 这里的源端是指需要跨账号迁移的源天翼云数据库。 约束限制 如迁移对象为表级别,则单次迁移任务仅支持迁移最多600张表。当超出数量限制,任务会在提交后会请求报错。如果遇到这种情形,建议您拆分待迁移的表,分批配置成多个任务,或者配置为整库迁移。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库关联RDS数据库的字符集必须与源数据库一致。 目标库若已存在行数据,DTS在增量迁移过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在迁移前需要用户自行判断数据是否需要清除,建议用户在迁移前自行清空目标库。 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为7天。否则DTS在增量迁移时可能因无法获取Binlog而导致任务失败。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间。(全量数据迁移会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库实例若选择将时间戳类型(TIMESTAMP,DATETIME)的列作为分片键,则源库数据在迁移到目标库之后,作为分片键的该时间戳类型列的秒精度将被丢弃。 由于DTS不迁移USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 在任务启动、任务全量迁移阶段,不建议对源数据库做删除类型的DDL操作,这样可能会引起任务迁移失败。 迁移过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库的端口号。 迁移过程中,不允许对源库需要迁移的表结构进行修改。 选择表级对象迁移时,增量迁移过程中不建议对表进行重命名操作。 增量迁移场景下,不支持源数据库进行恢复操作。 增量迁移场景下,不支持无主键表的数据增量迁移,因为无主键表的增量迁移性能远低于有主键的表,而且不能保证数据的一致性。 说明 详细信息请参考
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据迁移
        跨天翼云账号迁移MySQL数据
      • 从其他云数据库迁移MySQL数据
        本文介绍了如何通过数据传输服务DTS将数据从其他云数据库迁移至天翼云关系数据库MySQL版。 前提条件 源端 账号权限要求: 对MySQL库的查询权限。 对待迁移库的查询权限。 部分全局权限:RELOAD、LOCK TABLES、REPLICATION CLIENT、REPLICATION SLAVE、SHOW VIEW、PROCESS。 如果是整实例迁移,需要对所有数据库的查询权限。 其他要求: 已开通公网访问,并能获取外网连接地址。 目标端 账号权限要求: 需要以下全局权限:ALTER、ALTER ROUTINE、CREATE、CREATE ROUTINE、CREATE TEMPORARY TABLES、CREATE USER、CREATE VIEW、DELETE、DROP、EVENT、EXECUTE、INDEX、INSERT、LOCK TABLES、PROCESS、RELOAD、SELECT、SHOW DATABASES、SHOW VIEW、TRIGGER、UPDATE。 其他要求: 已创建关系数据库MySQL版。 已绑定弹性公网IP。 约束限制 如迁移对象为表级别,则单次迁移任务仅支持迁移最多600张表。当超出数量限制,任务会在提交后会请求报错。如果遇到这种情形,建议您拆分待迁移的表,分批配置成多个任务,或者配置为整库迁移。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库关联RDS数据库的字符集必须与源数据库一致。 目标库若已存在行数据,DTS在增量迁移过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在迁移前需要用户自行判断数据是否需要清除,建议用户在迁移前自行清空目标库。 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为7天。否则DTS在增量迁移时可能因无法获取Binlog而导致任务失败。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间。(全量数据迁移会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库实例若选择将时间戳类型(TIMESTAMP,DATETIME)的列作为分片键,则源库数据在迁移到目标库之后,作为分片键的该时间戳类型列的秒精度将被丢弃。 由于DTS不迁移USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 在任务启动、任务全量迁移阶段,不建议对源数据库做删除类型的DDL操作,这样可能会引起任务迁移失败。 迁移过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库的端口号。 迁移过程中,不允许对源库需要迁移的表结构进行修改。 选择表级对象迁移时,增量迁移过程中不建议对表进行重命名操作。 增量迁移场景下,不支持源数据库进行恢复操作。 增量迁移场景下,不支持无主键表的数据增量迁移,因为无主键表的增量迁移性能远低于有主键的表,而且不能保证数据的一致性。 说明 详细信息请参考
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据迁移
        从其他云数据库迁移MySQL数据
      • 创建桶
        本文帮助您了解对象存储创建桶的操作场景及方法。 操作场景 桶是对象存储(简称ZOS)中存储对象的容器。您需要先创建一个桶,然后才能在ZOS中存储数据。您可以通过ZOS控制台、API、SDK等方式创建桶。 约束与限制 存储桶一旦创建成功,名称和所处地域不能修改且不支持重命名。创建时,请设置合适的桶名称和地域。 桶名称全局唯一,在任何集群,都不能与已有的任何桶名称重复,包括其他用户创建的桶。 用户在每个资源池的默认配额为100个桶。完成升级的资源池新创建的桶无对象/文件数量限制,未升级的资源池单桶可承载的对象/文件数量为4亿,详情可见产品使用限制。 创建桶的方法 访问方式 创建桶方法 控制台 通过控制台创建桶 SDK 具体可参考开发者文档 API 具体可参考创建桶
        来自:
        帮助文档
        对象存储 ZOS
        快速入门
        创建桶
      • 按时间点恢复
        恢复到指定的时间点是指将数据库恢复到过去某一个特定的时间点上的状态。具体实现方式是在备份时记录每个事务变化的时间点(也称为 LSN),在恢复时指定需要恢复到的 LSN,然后进行还原,本文为您介绍详细的操作步骤。 操作场景 关系数据库MySQL版支持使用已有的自动备份,恢复实例数据到指定时间点。实例恢复到指定时间点,会从备份空间中选择一个该时间点最近的全量备份下载到实例上进行全量恢复,再重放增量备份到指定时间点,恢复时长和实例的数据量有关,恢复速率根据磁盘类型不同有所差异。 注意 由于恢复到时间点功能需要依赖最近的一个全量备份和Binlog日志文件,如若最近的全备失败或者Binlog日志备份关闭,可能会影响恢复时间点功能,导致有一段时间恢复不到。 约束限制 请勿在实例的生命周期内执行reset master命令,以免造成恢复到指定时间点功能异常。 目前该功能仅Ⅱ类型资源池支持恢复到新实例,新实例将作为用户新开通的实例收费。 如备份类型选择了云硬盘,目标实例的VPC和数据库版本需与原实例相同,否则会导致恢复失败。如备份类型选择对象存储,VPC可以不同。 目标实例与原实例在表名大小写的区分上需相同,否则会导致恢复失败。 目标实例的存储空间需大于原实例的存储空间,否则会导致恢复失败。建议新实例的存储空间在原实例存储空间基础上增加30%以上。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        备份与恢复
        恢复
        按时间点恢复
      • 状态运行快照
        本页介绍天翼云TeleDB数据库状态运行快照。 操作步骤 1. 切换至TeleDB控制台,在左侧导航树单击实例监控 ,选择状态运行快照页签。 2. 快照设置 1. 单击快照设置 ,弹出状态运行快照策略设置对话框。 2. 在状态运行快照策略设置 对话框中,打开运行快照开启状态,输入快照开启时间和快照间隔时间,单击确定完成设置。 3. 手动快照 单击手动快照可立即执行快照。 4. 查询快照列表 可通过设置起始时间和结束时间,单击查询筛选已产生的快照列表。 5. 查看快照详情 单击对应快照记录的详情,可查看该快照的详细信息。 具体内容包括: 数据库状态:节点名称、IP、端口、角色、日志同步状态、运行状态。 数据库核心配置:synchronouscommit、maxpoolsize、autovaccum、maxconnection、workmem、walkeepsegments、vacuumdelta、sharedbuffers的参数值。 数据库连接分析:包括CN和DN的连接情况,如avgconn、avgconnactive、avgconnidle、avgconnlock等。 DataNode节点请求量统计:统计DN节点的增删改查请求量。 数据库检查点:节点的检查点情况,如checkpointstimed、checkpointsreq、数据库vaccum统计和实例vaccum情况等。 存储情况分节点统计:节点的存储情况,如totalsize、totaltups。 慢查询TOP 50:慢查询的TOP 50情况。 错误日志情况:包括错误信息、级别。 buffer命中率分析:包括平均、最大和最小情况。 锁分析(最多展示等待时间最长50条)。 节点CPU/内存利用率概况。 死锁与二事务残留详情。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        控制台操作指南
        实例监控
        状态运行快照
      • 桶和对象相关
        本节主要介绍OBS桶和对象相关问题。 创建桶失败 若当前用户所创建的桶已达到上限100个,删除一些闲置的桶再创建。 若是当前桶名已存在,则更换桶名再创建。在OBS中,桶名必须是全局唯一的,即用户创建的桶不能与自己已创建的其他桶名称相同,也不能与其他用户创建的桶名称相同。 用户删除桶后,立即创建同名桶或并行文件系统会创建失败,需要等待30分钟才能创建。 检查帐号是否拥有权限,若无权限,请授予对应的操作权限。 检查帐号是否已欠费或余额不足。若欠费,请先续费。 检查本地与OBS的网络是否正常,若存在网络故障,解决网络故障,确保网络正常。 若以上都不是,请根据返回的错误码进一步判断。 上传对象失败 检查本地与OBS的网络是否正常,若存在网络故障,解决网络故障,确保网络正常。 上传对象时弹出“Service Unavailable”的错误提示,则可能是因为当前服务器繁忙,请稍后重试。 检查帐号是否已欠费或余额不足。若欠费,请先续费。 检查帐号是否拥有桶的上传对象权限,请综合IAM策略、桶策略和桶ACL共同检查。若无权限,请先授权。 对于OBS Browser+,数据库紊乱也会造成上传失败,您可以清空数据库后再次上传文件。在数据库路径下,删除所有文件。 对于OBS Browser+,您还要检查您的电脑系统是否使用了搜狗输入法,若是,请升级搜狗输入法到最新版本。 若以上都不是,请联系客服进一步解决。
        来自:
        帮助文档
        对象存储 OBS
        常见问题
        桶和对象相关
      • 流量防护
        本章节介绍网关治理中的流量防护功能 请求分组管理 可以创建请求分组,并自定义每个请求分组下的URL路径匹配规则,以增强网关防护功能。通过这种方式,您可以对特定的请求分组进行流量控制,以确保网络安全。网关防护可以针对自定义的请求分组进行流量控制。 新建自定义请求 1. 登录微服务治理控制台。 2. 在控制台左侧导航栏中选择网关治理。 3. 在网关治理页面的应用卡片页签单击目标网关卡片。 4. 在左侧导航栏选择网关防护 请求分组管理,单击新增请求分组。 5. 在新建自定义请求分组对话框中,填写请求分组名称(说明该名称需要全局唯一,并且不能与路由配置文件中的路由ID重复)。 6. 填写URL路径匹配规则,先选择匹配模式,再根据匹配模式的要求填写匹配串。匹配模式分为以下三类: 精确模式:严格按照给定的匹配串来匹配URL路径。示例:/path代表严格按照/path这个路径来匹配。 前缀模式:按照给定的匹配串来进行前缀匹配,匹配串需符合Spring Web风格。示例:/path/ 代表匹配以/path/开头的所有URL,像/path/123这种URL都可以匹配。 正则模式:按照给定的正则表达式匹配串来进行匹配。 匹配串:根据匹配模式的要求填写匹配串。 7. 单击+新增匹配规则,可添加多个URL路径匹配规则。 8. 单击新增,完成自定义请求分组的创建。新增的请求分组将出现在请求分组管理页面。
        来自:
        帮助文档
        微服务引擎
        用户指南
        微服务治理中心
        网关治理
        流量防护
      • 查看实例拓扑
        本文为您介绍实例拓扑功能和使用方法。 注意 仅西南1、华东1、华南2、华北2、上海36等II类型资源池支持该功能,I类型资源池不支持该功能,具体支持情况以控制台页面展示为准。更多资源池信息,请参见功能概览。 背景信息 实例拓扑提供目标实例的节点信息、数据库代理和只读实例的逻辑对应关系,对目标实例及其关联实例提供一个清晰的全局查看视角(支持查看实例节点名称、数据库代理名称、只读实例名称等信息),方便您获取实例信息,并根据实际情况,为目标实例快速开启代理或创建只读实例。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 找到目标实例,单击实例名称,进入实例基本信息页面。 4. 单击右上角的实例拓扑。 5. 在实例拓扑页面,查看数据库代理信息、实例节点信息和只读实例信息。 如果您需要为实例创建代理,只需单击数据库代理区 域的创建代理 。具体的参数配置信息,请参见开启并配置MySQL数据库代理服务。 如果您需要为实例创建只读实例,只需要单击只读实例 区域的创建只读 。具体的参数配置信息,请参见创建只读实例。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        实例管理
        查看实例拓扑
      • 跨源连接运维报错
        本章节主要介绍跨源连接相关问题中有关跨源连接运维报错的问题。 新建跨源连接,显示已激活,但使用时报communication link failure错误 原因 网络连通性问题,建议用户检查安全组选择是否正确,检查安全组网络(vpc)配置。 解决方法: 示列:创建RDS跨源,使用时报“communication link failure”错误。 a. 将原有跨源连接删除重新创建。再次创建时,必须确保所选“安全组”、“虚拟私有云”、“子网””和“目的地址”与RDS中的设置完全一致。 说明 请选择正确的“服务类型”,本示例中为“RDS”。 b.检查安全组网络(vpc)配置。 若按照步骤1重建跨源连接后还是报错“communication link failure”,则检查vpc配置。 跨源访问MRS HBase,连接超时,日志未打印错误 用户在跨源连接中没有添加集群主机信息,导致KRB认证失败,故连接超时,日志也未打印错误。建议配置主机信息后重试。 在“增强型跨源”页面,单击该连接“操作”列中的“修改主机信息”,在弹出的对话框中,填写主机信息。格式为:“IP 主机名/域名”,多条信息之间以换行分隔。 详细操作请参考《数据湖探索用户指南》中的“修改主机信息”章节。 DLI跨源连接报错找不到子网 跨源连接创建对等连接失败,报错信息如下: Failed to get subnet 2c2bd2ed72964c649b60ca25b5eee8fe. Response code : 404, message : {"code":"VPC.0202","message":"Query resource by id 2c2bd2ed72964c649b60ca25b5eee8fe fail.the subnet could not be found."} 创建跨源连接之前,需要确认是否勾选了“VPC Administrator”,如果只是勾选了全局的tenant administrator,会提示找不到子网。
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        跨源连接相关问题
        跨源连接运维报错
      • 排查实例CPU使用率高问题
        本页介绍了排查实例CPU使用率高问题的方法。 CPU使用率过高的一般排查步骤如下: 1. 在DDS控制台找到目标实例,单击监控图标, 然后在CPU页签下,查看CPU使用率较高的时间段。 2. 登录对应的实例机器查看系统资源使用情况:首先使用Linux的系统监控工具(如top、htop)或Windows的任务管理器,查看系统整体的CPU使用率和其他资源使用情况。确认是否只有MongoDB进程占用大量CPU资源,还是其他进程也在竞争CPU资源。 3. 文档数据库服务查询性能分析工具与方式: 1. MongoDB Compass等工具来查看当前正在执行的查询(MongoDB Compass 的下载与使用请参见Mongodb的官网下载)。 2. 使用MongoDB shell的db.currentOp()命令,检查是否有某个查询或操作占用了大量CPU资源。 db.currentOp()命令解析: 例如:连接上Mongodb shell 执行以下操作: > db.users.find({ age: { $gte: 18 } }).limit(10) > db.currentOp() { "inprog" : [ { "opid" : 1290, // 操作的唯一标识符 "op" : "query", // 操作类型:查询 "ns" : "exampledb.users", // 操作涉及的命名空间 "query" : { "age" : { "$gte" : 18 } }, // 查询条件 "client" : "127.0.0.1:57852", // 客户端IP地址和端口 "desc" : "conn211", // 操作的描述信息 "active" : true, // 操作是否活动中 "secsrunning" : 5, // 操作已经运行的时间(以秒为单位) "oplog" : false, "numYields" : 0, "locks" : { "Global" : "r", // 全局读锁 "MMAPV1Journal" : "r" // MMAPv1引擎的日志读锁 }, "waitingForLock" : false, "msg" : "", "numYieldOps" : 0, "database" : "exampledb", "command" : { "find" : "users", // 执行的命令:查找操作 "filter" : { "age" : { "$gte" : 18 } }, // 过滤条件 "limit" : 10 // 限制结果数 }, "planSummary" : "COLLSCAN", // 查询执行计划摘要 "lsid" : { "id" : { "UUID" : "e45ea9176c614a5e86812da4af89aa29" }, // 会话ID "uid" : ObjectId("ea6a1a2570a062f88eac10f5") // 用户ID }, "$clusterTime" : { "clusterTime" : Timestamp(1657796621, 1), "signature" : { "hash" : { "BsonData" : "wDUTByvnZXjN+MJB/M9Rlg", "Length" : 28 }, "keyId" : 6963168194386045953 } }, "stale" : false, "txnNumber" : 11, "startAt" : ISODate("20230721T15:57:01.246Z"), "autocommit" : false, "lastWrite" : { "opTime" : { "ts" : Timestamp(1657796621, 1), "t" : 1 }, "lastWriteDate" : ISODate("20230721T15:57:01Z"), "majorityOpTime" : { "ts" : Timestamp(1657796621, 1), "t" : 1 }, "majorityWriteDate" : ISODate("20230721T15:57:01Z") }, "activeShards" : {}, "numShards" : 0, "shardName" : "", "hashed" : false, "batchSize" : 0, "mode" : "scanned" } ] } 4. 确认索引使用情况:检查数据库中的索引是否被有效使用。缺少索引或索引使用不当可能导致查询性能下降,从而导致高CPU使用率。 5. 长时间运行的查询:检查是否有长时间运行的查询,这些查询可能会占用大量CPU资源。优化查询性能或者对长时间运行的查询进行调整可能有助于降低CPU使用率。 6. 调整Write Concern:写操作的Write Concern设置会影响数据写入的确认方式,使用较高级别的Write Concern可能会导致CPU开销增加。根据应用需求,选择合适的Write Concern。 7. 硬件性能:确认文档数据库运行在性能良好的硬件上,包括CPU、内存和磁盘。如果硬件性能不足,可能会导致CPU使用率过高。 8. 日志记录级别:考虑降低文档数据的日志记录级别,减少日志输出对CPU的影响。 9. 压力测试:进行压力测试以模拟生产环境的负载,并观察CPU使用率的变化。通过压力测试可以更好地理解系统的瓶颈和性能问题。 10. 数据分片:如果数据量较大,可以考虑使用文档数据库服务的分片集群,将数据分散到多个节点上,以实现水平扩展和负载均衡。 11. 数据库版本和配置:确保使用的文档数据库服务版本是较新的稳定版本,并根据硬件资源和负载情况合理配置文档数据库服务的参数。 注意 高CPU使用率可能是复杂的问题,可能有多个因素共同导致。在进行问题排查时,建议先在测试环境中进行实验和测试,逐步排查可能的原因。如果问题持续存在,可以考虑寻求专业的文档数据库技术支持。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        性能调优
        排查实例CPU使用率高问题
      • 故障类
        本文主要介绍故障类问题 为什么创建组织失败? 问题现象:创建组织失败,页面提示该组织已经存在,但在“组织管理”页面没有查询到该组织。 解决办法:组织名称全局唯一,即当前区域下,组织名称唯一。 创建组织时如果提示组织已存在,可能该组织名称已被其他用户使用,请重新设置一个组织名称。 CCE工作负载拉取SWR镜像异常,提示为“未登录” 当CCE工作负载无法正常拉取SWR的镜像,且提示“未登陆”时,请排查该工作负载的yaml文件中是否存在“imagePullSecrets”字段,且name参数值需固定为defaultsecret。 示例: apiVersion: extensions/v1beta1 kind: Deployment metadata: name: nginx spec: replicas: 1 selector: matchLabels: app: nginx strategy: type: RollingUpdate template: metadata: labels: app: nginx spec: containers: image: nginximagePullPolicy: Always name: nginx imagePullSecrets: name: defaultsecret 为什么登录指令执行失败? 登录指令执行失败有以下几种情况: 1. 容器引擎未安装正确,报如下所示错误: “docker: command not found” 解决方法: 重新安装docker容器引擎。 由于容器镜像服务支持容器引擎1.11.2及以上版本上传镜像,建议下载对应版本。 安装容器引擎需要连接互联网,内网服务器需要绑定弹性公网IP后才能访问。 2. 临时登录指令已过期或登录指令中区域项目名称、AK、登录密钥错误,报如下所示错误: “unauthorized: authentication required” 解决方法: 登录容器镜像服务控制台,在左侧菜单栏选择“我的镜像”,单击右侧“客户端上传”获取登录指令。 a. 获取临时的登录指令:单击“生成临时登录指令”,在弹出的页面中单击复制登录指令。 b. 获取长期有效的登录指令:单击“如何获取长期有效登录指令”,具体方法请参见用户指南 > 镜像管理> 获取长期有效登录指令。 3. 登录指令中镜像仓库地址错误,报如下所示错误: “Error llgging in to v2 endpoint, trying next endpoint: Get dial tcp: lookup {{endpoint}} on xxx.xxx.xxx.xxx:53 : no such host” 解决方法: c. 修改登录指令中的镜像仓库地址。 镜像仓库地址格式: registry.区域项目名称.ctyun.cn,如“苏州”对应的镜像仓库地址为registry.cnjssz1.ctyun.cn。 d. 获取临时登录指令。 4. x509: certificate has expired or is not yet valid 长期有效登录指令中AK/SK被删除导致,请使用有效的AK/SK生成登录指令。 5. x509: certificate signed by unknown authority 问题原因: 容器引擎客户端和SWR之间使用HTTPS的方式进行通信,客户端会对服务端的证书进行校验。如果服务端证书不是权威机构颁发的,则会报如下错误:x509: certificate signed by unknown authority 解决方法: 如果用户信赖服务端,跳过证书认证,那么可以手动配置Docker的启动参数,配置方法如下: CentOS: 修改“/etc/docker/daemon.json”文件(如果没有,可以手动创建),在该文件内添加如下内容: { "insecureregistries": ["{镜像仓库地址}"] } Ubuntu: 修改“/etc/default/docker”文件,在DOCKEROPTS配置项中增加如下内容: DOCKEROPTS"insecureregistry {镜像仓库地址}" EulerOS: 修改“/etc/sysconfig/docker”文件,在INSECUREREGISTRY配置项中增加如下内容: INSECUREREGISTRY'insecureregistry {镜像仓库地址}' 说明 镜像仓库地址支持域名和IP形式。 域名:registry.区域项目名称.ctyun.cn。例如“苏州”的镜像仓库地址为:registry.cnjssz1.ctyun.cn。 IP:可通过ping镜像仓库地址(域名形式)获取。 配置完成后,执行systemctl restart docker重启容器引擎。
        来自:
        帮助文档
        容器镜像服务
        常见问题
        故障类
      • 权限配置概述
        IAM权限策略 默认情况下,子账号在使用云服务时没有任何权限。如果您通过子账号访问分布式云容器平台,需要为其授予相应的操作权限,以确保正常使用分布式云容器平台的功能。分布式云容器平台提供了一些默认的系统权限策略,用于控制全局资源的读写访问,您可以根据业务需求为子账号添加相应的系统策略。 IAM系统权限策略 权限说明 ccseoneadmin 当前账号拥有分布式云容器平台的所有权限。 ccseoneuser 当前账号拥有注册集群、舰队、联邦等资源的读写权限。 ccseoneviewer 当前账号拥有分布式云容器平台的资源的只读权限。 RBAC权限 IAM系统权限策略仅控制分布式云容器平台资源的操作权限,若子账号需要操作指定集群内的K8s资源(比如查询Pod信息、修改ConfigMap的配置内容),除IAM系统权限策略外,还需要获取指定分布式云容器平台集群的RBAC权限。赋予RBAC权限可以在分布式云容器平台的权限管理页面进行操作,支持赋予预置角色和自定义角色。另外值得注意,如果注册集群加入了舰队,舰队和注册集群都设置了RBAC权限,此时该注册集群的RBAC权限将以舰队的RBAC权限为准。 分布式云容器平台提供以下预置角色: RBAC权限 权限说明 管理员 对所有集群资源对象的读写权限。 运维人员 对集群命名空间级别资源对象的读写权限,对其他资源对象的只读权限。 开发人员 对集群命名空间级别控制台可见资源对象的读写权限。 受限人员 对集群命名空间级别控制台可见资源对象的只读权限。
        来自:
        帮助文档
        分布式容器云平台 CCE One
        用户指南
        平台服务
        权限配置
        权限配置概述
      • 应用场景
        本章节介绍故障演练服务的应用场景。 故障演练服务适用于多种复杂的业务和技术场景,旨在帮助用户从被动响应故障转变为主动发现和规避风险,全面提升系统的稳定性和韧性。 1. 验证高可用(HA)与容灾(DR)预案 这是故障演练的核心应用场景之一。通过模拟关键组件的失效,可以验证系统的自动切换、故障转移和恢复能力是否符合预期。 场景示例: 数据层 :通过模拟分布式缓存服务Redis版的主备切换、节点宕机等场景,验证组件能否无感切换,量化对上层业务的影响,评估高可用架构的实际效果。 中间件 :通过模拟分布式消息服务Kafka的Broker节点宕机等场景,检验消息中间件的高可用特性,评估业务数据的可靠性和业务消息生产/消费的合理性。 应用层 :通过模拟承载关键业务的云主机宕机等场景,验证应用健康检查与流量转移的及时性和有效性,评估业务连续性是否符合架构设计要求。 2. 评估系统性能水位 在业务大促、秒杀等高并发场景来临前,通过主动对系统资源施加压力,可以提前发现性能瓶颈,为容量规划和扩容决策提供数据支持。 场景示例: 计算资源压测 :通过模拟云主机CPU/内存高负载场景,监测应用服务的响应延迟与错误率变化,评估应用系统在资源瓶颈下的稳定性表现。 存储性能压测 :通过模拟云主机磁盘I/O高负载场景,监测数据库事务处理、日志写入等关键操作在压力下的吞吐量、延迟及错误率表现,评估存储系统的性能瓶颈。
        来自:
        帮助文档
        应用高可用
        产品简介
        故障演练服务
        应用场景
      • 应用场景(1)
        本章节介绍故障演练服务的应用场景。 故障演练服务适用于多种复杂的业务和技术场景,旨在帮助用户从被动响应故障转变为主动发现和规避风险,全面提升系统的稳定性和韧性。 1. 验证高可用(HA)与容灾(DR)预案 这是故障演练的核心应用场景之一。通过模拟关键组件的失效,可以验证系统的自动切换、故障转移和恢复能力是否符合预期。 场景示例: 数据层 :通过模拟分布式缓存服务Redis版的主备切换、节点宕机等场景,验证组件能否无感切换,量化对上层业务的影响,评估高可用架构的实际效果。 中间件 :通过模拟分布式消息服务Kafka的Broker节点宕机等场景,检验消息中间件的高可用特性,评估业务数据的可靠性和业务消息生产/消费的合理性。 应用层 :通过模拟承载关键业务的云主机宕机等场景,验证应用健康检查与流量转移的及时性和有效性,评估业务连续性是否符合架构设计要求。 2. 评估系统性能水位 在业务大促、秒杀等高并发场景来临前,通过主动对系统资源施加压力,可以提前发现性能瓶颈,为容量规划和扩容决策提供数据支持。 场景示例: 计算资源压测 :通过模拟云主机CPU/内存高负载场景,监测应用服务的响应延迟与错误率变化,评估应用系统在资源瓶颈下的稳定性表现。 存储性能压测 :通过模拟云主机磁盘I/O高负载场景,监测数据库事务处理、日志写入等关键操作在压力下的吞吐量、延迟及错误率表现,评估存储系统的性能瓶颈。
        来自:
      • NGINX Ingress控制器
        本文主要介绍NGINX Ingress控制器。 插件简介 Kubernetes通过kubeproxy服务实现了Service的对外发布及负载均衡,它的各种方式都是基于传输层实现的。在实际的互联网应用场景中,不仅要实现单纯的转发,还有更加细致的策略需求,如果使用真正的负载均衡器更会增加操作的灵活性和转发性能。 基于以上需求,Kubernetes引入了资源对象Ingress,Ingress为Service提供了可直接被集群外部访问的虚拟主机、负载均衡、SSL代理、HTTP路由等应用层转发功能。 Kubernetes官方发布了基于Nginx的Ingress控制器,NGINX Ingress控制器是一款使用configmap来存储nginx配置的插件,nginx ingress controller会将ingress生成一段nginx的配置,将这个配置通过Kubernetes API写到Nginx的Pod中,然后reload完成nginx的配置修改和更新。 NGINX Ingress控制器插件直接使用社区模板与镜像,CCE不提供额外维护,不建议用于商用场景。 开源社区地址: 说明 安装该插件时,您可以通过“定义nginx配置”添加配置,此处的设置将会全局生效,该参数直接通过配置nginx.conf生成,将影响管理的全部Ingress,相关参数可通过 安装该插件后,您在CCE控制台创建Ingress时可以开启“对接Nginx”按钮,并通过“Nginx配置”下的“自定义配置”将Kubernetes annotations添加到特定的Ingress对象,以自定义其行为,Kubernetes annotations字段详情请参见 请勿手动修改和删除CCE自动创建的ELB和监听器,否则将出现工作负载异常;若您已经误修改或删除,请卸载Nginx Ingress插件后重装。
        来自:
        帮助文档
        云容器引擎
        用户指南
        插件管理
        NGINX Ingress控制器
      • 配置规则白名单
        本文为您介绍Web基础防护模块的规则白名单功能及配置方式。 网站接入云WAF后,您可以通过设置全局白名单规则,让满足指定特征的请求不经过Web基础防护引擎的检测,一般用于放行因触发Web基础防护相关规则被误拦截的特殊业务请求。 前提条件 已开通了Web应用防火墙,且实例版本为标准版及以上版本。 已完成网站接入。具体操作,请参见添加域名。 操作步骤 1. 登录天翼云控制中心。 2. 单击页面顶部的区域选择框,选择区域。 3. 在产品服务列表页,选择“安全 > Web应用防火墙(原生版)”。 4. 在左侧导航栏,选择“防护配置 > 对象防护配置”,进入防护配置页面。 5. 在“防护配置”页面上方的“防护对象选择”下拉框,切换到要设置的域名。 6. 在“安全防护”页签定位到“防护白名单”模块,点击防护规则右侧的“前去配置”。 7. 进入“白名单”页面,可以查看当前已创建的白名单规则列表。 8. 单击“新建白名单”,在弹出的对话框中,配置白名单规则。 参数说明如下: 配置项 说明 规则名称 设置规则的名称。 规则名称用于标识当前防护规则,建议您使用有明确含义的名称。 规则描述 可选项。设置规则的描述信息。 匹配条件 设置白名单请求需要匹配的条件(即特征)。单击“新增条件”,可以设置最多30个条件。存在多个条件时,多个条件必须同时满足才算命中。 关于匹配条件的配置描述,请参见匹配条件字段说明。 过期时间 规则配置后,规则状态开启即生效。可通过设置过期时间,为该规则定义生效时间段。 过期时间可选: 永久生效 限定日期:自定义设置失效日期 生效范围 设置白名单生效范围,表示触发匹配条件的请求不受所选规则的检测,可选项: 全部规则:规则防护引擎包含的全部规则。选择该项,表示触发匹配条件的请求不受任何防护模块的检测,将被直接放行到源站服务器。 特定模块:只忽略检测指定的防护模块,支持BOT防护和Web基础防护。在模块右侧的下拉框,选择不检测的规则类型。 特定规则ID:只忽略检测指定的规则,在模块右侧的下拉框,选择不检测的规则ID。 9. 单击“确定”,规则创建成功,成功后规则默认启用。您可以在规则列表中查看该规则,并根据需要禁用、编辑或删除规则。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        用户指南
        防护配置
        对象防护配置(安全防护)
        Web核心防护
        配置规则白名单
      • 创建桶
        参数 描述 复制桶配置 可选。单击“选择源桶”后,可以在桶列表中选择一个源桶。返回后页面会自动复制源桶的以下配置信息:区域 / 数据冗余策略 / 存储类别 / 桶策略 / 服务端加密 / 归档数据直读 / 企业项目 / 标签。 选择后您仍可以根据业务情况对复制的配置信息进行部分或全部更改。 区域 桶所属区域。请选择靠近您业务的区域,以降低网络时延,提高访问速度。桶创建成功后,不支持变更区域,请谨慎选择。 桶名称 桶的名称。需全局唯一,不能与已有的任何桶名称重复,包括其他用户创建的桶。桶创建成功后,不支持修改名称,创建时,请设置合适的桶名。OBS中桶按照DNS规范进行命名,DNS规范为全球通用规则, 其具体命名规则如下: 需全局唯一,不能与已有的任何桶名称重复,包括其他用户创建的桶。用户删除桶后,立即创建同名桶或并行文件系统会创建失败,需要等待30分钟才能创建。 长度范围为3到63个字符,支持小写字母、数字、中划线()、英文句号(.)。 禁止两个英文句号(.)相邻,禁止英文句号(.)和中划线()相邻,禁止以英文句号(.)和中划线()开头或结尾。 禁止使用IP地址。 说明 当用户使用虚拟主机方式通过HTTPS协议访问OBS时,如果桶名称中包含英文句号(.),会导致证书校验失败。所以该场景下,建议桶名称不要使用英文句号(.) 数据冗余存储策略 多AZ存储:数据冗余存储至多个可用区(AZ),可靠性更高。 单AZ存储:数据仅存储在单个可用区(AZ),成本更低。 注意 请根据业务情况提前规划数据冗余存储策略,桶一旦创建成功,数据冗余存储策略就确定了,后续无法更改。 默认存储类别 桶的存储类别。不同的存储类别可以满足客户业务对存储性能、成本的不同诉求。 标准存储:适用于有大量热点文件或小文件,且需要频繁访问(平均一个月多次)并快速获取数据的业务场景。 低频访问存储:适用于不频繁访问(平均一年少于12次),但需要快速获取数据的业务场景。 归档存储:适用于很少访问(平均一年一次),且对数据获取速率要求不高的业务场景。 桶策略 桶的读写权限控制。 私有:除桶ACL授权外的其他用户无桶的访问权限。 公共读:任何用户都可以对桶内对象进行读操作。 公共读写:任何用户都可以对桶内对象进行读/写/删除操作。 说明 公共读与公共读写权限可以使任何用户在不用身份认证的情况下直接读取或者读/写/删桶内的对象,为确保您的数据安全,不推荐此配置,建议您选择私有。禁止将天翼云服务用于存储和传播违法信息 归档数据直读 通过归档数据直读,您可以直接下载存储类别为归档存储的对象, 而无需提前恢复。 服务端加密 选择“SSEKMS”加密。加密密钥类型您可以选择“默认密钥”,您上传的对象将使用当前区域的默认密钥进行加密,如果您没有默认密钥,系统将会在首次上传对象时自动为您创建,您也可以选择“自定义密钥”,通过单击“创建KMS密钥”进入数据加密服务页面创建自定义密钥,然后通过KMS密钥的下拉框选中您创建的KMS密钥。若桶已开启了默认加密,上传对象可以继承桶的KMS加密特性。 WORM 开启WORM (一次写入多次读取) 功能后,当前桶支持配置保留策略,受保留策略保护的对象版本在指定时间段内不能被删除。WORM功能只能在创建桶时开启, 开启后无法关闭,当前桶默认开启多版本控制且不可关闭。 开启WORM后,需配置以下参数: 默认保留策略:可以选择在创建桶时配置WORM保留策略,也可以在桶创建后配置。 默认保留模式:默认保留策略选择“配置”时,需配置该参数。当前仅支持“合规模式”,即任何用户在保留期内都不能删除受保护的对象版本,或更改其保留模式。 默认保留期:默认保留策略选择“配置”时,需配置该参数。系统将阻止在保留期内删除受保护的对象版本。可按天或年配置,填写上限为100年。按年配置取值范围为1100,按天配置取值范围为136500。 企业项目 将桶加入到企业项目中统一管理。请先在企业项目界面完成企业项目的创建,默认为default企业项目。在企业项目界面创建企业项目,创建用户组并将用户加入到该用户组,然后将用户组添加到该企业项目。这时用户组内用户将获得用户组授权的该企业项目下的桶和对象的操作权限。 说明:仅企业帐号能够配置企业项目。 标签 可选。标签用于标识OBS中的桶,以此达到对OBS中的桶进行分类的目的。OBS以键值对的形式来描述标签,每个标签有且只有一对键值。
        来自:
        帮助文档
        对象存储 OBS
        用户指南
        管理桶
        创建桶
      • 通过控制台访问对象存储ZOS
        参数 说明 地域 桶所在的地域。存储桶一旦创建成功,地域不能修改。 bucket名称 桶的名称,注意以下命名规则: 桶名称全局唯一,在任何集群,都不能与已有的任何桶名称重复,包括其他用户创建的桶。 存储桶一旦创建成功,名称不能修改且不支持重命名。 长度范围为3到63个字符,支持小写字母、数字、中划线()、英文句号(.)。 禁止两个英文句号(.)或英文句号(.)和中划线()相邻,禁止以英文句号(.)和中划线()开头或结尾。 禁止使用IP地址。 如果名称中包含英文句号(.),访问桶或对象时可能会进行安全证书校验。 存储类型 桶的存储类型,可选标准存储/低频存储/归档存储。部分资源池暂不支持低频或归档存储。 读写权限 桶的读写权限控制。 私有:仅桶的拥有者和授权用户可进行读写操作。 公共读:公共读权限下所有用户均拥有该桶的读权限,为确保您的数据安全,不推荐此配置。 数据冗余策略 单AZ存储:选择单AZ,数据会存储在一个可用区。单AZ存储支持标准存储、低频存储、归档存储三种存储类型。 多AZ存储:选择多AZ存储,数据会存储在同一地域的多个可用区中,可用性更高。多AZ采用相对较高的计费标准。多AZ存储仅支持标准或低频存储类型。 请根据业务情况提前规划数据冗余存储策略,桶一旦创建成功,数据冗余存储策略后续无法更改。 企业项目 企业项目是一种云资源管理方式,企业项目管理服务将统一的云资源按项目管理。 为桶选择所属的企业项目,从而将桶与企业项目进行关联。在选择“企业项目”的下拉列表中,将显示用户在企业项目服务中已创建的项目。 系统还内置了一个缺省的企业项目“default”,如果用户没有为桶创建企业项目,将使用缺省项目“default”。您也可参考 服务端加密 开启服务端加密功能,上传的对象将以加密的方式存储在ZOS中。下载对象时,ZOS会自动将加密文件解密后再提供给用户。选择加密方式,取值范围如下: 关闭 :不启用服务器端加密。 ZOS完全托管 : 使用ZOS托管的密钥进行加密。 KMS: 使用KMS默认托管的CMK或指定CMK ID进行加解密操作 。 2种加密方式的对比见 合规保留 开启合规保留后,允许用户以“不可删除、不可篡改”方式保存和使用数据。 是否编辑桶标签 为指定存储桶设置标签,用来标记不同用途的存储桶并进行分类管理。
        来自:
        帮助文档
        对象存储 ZOS
        最佳实践
        通过控制台访问对象存储ZOS
      • 初始化数据盘场景及磁盘分区形式介绍
        磁盘分区形式 支持最大磁盘容量 支持分区数量 Linux分区工具 主启动记录分区(MBR) 2TB 4个主分区 3个主分区和1个扩展分区 以下两种工具均可以使用: fdisk工具 parted工具 主启动记录分区(MBR) 2TB MBR分区包含主分区和扩展分区,其中扩展分区里面可以包含若干个逻辑分区。扩展分区不可以直接使用,需要划分成若干个逻辑分区才可以使用。以创建6个分区为例,以下两种分区情况供参考: 以下两种工具均可以使用: fdisk工具 parted工具 主启动记录分区(MBR) 2TB 3个主分区,1个扩展分区,其中扩展分区中包含3个逻辑分区。 以下两种工具均可以使用: fdisk工具 parted工具 主启动记录分区(MBR) 2TB 1个主分区,1个扩展分区,其中扩展分区中包含5个逻辑分区。 以下两种工具均可以使用: fdisk工具 parted工具 全局分区表 18 EB 不限制分区数量 parted工具 (GPT, Guid Partition Table) 1 EB 1048576 TB GPT格式下没有主分区、扩展分区以及逻辑分区之分。 parted工具
        来自:
        帮助文档
        专属云(存储独享型)
        快速入门
        步骤四:初始化数据盘
        初始化数据盘场景及磁盘分区形式介绍
      • 使用须知
        本节主要介绍使用须知 MySQL>MySQL灾备 使用技巧(需要人为配合) 建议您配合如下使用技巧和操作要求,进行灾备以确保任务稳定运行。 基于以下原因,建议您结合定时启动功能,选择业务低峰期开始运行灾备任务。 全量灾备会对源数据库有一定的访问压力。 灾备无主键表时,为了确保数据一致性,会存在3s以内的单表级锁定。 正在灾备的数据被其他事务长时间锁死,可能导致读数据超时。 建议您结合数据对比的“稍后启动”功能,选择业务低峰期进行数据对比,以便得到更为具有参考性的对比结果。由于同步具有轻微的时差,在数据持续操作过程中进行对比任务,可能会出现少量数据不一致对比结果,从而失去参考意义。 操作要求 在使用数据复制服务进行数据灾备的过程中,存在一些无法预知或因人为因素及环境突变导致同步失败的情况,针对该情况,数据复制服务提供以下常见的操作限制,供您在数据灾备过程中参考。 表操作要求 类型 操作限制 (需要人为配合) 注意事项 下表中的环境要求均不允许在灾备过程中修改,直至灾备结束。 业务数据库进行的参数修改不会记录在日志里,所以也不会同步至灾备数据库,请在灾备数据库升主后调整参数。 外部数据库创建的高权限用户若超出RDS MySQL支持范围,不会同步至灾备数据库,如super权限。 不支持外键级联操作。 不支持业务数据库恢复到之前时间点的操作(PITR)。 不支持强制清理binlog,否则会导致灾备任务失败。 网络中断在30秒内恢复的,不影响数据灾备,超过30秒,则可能会导致灾备任务失败。 若专属计算集群不支持4vCPU/8G或以上规格实例,则无法创建灾备任务。 支持断点续传功能,但对于无主键的表可能会出现重复插入数据的情况。 存在灾备任务时,不允许创迁移或者同步任务。 灾备不支持多写的多主模式,如果外部数据库没有提供superuser权限,则外部数据库为备时无法设置只读,请严格确保备节点的数据只来自主节点的同步,任何其他地方的写入将会导致备库数据被污染,使得灾备出现数据冲突而无法修复。 如果外部数据库为备且为只读,该只读只有superuser权限的账号可以写入数据,其他账号无法写入,但仍然需要确保备节点通过这个账号写入任何数据导致备库数据被污染,使得灾备出现数据冲突而无法修复。 业务数据库和灾备数据库为RDS for MySQL实例时,不支持带有TDE特性并建立具有加密功能表。 操作须知 数据灾备过程中,如果修改了业务库用于灾备的密码,会导致该灾备任务失败,需要在数据复制服务控制台将上述信息重新修改正确,然后重试任务可继续进行数据灾备。一般情况下不建议在灾备过程中修改上述信息。 数据灾备过程中,如果修改了业务库端口,会导致该灾备任务失败。一般情况下不建议在灾备过程中修改业务库端口。 数据灾备过程中,如果业务库为非本云关系型数据库实例,不支持修改IP地址。本云关系型数据库实例,对于因修改IP地址导致灾备任务失败的情况,系统自动更新为正确的IP地址,重试任务可继续进行同步。一般情况下,不建议修改IP地址。 数据灾备过程中,不建议做删除类型的DDL操作,可能会引起任务失败。 禁止源端在灾备任务执行主备倒换过程中进行写入操作,否则会出现数据污染或者表结构不一致,并最终导致业务端和灾备端数据不一致。 在使用数据复制服务进行数据灾备的过程中,对环境有一些特定的要求,请确保环境配置满足以下条件。该类型的要求系统会自动检查,并给出处理建议。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时灾备
        使用须知
      • 新建Bucket
        介绍创建Bucket具体步骤。 功能说明 存储桶,即Bucket,是用以存储对象的容器。每个Bucket都有自己的访问权限、存储区域等属性,用户可在不同区域创建不同访问权限的Bucket,满足不同的存储场景需求。 用户可通过媒体存储控制台进行新建Bucket操作。 注意 每个主账号默认在一个资源池下可创建1000个Bucket。 创建Bucket本身不收取任何费用,仅收取上传至Bucket中Object的存储费用或者访问Object产生的流量费用等。更多信息,请参见 在同一资源池下,Bucket名必须是全局唯一的且不能修改,即用户创建的Bucket不能与自己已创建的其他Bucket名称相同,也不能与其他用户创建的Bucket名称相同。 Bucket创建成功后,Bucket名称、所属区域均不允许修改。 前提条件 已注册天翼云账号。 已开通媒体存储并创建存储区域。 操作步骤 1. 登录进入媒体存储控制台,进入【对象存储Bucket列表】菜单,点击【新建Bucket】。 2. 在弹窗填写名称、存储区域、选择权限并选择服务端加密方式,点击【保存】完成Bucket的新建。 配置参数说明 参数 参数说明 Bucket名称 长度范围为3~63个字符。 支持小写字母、数字和短划线()。 必须以小写字母或数字作为开头和结尾。 存储区域 根据已开通的存储区域,选择Bucket所属存储区域。创建Bucket成功后,存储区域无法变更。 权限 私有:只有该Bucket的拥有者或被授权者可以对该Bucket内的对象进行读写操作。 公共读:可以通过匿名身份直接读取您Bucket中的数据,存在较高的安全风险,不推荐此配置,建议您选择私有。 公共读写:可以通过匿名身份直接读取/写/删除您Bucket中的数据,存在较高的安全风险,不推荐此配置,建议您选择私有。 服务端加密方式 选择服务端加密方式,表示上传Object时进行加密的方式,可选【无】或【XOS完全托管】。目前仅部分资源池支持此能力,具体可参考服务端加密。
        来自:
        帮助文档
        媒体存储
        控制台指南
        对象存储
        桶管理
        新建Bucket
      • 产品规格
        分类 功能点 基础版 标准版 企业版 旗舰版 单机版 (1节点/实例) 集群版 (4~12节点/实例) 适用场景 适合个人网站、小型网站等只需要满足基础安全需求,对业务没有特殊安全需求的用户, 不适合企业用户使用 适用于对少量用户提供业务服务,没有大量高频访问中小型网站,没有特殊安全需求,仅需要满足基础防护能力 适用中大型企业或服务对互联网公众开放,有较高访问频率,并有较高数据安全与网络安全防护需求的网站防护 适用于大型及超大型复杂业务网站防护或有特殊定制安全需求的用户( 支持定制需求,定制需求需要和客户经理联系 ) 适用于资源在天翼云上的01Gbps的IP防护场景 适用于资源在天翼云上的110Gbps,需要集群高可用的防护场景 套餐基础信息 业务QPS峰值 100QPS/实例 3000QPS/实例 5000QPS/实例 10000QPS/实例 3000QPS/实例 20000QPS/实例 套餐基础信息 支持主域名个数 1个/实例 2个/实例 5个/实例 8个/实例 100个/实例 100个/实例 套餐基础信息 支持所有防护域名个数 10个/实例 20个/实例 50个/实例 80个/实例 100个/实例 100个/实例 套餐基础信息 支持防护的ELB监听器个数 × 600个/实例 2500个/实例 10000个/实例 × × 套餐基础信息 泛域名防护 × √ √ √ √ √ 套餐基础信息 IPv6 防护 × √ √ √ √ √ 套餐基础信息 HTTP/HTTPS非标准端口防护 仅支持80、443 √ √ √ √ √ 套餐基础信息 支持防护端口数量 2个/实例 20个/实例 30个/实例 60个/实例 不限制,最大65535个(常用端口除外) 不限制,最大65535个(常用端口除外) 套餐基础信息 带宽弹性上限 10Mbps 超过10Mbps即丢包 200Mbps,超过弹性带宽上限不超过带宽保护上限的流量将直接转发,可通过扩展业务扩展包的形式增加弹性上限 300Mbps,超过弹性带宽上限不超过带宽保护上限的流量将直接转发,可通过扩展业务扩展包的形式增加弹性上限 400Mbps,超过弹性带宽上限不超过带宽保护上限的流量将直接转发,可通过扩展业务扩展包的形式增加弹性上限 200Mbps,超过弹性带宽上限不超过带宽保护上限的流量将直接转发,可通过扩展业务扩展包的形式增加弹性上限 1000Mbps,超过弹性带宽上限不超过带宽保护上限的流量将直接转发,可通过扩展业务扩展包的形式增加弹性上限 套餐基础信息 带宽保护上限 400Mbps,超过带宽保护上限的流量将会被直接丢弃,可通过购买业务扩展包的形式增加保护上限 600Mbps,超过带宽保护上限的流量将会被直接丢弃,可通过购买业务扩展包的形式增加保护上限 800Mbps,超过带宽保护上限的流量将会被直接丢弃,可通过购买业务扩展包的形式增加保护上限 400Mbps,超过带宽保护上限的流量将会被直接丢弃,可通过购买业务扩展包的形式增加保护上限 2000Mbps,超过带宽保护上限的流量将会被直接丢弃,可通过购买业务扩展包的形式增加保护上限 套餐基础信息 回源连接数 1000个/域名 1000个/域名 6000个/域名 6000个/域名 50000个/域名 50000个/域名 基础安全防护 规则白名单 √,10条/实例 √,20条/实例 √,50条/实例 √,100条/实例 √,最大20条 √,最大50条 基础安全防护 Web基础规则防护引擎 √,仅支持默认规则组的防护 √,支持自定义 √,支持自定义 √,支持自定义 √,支持自定义 √ 基础安全防护 自定义防护规则组 × √,20个/实例 √,20个/实例 √,20个/实例 最大20个 20个/实例 基础安全防护 0Day漏洞虚拟补丁 √ √ √ √ √ √ 基础安全防护 IP黑白名单 × √,200条/实例 √,500条/实例 √,1000条/实例 √,200条/实例 √,500条/实例 基础安全防护 地域封禁 × √,20条/实例 √,50条/实例 √,100条/实例 √,20条/实例 √,50条/实例 基础安全防护 自定义精准防护策略 × √,100条/实例 √,200条/实例 √,500条/实例 √,100条/实例 √,200条/实例 基础安全防护 CC防护(包括紧急模式) × √ √ √ √ √ 基础安全防护 自定义CC防护规则 × √,100条/实例 √,200条/实例 √,500条/实例 100条/实例 200条/实例 高级安全防护 公开 BOT 类型防护 × √ √ √ √ √ 高级安全防护 BOT协议特征防护 × √ √ √ √ √ 高级安全防护 BOT自定义会话特征防护 × √,100条/实例 √,200条/实例 √,500条/实例 √,100条/实例 √,200条/实例 高级安全防护 动态防护 × × √,与BOT防护共享规则 √,与BOT防护共享规则 × √,与BOT防护共享规则 高级安全防护 BOT攻击惩罚策略上限 × 1000个/实例 1000个/实例 1000个/实例 1000条/实例 1000条/实例 高级安全防护 攻击惩罚防护策略上限 × × 1000个/实例 1000个/实例 1000条/实例 1000条/实例 高级安全防护 数据统计分析 √ √ √ √ √ √ 高级安全防护 敏感信息保护 × × √,50个/实例 √,50个/实例 √,50条/实例 √,50条/实例 高级安全防护 网页防篡改 × √,20条/实例 √,50条/实例 √,100条/实例 √,20条/实例 √,50条/实例 高级安全防护 Cookie防篡改 × × √ √ √ √ 高级安全防护 隐私屏蔽 × √,20条/实例 √,50条/实例 √,100条/实例 √,20条/实例 √,50条/实例 高级安全防护 重保防护场景 × √,1000个IP/实例 √,1000个IP/实例 √,1000个IP/实例 × × 高级安全防护 全局防护白名单 × √,20条/实例 √,50条/实例 √,100条/实例 × × 高级安全防护 全局精准访问控制 × √,100条/实例 √,200条/实例 √,500条/实例 × ×
        来自:
        帮助文档
        Web应用防火墙(原生版)
        产品介绍
        产品规格
      • Logstash对接Kafka
        约束与限制 在将Logstash与Kafka对接时,需要注意以下约束和限制: 1. 版本兼容性:确保Logstash和Kafka的版本兼容性。不同版本的Logstash和Kafka可能存在API差异或不兼容的情况,因此需要根据官方文档或社区支持信息确认版本兼容性。 2. 配置参数:正确配置Logstash和Kafka的参数是非常重要的。需要确保Logstash的配置文件中的Kafka输入插件和输出插件的参数设置正确,包括Kafka集群的地址、主题名称、消费者组等。 3. 网络连接:确保Logstash和Kafka集群之间的网络连接正常。Logstash需要能够访问Kafka集群的地址和端口,以便进行数据的消费和传输。同时,也需要确保网络的稳定性和可靠性,以避免数据传输中断或丢失。 4. 性能和吞吐量:Logstash和Kafka的性能和吞吐量可能会受到限制。Logstash的性能取决于所使用的硬件资源和配置参数,而Kafka的性能取决于集群的配置和负载情况。因此,在设计和配置Logstash与Kafka对接方案时,需要考虑系统的性能需求和资源限制。 5. 数据一致性:在Logstash与Kafka对接的过程中,需要确保数据的一致性和完整性。由于Logstash和Kafka是分布式系统,可能会存在数据丢失或重复消费的情况。可以通过配置Kafka的消息确认机制和Logstash的事务机制来确保数据的可靠传输和处理。 6. 监控和故障排查:在使用Logstash对接Kafka时,需要建立监控机制和故障排查方案。可以使用监控工具对Logstash和Kafka进行监控,收集关键指标和日志,并设置警报机制。此外,还可以使用Logstash的调试模式和日志输出功能,帮助排查故障和调试配置。 综上所述,Logstash与Kafka对接需要注意版本兼容性、正确配置参数、确保网络连接稳定、考虑性能和吞吐量限制、确保数据一致性,并建立监控和故障排查机制。遵循这些约束和限制,可以实现高效、可靠的数据处理和传输。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Logstash对接Kafka
      • 帐户、密码、权限
        USER/ROLE 用户或角色是数据库服务器(集群)全局范围内的权限控制系统,是集群业务的所有者和执行者,用于各种集群范围内所有的对象权限管理。因此角色不特定于某个单独的数据库,但角色登录集群的时候必须要显式指定登录的用户名,以保证当前连接执行的操作者的透明性。同时数据库也会通过权限管理限定用户的访问和操作权限。 用户是权限的最终体现者,所有的权限管理最终都体现在用户对数据库对象的操作权限是否被允许。 权限管理 DWS中的权限管理分为三种场景: 系统权限 系统权限又称为用户属性,包括SYSADMIN、CREATEDB、CREATEROLE、AUDITADMIN和LOGIN。 系统权限一般通过CREATE/ALTER ROLE语法来指定。其中,SYSADMIN权限可以通过GRANT/REVOKE ALL PRIVILEGE授予或撤销。但系统权限无法通过ROLE和USER的权限被继承,也无法授予PUBLIC。 用户权限 将一个角色或用户的权限授予一个或多个其他角色或用户。在这种情况下,每个角色或用户都可视为拥有一个或多个数据库权限的集合。 当声明了WITH ADMIN OPTION,被授权的用户可以将该权限再次授予其他角色或用户,以及撤销所有由该角色或用户继承到的权限。当授权的角色或用户发生变更或被撤销时,所有继承该角色或用户权限的用户拥有的权限都会随之发生变更。 数据库系统管理员可以给任何角色或用户授予/撤销任何权限。拥有CREATEROLE权限的角色可以赋予或者撤销任何非系统管理员角色的权限。 数据对象权限 将数据库对象(表和视图、指定字段、数据库、函数、模式等)的相关权限授予特定角色或用户。GRANT命令将数据库对象的特定权限授予一个或多个角色。这些权限会追加到已有的权限上。
        来自:
        帮助文档
        数据仓库服务
        常见问题
        操作类
        帐户、密码、权限
      • 产品定义
        本章介绍什么是天翼云关系型数据库,包含哪些数据库引擎 关系型数据库(Relational Database Service,简称RDS)是一种基于云计算平台的即开即用、稳定可靠、弹性伸缩、便捷管理的在线关系型数据库服务。关系型数据库支持以下引擎: MySQL PostgreSQL SQL Server 关系型数据库服务具有完善的性能监控体系和多重安全防护措施,并提供了专业的数据库管理平台,让用户能够在云中轻松的进行设置和扩展关系型数据库。通过关系型数据库服务的管理控制台,用户几乎可以执行所有必需任务而无需编程,简化运营流程,减少日常运维工作量,从而专注于开发应用和业务发展。 PostgreSQL PostgreSQL是一个开源对象关系型数据库管理系统,并侧重于可扩展性和标准的符合性,被业界誉为“最先进的开源数据库”。PostgreSQL面向企业复杂SQL处理的OLTP在线事务处理场景,支持NoSQL数据类型(JSON/XML/hstore),支持GIS地理信息处理,在可靠性、数据完整性方面有良好声誉,适用于互联网网站、位置应用系统、复杂数据对象处理等应用场景。 支持postgis插件,空间应用卓越,达到国际标准。更接近Oracle数据库,去 “O” 成本低。 适用场景丰富,费用低,随时可以根据业务情况弹性伸缩所需的资源,按需开支,量身订做。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        产品介绍
        产品定义
      • 相关术语解释
        本节主要介绍OBS涉及到的相关术语。 对象 对象(Object)是OBS中数据存储的基本单位,一个对象实际是一个文件的数据与其相关属性信息(元数据)的集合体。用户上传至OBS的数据都以对象的形式保存在桶中。 对象包括了Key,Metadata,Data三部分: Key:键值,即对象的名称,为经过UTF8编码的长度大于0且不超过1024的字符序列。一个桶里的每个对象必须拥有唯一的对象键值。 Metadata:元数据,即对象的描述信息,包括系统元数据和用户元数据,这些元数据以键值对(KeyValue)的形式被上传到OBS中。 系统元数据由OBS自动产生,在处理对象数据时使用,包括Date,Contentlength,Lastmodify,ContentMD5等。 用户元数据由用户在上传对象时指定,是用户自定义的对象描述信息。 Data:数据,即文件的数据内容。 通常,我们将对象等同于文件来进行管理,但是由于OBS是一种对象存储服务,并没有文件系统中的文件和文件夹概念。为了使用户更方便进行管理数据,OBS提供了一种方式模拟文件夹。通过在对象的名称中增加“/”,例如“test/123.jpg”。此时,“test”就被模拟成了一个文件夹,“123.jpg”则模拟成“test”文件夹下的文件名了,而实际上,对象名称(Key)仍然是“test/123.jpg”。 上传对象时,可以指定对象的存储类别,若不指定,默认与桶的存储类别一致。上传后,对象的存储类别可以修改。 在OBS管理控制台和客户端中,用户均可直接使用文件夹的功能,符合文件系统下的操作习惯。 桶 桶(Bucket)是OBS中存储对象的容器。对象存储提供了基于桶和对象的扁平化存储方式,桶中的所有对象都处于同一逻辑层级,去除了文件系统中的多层级树形目录结构。 每个桶都有自己的存储类别、访问权限、所属区域等属性,用户可以在不同区域创建不同存储类别和访问权限的桶,并配置更多高级属性来满足不同场景的存储诉求。 对象存储服务设置有三类桶存储类别,分别为:标准存储、低频访问存储、归档存储,从而满足客户业务对存储性能、成本的不同诉求。创建桶时可以指定桶的存储类别,桶的存储类别可以修改。 在OBS中,桶名必须是全局唯一的且不能修改,即用户创建的桶不能与自己已创建的其他桶名称相同,也不能与其他用户创建的桶名称相同。桶所属的区域在创建后也不能修改。每个桶在创建时都会生成默认的桶ACL(Access Control List),桶ACL列表的每项包含了对被授权用户授予什么样的权限,如读取权限、写入权限等。用户只有对桶有相应的权限,才可以对桶进行操作,如创建、删除、显示、设置桶ACL等。 一个账号可创建100个桶。每个桶中存放的对象的数量和大小总和没有限制,用户不需要考虑数据的可扩展性。 由于OBS是基于REST风格HTTP和HTTPS协议的服务,您可以通过URL(Uniform Resource Locator)来定位资源。 OBS中桶和对象的关系如图所示:
        来自:
        帮助文档
        对象存储 OBS
        产品简介
        相关术语解释
      • Job内嵌对象
        方法 描述 String getNodeStatus(String nodeName) 获取指定节点运行状态,成功状态返回success,失败状态返回fail。例如,判断节点是否运行成功,可以使用如下判断条件,其中test为节点名称:{(Job.getNodeStatus("test")) "success" }。 String getNodeOutput(String nodeName) 获取指定节点的输出。此方法只能获取前面依赖节点的输出。 String getParam(String key) 获取作业参数。注意此方法只能直接获取当前作业里配置的参数值,并不能获取到父作业传递过来的参数值,也不能获取到工作空间里面配置的全局变量,作用域仅为本作业。这种情况下建议使用表达式${jobparamname},既可以获取到父作业传递过来的参数值,也可以获取到全局配置的变量。 String getPlanTime(String pattern) 获取指定pattern的计划时间字符串,pattern为日期、时间模式,请参考 String getYesterday(String pattern) 获取执行pattern的计划时间前一天的时间字符串,pattern为日期、时间模式,请参考 String getLastHour(String pattern) 获取执行pattern的计划时间前一小时的时间字符串,pattern为日期、时间模式,请参考 String getRunningData(String nodeName) 获取指定节点运行中记录的数据。此方法只能获取前面依赖节点的输出。当前只支持获取DLI SQL节点运行中记录的DLI作业id。例如,想要获取DLI节点第3条语句的job ID(DLI节点名为DLIINSERTDATA),可以这样使用:{JSONUtil.path(Job.getRunningData("DLIINSERTDATA"),"jobIds[2]")}。 String getInsertJobId(String nodeName) 返回指定DLI SQL或Transform Load节点第一个DLI Insert SQL语句的作业ID,不指定参数nodeName时,获取前面一个节点第一个DLI Insert SQL语句的作业ID,如果无法获取到作业ID,返回null值。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        EL表达式参考
        Job内嵌对象
      • 解析日志
        解析日志查询 在云日志服务控制台可进行日志查询。 1. 登录云日志服务控制台。 2. 在日志管理页面的日志项目列表中,点击已创建的日志单元名称,进入日志单元详情页面。 3. 在日志单元详情页面中,即可查看当前日志单元中的日志数据,日志字段说明见解析日志格式表格。详细的查询介绍见 日志查询。 解析日志格式 请求日志 字段名称 字段描述 举例 topic 标识此条日志为内网dns解析日志 IDNSresolvelog version 日志格式版本,当前为V1 V1 timeiso8601 事件时间 20250822 16:59:27.985413 dnsmsgflags DNS信息Flags: QR:0表示客户端请求包,1表示服务端响应包; RD:0表示不期望进行递归查询,1表示期望进行递归查询; AA:0表示应答服务器不是该域名的权威服务器,1表示是权威服务器; TC:0表示报文未截断,1表示报文过长被截断; AD:0表示应答服务器验证查询域名DNSSEC数字签名未通过,1表示已验证DNSSEC数字签名;请求报文携带此字段表示希望递归DNS能够对DNSSEC应答验证。 CD:0表示需要进行DNSSEC数字签名的验证,若验证不通过则不响应,1表示应答服务器需应答,不管DNSSEC验证是否通过; RD dnsmsgid DNS信息ID,表示本次DNS查询的唯一识别码 30914 dstaddr 目的IP地址 100.100.2.136 dstport 目的端口 53 queryname 查询域名名称 www.example.com. querytype 查询记录类型,例如A,AAAA,CNAME,TXT,MX等 A regionid 地域 200000001781 srcaddr 源IP地址 192.168.0.1 srcport 源端口 42071 transport 传输协议 UDP userid 用户账号ID xxx@ctyun.cn edns DNS扩展协议,查询/应答日志可能包含 "flags: DO udp: 1408 CLIENTSUBNET: 1.1.XX.XX/32/24" 应答日志 字段名称 字段描述 举例 topic 标识此条日志为内网dns解析日志 IDNSresolvelog version 日志格式版本,当前为V1 V1 timeiso8601 日志时间 20250822 16:59:27.985413 answerrrset 回答资源记录集 Json array: ["www.example.com. 600 A 192.168.1.1", "www.example.com 600 A 192.168.1.2", ] authorityrrset 权威资源记录集 Json array: ["example.com. 600 SOA ns1.example.com. hostmaster.example.com. 2023010101 3600 1200 3600 360" ] additionalrrset 其他资源记录集 Json array: ["ns1.example.com. 600 A 100.100.2.136"] dnsmsgid DNS信息ID,表示本次DNS查询的唯一识别码 30914 dstaddr 目的IP地址 100.100.2.136 dstport 目的端口 53 moduletype 模块日志类型: PRIVATZONE:内网权威域名 FORWARD:转发模块 CACHE:缓存模块 RECURSE:递归模块 CACHE queryname 查询域名名称 www.example.com. querytype 查询记录类型,例如A,AAAA,CNAME,TXT,MX等 A rcode 响应状态码: 0: NOERROR,没有错误查询域名成功 1: FORMERR,格式错误,DNS 无法解析该请求 2: SERVFAIL,DNS 服务器遇到内部错误或者超时引起的解析失败 3: NXDOMAIN,域名未找到 4: NOTIMP,服务器不支持指定的操作代码 5: REFUSED,DNS服务器因为策略或者安全原因拒绝应答 0 regionid 地域 200000001781 rt 响应时延: 全局应答rt表示整个查询到应答的时延; 模块日志rt表示在模块内部消耗的时延 1 srcaddr 源IP地址 192.168.0.1 srcport 源端口 42071 transport 传输协议 UDP edns DNS扩展协议,查询/应答日志可能包含 "flags: DO udp: 1408 CLIENTSUBNET: 1.1.XX.XX/32/24"
        来自:
        帮助文档
        内网DNS
        用户指南
        解析日志
      • 查看桶的信息
        参数 说明 桶名称 桶的名称。 存储类别 桶的存储类别,有标准存储、低频访问存储、归档存储三种类别。 桶版本号 桶的版本号。 区域 桶所在的区域。 存储用量 桶中存储的对象占用的存储空间,为桶中最新版本对象和所有历史版本对象的容量总和。 对象数量 桶中存储的对象数量,为桶内文件夹、最新版本对象和所有历史版本的对象总和。 帐号ID 桶的拥有者全局唯一标识,与“我的凭证”页面的“帐号ID”相同。 创建时间 桶的创建时间。 多版本控制 多版本控制的状态。 Endpoint 桶所在区域的终端节点。OBS为每个区域提供一个终端节点,终端节点可以理解为OBS在不同区域的区域域名,用于处理各自区域的访问请求。 访问域名 OBS会为每一个桶分配默认的访问域名。访问域名是桶在互联网中的域名地址,可应用于直接通过域名访问桶的场景,比如:云应用开发、数据分享等。格式: BucketName . Endpoint 数据冗余存储策略 桶的数据冗余存储策略,包括多AZ存储和单AZ存储。数据冗余存储策略无法修改。 企业项目 桶所属的企业项目。
        来自:
        帮助文档
        对象存储 OBS
        用户指南
        管理桶
        查看桶的信息
      • 1
      • ...
      • 31
      • 32
      • 33
      • 34
      • 35
      • ...
      • 487
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务 MDR

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      AI Store

      公共算力服务

      应用托管

      推荐文档

      启动会议

      如何退换发票?

      云课堂 第十四课:天翼云云硬盘的磁盘模式及共享盘

      PostpreSQL

      文档下载

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号