活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      全局事务服务 GTS_相关内容
      • 功能特性
        功能类别 功能说明 业务配置 域名(泛域名、一级域名、二级域名等各级域名)/IP防护 WAF支持的防护对象:域名或IP,云上或云下的Web业务。 业务配置 HTTP/HTTPS业务防护 WAF可以防护HTTP/HTTPS业务,通过对HTTP/HTTPS请求进行检测,识别并阻断SQL注入、跨站脚本攻击、网页木马上传、命令/代码注入、文件包含、敏感文件访问、第三方应用漏洞攻击、CC攻击、恶意爬虫扫描、跨站请求伪造等攻击,保护Web服务安全稳定。 业务配置 支持WebSocket/WebSockets协议 WAF支持WebSocket/WebSockets协议,且默认为开启状态。 业务配置 非标端口防护 Web应用防火墙除了可以防护标准的80,443端口外,还支持非标准端口的防护。 Web应用安全防护 Web基础防护 覆盖OWASP(Open Web Application Security Project,简称OWASP)TOP 10中常见安全威胁,通过预置丰富的信誉库,对恶意扫描器、IP、网马等威胁进行检测和拦截。 全面的攻击防护:支持SQL注入、XSS跨站脚本、远程溢出攻击、文件包含、Bash漏洞攻击、目录(路径)遍历、敏感文件访问、命令/代码注入、网页木马上传、后门隔离保护、非法HTTP协议请求、第三方漏洞攻击等威胁检测和拦截。 Webshell检测防护:通过上传接口植入网页木马。 识别精准: 内置语义分析+正则双引擎,黑白名单配置,误报率更低。 支持防逃逸,自动还原常见编码,识别变形攻击能力更强。默认支持的编码还原类型:urlencode、Unicode、xml、OCT(八进制)、HEX(十六进制)、html转义、base64、大小写混淆、javascript/shell/php等拼接混淆。 深度检测:深度反逃逸识别(支持同形字符混淆、通配符变形的命令注入、UTF7、Data URI Scheme等的防护)。 header全检测:支持对请求里header中所有字段进行攻击检测。 Web应用安全防护 CC攻击防护规则 可以自定义CC防护规则,限制单个IP/Cookie/Referer访问者对您的网站上特定路径(URL)的访问频率,WAF会根据您配置的规则,精准识别CC攻击以及有效缓解CC攻击。 Web应用安全防护 精准访问防护规则 精准访问防护策略可对HTTP首部、Cookie、访问URL、请求参数或者客户端IP进行条件组合,定制化防护策略,为您的网站带来更精准的防护。 Web应用安全防护 黑白名单规则 配置黑白名单规则,阻断、仅记录或放行指定IP的访问请求,即设置IP黑/白名单。 Web应用安全防护 地理位置访问控制规则 针对指定国家、地区的来源IP自定义访问控制。 Web应用安全防护 网页防篡改规则 当用户需要防护静态页面被篡改时,可配置网页防篡改规则。 Web应用安全防护 网站反爬虫规则 动态分析网站业务模型,结合人机识别技术和数据风控手段,精准识别爬虫行为。 Web应用安全防护 防敏感信息泄露规则 该规则可添加两种类型的防敏感信息泄露规则: 敏感信息过滤。配置后可对返回页面中包含的敏感信息做屏蔽处理,防止用户的敏感信息(例如:身份证号、电话号码、电子邮箱等)泄露。 响应码拦截。配置后可拦截指定的HTTP响应码页面。 Web应用安全防护 全局白名单规则 针对特定请求忽略某些攻击检测规则,用于处理误报事件。 Web应用安全防护 隐私屏蔽规则 隐私信息屏蔽,避免用户的密码等信息出现在事件日志中。 高级设置 PCI DSS/PCI 3DS合规认证和TLS TLS支持TLS v1.0、TLS v1.1和TLS v1.2三个版本和七种加密套件,可以满足各种行业客户的安全需求。 WAF支持PCI DSS和PCI 3DS合规认证功能。 高级设置 连接保护 当502/504请求数量或读等待URL请求数量以及占比阈值达到您设置的值时,将触发WAF熔断功能开关,实现宕机保护和读等待URL请求保护。 高级设置 手动设置网站连接超时时间 浏览器到WAF引擎的连接超时时长默认是120秒,该值取决于浏览器的配置,该值在WAF界面不可以手动设置。 WAF到客户源站的连接超时时长默认为30秒,该值可以在WAF界面手动设置。 高级设置 配置攻击惩罚的流量标识 WAF根据配置的流量标识识别客户端IP、Session或User标记,以分别实现IP、Cookie或Params恶意请求的攻击惩罚功能。 高阶功能 内容安全检测服务 基于丰富的违规样例库和内容审核专家经验,通过机器审核加人工审核结合的方式,帮助您准确检测出Web网站和新媒体平台上的关于涉黄、涉赌、涉毒、暴恐、违禁等敏感违规内容,并提供文本内容纠错审校,助您降低内容违规风险。 防护事件管理 当Web应用防火墙拦截或者仅记录的攻击事件为误报时,用户可通过Web应用防火墙处理误报事件、查看事件详情。 用户可以通过Web应用防火墙服务下载5天内的全量防护事件数据 告警通知 用户可以通过Web应用防火墙服务对攻击日志进行通知设置。开启告警通知后,Web应用防火墙将仅记录和拦截的攻击日志通过用户设置的接收通知方式发送给用户。 安全可视化 提供简洁友好的控制界面,实时查看攻击信息和事件日志。 策略事件集中配置:在Web应用防火墙服务的控制台集中配置适用于多个防护域名的策略,快速下发,快速生效。 流量及事件统计信息:实时查看访问次数、安全事件的数量与类型、详细的日志信息 灵活性、可靠性 多区域多集群部署,支持负载均衡,可在线平滑扩容,没有单点故障,最大限度保护业务运行稳定。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        产品介绍
        功能特性
      • SQL闪回(1)
        本页面主要介绍SQL闪回功能的使用场景和操作步骤。 注意 仅华东1II类型资源池支持该功能,I类型资源池不支持该功能,具体支持情况以控制台页面展示为准。更多资源池信息,请参见功能概览。 使用场景 SQL闪回功能适用于误执行DML操作(如INSERT、UPDATE、DELETE)导致数据错误或丢失的场合 ,如果需要快速恢复被误修改或误删除的行数据 ,可以通过SQL闪回生成逆向补偿SQL并闪回执行,将数据恢复到操作前的状态 。 约束限制 当前仅支持对DML操作生成闪回SQL; 仅对象存储实例支持使用该功能; 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例基本信息页面。 4. 选择运维管理二级目录,并选择SQL闪回页签。 5. 点击创建SQL闪回按钮,在弹窗中输入或者选择相关项。 说明 任务名称:为当前SQL闪回任务自定义一个名称; 闪回时间:根据本地存在的Binlog文件,系统返回的可闪回时间范围,本地Binlog保留时间越短,则可闪回时间范围也越短。详情可见本地Binlog设置; 闪回范围:全局或者某些库表,根据执行错误的范围来进行选择即可,可选择多个库,或某个库的多张表; SQL类型:可选择所有或某一具体的DML语句; 闪回类型:原始SQL或者回滚SQL,具体可根据需求选择,在最后生成的文件中,回滚SQL中也会包含原始SQL的注释,由于执行的不确定性,可能会存在其他同一时刻执行的SQL语句,请用户自行判别是否可以直接执行。 6. 选择完成后,点击确定即可。 7. 在SQL闪回页面可看到刚提交的任务,等任务成功后,可点击操作列的下载,对SQL文件进行查看,并自行判别是否执行以及执行哪些语句。
        来自:
      • 创建实例
        参数 描述 区域 租户当前所在区域,也可在页面左上角切换。说明不同区域内的产品内网不互通,且创建后不能更换,请谨慎选择。 实例名称 实例名称长度在4个到64个字符之间,必须以字母开头,可以包含字母、数字、中划线或下划线,不能包含其他特殊字符。 数据库版本 云数据库GaussDB 目前支持3.103、2.7版本。 实例类型 “分布式版”:分布式形态能够支撑较大的数据量,且提供了横向扩展的能力,可以通过扩容的方式提高实例的数据容量和并发能力。“主备版”:适用于数据量较小,且长期来看数据不会大幅度增长,但是对数据的可靠性,以及业务的可用性有一定诉求的场景。 部署形态 独立部署:将数据库组件部署在不同节点上。适用于可靠性、稳定性要求较高,实例规模较大的场景。高可用(1主2备):采用一主两备三节点的部署模式,包含一个分片。 事务一致性 仅分布式版形态有该参数。l 强一致性:应用更新数据时,用户都能查询到全部已经成功提交的数据,对性能有影响。l 最终一致性:应用更新数据时,用户查询到的数据可能不相同,有可能是更新后的值,也有可能是更新前的值,但经过一段时间后,查询到的数据是更新后的值,该种类型通常具有较高的性能。 切换策略 l 数据高可靠:对数据一致性要求高的系统推荐选择数据高可靠,在故障切换的时候优先保障数据一致性。l 业务高可用:对业务在线时间要求高的系统推荐使用业务高可用,在故障切换的时候优先保证数据库可用性。说明在业务高可用场景下需要谨慎修改如下数据库参数:l recoverytimetarget:不当修改该参数会导致实例频繁进行强制切换,请在技术人员指导下进行修改。l auditsystemobject:不当修改该参数会导致丢失DDL审计日志,请在技术人员指导下进行修改。 副本集数量 仅分布式部署形态可选。每个分片下1主多副本的部署方案,3副本就是1主2备的部署方式。 分片数量 仅分布式部署形态可选。一个分片指的是一组DN副本集,分片内的DN数量与“副本集数量”参数有关,例如副本集数量为3,则一个分片就包含一主两备三个DN节点。 协调节点数量 仅分布式部署形态可选。数据库中包含的协调节点(CN,Coordinator Node)数量,协调节点负责接收来自应用的访问请求,并向客户端返回执行结果;负责分解任务,并调度在各分片上并行执行。须知CN数量必须小于或等于两倍的分片数。 可用区 可用区只支持部署在一个或者三个可用区。可用区指在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 时区 由于世界各国家与地区经度不同,地方时也有所不同,因此会划分为不同的时区。时区可在创建实例时选择。
        来自:
        帮助文档
        云数据库GaussDB
        快速入门
        创建实例
      • 后台任务
        本节主要介绍后台任务 任务调度 操作场景 支持用户以任务调度方式执行SQL语句,提供立即执行、定时执行、周期执行三种调度模式。SQL语句可在调度中进行出错控制和事务控制,并对有依赖的SQL调度设置任务依赖链。 操作步骤 1. 在顶部菜单栏选择“后台任务”>“任务调度”,进入任务调度列表页面。 说明 任务的调度执行需要将SQL保存在数据库中,需您同意授权保存SQL到数据库后,才能新建调度任务。 2. 在列表页面,单击左上方的“新建任务”,进入新建调度任务页面。 3. 在新建任务页面,填写任务名称、选择调度类型、执行时间容忍度。 立即执行:调度任务提交后将立即执行,任务只执行1次。 定时执行:调度任务提交后将在设定的时间点执行,任务只执行1次。 周期执行:调度任务提交后,任务将按照设定的时间周期性执行。 执行时间容忍度:超出期望执行时间容忍度后,不再执行此次调度,但不影响下次调度。 4. 在录入SQL语句部分单击“添加”打开录入SQL语句弹窗,设置SQL信息后单击“保存”,并在新建任务页面底部单击“提交”。 说明 执行结束后会自动进入已结束任务列表中。 在任务列表页面,在任务调度列表中任务是调度类型为周期执行的任务。 您可通过任务状态、调度类型、或者在搜索框中通过任务ID、任务名称进行条件筛选,查看任务信息。 任务详情:在已完成任务列表操作栏单击“任务详情”,查看本次调度“任务信息”。 在分组列表中获取执行日志及分组详情,并可查看具体的SQL内容。 可对周期执行的任务,通过单击任务信息页面“立即触发一次调度”,触发立即调度指令。可在“调度执行记录”页签下查看本次调度执行详情。 调度执行记录:在已完成任务列表操作栏单击“调度执行记录”,查看任务执行详情及日志。 查看日志:在已完成任务列表操作栏单击“查看日志”,查看日志详情。 终止任务:在已完成任务列表操作栏,单击“终止任务”,被终止的任务将从“任务调度”列表移到“已结束任务”列表。 暂停任务:在已完成任务列表操作栏,单击“暂停任务”,该任务状态将从“正常调度中”变为“暂停调度”,可通过单击“恢复调度”回到正常调度状态。 在任务调度列表页面上部,单击“已结束任务”页签,已结束任务列表中的任务是调度类型为立即执行或定时执行的任务。 您可通过任务状态、调度类型、或者在搜索框中通过任务ID及任务名称进行条件筛选,查看任务信息。 任务详情:在已完成任务列表操作栏单击“任务详情”,查看本次调度“任务信息”。 在分组列表中获取执行日志及分组详情,查看或修改SQL语句列表等。 调度执行记录:在已完成任务列表操作栏单击“调度执行记录”,查看任务执行详情,分组执行情况、SQL内容及分组日志等信息。 查看日志:在已完成任务列表操作栏单击“查看日志”,查看日志详情。 删除任务:在已完成任务列表操作栏,单击“删除任务”,将从数据库中清除该任务信息。
        来自:
        帮助文档
        数据管理服务
        用户指南
        分布式关系型数据库DRDS数据库管理(开发工具)
        后台任务
      • 支持的监控指标
        本章节介绍关系型数据库支持哪些监控指标。 声明:RDS实例中的Agent只用于监控实例运行的指标、状态,不会收集除监控指标外的其它数据。 功能说明 本节定义了关系型数据库上报云监控的监控指标的命名空间,监控指标列表和维度定义。用户可以通过云监控提供的API接口来检索关系型数据库产生的监控指标和告警信息。 实例监控指标 Microsoft SQL Server实例性能监控指标,如下表所示。 指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标) rds001cpuutil CPU使用率 该指标用于统计测量对象的CPU利用率。 0~100% Microsoft SQL Server实例 1分钟 rds003iops IOPS 该指标用于统计当前实例,单位时间内系统处理的I/O请求数量(平均值)。 ≥0counts/s Microsoft SQL Server实例 1分钟 rds039diskutil 磁盘利用率 该指标用于统计测量对象的磁盘利用率。 0~100% Microsoft SQL Server实例 1分钟 rds002memutil 内存使用率 该指标用于统计测量对象的内存利用率。 0~100% Microsoft SQL Server实例 1分钟 rds004bytesin 网络输入吞吐量 该指标用于统计平均每秒从测量对象的所有网络适配器输入的流量。 ≥0bytes/s Microsoft SQL Server实例 1分钟 rds005bytesout 网络输出吞吐量 该指标用于统计平均每秒从测量对象的所有网络适配器输出的流量。 ≥0bytes/s Microsoft SQL Server实例 1分钟 rds049diskreadthroughput 硬盘读吞吐量 该指标用于统计每秒从磁盘读取的字节数。 ≥0bytes/s Microsoft SQL Server实例 1分钟 rds050diskwritethroughput 硬盘写吞吐量 该指标用于统计每秒写入磁盘的字节数。 ≥0bytes/s Microsoft SQL Server实例 1分钟 rds047disktotalsize 磁盘总大小 该指标用于统计测量对象的磁盘总大小。 40GB~4000GB Microsoft SQL Server实例 1分钟 rds048diskusedsize 磁盘使用量 该指标用于统计测量对象的磁盘使用大小。 0GB~4000GB Microsoft SQL Server实例 1分钟 rds053avgdiskqueuelength 磁盘平均队列长度 该指标用于统计等待写入测量对象的进程个数。 ≥0 Microsoft SQL Server实例 1分钟 rds054dbconnectionsinuse 使用中的数据库连接数 用户连接到数据库的连接数量。 ≥0 counts Microsoft SQL Server实例 1分钟 rds055transactionspersec 平均每秒事务数 该指标用于统计数据库每秒启动的事务数。 ≥0counts/s Microsoft SQL Server实例 1分钟 rds056batchpersec 平均每秒batch数 该指标用于统计每秒收到的TransactSQL命令批数。 ≥0counts/s Microsoft SQL Server实例 1分钟 rds057loginspersec 每秒登录次数 该指标用于统计每秒启动的登录总数。 ≥0counts/s Microsoft SQL Server实例 1分钟 rds058logoutspersec 每秒登出次数 该指标用于统计每秒启动的注销操作总数。 ≥0counts/s Microsoft SQL Server实例 1分钟 rds059cachehitratio 缓存命中率 该指标用于统计在缓冲区高速缓存中找到而不需要从磁盘中读取的页的百分比。 0~100% Microsoft SQL Server实例 1分钟 rds060sqlcompilationspersec 平均每秒SQL编译数 该指标用于统计每秒SQL的编译数。 ≥0counts/s Microsoft SQL Server实例 1分钟 rds061sqlrecompilationspersec 平均每秒SQL重编译数 该指标用于统计每秒语句重新编译的次数。 ≥0counts/s Microsoft SQL Server实例 1分钟 rds062fullscanspersec 每秒全表扫描数 该指标用于统计每秒不受限制的完全扫描数。 ≥0counts/s Microsoft SQL Server实例 1分钟 rds063errorspersec 每秒用户错误数 该指标用于统计每秒用户错误数。 ≥0counts/s Microsoft SQL Server实例 1分钟 rds064latchwaitspersec 每秒闩锁等待数 该指标用于统计每秒未能立即授予的闩锁请求数。 ≥0counts/s Microsoft SQL Server实例 1分钟 rds065lockwaitspersec 每秒锁等待次数 该指标用于统计每秒要求调用者等待的锁请求数。 ≥0counts/s Microsoft SQL Server实例 1分钟 rds066lockrequestspersec 每秒锁请求次数 该指标用于统计锁管理器每秒请求的新锁和锁转换数。 ≥0counts/s Microsoft SQL Server实例 1分钟 rds067timeoutspersec 每秒锁超时次数 该指标用于统计每秒超时的锁请求数。 ≥0counts/s Microsoft SQL Server实例 1分钟 rds068avglockwaittime 平均锁等待延迟 该指标用于统计每个导致等待的锁请求的平均等待时间(毫秒)。 ≥0ms Microsoft SQL Server实例 1分钟 rds069deadlockspersec 每秒死锁次数 该指标用于统计每秒导致死锁的锁请求数。 ≥0counts/s Microsoft SQL Server实例 1分钟 rds070checkpointpagespersec 每秒检查点写入Page数 该指标用于统计刷新所有脏页的检查点或其他操作每秒刷新到磁盘的页数。 ≥0counts/s Microsoft SQL Server实例 1分钟 rds077replicationdelay 数据同步延迟 该指标用于统计主备实例复制延迟,由于SQL Server实例复制延迟都是库级别,每个库各自都在做同步,所以实例级别复制延迟为复制延迟最大的库的值(单机不涉及都为0s)。 ≥0s Microsoft SQL Server实例 1分钟 mssqlmemgrantpending 待内存授权进程数 该指标用于统计等待接受内存授权进行使用的进程总数,指示内存压力情况。 ≥0counts Microsoft SQL Server实例 1分钟 mssqllazywritepersec 每秒惰性写入缓存数 该指标用于统计每秒钟被惰性编辑器(Lazy writer)写入的缓冲数。 ≥0counts/s Microsoft SQL Server实例 1分钟 mssqlpagelifeexpectancy 无引用页缓冲池停留时间 该指标用于统计页面不被引用后,在缓冲池中停留的秒数。 ≥0s Microsoft SQL Server实例 1分钟 mssqlpagereadspersec 每秒页读取次数 该指标用于统计每秒读取页的个数。 ≥0counts/s Microsoft SQL Server实例 1分钟 mssqltempdbdisksize 临时表空间大小 当前临时表空间占用磁盘大小。 ≥0MB Microsoft SQL Server实例 1分钟
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        监控
        支持的监控指标
      • 支持的监控指标
        本节定义了SQL Server支持的上报云监控的监控指标列表。 实例监控指标 类别 监控项 指标Key 指标含义 取值范围 资源监控 实例CPU使用率 CPURATE 实例的CPU使用率(含操作系统占用) 0~100% 资源监控 磁盘使用率 DISKRATE 磁盘已使用容量/磁盘总容量 0~100% 资源监控 内存使用率 MEMORYRATE 实例的内存使用率 0~100% 资源监控 磁盘读IOPS DISKIOREAD 每秒从磁盘读取操作次数 ≥0 counts/s 资源监控 磁盘写IOPS DISKIOWRITE 每秒从磁盘写入操作的次数 ≥0 counts/s 资源监控 磁盘队列长度 DISKREQUESTSQUEUED 磁盘请求队列的平均长度 ≥0 资源监控 磁盘读吞吐量 DISKREADTHROUGHPUT 每秒从磁盘读取的字节数 ≥0 byte/s 资源监控 磁盘写吞吐量 DISKWRITETHROUGHPUT 每秒写入磁盘的字节数 ≥0 byte/s 资源监控 磁盘总量 DISKSIZEBYTES 磁盘总字节数 说明 此项仅支持通过API接口查询,控制台可在实例详情页查看存储空间大小。 ≥0 byte 资源监控 磁盘使用量 DISKUSEBYTES 磁盘使用字节数 ≥ 0 byte 资源监控 实例平均每秒钟的流入流量/流出流量 mssqlwriteseconds/mssqlreadseconds 实每秒钟的输入流量/输出流量 ≥0 kb/s 资源监控 当前总连接数 mssqlconnections 实例当前总连接数 ≥0 counts 引擎监控 平均每秒事务数 mssqltransactions 统计每秒钟事务处理数 ≥0 counts/s 引擎监控 平均每秒SQL语句执行次数 mssqlbatchrequests 统计每秒钟SQL语句执行次数缓存池的读命中率 ≥0 counts/s 引擎监控 缓存命中率 mssqlbufferhitratio 统计缓存池的读命中率 0~100% 引擎监控 每秒写入page数 mssqlpagecheckpointseconds 统计检查点写入的速度 ≥0 counts/s 引擎监控 每秒登录次数 mssqlloginseconds 统计每秒登录次数 ≥0 counts/s 引擎监控 平均每秒全表扫描次数 mssqlfullscanseconds 统计平均每秒全表扫描次数 ≥0 counts/s 引擎监控 每秒SQL编译 mssqlsqlcompilationseconds 统计每秒SQL编译次数 ≥0 counts/s 引擎监控 每秒锁超时次数 mssqllocktimeoutseconds 统计每秒锁超时次数 ≥0 counts/s 引擎监控 每秒死锁次数 mssqldeadlockseconds 统计每秒死锁次数 ≥0 counts/s 引擎监控 每秒锁等待次数 mssqllockwaitseconds 统计每秒锁等待次数 ≥0 counts/s 引擎监控 工作线程使用率 mssqlworkerthreadsusagerate 当前活跃线程数与maxworkerscount的比值 0~100% 引擎监控 数据同步延迟 mssqlreplicationdelay 主备实例复制延迟,由于SQL Server实例复制延迟都是库级别,每个库各自都在做同步,所以实例级别复制延迟为复制延迟最大的库的值,单机不涉及 ≥0 s 引擎监控 平均每秒batch数 mssqlbatchpersec 统计每秒收到的TransactSQL命令批次 ≥0 counts/s 引擎监控 每秒登出次数 mssqllogoutspersec 统计每秒启动的注销操作总数 ≥0 counts/s 引擎监控 平均每秒SQL重编译数 mssqlrecompilationspersec 统计每秒重新编译的次数 ≥0 counts/s 引擎监控 每秒用户错误数 mssqlusererrorspersec 统计每秒用户错误数 ≥0 counts/s 引擎监控 每秒闩锁等待数 mssqllatchwaitspersec 统计每秒未能立即授予的闩锁请求数 ≥0 counts/s 引擎监控 每秒锁请求次数 mssqllockrequestspersec 统计锁管理每秒请求的新锁和锁转换次数 ≥0 counts/s 引擎监控 平均锁等待延迟 mssqlavglockwaittime 统计每个导致等待的锁请求的平均等待时间(毫秒) ≥0 ms 引擎监控 待内存授权进程数 mssqlmemorygrantspending 统计等待接受内存授权的进程总数,指示内存压力 ≥0 counts 引擎监控 每秒惰性写入缓存数 mssqllazywritespersec 统计每秒被惰性编辑器(Lazy writes)写入的缓冲数 ≥0 counts/s 引擎监控 无引用页缓冲池停留时间 mssqlpagelifeexpectancy 统计页面不被引用后,在缓冲池中停留的秒数 ≥0 s 引擎监控 每秒页读取次数 mssqlpagereadspersec 统计每秒读取页的个数 ≥0 counts/s 引擎监控 临时表空间大小 mssqltempdbdisksize 当前临时表空间占用磁盘大小 ≥0 MB
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        监控告警
        支持的监控指标
      • MongoDB->DDS
        本节主要介绍MongoDB>DDS 使用技巧(需要人为配合) 如果您使用的是全量迁移模式(离线迁移),确保源和目标数据库无业务写入,保证迁移前后数据一致。 如果您使用的是全量+增量迁移模式(在线迁移),支持在源数据库有业务数据写入的情况下进行迁移,推荐提前23天启动任务,并配合如下使用技巧和对应场景的操作要求,以确保顺利迁移。 全量迁移 基于以下原因,建议您结合定时启动功能,选择业务低峰期开始运行迁移任务,相对静态的数据,迁移时复杂度将会降低。 全量迁移会对源数据库有一定的访问压力。 迁移无主键表时,为了确保数据一致性,会存在3s以内的单表级锁定。 正在迁移的数据被其他事务长时间锁死,可能导致读数据超时。 数据对比 建议您结合数据对比的“稍后启动”功能,选择业务低峰期进行数据对比,以便得到更为具有参考性的对比结果。由于同步具有轻微的时差,在数据持续操作过程中进行对比任务,可能会出现少量数据不一致对比结果,从而失去参考意义。 操作要求 针对一些无法预知或人为因素及环境突变导致迁移失败的情况,数据库复制服务提供以下常见的操作限制,供您在迁移过程中参考。 类型名称 操作限制 (需要人为配合) 注意事项 环境要求均不允许在迁移过程中修改,直至迁移结束。 注意事项 相互关联的数据对象要确保同时迁移,避免迁移因关联对象缺失,导致迁移失败。常见的关联关系:视图引用集合、视图引用视图等。 注意事项 副本集:MongoDB数据库的副本集实例状态必须正常,要存在主节点。 注意事项 单节点:目前不支持源数据库为非本云单节点实例的迁移。 注意事项 源数据库为非集群实例时,增量迁移阶段支持如下操作: 注意事项 支持数据库(database)新建、删除。 注意事项 支持文档(document)新增、删除、更新。 注意事项 支持集合(collection)新建、删除。 注意事项 支持索引(index)新建、删除。 注意事项 支持视图(view)新建,删除。 注意事项 支持convertToCapped、collMod、renameCollection命令。 注意事项 源库是集群实例时,集群到集群的全量+增量迁移,全量阶段和增量阶段,不允许对迁移对象做删除操作,否则会导致任务失败。 注意事项 源库实例类型选择集群(MongoDB 4.0+)模式时,表示源数据库为集群4.0 以上版本,DRS内部同步使用MongoDB特性Change Streams。使用该模式应注意以下几个方面: 注意事项 Change Streams订阅数据过程会消耗源数据库一定量的CPU,内存资源,请提前做好源数据库资源评估。 注意事项 受MongoDB Change Streams自身性能影响,如果源库的负载比较大,Change Streams会出现处理速度无法跟上Oplog产生速度,进而导致DRS同步出现时延。 注意事项 Change Streams目前仅支持drop database,drop collection,rename的DDL,其他DDL均不支持。 注意事项 对于在源数据库已经存在TTL索引的集合,或者在增量迁移期间在源库数据创建了TTL索引的集合,由于源数据库和目标库数据库时区,时钟的不一致,不能保证迁移完成之后数据的一致性。 注意事项 如果源数据库的MongoDB服务不是单独部署的,而是和其他的服务部署在同一台机器,则必须要给源数据库的wiredTiger引擎加上cacheSizeGB的参数配置,建议值设为最小空闲内存的一半。 注意事项 专属计算集群暂不支持DDS实例,无法创建迁移任务。 注意事项 选择集合迁移时,增量迁移过程中不建议对集合进行重命名操作。 注意事项 如果源数据库是副本集,则建议填写所有的主节点和备节点信息,以防主备切换影响迁移任务。如果填写的是主备多个节点的信息,注意所有的节点信息必须属于同一个副本集实例。 注意事项 如果源数据库是集群,则建议填写多个mongos信息,以防单个mongos节点故障影响迁移任务。如果填写的是多个mongos信息,注意所有的mongos信息必须属于同一个集群。如果是集群的增量迁移任务,建议shard信息填写所有的主节点和备节点,以防主备切换影响迁移任务,并且注意所填写的主备信息必须属于同一个shard。确保填写的所有shard节点信息必须隶属于同一个集群。 注意事项 非全部迁移场景下,为防止drop database操作删除目标库已有的集合,drop database不会同步到目标库。 注意事项 源库是MongoDB 3.6以下版本(不含3.6)时,执行drop database会导致源库删除集合但目标库没有删除。 注意事项 源库是MongoDB 3.6及以上版本(含3.6)时,drop database 操作在oplog中会体现为drop database 和drop collection操作,所以目标库也会删除相应集合,不会出现问题。 操作须知 为了保持数据一致性,在整个迁移过程中,不允许对正在迁移中的目标数据库进行修改操作(包括但不限于DDL、DML操作),也不支持对源数据库进行DDL操作。 操作须知 迁移过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库端口号。 操作须知 在任务启动、任务全量迁移阶段,不建议对源数据库做删除类型的DDL操作,比如删除数据库、集合、索引、文档、视图等,这样可能会引起任务迁移失败。 操作须知 在整个迁移过程中,不支持源数据库主备切换导致数据回滚的情况。 操作须知 选择集合迁移时,增量迁移过程中不建议对集合进行重命名操作。 操作须知 为了提高迁移的速度,在开始迁移之前,建议在源数据库删掉不需要的索引,只保留必须的索引。在迁移过程中不建议对源库创建索引,如果必须要创建索引,请使用后台的方式创建索引。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时迁移
        入云迁移使用须知
        MongoDB->DDS
      • Lua脚本规范
        本节主要介绍Lua脚本规范。 Lua是一种脚本语言,目的是为了嵌入应用程序中,为应用程序提供灵活的扩展和定制功能。GeminiDB Redis使用的是Lua5.1.5版本,与开源Redis5.0使用的Lua版本是一致的。 与开源Redis Lua的区别 1. EVAL/EVALSHA命令 命令格式: EVAL script numkeys key [key …] arg [arg …] EVALSHA sha1 numkeys key [key …] arg [arg …] 上述命令的语法与操作与开源Redis一致。用户需自己保证将脚本中使用到的Redis key显式的通过key参数传入,而不是直接在脚本中编码,并且如果带有多个key参数,则要求所有的key参数必须拥有相同的hash tag。 如果不遵循上述约束,则在Lua中执行涉及这些key的Redis操作时,可能会返回类似“partition not found”的错误信息。 2. SCRIPT命令 SCRIPT命令包含了一组管理Lua脚本的子命令,具体可以通过SCRIPT HELP命令查询具体的操作。 SCRIPT大部分命令都与开源Redis兼容,其中需要特别说明的命令如下: SCRIPT KILL GeminiDB Redis是多线程执行的环境,允许同时执行多个Lua脚本,执行SCRIPT KILL,会终止所有正在运行的Lua脚本。 为了方便使用,GeminiDB Redis扩展了SCRIPT KILL命令,用户可以通过‘SCRIPT KILL SHA1’来终止指定哈希值的脚本。若同一时间存在多个节点在执行哈希值相同的脚本,那么这些脚本都会被终止。 另外,由于用户无法设置Lua超时时间(config set luatimelimit),因此在任意时刻执行SCRIPT KILL都能直接终止脚本,而不是等待脚本超时后才终止。 SCRIPT DEBUG 目前GeminiDB Redis不支持DEBUG功能,所以该命令执行无效。 3. Lua脚本中执行Redis命令 与开源Redis一致,GeminiDB Redis的Lua环境中也提供了一个全局的“redis”表,用于提供各类和Redis Server交互的函数。 如下表为GeminiDB Redis目前支持和不支持的操作列表。 支持的操作 不支持的操作 redis.call() redis.pcall() redis.sha1hex() redis.errorreply() redis.statusreply() redis.log() redis.LOGDEBUG redis.LOGVERBOSE redis.LOGNOTICE redis.LOGWARNING redis.replicatecommands() redis.setrepl() redis.REPLNONE redis.REPLAOF redis.REPLSLAVE redis.REPLREPLICA redis.REPLALL redis.breakpoint() redis.debug() 4. Lua执行环境限制 开源Redis对Lua脚本的执行有一定的限制,比如限制脚本操作全局变量,限制随机函数的结果,限定能够使用的系统库和第三方库等。 GeminiDB Redis也继承了绝大多数的限制,但是针对如下情况,GeminiDB Redis与开源Redis存在差异: Write Dirty 开源Redis规定,如果某个脚本已经执行了写操作,那么就不能被SCRIPT KILL停止执行,必须使用SHUTDOWN NOSAVE来直接关闭Redis Server。 GeminiDB Redis不支持执行SHUTDOWN命令,因此这条限制不会被执行,用户仍然可以通过SCRIPT KILL来停止脚本的执行。 Random Dirty 由于主从复制的原因,开源Redis规定,若脚本执行了带有随机性质的命令(Time, randomkey),则不允许再执行写语义的命令。 例如,如下Lua脚本: local t redis.call("time") return redis.call("set", "time", t[1]); 当该脚本的执行传递到从节点时,Time命令获取到的时间一定晚于主节点,因此从节点执行的Set命令的值就会和主节点产生冲突。开源Redis引入了replicatecommands来允许用户决定这种场景下的行为模式。 对于GeminiDB Redis来说,由于没有主从的概念,数据在逻辑上只有一份,因此也就不存在该限制。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        实例开发规范与命令兼容
        Lua脚本规范
      • 售前常见问题
        对象存储支持数据统计功能吗? 对象存储提供数据的监控能力,用户可通过控制台了解各数据的状况及趋势。可以在控制台查看整体或各个存储桶的存储量、文件数量、文件碎片、请求数、流量等数据。 这些数据统计信息可以帮助您全面了解存储桶中数据的状况和趋势。您可以根据这些信息进行容量规划、性能优化和业务决策。同时,数据统计功能还可以帮助您发现异常活动、追踪存储桶的使用情况,并进行监控和管理。 创建存储桶时,存储桶的命名规则是什么? 桶名称全局唯一,在任何集群,都不能与已有的任何桶名称重复,包括其他用户创建的桶。 存储桶一旦创建成功,名称不能修改且不支持重命名 存储桶名称的长度范围为3到63个字符,支持小写字母、数字、中划线()、英文句号(.)。 禁止两个英文句号(.)或英文句号(.)和中划线()相邻,禁止以英文句号(.)和中划线()开头或结尾。 禁止使用IP地址。 如果名称中包含英文句号(.),访问桶或对象时可能会进行安全证书校验。 如何减少存储成本? 天翼云提供以下两种方法帮助您降低存储成本: 灵活应用冷存储:冷存储是指将不经常被访问的数据移至低成本的存储类型,如低频存储或归档存储。通常,冷存储的访问速度可能相对较慢,适用于需要保存但不经常读取的数据。根据您的业务需求,您可以将不常用的数据转换为低频存储或归档存储,从而降低存储成本。 灵活应用生命周期策略:生命周期策略是一种自动化的方式,用于管理对象存储中数据的整个生命周期。通过生命周期策略,您可以定义规则来自动转换文件类型或删除数据。例如,您可以根据数据的访问频率等因素将数据从标准存储转换为更低成本的低频存储和归档存储,或者在数据过期后自动删除它们。通过合理配置生命周期策略,您可以优化存储资源的使用,降低存储成本。 除了上述方法外,还有其他一些可能的降低存储成本的策略,如压缩和去重数据以节省存储空间、评估并优化存储桶的容量、定期清理并删除不再需要的数据等。
        来自:
        帮助文档
        对象存储 ZOS
        常见问题
        售前常见问题
      • SQL闪回
        本页面主要介绍SQL闪回功能的使用场景和操作步骤。 注意 仅II类型资源池(华东1)支持该功能,I类型资源池不支持该功能,具体支持情况以控制台页面展示为准。更多资源池信息,请参见功能概览。 使用场景 SQL闪回功能适用于误执行DML操作(如INSERT、UPDATE、DELETE)导致数据错误或丢失的场合 ,如果需要快速恢复被误修改或误删除的行数据 ,可以通过SQL闪回生成逆向补偿SQL并闪回执行,将数据恢复到操作前的状态 。 约束限制 当前仅支持对DML操作生成闪回SQL; 仅对象存储实例支持使用该功能; 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例基本信息页面。 4. 选择运维管理二级目录,并选择SQL闪回页签。 5. 点击创建SQL闪回按钮,在弹窗中输入或者选择相关项。 说明 任务名称:为当前SQL闪回任务自定义一个名称; 闪回时间:根据本地存在的Binlog文件,系统返回的可闪回时间范围,本地Binlog保留时间越短,则可闪回时间范围也越短。详情可见本地Binlog设置; 闪回范围:全局或者某些库表,根据执行错误的范围来进行选择即可,可选择多个库,或某个库的多张表; SQL类型:可选择所有或某一具体的DML语句; 闪回类型:原始SQL或者回滚SQL,具体可根据需求选择,在最后生成的文件中,回滚SQL中也会包含原始SQL的注释,由于执行的不确定性,可能会存在其他同一时刻执行的SQL语句,请用户自行判别是否可以直接执行。 6. 选择完成后,点击确定即可。 7. 在SQL闪回页面可看到刚提交的任务,等任务成功后,可点击操作列的下载,对SQL文件进行查看,并自行判别是否执行以及执行哪些语句。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        问题诊断与运维
        SQL闪回
      • 边缘虚拟机挂载数据盘
        为分区创建文件系统 在新分区上创建一个文件系统。根据您的需求运行以下任一命令,创建文件系统。 创建一个ext4文件系统,运行以下命令: mkfs t ext4 /dev/vdb1 创建一个xfs文件系统,运行以下命令: mkfs t xfs /dev/vdb1 本示例中,创建一个xfs文件系统。 配置/etc/fstab文件并挂载分区 在/etc/fstab中写入新分区信息,启动开机自动挂载分区。 说明 建议在/etc/fstab中使用全局唯一标识符UUID来引用新分区。 1. 备份etc/fstab文件。运行以下命令: cp /etc/fstab /etc/fstab.bak 2. 在/etc/fstab里写入新分区信息。 root用户可以运行以下命令直接修改/etc/fstab文件: echo blkid /dev/vdb1 awk '{print $2}' sed 's/"//g' /mnt xfs defaults 0 0 >> /etc/fstab 说明 Ubuntu 12.04系统不支持barrier,您需要运行 echo blkid /dev/vdb1 awk '{print $2}' sed 's/"//g' /mnt xfs defaults 0 0 >> /etc/fstab 命令。 如果要把数据盘单独挂载到某个文件夹,例如单独用来存放网页,则将命令中 /mnt 替换成所需的挂载点路径。 普通用户可以手动修改/etc/fstab文件。 运行以下命令查看新分区的UUID: sudo blkid /dev/vdb1 运行结果如下所示。 /dev/vdb1: UUID"213baaa9190542f2979d7d2b6db" TYPE"xfs" 运行以下命令编辑/etc/fstab文件: sudo vi /etc/fstab 输入i进入编辑模式。 在/etc/fstab文件中写入新分区信息,UUID值请修改为前面步骤中的查询结果。 UUID213baaa9190542f2979d7d2b6db /mnt xfs defaults 0 0 按Esc键,输入 :wq,按回车键保存并退出。 3. 查看/etc/fstab中的新分区信息。运行以下命令: cat /etc/fstab 运行结果如下所示。 4. 挂载分区。运行以下命令: 普通挂载: mount /dev/vdb1 /mnt 只读挂载: mount o ro,noload /dev/vdb1 /mnt 5. 检查挂载结果。运行以下命令: df h 运行结果如下所示,如果出现新建文件系统的信息,表示文件系统挂载成功。
        来自:
        帮助文档
        智能边缘云
        最佳实践
        边缘虚拟机挂载数据盘
      • 库表管理
        本文主要介绍了DRDS库表管理页面相关内容,包括新建库表、DDL语句执行等操作。 查看库表基本信息 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 单击schema管理 ,进入目标实例的schema管理页面。 5. 单击目标schema操作 列的管理 ,然后单击库表管理,进入库表管理页面。 在库表管理页面可以查看库表信息,包括表名、类型、分片键、分片函数、分片节点和操作等。 新建库表 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 单击schema管理 ,进入目标实例的schema管理页面。 5. 单击目标schema操作 列的管理 ,然后单击库表管理,进入库表管理页面。 6. 单击左上角的新建库表 ,进入新建库表页面。 7. 在执行新建语句 的输入框中输入创建库表的DDL语句,单击下一步。 注意 批量执行DDL语句时,每次最多支持创建10000张表。 8. 选择该库表的表类型:全局表、分片表、单片表,相关说明请参见基本概念。系统提供若干种预置分片算法,详细说明请参见分片算法。对于超大表水平切分后单片数据量依然很大时,可以选择库内分表 或者分桶,在分片节点中二次拆分,两者主要区别在于前者可以指定库内分表分片键,后者必须使用库表的分片键做分桶处理。 注意 仅V5.1.20.0.7及以后版本创建的实例,支持设置Range分片算法。 Range分片算法的分片键只支持单个列。 Range分片算法只支持整数类型(TINYINT, SMALLINT, MEDIUMINT, INT (INTEGER), and BIGINT)。 Range分片算法不支持库内分表、库内分桶。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        Schema管理
        库表管理
      • CCE发布Kubernetes 1.30版本说明
        本文介绍Kubernetes 1.30版本的变更说明 云容器引擎(CCE)严格遵循社区一致性认证,现已支持Kubernetes 1.30集群版本特性。 新增特性及特性增强 Webhook匹配表达式(GA) 在Kubernetes1.30版本中,Webhook匹配表达式特性进阶至GA。此特性允许对准入Webhook支持根据特定的条件进行匹配,更细粒度地控制Webhook的触发条件。 Pod调度就绪态(GA) 在Kubernetes1.30版本中,Pod调度就绪态特性进阶至GA。此特性允许对Pod添加自定义的schedulingGates,并由用户控制何时移除这些gate,当所有gates移除后,Pod才会被认为调度就绪。 验证准入策略(GA) 在Kubernetes1.30版本中,验证准入策略(ValidatingAdmissionPolicy)特性进阶至GA。该特性支持通过CEL表达式声明资源的验证准入策略。 基于ContainerResource指标的Pod水平自动扩缩容(GA) 在Kubernetes1.30版本中,基于ContainerResource指标的Pod水平自动扩缩容特性进阶至GA。该特性允许HPA根据Pod中各个容器的资源使用情况来配置自动伸缩,而不仅是Pod的整体资源使用情况,便于为Pod中最重要的容器配置扩缩容阈值。 传统ServiceAccount令牌清理器(GA) 在Kubernetes1.30版本中,传统ServiceAccount令牌清理器特性进阶至GA。其作为kubecontrollermanager的一部分运行,每24小时检查一次,查看是否有任何自动生成的传统ServiceAccount令牌在特定时间段内(默认为一年,通过legacyserviceaccounttokencleanupperiod指定)未被使用。如果有的话,清理器会将这些令牌标记为无效,并添加kubernetes.io/legacytokeninvalidsince标签,其值为当前日期。如果一个无效的令牌在特定时间段(默认为1年,通过legacyserviceaccounttokencleanupperiod指定)内未被使用,清理器将会删除它。 Pod拓扑分布中的最小域(GA) 在Kubernetes1.30版本中,Pod拓扑分布中的最小域特性进阶至GA。此特性允许通过Pod的minDomains字段配置符合条件的域的最小数量。负载拓扑约束匹配到的域的数量如果大于minDomains,则该字段没有影响;如果小于minDomains,则会将全局最小值(符合条件的域中匹配 Pod 的最小数量)设为0,该字段必须结合whenUnsatisfiable: DoNotSchedule一起使用,实现在不满足拓扑约束的情况下让Pod不进行调度。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群概述
        集群Kubernetes版本发布说明
        CCE发布Kubernetes 1.30版本说明
      • 操作类
        15. 查询出来的时间戳数据与写入时不一致 往表中写入时间戳数据时,可能由于时区的影响导致查询结果与实际数据不一致。这可能是因为写入数据时的时区设置与查询数据时的时区设置不匹配。 16. 如何操作列相关的DDL操作 进行DDL操作以增加、删除或修改列时,可以按照以下步骤进行: 1. 增加列(ADD COLUMN): 使用 ALTER TABLE语句指定要修改的表名。 使用 ADD COLUMN关键字后跟新列的名称和数据类型,以及任何其他列属性(如默认值、约束等)。 执行DDL语句以将新列添加到表中。 2. 删除列(DROP COLUMN): 使用 ALTER TABLE语句指定要修改的表名。 使用 DROP COLUMN关键字后跟要删除的列的名称。 执行DDL语句以从表中删除指定的列。 3. 修改列(ALTER COLUMN): 使用 ALTER TABLE语句指定要修改的表名。 使用 ALTER COLUMN关键字后跟要修改的列的名称和要进行的修改操作。 根据需要,可以修改列的数据类型、默认值、约束等。 执行DDL语句以对指定的列进行修改。 在操作DDL时请关注: DDL操作可能会导致表的重建或重组,因此在执行DDL操作时,请确保对表的影响和潜在的数据重排。 在进行DDL操作之前,建议先进行备份或测试,以确保数据的完整性和正确性。 以上是一般的DDL操作示例,具体操作可能会根据您使用的数据库管理工具或客户端的不同而有所变化。请参考您所使用的具体工具或文档以了解更详细的操作步骤。 17. DDL执行慢 数据库负载过高:如果数据库正在执行其他耗时的操作或有大量并发查询,DDL操作可能会受到影响。解决方案是在执行DDL操作时确保数据库负载较低,可以暂停其他耗时的操作或限制并发查询。 数据库锁定:DDL操作可能需要锁定表或表的部分数据,以确保数据一致性。如果有其他会话正在锁定相同的表或数据,DDL操作可能会等待锁释放。解决方案是确保没有其他会话正在使用需要锁定的表或数据,或者根据需要调整锁定策略。 大表操作:如果要对大表执行DDL操作,例如增加或删除大量列,操作可能会耗费较长的时间。这是因为DDL操作可能需要重建表或重组数据。解决方案是在执行DDL操作时进行适当的计划和预估时间,并确保有足够的系统资源来处理大表操作。 索引重建:某些DDL操作可能会导致索引的重新构建。如果表中有大量数据或复杂的索引结构,索引重建可能需要较长的时间。解决方案是在执行DDL操作之前评估索引的重建成本,并根据需要进行调整。 阻塞和死锁:如果DDL操作与其他会话之间存在阻塞或死锁情况,操作可能无法继续执行。解决方案是检查并解决任何阻塞或死锁问题,例如通过调整事务隔离级别、优化查询等。 系统资源不足:DDL操作可能需要大量的系统资源,例如CPU、内存和磁盘。如果系统资源不足,DDL操作可能会变慢或卡住。解决方案是确保系统具有足够的资源来执行DDL操作,可以考虑增加硬件资源或优化系统配置。
        来自:
        帮助文档
        云数据库ClickHouse
        常见问题
        操作类
      • 版本插件列表
        插件名称 功能 PostgreSQL 12 addressstandardizer 地理编码和逆向地理编码数据地址规则化。 3.0.2 addressstandardizerdataus 数据地址规则化示例数据集。 3.0.2 adminpack 提供日志文件的远程管理函数。 2 amcheck 检验索引结构的逻辑一致性。 1.2 autoinc 提供自增字段的函数。 1 bloom Bloom索引包。 1 btreegin B树gin索引包。 1.3 btreegist B树gist索引包。 1.5 citext 大小写不敏感。 1.6 cube 提供多维空间类型。 1.4 dblink 跨库连接的插件。 1.2 decoderbufs 逻辑解码器输出插件。 0.1.0 dictint 全文搜索词典模板的示例。 1 dictxsyn 全文搜索词典模板的示例。 1 earthdistance 计算地球表面上的大圆弧距离。 1.1 filefdw 服务器的文件系统中的数据文件。 1 fuzzystrmatch 字符串相似性判断。 1.1 hstore 键值存储。 1.6 insertusername 跟踪谁修改表的函数。 1 intagg 提供了一个整数聚集器和枚举器。 1.1 intarray 为整数nullfree数组提供函数和操作符。 1.2 isn 输出时连接号码。 1.2 lo 大对象被修改的触发函数。 1.1 ltree 实现树形结构的插件。 1.1 moddatetime 跟踪最后修改时间的插件。 1 orafce 兼容oracle的插件。 3.13 pageinspect 查看页的内容插件。 1.7 pgcrypto 对字段进行加密。 1.3 pgrowlocks 显示指定表的行锁定信息插件。 1.2 pgstattuple 提供表的统计信息函数。 1.5 pgrouting 依赖postgis提供地理空间路由和其他网络分析功能。 3.4.2 pgsqlhttp 用于PostgreSQL的HTTP客户端,从数据库内部检索一个网页。 1.5 pgtt 创建全局临时表。 2.3.0 pgbuffercache 查看sharedbuffer缓存信息。 1.3 pgdirtyread 闪回查询。 2.0 pgfreespacemap 检查自由空间映射。 1.2 pglogincheck 密码登录校验。 1.0 pgprewarm 将表数据缓存到内存中 1.2 pgstatstatements 语句统计。 1.7 pgtrgm 提供三元模型检索匹配。 1.4 pgvisibility 检查表的可见性图和页面级可见性信息。 1.2 pldbgapi 调试存储过程。 1.1 plpgsql 代码覆盖检测。 1.0 postgis 地理信息系统。 3.0.2 postgisraster 地理信息系统。 3.0.2 postgissfcgal 地理信息系统。 3.0.2 postgistigergeocoder 地理信息系统。 3.0.2 postgistopology 地理信息系统。 3.0.2 postgresfdw 外部的postgres的fdw插件。 1.0 seg 支持seg数据类型。 1.3 sslinfo 提供当前客户端提供的 SSL 证书的有关信息。 1.2 tablefunc 表函数。 1.0 tcn 提供触发器函数。 1.0 telepgmonitor 采集&监控系统资源的插件。 2.8.1 timescaledb 时序数据库插件。 1.7.4 tsmsystemrows 提供表采样方法。 1.0 tsmsystemtime 提供表采样时间。 1.0 uuidossp 提供脱离os的UUID函数。 1.1 walminer 闪回DML,DDL。 2.0 xml2 提供xml2数据类型。 1.1 wal2json 将wal日志转成json格式。 1.0 pgnotcopy 专业修复pg漏洞的插件。 1.1 vector 提供向量数据库的vector数据类型。 0.4.2
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        插件管理
        版本插件列表
      • 使用限制
        限制项 说明 带宽 单个账号默认的读写带宽限制为5Gbit/s,如达到该阀值,请求会被流控。 如果您有更大的带宽需求,请提交工单申请。 每秒请求数(QPS) 所有地域每个存储桶默认1000QPS。 如果您有更大的QPS需求,请提交工单申请。 存储桶 1.每个主账号默认在一个资源池下可创建1000个存储桶。 2.在同一资源池下,桶名必须是全局唯一的且不能修改,即用户创建的桶不能与自己已创建的其他桶名称相同,也不能与其他用户创建的桶名称相同。 3.桶创建成功后,桶名、所属区域均不允许修改。 4.删除桶之前必须确保桶内所有对象已彻底删除。 5.单个存储空间的容量不限制。 对象/文件 1.通过控制台上传的单个对象最大是 5G,建议不超过2G,单次最多支持选择100个文件。 2.API和SDK通过分片上传的单个对象最大是50TB。 3.未开启版本控制的情况下,如果上传的文件与已有文件同名,则覆盖已有文件。 4.桶没有开启多版本控制功能时,对象删除后不可恢复。 5.批量删除最大删除文件数量为1000。 生命周期规则 单个桶的最多可配置1000条生命周期规则且总大小不能超过20KB。 Bucket Policy 单个桶中桶策略不限个数,但所有桶策略的总大小不能超过20KB。 ACL ACL最多支持100条授权。更多可参考: 桶清单 单个存储桶最多设置10个清单。更多可参考: 桶标签 1.单个桶最多可以设置10对标签。 2.同个存储桶下不能有相同的标签键。 对象标签 1.单个对象最多可以设置10个标签。 2.同个对象下不能有相同的标签键。 图片处理 1.对原图大小没有限制,但总像素不能超过2.5亿 px(动态图片(例如GIF图片)的像素计算方式为宽x 高x 图片帧数;非动态图片(例如PNG图片)的像素计算方式为宽x高)。 2.图片格式只支持JPG、PNG、BMP、GIF、WebP、TIFF、HEIC、AVIF。 3.目标缩放宽高不超过4,096 px。 更多可参考:图片处理
        来自:
        帮助文档
        媒体存储
        产品介绍
        使用限制
      • MySQL分库分表->DRDS
        本节主要介绍MySQL分库分表>DRDS 使用技巧(需要人为配合) 如果您使用的是全量迁移模式(离线迁移),确保源和目标数据库无业务写入,保证迁移前后数据一致。 如果您使用的是全量+增量迁移模式(在线迁移),支持在源数据库有业务数据写入的情况下进行迁移,推荐提前23天启动任务,并配合如下使用技巧和对应场景的操作要求,以确保顺利迁移。 全量迁移 基于以下原因,建议您结合定时启动功能,选择业务低峰期开始运行迁移任务,相对静态的数据,迁移时复杂度将会降低。 全量迁移会对源数据库有一定的访问压力。 迁移无主键表时,为了确保数据一致性,会存在3s以内的单表级锁定。 正在迁移的数据被其他事务长时间锁死,可能导致读数据超时。 由于MySQL固有特点限制,CPU资源紧张时,存储引擎为Tokudb的表,读取速度可能下降至10%。 数据对比 建议您结合数据对比的“稍后启动”功能,选择业务低峰期进行数据对比,以便得到更为具有参考性的对比结果。由于同步具有轻微的时差,在数据持续操作过程中进行对比任务,可能会出现少量数据不一致对比结果,从而失去参考意义。 操作要求 针对一些无法预知或人为因素及环境突变导致迁移失败的情况,数据库复制服务提供以下常见的操作限制,供您在迁移过程中参考。 类型名称 操作限制 (需要人为配合) 注意事项 环境要求均不允许在迁移过程中修改,直至迁移结束。 若专属计算集群不支持4vCPU/8G或以上规格实例,则无法创建迁移任务。 数据类型不兼容时,可能引起迁移失败。 操作须知 迁移过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库的端口号。 迁移过程中,不允许对源库需要迁移的表结构进行修改。 增量迁移场景下,不支持源数据库进行恢复操作。 选择表级对象迁移时,增量迁移过程中不建议对表进行重命名操作。 在任务启动、任务全量迁移阶段,不建议对源数据库做删除类型的DDL操作,这样可能会引起任务迁移失败。 建议将expirelogday参数设置在合理的范围,确保恢复时断点处的binlog尚未过期,以保证服务中断后的顺利恢复。 如果源数据库为自建库,并且安装了Percona Server for MySQL 5.6.x或Percona Server for MySQL 5.7.x时,内存管理器必须使用Jemalloc库,以避免因系统表频繁查询带来的内存回收不及时,并最终导致数据库Out of Memory问题。 类型名称 使用限制 (DRS自动检查) 数据库权限设置 全量迁移最小权限要求: 源物理分片数据库帐户需要具备如下权限:SELECT、SHOW VIEW、EVENT。 目标中间件帐户需要具备以下基本权限:CREATE、DROP、ALTER、 INDEX、 INSERT、DELETE、 UPDATE、 SELECT, 同时必须具备扩展权限:全表Select权限。 目标中间件帐户必须具备对所迁移数据库的权限。 全量+增量迁移最小权限要求: 源物理分片数据库帐户需要具备如下权限:SELECT、SHOW VIEW、EVENT、LOCK TABLES、REPLICATION SLAVE、REPLICATION CLIENT。 目标中间件帐户需要具备以下基本权限:CREATE、DROP、ALTER、 INDEX、 INSERT、DELETE、 UPDATE、 SELECT, 同时必须具备扩展权限::全表Select权限。 目标中间件帐户必须具备对所迁移数据库的权限。 迁移对象约束 目前只支持迁移源库的数据,不支持迁移源库表结构及其他数据库对象。 用户需要在目标库根据源端逻辑库的表结构,自行在目标库创建对应的表结构及索引。未在目标库创建的对象,视为用户不选择这个对象进行迁移。 源库在目标库创建的表结构, 必须与源库的表结构完全一致。 源库为DRDS时,则不允许存在拆分键为timestamp类型的表。 不支持非MyISAM和非InnoDB表的迁移。 源数据库要求 增量迁移时,MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 增量迁移时,在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致迁移失败。 增量迁移时,必须设置MySQL源数据库的server-id。如果源数据库版本小于或等于MySQL5.6,server-id的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,server-id的取值范围在1-4294967296之间。 源分库分表中间件中的库名、表名不能包含:'<>/以及非ASCII字符。 MySQL源数据库建议开启skipnameresolve,减少连接超时的可能性。 源数据库GTID状态建议为开启状态。 目标数据库要求 目标库若已存在数据,DRS在增量迁移过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在迁移前需要用户自行判断数据是否需要清除,建议用户在迁移前自行清空目标库。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间。 目标库关联RDS数据库的字符集必须与源数据库一致。 目标库实例若选择将时间戳类型(TIMESTAMP,DATETIME)的列作为分片键,则源库数据在迁移到目标库之后,作为分片键的该时间戳类型列的秒精度将被丢弃。 目标数据库存在表的AUTOINCREMENT值至少不能小于源库表的AUTOINCREMENT值。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时迁移
        入云迁移使用须知
        MySQL分库分表->DRDS
      • 功能特性
        审计分析 对实时动态分析的日志进行归并处理和监测,可及时发现高危安全事件,如用户违规行为、数据泄露、攻击利用和主机通信异常。 关联分析策略是系统中的核心功能之一,主要关注各类日志之间的逻辑关联关系。它不仅支持以预定义规则进行事件关联,还能基于状态、时序和归并等方式发现关联。 系统可审计以下不同类型日志或事件(需结合相关设备,如防火墙和IPS等):网络攻击、有害代码、漏洞、用户访问存取、系统运行、设备故障、配置状态、网络连接和数据库操作等。 关联事件的结果将在关联事件中显示,如果符合关联策略,将以告警形式在实时监控模块呈现给用户。用户可以对告警进行处理,以确保及时应对潜在的安全问题。 数据展示 提供可视化的总体概览,通过仪表板可以直观地展示日志数据的统计和分析结果,帮助用户快速了解系统的运行状态和问题。用户可以自定义展示安全事件以及各类审计分析信息,提供实时的审计分析可视化界面。 全局监视仪表板,可展示不同设备类型、不同安全区域的实时日志流曲线、统计图,以及网络整体运行态势、待处理告警信息等。 风险报表 用户可以根据自己的需求,自由选择需要包含在报表中的指标和数据,以便更好地满足特定的业务需求。系统还提供了对预置报表模板的选择和预览功能。用户可以浏览系统中已经存在的报表模板,并选择其中的一个进行生产。这有助于用户快速生成符合自己需求的报表,节省了手动设计和生成报表的时间和工作量。 在报表中,系统以柱状图、曲线图和饼状图的方式统计安全报警和原始日志情况。这种可视化的报表展示方式使得数据更加直观易懂,用户可以更轻松地分析和理解报表中的信息。报表格式方面,系统支持PDF、Word等文件格式的导出。用户可以根据需要选择合适的文件格式,以便将报表分享给其他人或保存到本地进行进一步分析。 此外,系统还支持周期性生成报表并通过邮件推送给用户。用户可以设置报表的生成周期,例如每天、每周或每月定期生成报表,并通过电子邮件将其发送给用户。这样,用户可以及时获得最新的安全报警和日志信息,以便及时采取相应的措施。
        来自:
        帮助文档
        日志审计(原生版)
        产品介绍
        功能特性
      • 支持的监控指标
        指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标) gaussdbmysql001cpuutil CPU使用率 该指标用于统计测量对象的CPU利用率。 0~100% GaussDB(for MySQL)实例 1分钟 gaussdbmysql002memutil 内存使用率 该指标用于统计测量对象的内存利用率。 0~100% GaussDB(for MySQL)实例 1分钟 gaussdbmysql004bytesin 网络输入吞吐量 该指标用于统计平均每秒从测量对象的所有网络适配器输入的流量。 ≥0 bytes/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql005bytesout 网络输出吞吐量 该指标用于统计平均每秒从测量对象的所有网络适配器输出的流量。 ≥0 bytes/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql006conncount 数据库总连接数 该指标用于统计连接到TaurusDB数据库的总连接数。 ≥0 counts GaussDB(for MySQL)实例 1分钟 gaussdbmysql007connactivecount 当前活跃连接数 该指标用于统计当前活跃的连接数。 ≥0 counts GaussDB(for MySQL)实例 1分钟 gaussdbmysql008qps QPS 该指标用于统计SQL语句查询次数,包含DDL,DML,SHOW语句,SET语句和存储过程。 ≥0 Times/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql009tps TPS 该指标用于统计平均每秒事务执行次数,包含提交的和回退的。 ≥0 Times/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql010innodbbufusage 缓冲池利用率 该指标用于统计使用的页与InnoDB缓存中数据页总数比例。 01 GaussDB(for MySQL)实例 1分钟 gaussdbmysql011innodbbufhit 缓冲池命中率 该指标用于统计该段时间读命中与读请求数比例。 01 GaussDB(for MySQL)实例 1分钟 gaussdbmysql012innodbbufdirty 缓冲池脏块率 该指标用于统计InnoDB缓存中脏数据与数据比例。 01 GaussDB(for MySQL)实例 1分钟 gaussdbmysql013innodbreads InnoDB读取吞吐量 该指标用于统计Innodb平均每秒读字节数。 ≥0 bytes/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql014innodbwrites InnoDB写入吞吐量 该指标用于统计Innodb平均每秒写页面数据字节数。TaurusDB只写入临时表页面。 ≥0 bytes/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql017innodblogwritereqcount InnoDB日志写请求频率 该指标用于统计平均每秒的日志写请求数。 ≥0 counts GaussDB(for MySQL)实例 1分钟 gaussdbmysql019innodblogwrites Innodb log buffer写入log file的总次数 该指标用于采集InnoDB表上的 log buffer写入log file的总次数。 ≥0 counts GaussDB(for MySQL)实例 1分钟 gaussdbmysql020temptblcount 临时表数量 该指标用于统计TaurusDB执行语句时在硬盘上自动创建的临时表的数量。 ≥0 counts GaussDB(for MySQL)实例 1分钟 gaussdbmysql028comdmldelcount Delete语句执行频率 该指标用于统计平均每秒Delete语句执行次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql029comdmlinscount Insert语句执行频率 该指标用于统计平均每秒Insert语句执行次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql030comdmlinsselcount InsertSelect语句执行频率 该指标用于统计平均每秒InsertSelect语句执行次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql031comdmlrepcount Replace语句执行频率 该指标用于统计平均每秒Replace语句执行次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql032comdmlrepselcount ReplaceSelection语句执行频率 该指标用于统计平均每秒ReplaceSelection语句执行次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql033comdmlselcount Select语句执行频率 该指标用于统计平均每秒Select语句执行次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql034comdmlupdcount Update语句执行频率 该指标用于统计平均每秒Update语句执行次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql035innodbdelrowcount 行删除速率 该指标用于统计平均每秒从InnoDB表删除的行数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql036innodbinsrowcount 行插入速率 该指标用于统计平均每秒向InnoDB表插入的行数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql037innodbreadrowcount 行读取速率 该指标用于统计平均每秒从InnoDB表读取的行数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql038innodbupdrowcount 行更新速率 该指标用于统计平均每秒向InnoDB表更新的行数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql048diskusedsize 磁盘使用量 该指标用于统计测量对象的磁盘使用大小。 0GB~128TB GaussDB(for MySQL)实例 1分钟 gaussdbmysql072connusage 连接数使用率 该指标用于统计当前已用的TaurusDB连接数占最大连接数的百分比。 0~100% GaussDB(for MySQL)实例 1分钟 gaussdbmysql074slowqueries 慢日志个数统计 该指标展示每分钟TaurusDB产生慢日志的数量。 ≥0 counts/min GaussDB(for MySQL)实例 1分钟 gaussdbmysql077replicationdelay 数据同步延迟 该指标用于采集实例的数据同步延迟时间。 ≥0 s GaussDB(for MySQL)实例 1分钟 gaussdbmysql104dfvwritedelay 存储写时延 该指标用于统计某段时间写入数据到存储层的平均时延。 ≥0 ms GaussDB(for MySQL)实例 1分钟 gaussdbmysql105dfvreaddelay 存储读时延 该指标用于统计某段时间从存储层读取数据的平均时延。 ≥0 ms GaussDB(for MySQL)实例 1分钟 gaussdbmysql106innodbrowlockcurrentwaits InnoDB行锁数量 该指标用于采集InnoDB表上的操作当前正在等待的行锁数量。 ≥0 Locks/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql107comdmlinsandinsselcount Insert和InsertSelect语句执行频率 该指标用于统计平均每秒Insert和InsertSelect语句的执行次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql108comcommitcount Commit语句执行频率 该指标用于统计平均每秒Commit语句的执行次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql109comrollbackcount Rollback语句执行频率 该指标用于统计平均每秒Rollback语句的执行次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql110innodbbufpoolreads InnoDB存储层读请求频率 该指标用于统计平均每秒InnoDB从存储层读取数据的请求次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql111innodbbufpoolreadrequests InnoDB读请求频率 该指标用于统计平均每秒InnoDB读取数据的请求次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql114innodbbufpoolreadahead Innodb顺序预读页数 该指标用于采集InnoDB表上的顺序预读页数。 ≥0 counts GaussDB(for MySQL)实例 1分钟 gaussdbmysql115innodbbufpoolreadaheadevicted Innodb顺序预读,但未访问过的页数 该指标用于采集InnoDB表上的顺序预读,但未访问过的页数。 ≥0 counts GaussDB(for MySQL)实例 1分钟 gaussdbmysql116innodbbufpoolreadaheadrnd Innodb随机预读页数 该指标用于采集InnoDB表上的随机预读页数。 ≥0 counts GaussDB(for MySQL)实例 1分钟 gaussdbmysql117innodbpagesread Innodb读取物理page的数量 该指标用于采集InnoDB表上的读取物理page的数量。 ≥0 counts GaussDB(for MySQL)实例 1分钟 gaussdbmysql118innodbpageswritten Innodb写入物理page的数量 该指标用于采集InnoDB表上的写入物理page的数量。 ≥0 counts GaussDB(for MySQL)实例 1分钟 gaussdbmysql121innodbrowlocktime 行锁花费时间 该指标用于统计该段时间内InnoDB表上行锁花费时间。 ≥0 ms GaussDB(for MySQL)实例 1分钟 gaussdbmysql122innodbrowlockwaits 行锁等待数 该指标用于统计该段时间内InnoDB表上行锁数量。 ≥0 counts/min GaussDB(for MySQL)实例 1分钟 gaussdbmysql123sortrange 范围排序数 该指标用于统计该段时间内使用范围扫描完成的排序数。 ≥0 counts/min GaussDB(for MySQL)实例 1分钟 gaussdbmysql124sortrows 行排序数 该指标用于统计该段时间内已排序的行数。 ≥0 counts/min GaussDB(for MySQL)实例 1分钟 gaussdbmysql125sortscan 扫描表排序数 该指标用于统计该段时间内通过扫描表完成的排序数。 ≥0 counts/min GaussDB(for MySQL)实例 1分钟 gaussdbmysql126tableopencachehits 打开表缓存查找的命中数 该指标用于统计该段时间内打开表缓存查找的命中数。 ≥0 counts/min GaussDB(for MySQL)实例 1分钟 gaussdbmysql127tableopencachemisses 打开表缓存查找的未命中数 该指标用于统计该段时间内打开表缓存查找的未命中数。 ≥0 counts/min GaussDB(for MySQL)实例 1分钟 gaussdbmysql128longtrxcount 未关闭的长事务个数 该指标用于统计未关闭的长事务个数。 ≥0 counts GaussDB(for MySQL)实例 150秒 gaussdbmysql342iostatiopswrite IO写IOPS 该指标用于采集磁盘每秒写次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql344iostatiopsread IO读IOPS 该指标用于采集磁盘每秒读次数。 ≥0 counts/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql346iostatthroughputwrite IO写带宽 该指标用于采集磁盘每秒写带宽。 ≥0 bytes/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql348iostatthroughputread IO读带宽 该指标用于采集磁盘每秒读带宽。 ≥0 bytes/s GaussDB(for MySQL)实例 1分钟 gaussdbmysql371taurusbinlogtotalfilecounts Binlog文件个数 该指标用于统计TaurusDB Binlog文件数量。 ≥0 GaussDB(for MySQL)实例 5分钟 gaussdbmysql378createtemptblpermin 临时表每分钟创建数 该指标用于统计TaurusDB执行语句时在硬盘上每分钟自动创建的临时表的数量。 ≥0counts/min GaussDB(for MySQL)实例 1分钟
        来自:
        帮助文档
        云数据库TaurusDB
        用户指南
        监控指标与告警
        支持的监控指标
      • 安全运营中心
        本节介绍态势感知基本概念。 安全运营中心(Security Operations Center,SOC)一个集中式功能或团队,负责全天候检测端点、服务器、数据库、网络应用程序、网站和其他系统的所有活动,以实时发现潜在的威胁;对网络安全事件进行预防、分析和响应,以改进企业的网络安全态势。SOC还使用最新的威胁情报来掌握威胁组和基础结构的最新信息,并在攻击者利用系统或流程漏洞之前识别和处理这些漏洞,从而主动开展安全工作。大多数SOC每周7天全天候运行,跨多个国家/地区的大型企业/组织可能还依赖于全球安全运营中心(GSOC)来掌控全球安全威胁,并协调多个本地SOC之间的检测和响应。 SOC的功能 SOC团队承担以下职能来帮助防止、响应攻击并在遭到攻击后恢复。 资产和工具清单 为了消除覆盖范围中的盲点和缺口,SOC需要了解它保护的资产,并深入了解它用于保护企业/组织的工具。这意味着考虑到本地和多个云中的所有数据库、云服务、标识、应用程序和客户端。该团队还跟踪企业/组织中使用的所有安全解决方案,例如防火墙、反恶意软件、反勒索软件和监视软件。 减少攻击面 SOC的主要责任是减少企业/组织的攻击面。为此,SOC会维护包含所有工作负载和资产的清单、将安全修补程序应用于软件和防火墙、识别错误配置,并新资产联机时添加这些资产。团队成员还负责研究新出现的威胁并分析风险。 持续监视 SOC团队使用安全分析解决方案全天候监视整个环境 本地、云、应用程序、网络和设备,来发现异常或可疑行为;其中这些解决方案包括安全信息企业管理(SIEM)解决方案、安全编排、自动化和响应(SOAR)解决方案和扩展检测和响应(XDR)解决方案。这些工具会收集遥测数据、聚合数据,并在某些情况下自动进行事件响应。 威胁情报 SOC还使用数据分析、外部源和产品威胁报告来深入了解攻击者行为、基础结构和动机。这种情报提供了有关Internet上正在发生的情况的全局视图,并帮助团队了解威胁组是如何运作的。借助此信息,SOC可快速发现威胁,并加强企业/组织对新出现的风险的应对。 威胁检测 SOC团队使用SIEM和XDR解决方案生成的数据来识别威胁。这首先会从实际问题中筛选掉误报。然后,按严重性和对业务的潜在影响确定威胁的优先级。 日志管理 SOC还负责收集、维护和分析每个客户端、操作系统、虚拟机、本地应用和网络事件生成的日志数据。分析有助于建立正常活动的基线,并揭示可能指示恶意软件、勒索软件或病毒的异常。 事件响应 识别到网络攻击后,SOC会快速采取措施,在尽可能减少业务中断的情况下限制对企业/组织的损害。措施可能包括关闭或隔离受影响的客户端和应用程序、暂停被入侵的账户、移除遭到感染的文件,以及运行防病毒和反恶意软件。 发现和修正 在攻击之后,SOC负责将公司恢复到其原始状态。团队将擦除并重新连接磁盘、标识、电子邮件和客户端,重启应用程序,直接转换到备份系统,并恢复数据。 根本原因调查 为了防止类似的攻击再次发生,SOC进行了彻底的调查,来确定漏洞、效果不佳的安全流程和其他导致事件的教训。 安全性优化 SOC使用事件期间收集的任何情报来解决漏洞、改进流程和策略,并更新安全路线图。 合规性管理 SOC职责的一个关键部分是确保应用程序、安全工具和流程符合隐私法规,例如,《PCI DSS安全遵从包》、《ISO 27701安全遵从包》和《ISO 27001安全遵从包》等。团队定期审核系统来确保合规性,并确保在数据泄露后通知监管机构、执法人员和客户。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        产品介绍
        基本概念
        安全运营中心
      • 告警
        了解存储资源盘活系统的告警功能。 点击左侧导航栏中的“运维”> “告警”,进入“告警”页面,可以查看告警中、已解除和已失效的告警。 注意 告警数据以服务器系统时间为准进行记录。时间被调整,或集群中服务器时间不统一,都可能导致告警数据不准确。但用户的业务数据不会受到影响。 告警分为三个级别: 警告(Warning):指一般性的,系统检测到潜在的或即将发生的影响业务的故障,当前还没有影响业务的告警。维护人员需及时查找告警原因,消除故障隐患。 重要(Major):指局部范围内的、对系统性能造成影响的告警。需要尽快处理,否则会影响重要功能运行。 严重(Critical):指带有全局性的、已经造成业务中断,或者会导致瘫痪的告警。需立即处理,否则系统有崩溃危险。
        来自:
        帮助文档
        存储资源盘活系统
        快速入门
        基本操作
        运维
        告警
      • 版本选择及团队/角色配置
        中小型企业最佳实践 适用人数:数据库用户规模20人100人。 随着企业规模的增长(DMS用户20100人),更加细化的角色分工变得重要,建议按如下配置使用: 团队使用:使用多个团队,依据业务需求划分为多个团队,每个团队拥有独立的团队管理员,并各自管理团队内成员。 角色使用:超级管理员(主账号)负责用户管理、角色分配和操作审计,不再单独管理实例,同时新增DBA,负责所有团队的实例运维、规范制定、风险审批流程等运维事宜。 实例管理:各团队管理员独自录入和管理实例,配置实例的规范和风险规则。 权限分配:各团队管理员按需独自分配数据权限给团队内成员,包括实例、库、表的查询、导入导出及变更权限,确保他们能够执行所需的操作。 协作 :各团队成员提交的工单,主要由各团队管理员审批,对于部分高危的可能影响实例稳定性和安全性的操作,则额外需要DBA审批。 大型企业最佳实践 适用人数:数据库用户规模100人以上。 对于大型或超大型企业(DMS用户100人以上)而言,精细化管理和高效协作是关键,对数据安全和审计有严格要求,建议按如下配置使用: 团队使用:使用多个团队,依据业务需求划分为多个团队,每个团队拥有独立的团队管理员,并各自管理团队内成员。 角色使用:超级管理员(主账号)不再用于日常操作,仅用于某些必需操作(如切换版本、开通某些涉及费用的功能、初始用户角色配置等)。设置若干系统管理员角色,用于代替使用超级管理员。系统管理员拥有所有不涉及费用的功能操作权限,可满足全局管理需求。添加审计管理员角色,负责对所有用户的操作进行审计。设置若干DBA,分别负责部分团队的实例运维、规范制定、风险审批流程等运维事宜。 实例管理:各团队管理员独自录入和管理实例,为实例绑定由DBA定义好的规范和风险规则。 权限分配:各团队管理员按需独自分配数据权限给团队内成员,包括实例、库、表的查询、导入导出及变更权限,确保他们能够执行所需的操作。 协作:各团队成员提交的工单,主要由各团队管理员审批,对于部分高危的可能影响实例稳定性和安全性的操作,则额外需要DBA审批。
        来自:
        帮助文档
        数据管理服务
        最佳实践
        版本选择及团队/角色配置
      • 购买实例
        本节介绍了分布式消息服务RabbitMQ产品实例如何购买。 实例介绍 RabbitMQ实例订购支持用户自定义规格和自定义特性,采用物理隔离的方式部署。租户独占RabbitMQ实例,可根据业务需要可定制相应规格的RabbitMQ实例。在新的资源池节点上,还支持选择主机类型和存储规格等丰富用户选项。 操作步骤 1. 登录管理控制台。 2. 进入RabbitMQ管理控制台。 3. 在管理控制台右上角单击“地域名称”,选择区域。此处请选择与您的应用服务相同的区域。 4. 点击“购买实例”跳转到购买页面,根据页面订购说明进行产品开通。 实例规格选择说明 节点可选择3节点、5节点、7节点、9节点,实例规格可选择4C8G、8C16G、16C32G。 存储类型可选择普通IO(SATA)、高IO(SAS)、超高IO(SSD)。 (1)填写实例名称,长度在 4 到 64个字符,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他特殊字符。 (2)选择引擎类型,默认选择云原生引擎,海量消息堆积能力,支持更多连接和队列数,稳定性高。也可选择rabbitmq引擎,完全支持开源RabbitMQ生态,功能完备。 (3)选择计费模式:包年包月/按需计费,两种模式说明参见计费模式。 (4)购买时长按照计费模式选择变化: 计费模式为包年包月,可选择购买时长16个月、13年。该模式提供自动续期功能,勾选后可以自动续期购买时长:16个月、13年。 计费模式为按需计费,则该选项隐藏无需选择。 (5)部署方式有单可用区和多可用区两个选项,目前仅支持单可用区和3可用区部署,单可用区部署请选中任意一个AZ;多可用区部署请选中3个AZ,系统会自动将Broker节点平均分配至各可用区。 (6)设置节点数,可选择3/5/7/9。RabbitMQ 的节点数是指 RabbitMQ 集群中的节点数量。在 RabbitMQ 集群中,可以有多个节点组成一个集群,每个节点都是一个独立的 RabbitMQ 服务器实例。 (7)下拉选择主机类型,可选择通用型和计算增强型。通用型云主机共享宿主机的CPU资源,主要提供基本水平的vCPU性能、平衡的计算、内存和网络资源,具有较高性价比,支持通用的业务运行。计算增强型云主机独享宿主机的CPU资源,实例间无CPU争抢,并且没有进行资源超配,同时搭载全新网络加速引擎,实现接近物理服务器的强劲稳定性能。 (8)选择实例规格,分布式消息服务RabbitMQ提供通用型和计算增强型各3类规格,各规格详细说明参见弹性云主机规格。 (9)选择存储空间,包括磁盘类型和空间。 磁盘类型提供高IO/超高IO三类。普通IO适用于大容量、读写速率中等、事务性处理较少的应用场景。高IO:适用于主流的高性能、高可靠应用场景。超高IO:适用于超高IOPS、超大带宽需求的读写密集型应用场景。了解更多磁盘类型说明参见云硬盘规格。 磁盘空间以100G起步,可以以100倍数增加磁盘空间。 (10)选择已有虚拟私有云,若无虚拟私有云,点击创建跳转到虚拟私有云页面新增,了解更多内容参见虚拟私有云。 (11)选择已有子网,若无子网,点击创建跳转到子网页面新增。 (12)选择已有安全组,若无安全组,点击创建跳转到安全组页面新增。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        快速入门
        购买实例
      • 模型精调功能介绍
        精调参数 在SFT中,不同的超参数选择会影响模型的精度以及性能,下面逐一对部分重要参数进行解释并给出一般性推荐。 epoch:模型训练轮数,通常选择2~5,可以根据eval集的loss曲线来判断:如果train集的loss曲线下降,eval集loss曲线上升,则说明模型已经过拟合,此刻考虑到基础模型的通用能力,应该停止训练;如果train集和eval集loss曲线均在缓慢下降,则说明模型还未收敛,可以继续进行训练。按经验来说,一般性的任务,全参微调训练3个epoch以内,LoRA微调应该取35个epoch。而生成类任务的epoch数可以略微设置大一点,如5~10范围内。 learning rate:学习率,设置较大时会加速模型迭代,但是模型可能无法收敛到最优点;设置过小时会使得模型迭代较慢,可能陷入局部最优。按照经验来讲, LORA微调选择 learning rate 在 1e4 ~ 3e4,全参微调选择learning rate在1e6~5e6即可。 global batch size:全局批处理大小,在大模型加速框架Megatron下,该值的增大不会导致显存溢出的问题,但由于梯度累积的存在,其值越大,模型训练性能会降低。一般来说,小模型使用的gbs值可以小一点,大模型的gbs值一般设置成64及以上,gbs的设置一般是2的次幂,比如2,4,8,16,32等。 seq lens:序列长度,其取值应该大于等于训练数据里面最长的那个,以防止数据被截断。一般来说,由于大模型普遍应用旋转位置编码,其已经具备了一定的外推性,8k的序列长度已经可以满足一些简单的、常规的问答任务。如果有特殊需求,比如长文本续写或者特长思维链推理,才会考虑放大序列长度到32k。而且增大序列长度所需的资源数会成倍增长,通常会开启序列并行或者激活值重计算的方式来支持模型的长序列微调能力,会严重影响训练性能。 另外,针对这些参数,有一些额外建议供用户参考: 微调时,learning rate是随着global batch size的增加而单调递增但有上界的。当优化器是Adam或者RMSProp时,learning rate是和global batch size的平方根成正比。但是增大global batch size到一定阈值后,learning rate反而应该减小。 当增大global batch size并相应增大learning rate时,为保证模型训练一定的步数,有时epoch也需要稍微增大一些。 LoRA微调时,最优的learning rate相比于全参微调时最优的learning rate,一般大1~2个数量级。
        来自:
        帮助文档
        训推服务
        用户指南
        模型定制
        模型精调
        模型精调功能介绍
      • 操作指导
        本节介绍云等保专区产品的日志审计。 日志审计具备信息资产的综合性管理能力,通过对客户网络设备、安全设备、主机和应用系统日志进行全面的标准化处理,及时发现各种安全威胁、异常行为事件。为管理人员提供全局的视角,确保客户业务的不间断运营安全。通过采集网络资产设备上报的日志,实时监视网络各类操作行为及攻击信息。根据设置的规则,智能判断出各种风险行为,对风险行为进行报警。 功能 描述 全面日志采集 全面支持Syslog、SNMP、OPSec、XML、FTP及本地文件等协议,可以覆盖主流硬件设备、主机及应用,保障日志信息的全面收集。 实现信息资产(网络设备、安全设备、主机、应用及数据库)的日志获取,并通过预置的解析规则实现日志的解析、过滤及聚合。 同时可将收集的日志通过转发功能转发到其它网管平台。 大规模安全存储 内置TB级别存储设备,可以选配各种RAID级别进行数据冗余和安全保障。系统拥有多项自主知识产权的存储加密机制和查询机制,十分适合等保、密保等行业的应用要求。 智能关联分析 实现全维度、跨设备、细粒度关联分析,内置众多的关联规则,支持网络安全攻防检测、合规性检测,可轻松实现各资产间的关联分析。 脆弱性管理 能够收集和管理来自各种Web漏洞扫描工具、主机漏洞扫描工具、网络漏洞扫描工具产生的扫描结果,并实时和用户资产收到的攻击危险进行风险三维关联分析。 数据挖掘和数据预测 支持对历史日志数据进行数据挖掘分析,发现日志和事件间的潜在关联关系,并对挖掘结果进行可视化展示。系统自带多种数据统计预测算法,可以根据历史数据的规律对未来的数据发生情况进行有效预测。 可视化展示 实现对信息资产的实时监控、信息资产与客户管理、解析规则与关联规则的定义与分发、日志信息的统计与报表、海量日志的存储与快速检索以及平台的管理。 通过各种事件的归化处理,实现高性能的海量事件存储和检索优化功能,提供高速的事件检索能力。 事后的合规性统计分析处理,可对数据进行二次挖掘分析。 分布式部署和管理 平台支持分布式部署,可以在中心平台管理规则、配置策略自动分发、远程自动升级等,极大地降低了分布式部署的难度,提高了可管理性。 灵活的可扩展性 提供多种定制接口,实现强大的二次开发能力以及与第三方平台对接和扩展的能力。 了解更多日志审计相关操作内容,请下载阅读《云等保专区日志审计 v1.0 用户指南》。
        来自:
        帮助文档
        云等保专区
        用户指南
        日志审计
        日志审计v1.0
        操作指导
      • 共享盘文件夹管理
        本节介绍共享盘文件夹权限设置的操作说明。 创建文件夹 1. 进入“AI云电脑(政企版)”控制台; 2. 选择“翼共享”“翼共享管理”菜单,进入翼共享管理页面; 3.选择需要文件夹管理的所在行,点击“文件夹管理”,进入文件夹管理页面; 4.点击“创建文件夹”; 5.填写文件夹名称,并设置文件夹的读写权限。你可选择 “继承权限”“全部读写” 或 “自定义权限”,点击“确定”即可。 注意 1.开启读写权限,则租户下所有用户均享有文件夹读写权限。开启继承权限,为继承上级文件路径权限配置。选择自定义权限,指定成员可见,默认为所有人不可见,需要创建完成后前往权限配置进行人员权限配置。 2.关闭全局读写权限,则需要在文件夹“权限配置”“添加权限”,通过邀请成员后,可单独对成员进行“读写/只读”的权限配置。 权限配置 1、进入控制台:打开浏览器,输入天翼 AI 云电脑(政企版)的网址,使用具有相应权限的管理员账号登录,成功进入 “AI 云电脑(政企版)” 控制台 。 2、找到翼共享管理入口:在控制台界面中,选择 “翼共享” 选项,接着点击 “翼共享管理” 菜单,此时会进入翼共享管理页面 。 3、进入文件夹管理页面:在翼共享管理页面里,找到需要进行权限配置的文件夹所在行,点击该行对应的 “文件夹管理” 按钮,从而进入文件夹管理页面 。 4、点击权限配置:在文件夹管理页面中,找到要配置权限的目标文件夹所在行,点击该行右侧的 “权限配置” 选项 。 5.管理员可选择对文件夹权限类型包括“全部读写”、“继承权限”“自定义权限”,“全部读写”开启后租户下所有用户均享有文件夹读写权限;“继承权限”开启后为继承上级文件路径权限配置;“自定义权限”开启后可以在添加权限列表中设置指定成员权限。 6.如开启“自定义权限”,则可以通过“添加权限”操作,邀请成员后,对成员进行“读写/只读”的权限配置,也可以移除成员; 7.确认配置信息后,点击“确定”即完成权限配置。 说明 【继承性】:默认状态下,新建文件夹继承上一级文件夹的权限,创建后可独立修改。当修改某一级文件夹权限时,其子文件夹将继承更新该权限。 【部门权限】:通过设置部门权限,实现批量授权,加入该部门的子部门或用户将自动获得相应权限。 【权限集】:一个用户若同时拥有多组权限,则按最大权限授权访问共享文件。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        翼共享
        管理员指南
        共享盘文件夹管理
      • 功能类
        数据脱敏是否支持原地脱敏? 数据脱敏支持原地脱敏功能,请您先打开“系统配置管理>全局配置”的“数据流向”开关。然后在'脱敏/水印任务→结构化任务'下新增任务中的“数据流向”配置项下,就会出现相关选项。 数据脱敏是否支持非结构化脱敏? 数据脱敏支持非结构化脱敏(包括XML、JSON、TXT、WORD、DICOM等),具体请先登录SysAdmin用户,查看'脱敏/水印任务→非结构化任务'。 数据脱敏数据是否会落地? 数据脱敏系统保证敏感数据全程不落地,所有敏感数据全部在内存中处理,避免产品本身成为数据泄漏的一个风险点。 实现原理:代码用Java语言实现,脱敏步骤在JVM内存中进行,脱敏结束后,方法自动出栈,堆内存中的数据对象会被自动清理,不会落地到磁盘。 数据脱敏支持哪些脱敏算法? 支持24大类200多种系统内置脱敏算法,适用各种业务场景主要算法支持情况如下: 置空:直接将待脱敏的信息以填充空字符或者删除的形式抹除。 乱序:在结构化数据(例如数据库)中颇为常用,对于待脱敏的列,不对列的内容进行修改,仅对数据的顺序进行随机打乱。 遮蔽:保留数据一些位置上的信息,对于敏感位置的信息使用指定的字符进行替换。 分割:保留数据一些位置上的信息,对于敏感位置的信息进行删除。 替换:使用固定值或字典映射表对敏感数据进行替换。 取整:对数值类型和日期时间类型的数据进行取整操作。 哈希:将哈希(或哈希加盐)编码后的数据作为脱敏结果输出。 仿真(保留业务含义):考虑到业务含义,则生成的数据需符合核验规则,主要包括长度、取值范围以及校验规则和校验位的计算等。 密码学:根据所选参数指定的密码学加密算法对数据进行加密。支持的加密算法有:RSA/AES/SM2/SM4。 编码:根据所选参数指定的编码方式对数据进行编码。 保留类别频次特征:主要指的是反映事物类别的数据类型,具有有限个无序的值,或枚举类型,脱敏后各个类型出现的频次可保持不变。 保留数值统计特征:支持分布重建、平均、区间、标准化、归一化、添加噪声、一致性等算法:对数值型数据在脱敏后可保留数据中的高阶统计特征及数据分布特征,仍满足趋势分析要求。 关联关系保留:支持计算关系保留、乱序关联保留、身份信息关联保留等算法:对数据在脱敏后可保留其原始的字段间关联关系。 保留原数据:对指定的列的数据不做脱敏处理。 溯源算法:对数据本身添加仿真水印,做到精准溯源。
        来自:
        帮助文档
        数据安全专区
        常见问题
        功能类
      • 数据架构
        本章节主要介绍数据架构相关问题。 码表和数据标准有什么关系? 码表的组成:码表由多条表字段的名称+编码+数据类型组成。 码表与数据标准的关系:码表的表字段可以关联到数据标准上,数据标准会应用到某张模型表的字段上。 关系建模和维度建模的区别? 关系建模为事务性模型,对应三范式建模。 维度建模为分析性模型,主要包括事实表、维度表的设计,多用于实现多角度、多层次的数据查询和分析。 DataArts Studio是基于数据湖的数据运营平台,维度建模使用的场景比较多。 数据架构支持哪些数据建模方法? DataArts Studio数据架构支持的建模方法有以下两种: 关系建模 关系建模是用实体关系(Entity Relationship,ER)模型描述企业业务,它在范式理论上符合3NF,出发点是整合数据,将各个系统中的数据以整个企业角度按主题进行相似性组合和合并,并进行一致性处理,为数据分析决策服务,但是并不能直接用于分析决策。 用户在关系建模过程中,可以从以下三个层次去设计关系模型,这三个层次是逐层递进的,先设计概念模型,再进一步细化设计出逻辑模型,最后设计物理模型。 a.概念模型:是从用户的视角,主要从业务流程、活动中涉及的主要业务数据出发,抽象出关键的业务实体,并描述这些实体间的关系。 b.逻辑模型:是概念模型的进一步细化,通过实体、属性和关系勾勒出企业的业务信息蓝图,是IT和业务人员沟通的桥梁。逻辑数据模型是一组规范化的逻辑表结构,逻辑数据模型是根据业务规则确定的,关于业务对象、业务对象的数据项及业务对象之间关系的基本蓝图。 c.物理模型:是在逻辑数据模型的基础上,考虑各种具体的技术实现因素,进行数据库体系结构设计,真正实现数据在数据库中的存放,例如:所选的数据仓库是DWS。 维度建模 维度建模是从分析决策的需求出发构建模型,它主要是为分析需求服务,因此它重点关注用户如何更快速地完成需求分析,同时具有较好的大规模复杂查询的响应性能。 多维模型是由数字型度量值组成的一张事实表连接到一组包含描述属性的多张维度表,事实表与维度表通过主/外键实现关联。 典型的维度模型有星形模型,以及在一些特殊场景下使用的雪花模型。 在DataArts Studio数据架构中,维度建模是以维度建模理论为基础,构建总线矩阵、抽象出事实和维度,构建维度模型和事实模型,同时对报表需求进行抽象整理出相关指标体系,构建出汇总模型。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        常见问题
        操作类
        数据架构
      • PUT Bucket Inventory Configuration
        名称 描述 是否必须 InventoryConfiguration 清单配置的容器。 类型:容器。 子节点:Destination、IsEnabled、Filter、Id、OptionalFields、Schedule。 是 Destination 存放清单结果的容器。 类型:容器。 父节点:InventoryConfiguration。 子节点:OOSBucketDestination。 是 OOSBucketDestination 存放清单结果的Bucket信息。 类型:容器。 父节点:Destination。 子节点:Bucket、Format、Prefix。 是 Bucket 指定存放清单结果文件的Bucket。 类型:字符串。 取值:格式为arn:ctyun:oos:::bucketname,bucketname为已经创建的Bucket名字。 父节点:OOSBucketDestination。 是 Format 指定清单结果文件的类型。 类型:字符串。 取值:CSV。 父节点:OOSBucketDestination。 是 Prefix 指定清单结果文件的存储路径前缀。 类型:字符串。 取值:0~512个字符。 父节点:OOSBucketDestination。 否 IsEnabled 指定清单功能是否启用。 类型:布尔型 取值: true:启用清单功能。 false:不启用清单功能。 父节点:InventoryConfiguration。 是 Filter 清单筛选的前缀。 说明 指定前缀后,清单将筛选出符合前缀设置的文件。 类型:容器。 父节点:InventoryConfiguration。 子节点:Prefix。 否 Prefix 指定筛选规则的匹配前缀。 类型:字符串。 取值:0~1024个字符。 说明 如果未指定筛选规则的匹配前缀,则匹配源Bucket中的所有文件。如果源Bucket没有任何文件,或清单设置的前缀没有匹配到任何文件,则会生成相应文件和文件夹,但清单结果文件中无内容。 父节点:Filter。 否 Id 指定的清单名称,清单名称在当前Bucket下必须全局唯一。 注意 必须与请求头中的Id相同。 类型:字符串。 取值:只允许使用小写字母、数字、短横线()和下划线( ),且不能以短横线()或下划线( )开头或结尾,1~64个字符。 父节点:InventoryConfiguration。 是 OptionalFields 清单结果配置项的容器。 类型:容器。 父节点:InventoryConfiguration。 子节点:Field。 否 Field 设置清单结果中包含配置项,可以设置多个配置项。 类型:字符串。 取值: Size:Object的大小。 LastModifiedDate:Object最后一次修改时间。 ETag:Object的ETag值,用于标识Object的内容。 StorageClass:Object的存储类型。 IsMultipartUploaded:是否为通过分片上传方式上传的Object。 说明 如果未设置配置项,清单默认输出源Bucket和Key(文件名称)。 父节点:OptionalFields。 否 Schedule 存放清单结果导出周期的容器。 类型:容器。 父节点:InventoryConfiguration。 子节点:Frequency。 是 Frequency 指定清单结果文件导出的周期。 类型:字符串。 取值: Daily:按天导出清单结果文件。 Weekly:按周导出清单文件。清单规则开启当天会根据清单规则启动一次清单导出任务,第二天启动周期性清单导出任务。例如周一开启清单规则,周一当天会启动清单导出任务,后期会按每周二启动清单导出任务。 说明 当前的清单结果文件导出完成后,才会创建新的清单任务。如果Object较多时(数量大于10亿),建议按周导出清单结果文件。 父节点:Schedule。 是
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        存储桶(Bucket)和文件(Object)
        关于Bucket的操作
        PUT Bucket Inventory Configuration
      • 存储
        本章节主要介绍天翼云物理机支持挂载哪些存储类型。 物理机支持挂载云硬盘,并且支持从云硬盘启动,解决了传统物理服务器受限于本地硬盘容量的问题。 物理机还支持挂载共享云硬盘,由多台服务器并发读写访问,满足您企业核心系统集群部署的需求。 云硬盘类型 普通IO:该类型云硬盘的最大IOPS为2200,适用于大容量、读写速率中等、事务性处理较少的应用场景,例如企业的日常办公应用或者小型测试等。 高IO:该类型云硬盘的最大IOPS可达5000,最低读写时延为1ms,适用于主流的高性能、高可靠应用场景,例如企业应用、大型开发测试以及Web服务器日志等。 超高IO:该类型云硬盘的最大IOPS可达50000,最低读写时延为1ms,适用于超高IO,超大带宽的读写密集型应用场景,例如高性能计算应用场景,用来部署分布式文件系统,或者I/O密集型应用场景,用来部署各类NoSQL/关系型数据库。 通用型SSD:该类型云硬盘的最大IOPS可达20000,最低读写时延为1ms,适用于各种主流的高性能、低延迟交互应用场景,例如企业办公、大型开发测试、转码类业务、Web服务器日志以及容器等高性能系统盘。 极速型SSD:该类型云硬盘的最大IOPS可达128000,最低读写时延为亚毫秒级,采用了结合全新低时延拥塞控制算法的RDMA技术,适用于需要超大带宽和超低时延的应用场景。 说明 当前physical.d1.large 和 physical.d2.large 规格为本地存储型(大数据)机型,不支持挂载云硬盘。
        来自:
        帮助文档
        物理机 DPS
        产品简介
        存储
      • JMeter工程使用类
        性能测试的错误日志是怎么显示的? 默认按每种不同返回状态码进行抽样,按10‰的抽样比例采集成功/失败的请求日志。 失败日志的采集比例可以在“高级配置 > 失败日志采集”比例中调整,最大1000‰。 全局变量功能是如何使用的? 1、打开JMeter脚本Test Plan,在页面右侧User Defined Variables定义变量。 2、在脚本中引用变量 3、登录性能测试控制台,在左侧导航栏选择“JMeter测试工程”。 4、单击待导入全局变量的工程名称,进入“测试计划列表”页签。 5、单击待添加全局变量的测试任务名称,进入线程组页面。 6、 单击页面右上方的“全局变量”,在弹出的对话框中单击“添加变量”。 变量有两种类型,分别是静态变量和均分变量: 静态变量:以字符串形式下发内容,当脚本分布式执行时,每个节点获取到的变量值一样,如,下发静态变量successRate0.8,2000并发,分两个执行器执行,每个执行器中的脚本中变量successRate的值都是0.8。 均分变量:以整数的形式下发内容,当脚本分布式执行时,每个节点获取到的变量值平均分配,平均分配时采用整数除法,余数会被分配到其中一个节点,例如: 下发均分变量tps100,分四个执行器,每个执行器中的脚本中的变量tps的值是25。 下发均分变量tps20,分3个执行器,每个执行器中的脚本中的变量tps的值是8,6,6。 下发均分变量tps1,分四个执行器,每个执行器中的脚本中的变量tps的值是1,0,0,0。 综上,使用均分变量时需注意: 1. 若被分配的值对是否均分非常敏感,请手动设置执行器数,确保变量的值是执行器数的整数倍。 2. 若被分配的值对是否均分不严格敏感,建议将被分配的值尽量调大,减少整数除法余数的影响,使其基本平均分配。 3. 若被分配的值不能为0,请手动设置执行器数,并确保变量的值大于执行器数。 说明 在全局变量中配置的变量,若脚本的Test Plan User Defined Variables中存在,则会覆盖脚本中定义的值。 若不存在,会在脚本的Test Plan – User Defined Variables出新建对应变量。
        来自:
        帮助文档
        性能测试PTS
        常见问题
        JMeter工程使用类
      • (可选)预构建与注册
        本章节主要介绍如何预构建与注册。 在创建向量索引时,若选择使用“IVFGRAPH”和“IVFGRAPHPQ”的索引算法就需要对中心点向量进行预构建和注册。 背景信息 在向量索引加速算法中,IVFGRAPH和IVFGRAPHPQ适用于超大规模场景。这两种算法需要通过对子空间的切割缩小查询范围,子空间的划分通常采用聚类或者随机采样的方式。在预构建之前,需要通过聚类或者随机采样得到所有的中心点向量。 当完成生成中心点向量的工作之后,需要对中心点向量进行预构建和注册,以实现将中心点向量预构建GRAPH或者GRAPHPQ索引,同时注册到ES集群内,实现在多个节点间共享此索引文件。中心点索引在shard间复用能够有效减少训练的开销、中心点索引查询次数,提升写入以及查询的性能。 操作步骤 1.选择启用向量检索的集群,单击操作列“Kibana”,登录Kibana界面。 2.单击左侧导航栏的“Dev Tools”,进入操作界面。 3.创建中心点索引表。 −创建的索引命名为mydict,注意该索引的numberofshards数必须设置为1,否则无法注册。 −当需要使用IVFGRAPH索引时,中心点索引的algorithm设置为GRAPH。 −当需要使用IVFGRAPHPQ索引时,中心点索引的algorithm设置为GRAPHPQ。 PUT mydict { "settings": { "index": { "vector": true }, "numberofshards": 1, "numberofreplicas": 0 }, "mappings": { "properties": { "myvector": { "type": "vector", "dimension": 2, "indexing": true, "algorithm": "GRAPH", "metric": "euclidean" } } } } 4.写入中心点向量数据。 参考创建向量索引章节中的“导入向量数据”,将采样或者聚类得到的中心点向量写入上述创建的mydict索引中。 5.调用注册接口。 将上述创建的mydict索引注册具有全局唯一标识名称(dictname)的Dict对象。 PUT vector/register/mydict { "dictname": "mydict" } 6.创建IVFGRAPH或IVFGRAPHPQ索引。 在创建IVFGRAPH或者IVFGRAPHPQ索引时,不再需要指定dimension以及metric信息,只需指定之前注册好的dict名称即可。 PUT myindex { "settings": { "index": { "vector": true } }, "mappings": { "properties": { "myvector": { "type": "vector", "indexing": true, "algorithm": "IVFGRAPH", "dictname": "mydict", "offloadivf": false } } } } Field mappings参数 参数 说明 dictname 指定依赖的中心点索引名称。该索引字段的向量维度和度量方式将与dict索引保持一致,不再需要额外指定。 offloadivf 将底层索引实现的IVF倒排索引卸载到ES端实现,可以减少堆外内存的使用,以及减少写入/合并的性能开销,但是查询的性能也有一定的损失。采用默认值即可。 取值范围:true、false。 默认值:false。
        来自:
        帮助文档
        云搜索服务
        用户指南
        使用Elasticsearch搜索数据
        向量检索
        (可选)预构建与注册
      • 1
      • ...
      • 36
      • 37
      • 38
      • 39
      • 40
      • ...
      • 483
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      镜像服务 IMS

      轻量型云主机

      公共算力服务

      模型推理服务

      应用托管

      科研助手

      知识库问答

      推荐文档

      创建文件和文件夹备份

      安全防护

      iOS客户端需求

      全面了解天翼云④:redis 修改端口及设置密码

      域名相关常见问题

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号