活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      微服务引擎MSE_相关内容
      • 告警转事件或关联事件
        告警转事件或关联事件的原因 告警通常是在系统或服务出现异常或潜在故障时产生的通知。这些异常可能会直接影响业务的正常运行,因此告警需要被及时处理,以防止业务异常。告警通常需要采取相应的措施来清除故障,否则可能会因为这些异常或故障引起业务的异常。 事件则是在系统或服务在正常运行状态下产生的通知,它可能涉及到一些重要的状态变化,但不一定会引起业务异常。因此,事件一般不需要进行处理,主要用于帮助分析、定位问题。 类别 说明 告警转事件原因 当告警的严重性达到一定程度,或者持续出现,或者其影响范围广泛时,它可能不再仅仅是一个需要关注的信号,也可能表明系统或网络中存在一个持续性的问题,此时,它已经演变成了一个需要立即处理的事件,这种情况下,可以将告警转化为事件来处理,以便深入调查问题的根源,并采取相应的措施来彻底解决。通常告警转事件的原因有以下几个方面: 信息聚合与分类 告警通常是对某个特定条件或阈值被违反的即时响应。随着时间的推移,大量的告警可能会被触发,如果直接处理这些独立的告警,可能会变得非常混乱和低效。将这些告警聚合成事件,可以帮助相关人员根据告警的类型、来源、影响等维度进行分类,从而更有效地处理它们。 简化工作流程 告警到事件的转换过程,通常伴随着对告警的过滤、去重、聚合等处理。这些处理使得原本可能触发多个相似告警的情况,被整合为一个更具代表性的事件。这样不仅减少了处理单个告警的工作量,也使得处理过程更加条理清晰,便于跟踪和记录。 提升问题解决效率 将告警转换为事件后,由于事件通常提供了比单个告警更全面的上下文信息,因此相关人员可以更容易地识别出问题的根本原因,有助于更快地定位问题,并采取有效的解决措施。 便于历史回顾与趋势分析 事件记录了问题的发生、发展、解决的全过程,这为后续的问题预防、系统优化等提供了宝贵的历史数据。通过对事件进行趋势分析,可以发现系统中潜在的薄弱环节,提前采取措施进行改进。 增强跨部门协作 在大型组织中,不同的部门可能需要共同参与问题的处理。将告警转换为事件后,可以更容易地在不同部门之间共享相关信息,促进跨部门协作,提高问题解决的效率。 总而言之,将告警转换为事件助于简化工作流程、提升问题解决效率、便于历史回顾与趋势分析。 告警关联事件原因 告警关联事件是监控和故障管理中的一个重要环节,它涉及到将多个独立但可能相互关联的事件或告警组合起来,以便更好地理解问题的根源和范围,从而更有效地进行故障排查和响应。通常告警关联事件的原因有以下几个方面: 依赖关系 在复杂的系统中,各个组件之间往往存在复杂的依赖关系。当一个组件出现故障时,可能会影响依赖它的其他组件的正常工作,进而引发一系列告警。例如,在微服务架构中,一个服务的崩溃可能导致调用该服务的其他服务也出现问题。 资源共享 当多个系统或服务共享同一资源(如服务器、数据库、网络设备等)时,该资源的问题可能导致多个系统或服务同时发出告警。例如,共享数据库服务器的性能下降可能会触发多个依赖该数据库的应用程序的性能告警。 连锁反应 某些情况下,一个初始的故障可能触发一系列连锁反应,导致更多的组件或系统受到影响。这种连锁反应可能由于系统设计不当、错误处理机制不完善或资源限制(如内存泄漏导致的性能下降)等原因引起。 配置错误 配置错误或不一致的配置可能导致系统行为异常,进而触发多个看似不相关的告警。例如,错误的路由配置可能导致流量被错误地路由到不稳定的服务器,从而引发多个与性能相关的告警。 软件缺陷 软件中的缺陷(如bug)可能导致程序在特定条件下表现异常,并触发告警。如果这些缺陷影响了多个组件或系统,则可能引发多个关联告警。 外部因素 外部因素如自然灾害(如地震、洪水)、网络攻击、基础设施故障(如电力中断、网络中断)等也可能导致多个系统或组件同时出现问题,并触发大量告警。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        威胁管理
        告警管理
        告警转事件或关联事件
      • 产品优势
        Web应用防火墙(边缘云版)依托天翼云云安全节点形成云安全边缘网络,区别于传统WAF需要在源站前端部署,Web应用防火墙(边缘云版)把安全能力赋能在所有边缘节点,利用分布式节点部署使计算能力更强,有效降低源站计算压力,提升了用户访问质量的同时保护了源站数据的安全。本节介绍了Web应用防火墙(边缘云版)产品的优势。 自主可控的安全防护能力 基于 AI+ 规则双引擎的 Web 攻击识别,构建一体化应用业务安全防护。 业务流量识别与分析,自定义规则匹配用户业务,避免误拦截、漏拦截。 支持Bot流量管理和智能CC防护。 弹性扩容无惧突发风险 分布式集群防护,单点故障自动转移,确保网站的高可用性。 动态调整边缘节点,无缝扩展QPS 防护能力,可达亿级别防护规模。 利用大平台优势,基于全网、全行业流量的攻击数据,结合机器学习算法,构建一套智能防护体系。 便捷的运营与管理 零部署、零运维,支持多云、混合云环境,一键CNAME接入,云端安全专家配置策略。 集中监控和分散维护相结合,NOC 工程师7×24小时集中监控,网络工程师 7×24 小时在线支持,节点现场服务工程师进行服务保障。 支持一键开启IPv6功能,无缝处理IPv4和IPv6流量。 提供可视化报表、态势感知大屏,深入分析安全隐患,清晰把控全局。 敏感的威胁情报感知 0day漏洞快速修复,天翼云安全团队724小时监测,主动发现新型攻击并24小时内响应,帮助用户抵御最新威胁。
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        产品介绍
        产品优势
      • 比较参数模板
        本章节介绍如何比较参数模板。 操作场景 您可以比较同数据库类型的实例参数模板,以了解当前实例参数的差异项。 您也可以比较同数据库类型的默认参数模板,以了解当前参数模板的配置情况。 比较当前实例参数模板 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的,选择区域和项目。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,单击实例名称,进入实例的“基本信息”页签。 步骤 5 在左侧导航栏中选择“参数修改”,在“参数”子页签中单击“比较参数”。 步骤 6 在弹出框中选择当前实例同数据库类型的参数模板,单击“确定”,比较两个参数的差异项。 有差异项,则会显示差异参数的如下信息:参数名称、当前实例参数模板的参数值和被比较参数模板的参数值。 无差异项,则不显示。 比较目标参数模板 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的,选择区域和项目。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“参数模板管理”页面的“自定义”页签,选择一个用户创建的参数模板,单击“比较”。 步骤 5 选择同一数据库引擎的不同参数模板,单击“确定”,比较两个参数模板之间的配置参数差异项。 有差异项,则会显示差异参数模板的如下信息:参数名称、参数值。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        参数模板管理
        比较参数模板
      • 比较参数模板
        本章节会介绍如何比较参数模板。 操作场景 您可以比较同数据库类型的实例参数模板,以了解当前实例参数的差异项。 您也可以比较同数据库类型的默认参数模板,以了解当前参数模板的配置情况。 比较当前实例参数模板 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的,选择区域和项目。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,单击实例名称,进入实例的“基本信息”页签。 步骤 5 在左侧导航栏中选择“参数修改”,在“参数”子页签中单击“比较参数”。 步骤 6 在弹出框中选择当前实例同数据库类型的参数模板,单击“确定”,比较两个参数的差异项。 有差异项,则会显示差异参数的如下信息:参数名称、当前实例参数模板的参数值和被比较参数模板的参数值。 无差异项,则不显示。 比较目标参数模板 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的,选择区域和项目。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“参数模板管理”页面的“自定义”页签,选择一个用户创建的参数模板,单击“比较”。 步骤 5 选择同一数据库引擎的不同参数模板,单击“确定”,比较两个参数模板之间的配置参数差异项。 有差异项,则会显示差异参数模板的如下信息:参数名称、参数值。 无差异项,则不显示。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        参数管理
        比较参数模板
      • 订购实例
        本页介绍天翼云TeleDB数据库订购实例相关操作。 操作步骤 1. 以用户名和密码登录TeleDBDCP数据库管理平台。 2. 在左侧导航树上,选择 实例管理> 创建实例 ,进入实例开通页面。 说明 您也可以在左侧导航树上,选择实例管理 > 实例列表,然后在实例列表上方单击创建实例。 3. 在实例开通页面,按照界面参数配置实例信息,创建实例。 实例配置信息如下: 基本信息 引擎选项中,选择 生态工具 ,可以看到TeleDBDTS,默认展示当前最新版本; 选择规格为 数据迁移 ; 性能规格可以根据客户迁移数据量测算,数据量较小或测试时可选择默认“1核2G”; 根据当前用户添加的主机类型(如何给当前用户添加主机可参数DCP管理平台相关说明),选择相应的CPU和操作系统。例如,当前用户下添加了一台鲲鹏 + kylin的国产化主机,按如下设定。 实例名称填写一个方便识别的名称,确认无误后单击下一步。 主机配置 配置基本信息后,进入主机配置页面,根据业务选择当前用户的主机所在的主机组; 选择主机组中的一台机器作为DTS工作节点,安装目录选择该主机用户具有权限的一个目录,通信端口和下载端口填写一个该主机中不冲突的端口,然后单击 提交工单 。 开通实例成功后,在工单列表可以看到施工结果为 成功 。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据传输服务操作指南
        迁移指南
        订购实例
      • IP通过独享模式接入WAF防护最佳实践
        本节介绍同时使用WAF独享版、云防火墙防护业务时WAF侧的网络配置。 (必选)步骤一:添加WAF独享管理地址通信路由 注意 该步骤用于保障WAF节点升级及系统升级,如果不添加则可能会导致WAF无法正常使用。 自研池路由表优先级>EIP,因此需要确认WAF所在子网的路由表将WAF管理地址指向IPv4网关。 如果默认路由指向IPv4网关则无需执行此步骤。(默认可以加上没有其他影响。) 如果默认路由未指向IPv4网关则需要执行此步骤。 1. 进入虚拟私有云,查看VPC及子网信息。 2. 进入子网详情,查看绑定路由表信息。 3. 新建两条路由,将WAF管理内网地址指向IPv4网关。 4. 添加完成后,可以看到路由表有两条新增规则。 步骤二:给WAF实例新增网卡 该步骤用于代理防火墙与业务之间的网络,新增网卡需指定在防火墙内网接口所在子网。 1. 进入独享引擎详情,新增辅助网卡。 2. 选择所在子网,然后单击“确定”。 说明 根据客户业务状况进行选择,通常选择和防火墙内网接口地址的同一网段。 3. 添加完毕后可以看到辅助网卡,且没有任务下发中的提示,则表示WAF侧添加完成。 辅助网卡内的虚拟IP为实际WAF对外IP,即防火墙需要转发到该虚拟IP。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        最佳实践
        IP通过独享模式接入WAF防护最佳实践
      • 操作流程
        步骤 说明 实践准备 完成实践开始前的准备工作,包括注册帐号、开通软件开发生产线、创建项目、添加项目成员等操作。 管理项目规划 完成项目的整体规划,包括项目需求规划、迭代需求规划等。 管理项目配置 根据项目需求,对工作项变更的通知方式、工作项状态的流转方式等进行自定义设置。 开发代码 通过分支来进行代码的编写,包括创建分支、代码提交、合并分支等操作。 检查代码 对代码进行静态扫描,根据修复建议优化代码,提高代码质量。 构建应用 构建环境镜像、将代码编译打包成软件包。 部署应用 将构建好的环境镜像及软件包安装并运行在环境中,本文档提供两种环境的部署方法:CCE与ECS。 管理项目测试 为迭代创建测试计划、设计测试用例,并按照计划执行测试用例。 配置流水线 将代码检查、构建、部署等任务串联成流水线。当代码有更新时,可自动触发流水线,实现持续交付。 释放资源 实践完成,释放软件开发生产线、云容器引擎等资源。
        来自:
        帮助文档
        软件开发生产线CodeArts
        最佳实践
        HE2E DevOps实践
        操作流程
      • 物理备份恢复
        本页介绍天翼云TeleDB数据库物理备份恢复相关操作。 操作场景 当在使用过程中出现数据损毁,您可使用恢复功能进行实例恢复。期间TeleDB对用户数据不会做任何更改。它是基于数据备份和日志备份进行实时数据恢复。 说明 您在使用物理备份恢复功能时,请注意以下几点: 该功能只支持整实例恢复,不支持指定数据库、指定表恢复。 该功能只支持状态为运行中的实例恢复数据。 该功能只支持时间点备份(全量备份和增量备份)恢复,不支持全量备份恢复。 若要恢复到其他实例功能,请保证源实例、目标实例字符集、引擎版本兼容、节点数量一致。 恢复至其他实例会覆盖目标实例数据,请谨慎操作。 操作步骤 1. 切换至TeleDB控制台,在左侧导航树上选择备份与恢复 > 物理备份与恢复 ,在当前实例 下拉框选择目标实例,选择数据恢复页签。 2. 创建恢复任务 1. 单击实例恢复,出现实例恢复对话框。 2. 选择目标实例,设置期望恢复时间点 ,勾选可恢复时间点 ,单击校验 ,出现校验实例对话框。 3. 在校验实例对话框,所有检查项检查结果通过,单击确定完成数据恢复。 3. 查看恢复任务详情 1. 单击目标实例所在行操作列的详情 ,出现恢复详情对话框。 2. 在恢复详情对话框,您可查看详情。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        控制台操作指南
        备份与恢复
        物理备份恢复
      • 比较参数模板
        本章节会介绍如何比较参数模板。 操作场景 您可以比较同数据库类型的实例参数模板,以了解当前实例参数的差异项。 您也可以比较同数据库类型的默认参数模板,以了解当前参数模板的配置情况。 比较当前实例参数模板 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的,选择区域和项目。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,单击实例名称,进入实例的“基本信息”页签。 步骤 5 在左侧导航栏中选择“参数修改”,在“参数”子页签中单击“比较参数”。 步骤 6 在弹出框中选择当前实例同数据库类型的参数模板,单击“确定”,比较两个参数的差异项。 有差异项,则会显示差异参数的如下信息:参数名称、当前实例参数模板的参数值和被比较参数模板的参数值。 无差异项,则不显示。 比较目标参数模板 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的,选择区域和项目。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“参数模板管理”页面的“自定义”页签,选择一个用户创建的参数模板,单击“比较”。 步骤 5 选择同一数据库引擎的不同参数模板,单击“确定”,比较两个参数模板之间的配置参数差异项。 有差异项,则会显示差异参数模板的如下信息:参数名称、参数值。 无差异项,则不显示。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        参数模板管理
        比较参数模板
      • 节点详情
        本章节介绍网关治理功能的节点详情 概述 在节点详情页面,可以查看所有节点的通过QPS、限流QPS、异常QPS、RT、并发等指标,并且可以在此页面对接口管理流控规则进行操作。一个节点对应一个JVM进程,当多个JVM接入单机后,即展示为多个节点。 功能入口 1. 登录微服务治理控制台。 2. 在控制台左侧导航栏中选择网关治理。 3. 在网关治理页面的应用卡片页签单击目标网关卡片。 4. 在左侧导航栏中选择节点详情。 功能介绍 节点页面展示了应用的所有节点详细信息以及这些节点当前的通过QPS、限流QPS、异常QPS和RT等数据。同时,该页面还展示5分钟内的流量监控指标,节点所在机器的CPU信息、LOAD信息、物理内存、DISK和网络流量。 此外,该页面还提供了所在节点的5min内的JVM信息,包括堆内存详情,非堆内存详情,元空间详情,JVM线程数,缓冲区详情和GC等数据。
        来自:
        帮助文档
        微服务引擎
        用户指南
        微服务治理中心
        网关治理
        节点详情
      • 全量SQL洞察
        TOP SQL执行耗时分布 1、登录管理控制台。 单击管理控制台左上角的,选择区域和项目。 单击页面左上角的,选择“数据库 > 数据管理服务 DAS”,进入数据管理服务页面。 在左侧的导航栏中单击“DBA智能运维 > 实例列表”页签,进入DBA智能运维实例列表页面。 在实例列表页面右上角,按照引擎、实例名称或者实例IP筛选实例。 选择目标实例,单击“详情”,进入DBA智能运维总览页面。 单击“全量SQL洞察”,进入全量SQL洞察页面。 单击“开启DAS收集全量SQL”,可获取当前实例所执行过的SQL信息。 说明 DAS收集全量SQL功能开启后立即生效。 在“TOP SQL”页签中,查看TOP SQL执行耗时分布情况。 您可以根据需要设置时间段,选择“近1小时”、“近3小时”、“近6小时”,查看当前时间段内的TOP SQL执行耗时分布。也可以选择上述以外时间段进行查看,间隔不得超过一天。 执行耗时分布展示了选定时间范围内所有SQL的执行耗时分布,共分为以下4个区间。 1s:执行耗时>1s的SQL执行次数 上述4个区间内的SQL执行次数是根据用户选择的时间段来计算的。 如果用户选择1小时以内(包括1小时)的时间段,执行耗时分布每10秒计算一次。 如果用户选择6小时以内(包括6小时)的时间段,执行耗时分布1分钟计算一次。 如果用户选择大于6小时的时间段,执行耗时分布每5分钟计算一次。 DAS支持查看实例级别和节点级别的执行耗时分布,当您选择“节点”时,默认显示主节点的执行耗时分布。如果您想查看其他节点的执行耗时分布,请单击切换节点按钮选择其他您想要查看的节点。 查看TOP SQL列表,获取执行耗时信息。例如平均执行耗时、总耗时、 平均锁等待耗时、平均扫描行数等。 单击执行耗时分布图上的某个点,查看该时间点的TOP SQL列表。 在执行耗时分布图上用鼠标选择一段时间,查看该段时间的Top SQL列表。 单击“导出”可导出当前列表里显示的TOP SQL信息。此功能仅限付费实例使用,免费实例暂不支持导出功能。 单击操作栏的“详情”按钮,可以查看该执行SQL的详细执行信息。例如总执行次数、平均扫描行数、平均执行耗时等信息。
        来自:
        帮助文档
        数据管理服务
        用户指南
        DBA智能运维
        PostgreSQL
        全量SQL洞察
      • 获取容器Core Dump
        本节介绍云容器引擎的最佳实践:获取容器Core Dump。 应用场景 Core Dump是指当一个程序发生严重错误导致异常终止时,操作系统将该程序当前的内存状态以及其他相关信息保存到一个特殊的文件中,这个文件通常称为 core 文件或核心转储文件。core文件包含了程序在崩溃时的内存映像、CPU 寄存器状态、堆栈信息等,可以用于分析程序异常终止的原因。 在容器环境中,Core Dump的处理与传统的物理机环境略有不同,因为容器本身是在宿主机上运行的,因此需要一些特殊的配置才能捕获容器内发生的核心转储。本节介绍容器中core文件的一般处理流程和相关概念。 将Core Dump文件输出到主机目录 开启节点Core Dump 设置Core Dump文件的输出路径 echo "/tmp/cores/core.%t.%e.%p" > /proc/sys/kernel/corepattern 上述文件路径中: %t:表示coredump的时间。 %e:表示程序文件名。 %p:表示进程ID。 将Core Dump的输出路径修改为/tmp/cores,后续容器中的应用程序Core Dump文件也将输出到容器的/tmp/cores文件,因为在容器中读取的 /proc/sys/kernel/corepattern文件实质上就是主机的 /proc/sys/kernel/corepattern文件。 配置容器Core Dump和验证 通过kubectl或者控制台完成如下配置: apiVersion: v1 kind: Pod metadata: name: corevolume spec: volumes: name: coredumppath hostPath: 通过hostPath将容器Core Dump持久化在主机 path: /home/coredump containers: name: ubuntu image: ubuntu:12.04 command: ["/bin/sleep","3600"] volumeMounts: mountPath: /tmp/cores name: coredumppath 用上述方式创建Pod并进入,触发当前shell终端的段错误。 $ kubectl get pod NAME READY STATUS RESTARTS AGE corevolume 1/1 Running 0 55s $ kubectl exec it corevolume /bin/bash root@corevolume:/ kill s SIGSEGV $$ 在容器实际运行的主机上查看/home/coredump目录会生成core文件。 ls /home/coredump core.1738160312.corevolume.15
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        最佳实践
        容器
        获取容器Core Dump
      • Ingress
        本节介绍了云容器引擎的最佳实践:Ingress。 修改自定义端口 1、点击目标容器集群名称,进入集群详情页。 2、在菜单栏【插件】中选择【插件市场】,安装nginxingresscontroller插件。 3、安装插件时指定IngressController插件http及https端口。 4、您也可通过查看插件详情,按需修改端口重新安装插件即可。 配置基础用户名和密码 步骤一:创建用户名和密码 1、使用htpasswd工具创建一个包含用户名和密码的文件auth,例如添加一个名为foo的用户,该用户的密码是123456。 2、输入 cat auth查看文件auth,即可查看htpasswd工具生成的用户名和密码的加密形式。 步骤二:新增secret文件 1、点击目标容器集群名称,进入集群详情页。 2、在菜单栏【配置管理】中选择【保密字典】,点击【新增】。 3、创建一个名为“basicauth”的Secret对象,将auth作为变量名,步骤一htpasswd工具生成的用户名和密码的加密形式作为变量值填入。 4、查看Secret的yaml文件,填入后变量值会自动进行Base64加密。 注:当使用这个Secret对象来进行身份验证时,Ingress控制器会解码这里的Base64字符串,使用其中的用户名和密码来验证用户的身份。如果提供的用户名和密码与这里存储的一致,用户将被允许访问相应的资源。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        最佳实践
        网络
        Ingress
      • Kubernetes 1.29版本说明
        本文介绍了:云容器引擎发布Kubernetes 1.29版本说明。 社区 Kubernetes 版本主要变更 Kubernetes 1.29 版本Changelog 1. Kubernetes 1.29 版本,API 优先级和公平性(AFP)正式 GA,该特性以更细粒度的方式对请求进行分类和隔离。它还引入了有限的排队量,因此在非常短暂的突发情况下不会拒绝任何请求。请求使用公平排队技术从队列中分派,例如,行为不佳的控制器不会影响其他控制器(即使在相同的优先级)。 2. APIListChunking 正式 GA,该特性支持对 List 请求进行分页,减少一次性返回数据太多而导致的性能问题。 3. ServiceNodePortStaticSubrange 达到 GA,该特性将 NodePort 划分为静态段和动态段,在 NodePort 自动分配时,则优先从动态段进行分别,降低与静态段分配到时端口冲突的概率。 4. ReadWriteOncePod 正式 GA,该特性允许用户在 PVC 中配置访问模式 ReadWriteOncePod,确保只有一个 Pod 可以修改存储中的数据。 5. CRD 验证表达式语言正式 GA,该特性支持在 CRD 验证时使用表达式语言(CEL)定义验证规则,对比 webhook 更加简单高效。 6. PodHostIPs 升级到 Beta 阶段,该特性支持将 Node IP 暴露给 Pod。 7. 原生边车容器 升级到 Beta 阶段,该特性以 restartPolicy 设置为 Always 的方式声明,原生边车容器适用于批处理、日志采集等场景。 8. Job Pod 更换策略升级到 Beta 阶段,该特性使用 Failed 阶段代替删除时间戳不为空作为 Pod 替换的条件,避免出现删除过程中的 Pod 占用索引和节点资源。 9. Job Pod 逐索引的回退限制达到 Beta 阶段,该特性可以避免持续失败的带索引的 Job Pod 进行不要的失败重试,达到优化资源利用的目的。 更多信息请参考:Kubernetes 1.29 Changelog
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        集群
        集群概述
        Kubernetes版本发布记录
        Kubernetes 1.29版本说明
      • 管理保密字典
        本文将介绍如何在集群中管理保密字典。 前提条件 确保您已经创建Serverless集群,具体操作请参阅创建Serverless集群。 背景信息 在 Kubernetes 中,保密字典(Secret)是一种用于保存敏感数据的对象。它可以存储像用户名、密码、令牌、密钥、证书等敏感信息,这些信息需要被保护以避免被恶意用户利用。 保密字典可以以字符串或者文件的形式保存敏感信息,它们被编码为 base64 格式并存储在 Kubernetes 集群中。 保密字典可以被用于各种用例,例如:在容器中或 Pod 中挂载配置文件、合并 Docker 镜像的安全证书等。 保密字典的使用方式类似于配置项目,但保密字典显然更加安全,因为它可以加密保存,并且可以限制访问权限。您可以在 Pod 中使用 Volume 或者环境变量引用保密字典,或者将其用作镜像源、终端服务器等。 创建保密字典 1. 登录云容器引擎控制台,在左侧导航栏中选择“集群”。 2. 在集群列表页面中,单击目标集群名称,并在左侧导航栏中选择“配置管理” 。 3. 选择“保密字典”,在保密字典页面中,您可以通过以下两种方式创建配置项。 1. 通过保密字典菜单创建。 1. 单击保密字典页面左上角的“创建” 。 2. 在创建保密字典页面中,填写保密字典名称。名称最长100个字符,由小写字母、数字、""及"."组成,且开始和结尾只能是数字和字母。 3. 填写保密字典内容。包括变量名和对应变量值,允许添加多个配置项。支持“上传文本文件”和“上传二进制文件” 。 2. 使用YAML创建。 1. 单击保密字典页面左上角的“新增YAML” 。 2. 在使用模版部署的页面填写保密字典内容,即Secret的相关信息;或者选择从文件导入然后单击保存。
        来自:
        帮助文档
        云容器引擎 Serverless版
        用户指南
        配置项及密钥
        管理保密字典
      • 异步搜索
        本文为您介绍天翼云云搜索服务中的OpenSearch和Elasticsearch实例异步搜索功能的使用方法。 功能简介 天翼云云搜索服务中的OpenSearch和Elasticsearch都支持异步搜索功能(Asynchronous Search),这一功能极大地提升了在处理长时间运行查询时的用户体验和系统效率。通过异步搜索,用户可以在后台执行耗时较长的查询任务,而无需等待查询结果的即时返回。 这一功能对于大数据集、复杂查询以及需要持续获取查询状态的场景特别有用。 核心原理 在传统的同步搜索模式中,用户发出查询请求后,必须等待查询结果返回才能继续其他操作。如果查询涉及大规模数据处理或复杂的计算,这可能会导致用户界面的阻塞和等待时间过长。异步搜索通过将查询任务分离到后台执行,解决了这一问题。 当用户发起异步搜索请求时,搜索引擎会立即返回一个查询任务 ID,而查询本身在后台继续运行。用户可以通过这个任务 ID 随时查询任务的进展情况、获取部分结果或在任务完成后检索最终的完整结果。这种模式下,用户可以在查询结果生成的过程中继续执行其他操作,显著提高了系统的响应性和用户的工作效率。 应用场景与优势 处理复杂查询 对于涉及大量数据处理或复杂计算的查询,异步搜索允许这些任务在后台执行,避免了用户界面因长时间等待而被冻结的情况。这尤其适用于分析海量数据、执行深度聚合或跨多索引的查询任务。 提高系统性能与效率 异步搜索将长时间运行的任务移至后台执行,减少了同步操作对系统资源的占用,优化了集群的整体性能。同时,用户能够并行处理其他任务,提升了操作效率。
        来自:
        帮助文档
        云搜索服务
        用户指南
        增强特性
        异步搜索
      • 集群定时备份
        本节介绍了集群定时备份的用户指南。 操作场景:为增强集群容灾能力,提高集群可靠性。可对集群进行定时备份。 前提条件:用户需要在所操作的集群的插件市场中安装备份还原插件“ccsebackup”。 创建任务 定时备份提供按指定时间执行备份还原任务,配置操作大体与集群备份的相似。 在云容器引擎控制台菜单中按照以下路径进入界面【集群】{选定的集群}【备份】 【集群定时备份】,点击【创建备份】,弹出创建备份对话框。 名称、命名空间、资源和持久卷的配置与集群备份余下字段则与定时执行相关。 名称 说明 保留天数 必填,定时备份后产生的备份包所保留的天数,超过保留天数的备份包则会被自动清理 时间点 必填,定时备份时执行的时间点,为整点 重复周期 必填,定时备份任务重复在一周内哪几天触发执行 说明 此处建议保留天数要大于两个定时备份任务执行的间隔天数,否则会导致任务执行完毕后,还没等到下个任务开始,就被清理 点击“创建后”完成定时任务创建。 新建的定时备份任务会被展示在列表中,列表末端的操作列包含三个按钮: 编辑:弹出定时任务编辑框修改定时任务信息。 立即执行:马上触发备份任务执行。 删除:删除当前定时备份任务。 任务详情 在定时任务列表中点击任务名称,进入定时任务详情页。在详情页面可以看到定时任务的名称、所备份的命名空间、资源类型、是否包含持久卷、任务创建时间、备份包的保留天数和备份任务的重复周期这些信息。此外在“相关备份任务”中展示了每次执行的任务信息。 任务信息包括了任务名称、大小,任务执行的状态,任务的执行时间等。 另外列表中还包含了一个操作列,操作包括还原、下载和删除,功能与集群备份的列表的一致。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        集群备份
        集群定时备份
      • 在Serverless集群中运行Job任务
        本文为您介绍如何Serverless集群中运行Job任务。 背景信息 在Serverless集群中,您可以按需按量创建Pod。当Pod结束后停止收费,无需为Job任务预留计算资源,从而摆脱集群计算力不足和扩容的烦扰,同时结合抢占式实例可以降低Job任务的计算成本。本文主要为您介绍如何通过SCE按需创建Job任务,来对圆周率Pi进行小数位的计算。 前提条件 确保您已经创建Serverless集群,具体操作请参阅创建Serverless集群 。 确保kubectl工具已经连接目标集群。 操作步骤 登录控制台创建Job 1. 登录云容器引擎控制台。 2. 在控制台的左侧导航栏中点击“集群”。 3. 在集群列表页面中,单击目标集群的名称进入集群详情界面。 4. 在集群管理页面的左侧导航栏中,选择“工作负载” ,然后单击“任务”。 5. 点击创建任务。 6. 点击创建工作负载后,可在Job列表查看Job。 使用命令行创建Job 1. 创建job.yaml文件,内容如下: shell apiVersion: batch/v1 kind: Job metadata: name: pi spec: template: spec: containers: name: pi image: user1registryhuadong1.crsinternal.ctyun.cn/library/perl command: ["perl", "Mbignumbpi", "wle", "print bpi(10)"] restartPolicy: Never backoffLimit: 4 2. 执行命令创建该任务。 plaintext kubectl apply f job.yaml 3. 查看Job与Pod的运行状态,可以看到已经运算成功。 shell kubectl get job pi NAME COMPLETIONS DURATION AGE pi 1/1 2m23s 9m21s kubectl get pod NAME READY STATUS RESTARTS AGE pib89fv 0/1 Completed 0 9m37s 4. 查看运算结果。 登录到弹性容器实例的控制台,进入到上面Pod对应的ECI实例中,查看日志,可以看到对圆周率的小数点后9位的运算结果。
        来自:
        帮助文档
        云容器引擎 Serverless版
        最佳实践
        在Serverless集群中运行Job任务
      • 从ClickHouse 自建集群迁移数据(方案二)
        迁移方案概述 迁移方案是通过源集群的zookeeper 做副本数据同步,架构如下: 前提条件: 要求源、目标集群在同一个网络,源、目标集群的分片数是相同的,另外建议源、目标集群的ck内核版本也一致,避免不同版本使用到的zstd 版本不一致导致merge出错 迁移条件 & 情况: 目标集群必须跟源集群具备相同的分片数,目标集群跟源集群网络相通; 只支持依赖zk的副本表; partitiong同步过程,源集群可正常读写,迁移过程源集群能正常读,但是不能写; 数据同步和迁移过程,不会删除源集群的数据; 数据同步过程源集群下的数据(本地数据 + cos数据)都会同步到目标集群下,因此目标集群下的容量要足够。 迁移步骤: 整体的迁移环节可概括为:创建临时表 (开始同步数据)和正式表 》修改临时表引擎为 MergeTree — 》从临时表把数据转移到正式表 》删除临时表 具体步骤如下: 1、在目标集群的各个分片选择一个节点,加入到tmpcluster里头去(metrika.xml文件中新增tmpcluster),修改目标集群的config.xml文件,把源集群的zk信息配置进来,如果有多个,那分别加入 ip1 2181 ip2 2181 ip3 2181 60000 30000 2、在目标集群上创建临时的副本表,绑定源集群的zk,以ReplicatedMergeTree为例子: CREATE TABLE tablenametmp on cluster tmpcluster ( ... ) ENGINE ReplicatedMergeTree('zookeeper2:path', '{replica}') ... 备注说明: 创建的临时副本表使用临时表名,在正式表后面加tmp。 创建的临时副本表使用的ZooKeeper路径和源端搬迁表的ZooKeeper路径需保持一致。 创建的临时副本表的表结构需和源端搬迁表保持一致。 3、创建完临时副本表之后,集群会自动通过源zk做part同步到目标集群的副本。期间不用做任何处理,可以准备下一步骤工作 (这个过程不要对临时表做任何数据分区操作,因为操作临时表分区就等于操作源集群对应正式表) 4、在目标集群创建正式名字的 副本表,采用默认zookeeper(可直接通过on cluster defaultcluster去创建) 5、同步完成之后,检查源集群和目标集群,各个表数据分布情况,数据准确性校验(查询part数,以及count总数是否匹配,校验数据准确性时最好做到源集群停写) 6、检查无误之后,在目标集群metadata 目录下,修改所有临时表的sql,把Engine均改成MergeTree (这步是为了迁移过程影响到源集群,保证源集群的数据可读),修改完后重启集群 —— 有现成脚本 7、执行DETACH 命令对临时表中的每个partition DETACH,然后登入目标集群,把临时表下detached目录的所有part mv 到对应的目标表的detached 目录下 —— 如果分区多,可用脚本完成,有现成脚本 例如:default 下lineorder表,可以执行 mv /data/clickhouse/clickhouseserver/data/default/lineordertmp/ detached/ /data/clickhouse/clickhouseserver/data/default/lineorder/detached/ 例如:default 下lineordertmp临时表,分区有'1992','1993','1994','1995','1996' 第一步:在studio上执行(也可以通过脚本去完成): ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1992'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1993'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1994'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1995'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1996'; 第二步:登入到目标集群在各个节点上,执行: mv /data/clickhouse/clickhouseserver/data/default/lineordertmp/detached/ /data/clickhouse/clickhouseserver/data/default/lineorder/detached/ 8、执行attach 命令,把目标表下detached的part加载到表内 —— 如果分区多,可用脚本完成,有现成脚本(可找作者提供) 例如:default 下lineorder表,可以执行 alter table default.lineorder attach partition 'partitionname'; 依次把所有的partition 加载到正式表 9、所有的表迁移完成之后,删除临时表,再删除config.xml文件中的 auxiliaryzookeepers配置; 说明: 数据副本同步过程因为某种原因导致副本服务中断(可能是网络、bug、人为手工停止),再次重启后支持断点续传,不会影响源数据同步传输。 操作过程会涉及到多个partition的 DETACH和 attach命令,同时还需要登入到目标节点执行mv 操作,为了简化工作提高效率,减少过多人为操作而导致的失误,建议 通过批量工具(天翼云ClickHouse提供) + 脚本方式执行(找作者提供) 批量工具:批量分发文件到目标集群各个节点,批量在目标集群各个节点执行命令脚本等 参考脚本:查询一个表下的所有partition 列表,然后执行 DETACH命令, mv 命令 和最后的 attach命令 注意: 在添加临时表之后,源集群表的part就会自动通过zk做part复制,因为数据量很大,建议分批创建临时副本表,以免对源zk造成负载过高,从而影响业务 在临时表数据同步的过程中,一定不要对临时表做任何数据或是分区操作,操作临时表就等于操作源集群对应的正式表 在临时表数据同步过程,不能有ddl变化 方案优点:可支持对巨量副本表(几百个以上)的数据迁移,数据同步过程通过zk 做到后台自动同步,无需干预;同时支持对cos 数据的迁移; 不足:只能迁移ReplicatedMergeTree 引擎表,其它表不支持这种方案。
        来自:
        帮助文档
        云数据库ClickHouse
        ClickHouse数据迁移
        从ClickHouse 自建集群迁移数据(方案二)
      • 表管理
        本节主要介绍表管理 新建表 操作说明 数据表包含基本信息、字段/列信息、虚拟列、索引、外键5大组成部分,其中,索引、外键、CHECK约束为可选项,作为表信息的补充,您可根据实际业务需要进行设置。 操作步骤 1. 在顶部导航栏选择“库管理”,在对象列表页签下单击“新建表”。 图 新建表 2. 在新建表页面“基本信息”页签中填写表的基本信息,表名、存储引擎、字符集信息。填写完成后,在页面中下部单击“下一步”。 图 基本信息页面 3、在表字段信息设置页签,根据业务需要设置具体表字段信息:表列名、字段类型、是否可空、是否为主键,并可对扩展信息进行编辑。 如无需添加索引、外键、CHECK约束设置时,可直接单击页面下部中间的“立即创建”。 如需要添加索引、外键、CHECK约束设置时,单击页面下部中间的“下一步”,设置相关信息。设置完成后单击页签下方的“立即创建”,完成表的创建操作。 4、在SQL预览弹出框中单击“执行脚本”,即可完成新建表的相关操作。 图 SQL预览页面 打开表 操作步骤 1、在顶部导航栏选择“库管理”,在对象列表页签左侧菜单栏选择“表”,并在表列表右侧操作栏中,单击“打开表”。 2、暂不支持分布式关系型数据库DRDS数据库管理服务库管理中表的编辑操作。在表详情页面,您可以查看表信息。 表 界面操作说明 名称 功能说明 :: Where条件 您可通过where查询,快速获取查询信息。 复制行 双击选择行,单击“复制行”,即可复制所选行数据信息。 删除行 双击选择行,单击“删除行”,即可删除所选行数据信息。 复制列 在列下拉框中选择所需复制的列,即可复制列信息。 列设置 您可通过“列设置”筛选出需显示的列信息。 16进制显示Binary类型 列内容以Binary类型显示时,需要勾选此选项,否则显示乱码。 新增 向表内添加数据。 刷新 支持对表数据进行手动更新。 提交编辑 支持对数据进行二次编辑。 单行详情 显示指定数据行详细信息。 查看表详情
        来自:
        帮助文档
        数据管理服务
        用户指南
        分布式关系型数据库DRDS数据库管理(开发工具)
        库管理
        表管理
      • 产品概述
        本文主要介绍产品概述 应用运维遇到挑战 在云时代微服务架构下应用日益丰富,纷杂的应用异常问题接踵而来。应用运维面临巨大挑战: 分布式应用关系错综复杂,应用性能问题分析定位困难,应用运维面临如何保障应用正常、快速完成问题定位、迅速找到性能瓶颈的挑战。 应用体验差导致用户流失。运维人员如果无法实时感知并追踪体验差的业务,不能及时诊断应用异常,将严重影响用户体验。 业务系统的应用多、分布广,跨系统、跨区域、跨应用的调用频繁,如何降低应用的管理和运维成本,提升应用运维的效率是迫切需要解决的问题。 APM帮您解决 应用性能管理服务(Application Performance Management,简称APM)帮助运维人员快速发现应用的性能瓶颈,以及故障根源的快速定位,为用户体验保驾护航。 您无需修改代码,只需为应用安装一个APM Agent,就能够对该应用进行全方位监控,帮助您快速定位出错接口和慢接口、重现调用参数、发现系统瓶颈,从而大幅提升线上问题诊断的效率。目前支持JAVA应用,具体的应用监控能力概览如下表。 表 APM监控能力 场景能力 说明 非侵入的应用性能数据采集 用户无需更改应用代码,只需要部署APM Agent包,修改相应的应用启动参数,就可以实现应用监控。 应用指标监控 无须配置,自动监控应用相关大量监控指标,如JVM、JavaMethod、URL、Exception、Tomcat、httpClient、Mysql、Redis、kafka等。 应用拓扑 通过对RPC调用信息进行动态分析、智能计算,自动生成分布式应用间拓扑关系。 调用链追踪 多个应用接入APM后,自动针对某一些请求进行采样,采集单个请求的服务之间调用关系以及中间调用的健康情况,实现全局调用链路的自动跟踪。 常用诊断场景的指标下钻分析 根据应用响应时间、请求数、错误率等指标下钻分析,按应用、组件、环境、数据库和中间件等多维度查看。 异常URL跟踪和慢URL跟踪捕捉 基于调用URL跟踪的超时和异常分析,并有效自动关联到对应的接口调用,如 SQL、MQ 等。 1. 接入APM:应用通过APM自身的AK/SK鉴权进行接入。 2. 数据采集:APM可以通过非侵入方式采集APM Agent提供的应用数据、基础资源数据、用户体验数据等多项指标。 3. 业务实现:APM支持应用指标监控、应用拓扑、调用链追踪和智能告警功能。 4. 业务拓展: 1. 通过APM的应用拓扑、调用链追踪等快速诊断应用性能异常,并结合AOM(应用运维管理)的应用运维指标进行综合判断。 2. 找到应用性能瓶颈后,可以通过CPTS(云性能测试服务 )关联分析生成性能报表。 3. 通过智能算法学习历史指标数据,APM多维度关联分析异常指标,提取业务正常与异常时上下文数据特征,通过聚类分析找到问题根因。
        来自:
        帮助文档
        应用性能管理
        产品介绍
        产品概述
      • 如何测试云硬盘的性能
        工具安装 依次执行以下命令,安装libaio和测试工具FIO。 plaintext sudo yum install libaio y sudo yum install libaiodevel y sudo yum install fio –y FIO工具参数介绍 不同场景的测试公式基本一致,根据不同的测试目标,部分参数会有所不同,如下表所示。 参数 说明 direct 指定 direct 模式,默认值为1。 值为1:表示使用direct I/O,忽略I/O缓存,数据直写。 值为0:表示不使用direct I/O。 numjobs 并发线程数,默认为1。 当被测试磁盘性能较高时推荐加大numjobs数以增加压力。 iodepth 测试时的IO队列深度。 队列深度是指每个线程的队列深度,如果有多个线程测试,意味着每个线程都是此处定义的队列深度。FIO总的IO并发数iodepth numjobs。 rw 测试时的读写策略。可选值如下: randwrite:随机写 randread:随机读 read:顺序读 write:顺序写 randrw:混合随机读写 ioengine 测试时FIO选择哪种I/O引擎,本实践中选择libaio。 bs 每次请求的块大小(block size)。默认值为4k。 size 测试文件大小。取值如下: 带单位的数字,比如size10G,表示读/写的数据量为10GiB。 百分数,比如size20%,表示读/写的数据量占该设备总文件的20%的空间。 runtime 测试时间,即FIO运行时长。 如果未配置该参数,则持续将size指定的文件大小,以每次bs值为分块大小读/写完。 timebased 采用的时间模式。 无需设置该参数值,只要 FIO 基于时间来运行。 groupreporting 多个 job 并发时,打印整个 group 的统计值。 filename 测试对象,可以是磁盘设备名称(如/dev/vdb),或文件地址(如/opt/fiotest/fiotest.txt)。 name 本次测试任务的名称。
        来自:
        帮助文档
        云硬盘 EVS
        最佳实践
        如何测试云硬盘的性能
      • 比较参数模板
        本节介绍了如何比较云数据库TaurusDB实例的参数模板。 操作场景 您可以比较同数据库类型的实例参数模板,以了解当前实例参数的差异项。 您也可以比较同数据库类型的默认参数模板,以了解当前参数模板的配置情况。 比较当前实例参数模板 步骤 1 登录管理控制台。 步骤 2 单击管理控制台右上角的,选择Region。 步骤 3 在页面左上角单击,选择“数据库 > 云数据库TaurusDB”。 步骤 4 在“实例管理”页面,单击实例名称,进入实例的“基本信息”页签。 步骤 5 在左侧导航栏中选择“参数修改”,在“参数”子页签中单击“比较参数”。 步骤 6 在弹出框中选择当前实例同数据库类型的参数模板,单击“确定”,比较两个参数的差异项。 有差异项,则会显示差异参数的如下信息:参数名称、当前实例参数模板的参数值和被比较参数模板的参数值。 无差异项,则不显示。 比较目标参数模板 步骤 1 登录管理控制台。 步骤 2 单击管理控制台右上角的,选择Region。 步骤 3 在页面左上角单击,选择“数据库 > 云数据库TaurusDB”。 步骤 4 在“参数模板管理”页面的“自定义”页签,选择一个用户创建的参数模板,单击“比较”。 步骤 5 选择同一数据库引擎的不同参数模板,单击“确定”,比较两个参数模板之间的配置参数差异项。 有差异项,则会显示差异参数模板的如下信息:参数名称、参数值。 无差异项,则不显示。
        来自:
        帮助文档
        云数据库TaurusDB
        用户指南
        参数模板管理
        比较参数模板
      • 如何选择驱动及相关库、软件版本
        本文介绍如何选择驱动及相关库、软件版本。 GPU云主机在实际的使用中往往需要安装驱动、CUDA工具包、cuDNN、Pytorch等相关的库或软件版本。 如何选择CUDA版本 CUDA(Compute Unified Device Architecture),是显卡厂商NVIDIA推出的运算平台。 CUDA™是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。 它包含了CUDA指令集架构(ISA)以及GPU内部的并行计算引擎。 开发人员可以使用C语言来为CUDA™架构编写程序,所编写出的程序可以在支持CUDA™的处理器上以超高性能运行。 在选择CUDA版本前,需要先了解GPU云主机所挂载的显卡的算力,然后根据显卡算力来选择对应的CUDA版本。 具体步骤如下: 步骤一 :通过英伟达官网查看显卡算力。以NVIDIA T4 为例,可以看到其显卡计算能力为7.5。 步骤二 :根据显卡计算能力查看可支持CUDA版本,详情请参见NVIDIA数据中心。以NVIDIA T4 为例,CUDA 10以上的版本均能够支持,建议您选择最新版本的CUDA。 如何选择显卡驱动版本 根据确定的CUDA版本来选择显卡的驱动版本,如下图所示。例如您选择的CUDA版本为11.4.3,使用Linux操作系统时,驱动版本应大于450.80.02。详情请参见.NVIDIA数据中心卡用户指南。
        来自:
        帮助文档
        GPU云主机
        最佳实践
        如何选择驱动及相关库、软件版本
      • 回收站
        本章节会介绍回收站的功能和策略 操作场景 RDS支持将删除的主备或者单机实例,加入回收站管理。通过在回收站中重建实例,将数据恢复到新实例上。新实例数据库引擎、数据库版本、存储类型与原实例相同,其他参数可以重新配置。默认可以恢复1~7天内删除的实例。 约束限制 RDS不回收只读实例,只有主备或者单机实例才会进入回收站。 已停止的实例被删除后不会进入回收站。 回收站策略机制默认开启,且不可关闭。设置保留天数为1天,该功能免费。 设置回收站策略 注意 回收站保留天数默认7天。修改回收站保留天数,仅对修改后新进入回收站的实例生效,对于修改前已经存在的实例,仍保持原来的回收策略,请您谨慎操作。 1、登录管理控制台。 2、单击管理控制台左上角的,选择区域和项目。 3、选择“数据库> 关系型数据库”。进入关系型数据库信息页面。 4、在左侧导航栏,单击“回收站”。 5、在“回收站”页面,单击“回收站策略”,设置已删除实例保留天数,可设置范围为1~7天。 6、单击“确定”,完成设置。 重建实例 在回收站保留期限内的主实例可以通过重建实例恢复数据。 1、登录管理控制台。 2、单击管理控制台左上角的,选择区域和项目。 3、选择“数据库> 关系型数据库”。进入关系型数据库信息页面。 4、在左侧导航栏,单击“回收站”。 5、在“回收站”页面,在实例列表中找到需要恢复的目标实例,单击操作列的“重建”。 6、在“重建新实例”页面,选填配置后,提交重建任务。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        管理数据库实例
        回收站
      • 配置流控规则
        本章节介绍如何配置流控规则 配置流控规则 配置流控规则的原理是监控应用或服务流量的QPS指标,当指标达到设定的阈值时立即拦截流量,避免应用被瞬时的流量高峰冲垮,从而保障应用高可用性。 功能入口 1. 登录微服务治理控制台。 2. 在控制台左侧导航栏中选择应用治理。 3. 在应用治理页面的应用卡片页签单击目标应用卡片。 4. 在左侧导航栏选择流量防护 规则管理,在流控规则页签单击新增流控规则,然后在弹出的对话框中配置规则信息,参数说明如下。 5. 设置完成单击新增。 页面参数说明如下: 参数 描述 接口名称 待流控的资源名称。 来源应用 该规则针对的来源应用,默认来源应用设为default,代表不区分来源应用。 统计维度 选择资源调用关系进行流控。 • 当前接口 :直接控制来自来源应用中调用来源的访问流量,如果来源应用为default则不区分调用来源。通常应用于流量匀速通过的场景。 • 关联接口 :控制当前资源的关联资源的流量。通常应用于资源争抢时,留足资源给优先级高接口的场景。 • 链路入口 :控制该资源所在的调用链路的入口流量。选择链路入口后需要继续配置 入口资源 ,即该调用链路入口的上下文名称。通常应用于预热启动避免大流量冲击的场景。 单机QPS阈值 触发对流控接口的统计维度对象的QPS阈值。 流控效果 选择流控方式来处理被拦截的流量。 • 快速失败 :达到阈值时,立即拦截请求。按照应用系统设置中的适配模块配置信息,进行内容返回。 • 预热启动 :需设置具体的预热时间。如果系统在此之前长期处于空闲的状态,当流量突然增大的时候,该方式会让处理请求的速率缓慢增加,经过设置的预热时间以后,到达系统处理请求速率的设定值。默认会从设置的QPS阈值的1/3开始慢慢往上增加至设置的QPS值,多余请求会按照快速失败处理。 • 排队等待 :请求匀速通过,允许排队等待,通常用于请求调用削峰填谷等场景。需设置具体的超时时间,达到超时时间后请求会快速失败。 是否开启 打开开关表示启用该规则,关闭开关表示禁用该规则。开关修改之后会立即生效。
        来自:
        帮助文档
        微服务引擎
        用户指南
        微服务治理中心
        应用治理
        流量防护
        配置流控规则
      • 步骤四:创建Schema
        当您关联MySQl实例后,还需要为DRDS实例创建Schema。 前提条件 DRDS实例已关联MySQL实例,且MySQL未处于只读状态。 注意事项 创建Schema时,DRDS将在关联的MySQL实例上新建数据库,该操作不会影响已有库表。 创建Schema时,一个DRDS实例可以创建多个Schema。 操作步骤 1. 进入Schema管理页面。 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击实例名称或单击操作 列的管理 ,进入实例基本信息页面。 4. 单击Schema管理页签,进入Schema管理页面。 2. 单击创建Schema ,进入创建Schema页面。 3. 在基本信息设置 页面,根据实际情况配置如下参数,然后单击下一步。 参数 说明 Schema名称 请以小写字母开头,长度为350个字符。 Schema字符集 支持选择utf8或utf8mb4。 注意 创建后不支持修改。 Schema引擎 支持选择InnoDB或MyISAM。 注意 创建后不支持修改。 关联数据库设置 选中作为存储节点的MySQL实例,并设置对应MySQL实例的分片数量。 4. 在分片节点设置 页面,设置数据库名称,然后单击下一步。 据库名称默认为Schema名称 数字编号,数字编号从1开始递增。您也可以根据需求设置MySQL实例中数据库名称。 5. 在创建页面,开始创建Schema。 您可以单击Schema管理 ,跳转到Schema管理 页面,也可以等待一段时间,系统将自动跳转到Schema管理页面。
        来自:
        帮助文档
        分布式关系型数据库
        快速入门
        步骤四:创建Schema
      • 应用场景
        本页介绍了分布式融合数据库HTAP的应用场景,方便您的使用。 海量数据高并发OLTP系统 场景说明 海量数据高并发的核心数据系统,由于超过了单机容量及处理能力极限,传统采用数据库中间件加分库分表方案,牺牲了全局事务,唯一索引等关系型数据库重要功能。而分布式融合数据库 HTAP 既有水平弹性扩展的特性,能应对数据量和吞吐量的快速增长,也提供了高度兼容 MySQL 的协议接口和全局事务、唯一索引等关系型数据库的功能,相当于一个无限扩展的 MySQL 集群,是支撑海量数据高并发 OLTP 业务的理想数据库。 用户痛点 有较大的业务侵入性。 牺牲了全局事务,唯一索引等关系型数据库重要功能。 数据库规模大时扩容成本较高。 产品优势 支持海量数据存储与高并发访问。 高度兼容 MySQL。 水平弹性扩展。 金融级高可用。 数据强一致。 高性能实时 HTAP系统 场景说明 分布式融合数据库 HTAP 是一个有着优秀扩展性的一站式 HTAP 数据库,它具有高性能、可扩展的实时写入能力,同时拥有强大的分布式查询引擎,在保证数据一致性和读写实时性的基础上,分布式融合数据库 HTAP 可提供优秀的复杂查询性能,可用于各种实时分析场景。无需进行 ETL 和数据搬运,在分布式融合数据库 HTAP 平台上统一无延迟处理多种 Workload,让数据分析、推荐系统、报表等多种大数据 OLAP 场景和 OLTP 平台无缝结合,减轻数据运维的负担。
        来自:
        帮助文档
        分布式融合数据库HTAP
        产品介绍
        应用场景
      • 使用TPC-H样例模板开发并提交Spark SQL作业
        本章节主要介绍使用TPCH样例模板开发并提交Spark SQL作业。 为了便捷快速的执行SQL操作,DLI支持定制模板或将正在使用的SQL语句保存为模板。保存模板后,不需编写SQL语句,可通过模板直接执行SQL操作。 当前系统提供了多条标准的TPCH查询语句模板,可以根据当前需求选择使用。本样例演示通过一个TPCH样例模板开发并提交Spark SQL作业的基本流程: 操作步骤 1.登录DLI管理控制台。 2.在DLI管理控制台,选择“作业模板”>“SQL模板”>“样例模板”,在“tpchQuery”下找到“Q1价格摘要报告查询”样例模板,单击操作列的“执行”进入“SQL编辑器”。 3.在“SQL编辑器”页面右侧的编辑窗口上方,“执行引擎”选择“spark”,“队列”选择“default”,“数据库”选择“default”,单击“执行”。 4.SQL作业编辑窗口下方“查看结果”页签查看查询结果。 本示例使用系统预置的“default”队列和数据库进行演示,也可以在自建的队列和数据库下执行。 创建队列请参考《数据湖探索用户指南》>《创建队列》。创建数据库请参考《数据湖探索用户指南》下的“数据管理 > 库表管理 > 创建数据库和表”。
        来自:
        帮助文档
        数据湖探索
        快速入门
        使用TPC-H样例模板开发并提交Spark SQL作业
      • 回收站
        本章节会介绍回收站的功能和策略 操作场景 RDS支持将删除的主备或者单机实例,加入回收站管理。通过在回收站中重建实例,将数据恢复到新实例上。新实例数据库引擎、数据库版本、存储类型与原实例相同,其他参数可以重新配置。默认可以恢复1~7天内删除的实例。 约束限制 RDS不回收只读实例,只有主备或者单机实例才会进入回收站。 已停止的实例被删除后不会进入回收站。 回收站策略机制默认开启,且不可关闭。设置保留天数为1天,该功能免费。 设置回收站策略 注意 回收站保留天数默认7天。修改回收站保留天数,仅对修改后新进入回收站的实例生效,对于修改前已经存在的实例,仍保持原来的回收策略,请您谨慎操作。 1、登录管理控制台。 2、单击管理控制台左上角的,选择区域和项目。 3、选择“数据库> 关系型数据库”。进入关系型数据库信息页面。 4、在左侧导航栏,单击“回收站”。 5、在“回收站”页面,单击“回收站策略”,设置已删除实例保留天数,可设置范围为1~7天。 6、单击“确定”,完成设置。 重建实例 在回收站保留期限内的主实例可以通过重建实例恢复数据。 1、登录管理控制台。 2、单击管理控制台左上角的,选择区域和项目。 3、选择“数据库> 关系型数据库”。进入关系型数据库信息页面。 4、在左侧导航栏,单击“回收站”。 5、在“回收站”页面,在实例列表中找到需要恢复的目标实例,单击操作列的“重建”。 6、在“重建新实例”页面,选填配置后,提交重建任务。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        实例管理
        回收站
      • 升级RDS for MySQL内核小版本
        约束条件 对于主备实例,复制延迟大于300秒无法升级小版本。 升级主备实例时,升级顺序依次是备实例、主实例。 实例中存在异常节点,无法升级小版本。 云数据库RDS for MySQL暂不支持已开启事件定时器功能的实例升级内核小版本,若您想使用该功能,请先关闭事件定时器。具体操作请参考开启或关闭事件定时器。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,单击主实例名称。 步骤 5 在“基本信息”页面的“数据库引擎版本”处,单击“补丁升级”。 步骤 6 在弹出框中,选择升级方式,单击“确定”。 立即升级:系统会立即升级您的数据库内核版本到当前最新版本。 可维护时间段内升级:系统会在您设置的可维护时间段内,升级您的数据库内核版本到当前最新版本。 结束 后续操作 返回实例列表,在左侧导航栏,选择“任务中心”,查看版本升级任务的执行进度。 对于升级方式为“立即升级”的任务: 在“即时任务”页签,搜索“MySQL实例版本升级”任务,查看执行进度。即时任务不支持取消。 对于升级方式为“可维护时间段内升级”的任务: 在“定时任务”页签,搜索实例ID,查看该实例下版本升级的任务执行情况。 如果任务为“待执行”状态,单击“取消”,取消执行该升级任务。 更多操作,请参见查看任务。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        版本升级
        升级RDS for MySQL内核小版本
      • Kafka触发器
        Kafka触发器可以订阅天翼云提供的分布式消息队列Kafka实例,并根据消息触发关联的函数,借此能力,使得函数可以消费指定Topic的消息,执行自定义处理逻辑。 注意事项 Kafka触发器订阅的Kafka实例必须和函数计算的函数实例在相同地域。 前提条件 已创建函数。 已开通分布式消息Kafka实例(KAFKA引擎版),详情请参考创建分布式消息服务Kafka实例。 已创建Topic,创建GroupID(可选)。 操作步骤 1. 登录函数计算控制台,点击目标函数,进入函数详情。 2. 选择详情下顶部的配置选项卡。 3. 在配置选项卡 中,选择左边的触发器选项卡。 4. 点击创建触发器 ,在弹出的右抽屉中选择Kafka触发器,配置参数解释如下。 配置项 操作 示例 触发器类型 选择Kafka触发器。 Kafka触发器 名称 填写自定义的触发器名称。 kafkatrigger 版本或别名 默认值为LATEST,支持选择任意函数版本或函数别名。 LATEST Kafka 实例 选择已创建的Kafka实例。 Topic 选择已创建的Kafka实例的Topic。 Group ID 快速创建:推荐方案。自动创建以 GROUPFCTrigger{triggername}{uuid} 命名的 Group ID。 使用已有:选择Kafka实例已有的GroupID,请您注意不要与已有的业务混用GroupID,否则会影响已有的消息收发。 消费任务并发数 消费者的并发数量,有效取值范围为[1,20],建议不超过Topic的分区数。该值同时影响投递到函数的并发数。 消费位点 选择消息的消费位点,即触发器从kafka消息队列开始拉取消息的位置。 最早位点 :从最早位点开始消费。 最新位点:从最新位点开始消费。 最新位点 调用方式 选择函数调用方式。 同步调用 :指触发器消费topic消息后投递到函数是同步调用,会等待函数响应后继续下一个消息投递。但消费任务并发数大于1时,多个消费者有可能会并发消费消息并投递,并发的情况视Topic队列本身积存的消息而定。 异步调用:指触发器消费topic消息后投递到函数是异步调用,不会等待函数响应,可以快速消费事件。 同步调用 触发器启用状态 创建触发器后是否立即启用。默认选择开启,即创建触发器后立即启用触发器。 启用 推送配置 批量推送条数:批量推送的最大值,积压值达到后立刻推送,取值范围为 [1, 10000]。 批量推送间隔:批量推送的最大时间间隔,达到后立刻推送,单位秒,取值[0,15]。默认0无需等待,数据直接推送。 推送格式:函数收到的事件格式,详情请查阅触发器事件消息格式。 重试策略 消息推送函数失败后重试的策略,共两种: 指数退避:指数退避重试,重试5次,重试周期为2,4,8,16,32(秒)。 线性退避:线性退避重试,重试5次,重试周期为1,2,3,4,5(秒)。 容错策略 当重试次数耗尽后仍然失败时的处理方式: 允许容错:当异常发生并超过重试策略配置时直接丢弃。 禁止容错:当异常发生并超过重试策略配置时继续阻塞执行。 死信队列 当容错策略为:允许容错时,可以额外开启死信队列。当开启死信队列时且异常发生并超过重试策略配置时,消息会被投递到指定的消息队列里,当前只支持投递到kafka和rocketmq
        来自:
        帮助文档
        函数计算
        用户指南
        事件触发
        Kafka触发器
      • 1
      • ...
      • 57
      • 58
      • 59
      • 60
      • 61
      • ...
      • 498
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务 MDR

      GPU云主机

      轻量型云主机

      天翼云CTyunOS系统

      AI Store

      模型推理服务

      应用托管

      科研助手

      推荐文档

      如何修改账号的密码?

      添加伸缩策略

      重启

      分布式消息服务相关术语解释

      云课堂 第十九课:RDS数据库服务基于SSL的安全访问

      产品优势

      如何退换发票?

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号