云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      VPC终端节点_相关内容
      • 关系型数据库RDS支持的事件列表
        事件名称 事件ID 事件级别 事件说明 处理建议 事件影响 创建实例业务失败 createInstanceFailed 重要 创建实例失败产生的事件,一般是磁盘个数,配额大小不足,底层资源耗尽导致。 检查磁盘个数、配额大小,释放资源后重新创建。 无法创建数据库实例。 实例全量备份失败 fullBackupFailed 重要 单次全量备份失败产生的事件,不影响以前成功备份的文件,但会对“恢复到指定时间点”的功能有一些影响,导致“恢复到指定时间点”时增量备份的恢复时间延长。 重新执行一次手工备份。 备份失败。 主备切换异常 activeStandBySwitchFailed 重要 主备切换异常是由于网络、物理机有某种故障导致备机没有接管主机的业务,短时间内会恢复到原主机继续提供服务。 检查应用和数据库之间的连接是否重新建立了连接。 无 复制状态异常 abnormalReplicationStatus 重要 出现”复制状态异常“事件通常有两种情况:1、主机与备机或只读实例之间复制时延太大(一般在写入大量数据或执行大事务的时候出现),在业务高峰期容易出现阻塞。2、主机与备机或只读实例之间的网络中断,导致主机与备机或只读实例复制异常。 提交工单。 但不会导致原来单实例的读写中断,客户的应用是无感知的。 复制状态异常已恢复 replicationStatusRecovered 重要 即复制时延已回到正常范围内,或者主备之间的网络通信恢复。 不需要处理。 无 实例运行状态异常 faultyDBInstance 重要 由于灾难或者物理机故障导致单机或者主实例故障时会上报本事件,属于关键告警事件。 检查是否有设置自动备份策略,并且提交工单。 可能导致数据库服务不可用。 实例运行状态异常已恢复 DBInstanceRecovered 重要 针对灾难性的故障,RDS有高可用工具会自动进行备机重建,重建完成之后即会上报本事件。 不需要处理。 无 单实例转主备实例失败 singleToHaFailed 重要 创建备机时或备机创建完成后主备机之间配置同步发生故障时会产生此事件,一般是由于备节点所在数据中心资源不足导致。 提交工单。 “单实例转主备实例失败”不会导致原来单实例的读写中断,客户的应用是无感知的。 数据库进程重新启动 DatabaseProcessRestarted 重要 一般是内存不足、负载过高导致数据库进程停止 通过云监控的数据,查看是否有内存飙升、cpu长期过高、磁盘满使用率不足等的情况,可以选择提升CPU内存规格或者优化业务逻辑 进程异常退出的时候,业务中断。RDS服务会自动拉起进程,尝试恢复业务。 实例磁盘满 instanceDiskFull 重要 一般是由于数据空间占用过大导致。 对实例进行扩容操作。 实例由于磁盘空间满将会变成只读实例,数据库不可进行写入操作。 实例磁盘满已恢复 instanceDiskFullRecovered 重要 实例磁盘状态恢复正常。 不需要处理。 实例解除只读状态,恢复写操作。 kafka连接失败 kafkaConnectionFailed 重要 一般是由于网络波动或kafka服务端出现异常等原因导致。 检查业务是否收到影响。 无。
        来自:
        帮助文档
        云监控服务
        用户指南
        事件监控
        事件监控支持的事件说明
        关系型数据库RDS支持的事件列表
      • 授权概述
        本文介绍授权概述。 概述 根据权限类型,分布式容器云平台 CCE One的权限包括资源委托权限、IAM策略权限和实例RBAC权限。您需要为服务账号授予对应的权限,才能正常使用分布式容器云平台的功能。本文将为您介绍资源委托权限、IAM策略权限和实例RBAC权限关系,以及如何为服务账号授予相应权限。 权限类型 权限类型 是否必须授权 权限说明 资源委托 首次使用CCE One服务时需要授权,使用天翼云账号(主账号,或者具有管理员权限的子账号)授权一次即可。 授权后,CCE One服务才能正常访问其他关联云资源,并正常运行。 IAM策略 主账号无需额外授权,IAM子账号必须授权;基于IAM策略权限,可设置子账号使用分布式容器云平台CCE One的相关接口权限以及实例权限。 授权后,IAM子账号才能正常使用CCE One产品功能,或具备管理某些特定实例生命周期的权限。 实例RBAC 主账号及实例创建账号(若为子账号)无需额外授权;其他子账号必须授权; 授权后,IAM子账号才能对CCE One相关注册集群及联邦实例内的容器资源进行操作;前提条件是,该IAM子账号需要已具备相关实例的IAM读权限。 资源委托 资源委托是云服务在特定情况下,因为运行逻辑/功能需要而获取其他云服务访问权限的IAM角色。例如,CCE One上创建三方注册集群代理HUB或创建集群联邦控制面实例时,需要创建弹性负载均衡ELB以及弹性IP,因此需要这俩产品的相关权限。 使用分布式容器云平台服务需要授予访问以下云资源的权限: 访问计算类服务 注册集群按需弹性云上资源时会关联创建云服务器,需要获取访问弹性云服务器、弹性裸金属服务器的权限 访问存储类服务 为注册集群关联云上节点和容器挂载存储,需要获取访问云硬盘、弹性文件、对象存储等服务的权限 访问网络类服务 为注册集群及联邦提供网络代理及服务对外暴露,需要获取访问虚拟私有云、弹性负载均衡、弹性IP、NAT网关等服务的权限 访问容器与监控类服务 为三方注册集群下容器提供镜像拉取、监控和日志分析等功能,需要获取访问容器镜像、应用运维管理等服务的权限同意授权后,CCE One 将在统一身份认证服务为您创建名为 CtyunAssumeRoleForCCEONE 的 委托,为保证服务正常使用,在使用 CCE One 服务期间请不要删除或修改 CtyunAssumeRoleForCCEONE 委托。 若您尚未对CCE One进行资源委托授权,在进入CCE One任一订购页时,将提示您进行必要的委托授权。 点击【点击此处授权】后,将弹出详细授权说明。 再次点击【确定授权】,后台即开始自动创建分布式容器云平台CCE One对应的委托创建。登录IAM统一身份认证服务委托对应页面,可以看到CCE One对应委托记录如下,委托名“CtyunAssumeRoleForCCEONE”。
        来自:
      • 创建只读实例
        说明:本章节会介绍如何创建数据库只读实例 操作场景 只读实例用于增强主实例的读能力,减轻主实例负载。 关系型数据库单实例或主备实例创建成功后,您可根据业务需要,创建只读实例。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的,选择区域和项目。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,选择指定的实例,单击操作列的“创建只读”,进入“服务选型”页面。 步骤 5 您也可在实例的“基本信息”页面,单击实例拓扑图中,主实例下方的添加按钮,创建只读实例。 步骤 6 在“服务选型”页面,填选实例相关信息后,单击“立即创建”。 表1基本信息 参数 描述 当前区域 只读实例默认与主实例在同一区域。 实例名称 实例名称的长度在4~64个字符之间,必须以字母开头,可包含大写字母、小写字母、数字、中划线或下划线,不能包含其他特殊字符。 数据库引擎 默认与主实例的数据库引擎一致,不可更改。 数据库版本 默认与主实例的数据库版本一致,不可更改。 可用区 关系型数据库服务支持在同一个可用区内或者跨可用区部署数据库主实例和只读实例,只读实例的选择和主实例可用区对应情况: 相同,主实例和只读实例会部署在同一个可用区。 不同,主实例和只读实例会部署在不同的可用区,提高可靠性。 表2规格与存储 参数 描述 性能规格 实例的CPU和内存。不同性能规格对应不同连接数和最大IOPS。 关于性能规格详情,请参见数据库实例规格。 创建成功后可进行规格变更,请参见变更实例的CPU和内存规格。 存储类型 实例的存储类型决定实例的读写速度。最大吞吐量越高,读写速度越快。 普通I/O:磁盘类型SATA,最大吞吐量90MB/s 高I/O:磁盘类型SAS,最大吞吐量150MB/s 超高I/O:磁盘类型SSD,最大吞吐量350MB/s 存储空间 您申请的存储空间会有必要的文件系统开销,这些开销包括索引节点和保留块,以及数据库运行必需的空间。 只读实例的存储空间大小默认与主实例一致。 表3网络 参数 描述 虚拟私有云 和主实例相同。 子网 和主实例相同,创建只读实例时RDS会自动为您配置内网地址,您也可输入子网号段内未使用的内网地址,实例创建成功后该内网地址可修改。 内网安全组 和主实例相同。 步骤 7 在“规格确认”页面,进行信息确认。 如果需要重新选择,单击“上一步”,回到服务选型页面修改基本信息。 信息确认无误,单击“提交”,下发新增只读实例请求。 步骤 8 只读实例创建成功后,您可以对其进行查看和管理。 管理只读实例操作,请参见管理只读实例。 步骤 9 您可以通过“任务中心”查看详细进度和结果。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        用户指南
        只读实例
        创建只读实例
      • ALM-16006 Hive服务进程直接内存使用超出阈值
        本章节主要介绍ALM16006 Hive服务进程直接内存使用超出阈值的告警。 告警解释 系统每30秒周期性检测Hive直接内存使用率,并把实际的Hive直接内存使用率和阈值相比较。当Hive直接内存使用率超出阈值(默认为最大直接内存的95%)时产生该告警。 用户可通过“运维 > 告警 > 阈值设置 > 待操作集群的名称 > Hive”修改阈值。 当Hive直接内存使用率小于或等于阈值时,告警恢复。 告警属性 告警ID 告警级别 是否自动清除 16006 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 Trigger Condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 Hive直接内存使用率过高,会影响Hive任务运行的性能,甚至造成内存溢出导致Hive服务不可用。 可能原因 该节点Hive实例直接内存使用量过大,或分配的直接内存不合理,导致使用率超过阈值。 处理步骤 检查直接内存使用率 1.在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,选中“告警ID”为“16006”的告警,查看“定位信息”中的角色名并确定实例的IP地址。 告警上报的角色是HiveServer,执行步骤2。 告警上报的角色是MetaStore,执行步骤3。 2.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Hive > 实例”,单击告警上报的HiveServer,进入实例“概览”页面,单击图表区域右上角的下拉菜单,选择“定制 > CPU和内存”,勾选“HiveServer内存使用率统计” ,单击“确定”,查看HiveServer进程使用的直接内存是否已达到HiveServer进程设定的最大直接内存的阈值(默认95%)。 是,执行步骤4。 否,执行步骤7。 3.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Hive > 实例”,单击告警上报的MetaStore,进入实例“概览”页面,单击图表区域右上角的下拉菜单,选择“定制 > CPU和内存”,勾选“MetaStore内存使用率统计” ,单击“确定”,查看MetaStore进程使用的直接内存是否已达到MetaStore进程设定的最大直接内存的阈值(默认95%)。 是,执行步骤4。 否,执行步骤7。 4.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Hive > 配置”,选择“全部配置”, 选择“HiveServer/MetaStore > JVM”,将“HIVEGCOPTS/METASTOREGCOPTS”参数中“XX:MaxDirectMemorySize”的值根据如下建议进行调整,并单击“保存”。 说明 a.HiveServer的GC参数配置建议 建议将“XX:MaxDirectMemorySize”值设置为“Xmx”值的1/8,比如:当“Xmx”设置为8G时,“XX:MaxDirectMemorySize”设置为1024M,“Xmx”设置为4G时,“XX:MaxDirectMemorySize”设置为512M。并且建议“XX:MaxDirectMemorySize”值不小于512M。 b.MetaServer的GC参数配置建议 建议将“XX:MaxDirectMemorySize”值设置为“Xmx”值的1/8,比如:当“Xmx”设置为8G时,“XX:MaxDirectMemorySize”设置为1024M,“Xmx”设置为4G时,“XX:MaxDirectMemorySize”设置为512M。并且建议“XX:MaxDirectMemorySize”值不小于512M。 5.选择“更多 > 重启服务”重启服务。 6.观察界面告警是否清除。 是,处理完毕。 否,执行步骤7。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-16006 Hive服务进程直接内存使用超出阈值
      • 创建源码构建任务
        本节主要介绍创建源码构建任务 通过构建任务可以用软件包一键式生成软件包或镜像包,实现“源码拉取>编译>打包>归档”的全流程自动化。 前提条件 1.已经创建集群。 2.已为构建节点绑定弹性IP。 操作步骤 1、登录ServiceStage控制台,选择“持续交付 > 构建”,单击“基于源码构建”。 2、输入“Job名称”。 3、(可选)输入Job“描述”。 4、设置“源代码来源”。 参考仓库授权创建授权,然后设置源码来源。 选择“授权信息”后,设置源码仓库用户、源码仓库和分支。 5、选择构建模板。 可选择“Maven”、“Ant”、“Gradle”、“Go”或“Docker”模板构建,可同时编译并归档二进制包或Docker镜像。 说明 选择“自定义”构建,可自由定义构建方式,请执行。 6、选择“归档方式”。 不归档:不添加Docker构建,也不归档。 归档二进制包:不添加Docker构建,归档二进制包。 归档镜像编译:添加Docker构建,归档Docker镜像。 7、设置“必填项参数”。 单击参数配置编辑页的图标可删除参数设置。 构建参数:不同编译参数设置不同,单击编辑框或者编辑框后的,可查看参数说明。 镜像参数:在页中输入“任务名称”、“Dockerfile路径”、“镜像名称”和“镜像版本”。 镜像归档参数:在页中设置对应镜像参数的“任务名称”、“归档镜像”、“仓库组织”和“共享类型”,对设置的镜像进行归档。 二进制参数:在页中设置如下参数。 表 构建工程必填项说明 参数名称 参数说明 :: 任务名称 任务的名称。 共享类型 仓库类型分为公有与私有两种。 • 公有仓库为系统隔离,同一系统中的租户可共享资源。 • 私有仓库为租户隔离,当前租户下的用户可共享资源,其他租户不可访问当前租户下的资源。 仓库组织 是指仓库的命名空间。 软件仓库 软件仓库的名称。 软件包名称 构建完成后,归档的软件包名称。 软件包版本 归档的软件包版本。 构建包路径 编译构建完成后,生成的二进制软件包地址。例如,Java项目下的./target/xxx.jar。 8、(可选)单击“高级配置”进行环境设置。 若要添加多个任务,可在高级配置中自定义添加。 单击左侧栏目中的“添加插件”进入“选择任务类型”界面。 单击目标任务类型的“选择”,添加任务类型。并在“构建环境配置”界面右侧设置任务参数。 在“编译”过程添加了通用构建命令行插件(Build Common Cmd)时,需要注意以下注意事项: 输入“编译命令”,请在echo、cat、debug等命令中慎用敏感信息或者进行敏感信息加密,以免造成信息泄露。 “语言”参数选择Python且“Python框架类型”选择符合WSGI标准的Python工程时,需要设置主模块和主模块函数。Python工程主模块和主模块函数名称示例如下: –Python主模块:如果Python工程入口文件名为server.py,主模块名称则为server。 –Python主模块函数:如果Python工程入口文件server.py的应用函数名称为appgetwsgiapplication(),则主模块函数名称为app。 9、单击“构建”保存设置并构建工程。 单击“保存”仅保存设置,不进行构建。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        持续交付
        创建源码构建任务
      • 通过脚本批量更新一键式重置密码插件(Linux)
        本节介绍了更新一键式重置密码插件(批量操作Linux系统root用户)的操作场景、前提条件、约束与限制、操作步骤等内容。 操作场景 当您需要对多台Linux系统的云主机批量更新一键式重置密码插件时,可参考本文档操作。 前提条件 登录已准备好的执行机,执行机需满足的条件请参见下文约束与限制。 需要提前准备待批量安装插件的云主机的IP地址、root用户的密码信息或者私钥文件。 执行机应该与待更新机器在同一VPC下。 在执行完步骤7之后可以解绑eip。 约束与限制 需要选取一台操作系统为CentOS 7(公共镜像)且已绑定弹性公网IP的云主机作为执行机,且与待批量安装插件的弹性云主机之间网络需要互通。 仅支持对使用同一密钥对的云主机执行批量安装插件的操作。 操作步骤 1.根据以下地址获取ansible.tar.gz压缩包,并上传到执行机。 以root用户登录执行机。 依次执行以下命令安装ansible。(实际安装路径用户可自定义,此处以/root/ansible为示例。) mkdir /root/ansible tar zxvf ansible.tar.gz C /root/ansible cd /root/ansible yum localinstall .rpm 执行以下命令检测是否安装成功。 ansible version 2.请参考获取并校验一键式重置密码插件完整性(Linux),下载对应的一键式重置密码插件CloudResetPwdAgent.zip并完成完整性校验。 安装一键式重置密码插件对插件的具体放置目录无特殊要求,请您自定义。 3.执行以下命令,将批量操作脚本下载到root目录下。 curl URL >~/batchupdatelog4jversion.py 其中,URL为批量操作的执行脚本。 脚本下载地址: 4.执行以下命令,将更新插件脚本下载到root目录下。 curl URL >~/updatelog4jversionforresetpwdagent.sh 其中,URL为更新插件脚本的下载地址。 脚本下载地址: 5.检查如下脚本是否在root目录下: batchupdatelog4jversion.py updatelog4jversionforresetpwdagent.sh CloudResetPwdAgent.zip 6.执行以下命令,新建并编辑hostlist.txt,按i进入编辑模式。 vi hostlist.txt 将需要自动安装驱动的云主机的相关信息填写到hostlist.txt文件中。 示例: [x8664] 182.168.64.21 182.168.64.22 文件填写格式与登录待切换弹性云主机的方式需要匹配。 使用密钥对方式鉴权的云主机,填写方式如下: 说明 使用密钥对方式鉴权的云主机,请将创建弹性云主机时保存的私钥文件,上传至与hostlist.txt同一个文件夹下。 使用密钥对方式鉴权的云主机,请确保私钥文件的权限为400。 chmod 400私钥文件 每行仅需填写云主机IP地址。 示例: 192.168.1.10 192.168.1.11 使用密码方式登录的云主机,填写方式如下: 请严格按照每行ip,root用户密码,中间以英文逗号隔开的格式填写。 示例: 192.168.1.10,'' 192.168.1.11,'' 7.运行批量执行操作脚本“batchupdatelog4jversion.py”。 密钥对鉴权方式的服务器 如果私钥文件与批量操作执行脚本在一个目录下,则直接指定私钥文件名称即可。 python batchupdatelog4jversion.py {私钥文件路径/私钥文件名称} 图 运行脚本 密码方式鉴权的服务器。 python batchupdatelog4jversion.py 图 运行脚本 8.执行如下命令,在“/root/logs/execorigin.log”的最后一行查看运行结果日志。 vim /root/logs/execorigin.log 若如下图所示,则表示运行成功。 图 运行成功
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        密码和密钥对
        管理一键式重置密码插件
        通过脚本批量更新一键式重置密码插件(Linux)
      • 管理容器组(Pod)
        操作场景 容器组(Pod)是Kubernetes中最小的可部署单元。一个Pod(容器组)包含了一个应用程序容器(某些情况下是多个容器)、存储资源、一个唯一的网络IP地址、以及一些确定容器该如何运行的选项。Pod容器组代表了Kubernetes中一个独立的应用程序运行实例,该实例可能由单个容器或者几个紧耦合在一起的容器组成。 Kubernetes集群中的Pod存在如下两种使用途径: 一个Pod中只运行一个容器。"onecontainerperpod" 是Kubernetes中最常见的使用方式。此时,您可以认为Pod容器组是该容器的 wrapper,Kubernetes通过Pod管理容器,而不是直接管理容器。 一个Pod中运行多个需要互相协作的容器。您可以将多个紧密耦合、共享资源且始终在一起运行的容器编排在同一个Pod中,可能的情况有: − Content management systems, file and data loaders, local cache managers等 − log and checkpoint backup, compression, rotation, snapshotting等 − data change watchers, log tailers, logging and monitoring adapters, event publishers等 − proxies, bridges, adapters等 − controllers, managers, configurators, and updaters 您可以在云容器引擎CCE中方便的管理容器组(Pod),如编辑YAML、监控、删除等操作。 编辑YAML 可通过在线YAML编辑窗对容器组(Pod)的YAML文件进行修改和下载。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 容器组 Pod”。 步骤 2 单击实例列表中后的“编辑YAML”,在弹出的“编辑YAML”窗中可对当前容器组(Pod)的YAML文件进行修改。 步骤 3 单击“修改”,在弹出的提示框中单击“确定”,完成修改。 说明:如果实例由其他工作负载创建,暂不支持在容器组(Pod)中单独修改。 步骤 4 (可选)在“编辑YAML”窗中,单击“下载”,可下载该YAML文件。 实例监控 您可以通过CCE控制台查看工作负载实例的CPU、内存使用情况以及网络上行和下行速率、磁盘的读写速率,以确定需要的资源规格。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 容器组 Pod”。 步骤 2 单击实例列表中后的“监控”,可查看相应实例的CPU使用率、内存使用率以及网络上行和下行速率、磁盘的读写速率。 说明:实例处于非运行状态时,无法查看实例的监控数据。 删除实例 若实例无需再使用,您可以将其删除。实例删除后,将无法恢复,请谨慎操作。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 容器组 Pod”。 步骤 2 单击待删除实例后的“删除”。 请仔细阅读系统提示,删除操作无法恢复,请谨慎操作。 步骤 3 单击“是”,即可删除该实例。 说明: 若Pod所在节点不可用或者关机,负载无法删除时可以在详情页面实例列表选择强制删除。 请确保要删除的存储没有被其他负载使用,导入和存在快照的存储只做解关联操作。 相关链接 []( " ")The Distributed System Toolkit: Patterns for Composite Containers []( " ")Container Design Patterns
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        工作负载
        管理容器组(Pod)
      • 安全编排概述
        本节主要介绍安全编排的定义和相关概念。 安全编排(Security Orchestration)是将企业和组织在安全运营过程中涉及的不同系统或者一个系统内部不同组件的安全功能按照一定的逻辑关系组合到一起,以完成某个特定的安全运营过程和规程。旨在帮助企业和组织的安全团队快速并高效地响应网络威胁,实现安全事件的高效、自动化响应处置。 安全编排的主要功能如下: 剧本管理:内置自动响应的剧本,支持按需定义扩展。 流程管理:绘制流程图响应剧本触发。 实例管理:支持对运行的实例进行监控管理及记录查看。 安全事件自动化响应:对需要处理的安全事件以及可疑事件,通过安全编排实现自动化处置及事件调查。 基本概念说明 在安全编排中,剧本和流程是两个核心元素,它们相互关联、依赖,并协同工作以确保安全运营的有效性和高效性。 剧本 剧本(Playbook):是安全运营流程在安全编排系统中的形式化表述,它是将安全运营流程和规程转换为机读工作流的过程,剧本是一个预定义的、结构化的响应计划,用于处理特定类型的事件或威胁。剧本详细列出了在某些触发条件(如检测到特定安全事件)下应采取的步骤和操作。 剧本体现了安全防护的逻辑,指示如何调度安全能力。剧本具有灵活性和可扩展性,可以根据实际需求进行修改和扩展,以适应不断变化的安全威胁和业务需求。 一个剧本中有且仅有一个流程。 流程 流程(Workflow):是将安全运营相关的工具、技术、流程和人员等各种能力整合到一起,形成一种协同工作方式。它由多个相连接的组件构成,流程定义完成后可被外部触发,例如,当新工单产生时自动触发自动审核工单流程。您可以通过可视化流程编辑画布,定义每个节点的组件动作。 流程是剧本触发时响应的方式,它负责将剧本中的指令和规程转化为具体的操作和执行步骤。 剧本与流程的联系 剧本提供了安全运营的指导和规则,而流程则负责将这些规则转化为具体的执行步骤和操作。剧本和流程相互依赖,剧本指导流程的执行,而流程则实现了剧本的意图和要求。 剧本与流程的区别 剧本和流程之间也存在一定的区别。首先,剧本更侧重于定义和描述安全运营的流程和规程,它关注的是整体的框架和策略;而流程则更侧重于具体的操作和执行步骤,它关注的是如何将剧本中的要求转化为实际的行动。其次,剧本具有较大的灵活性和可扩展性,可以根据需要进行修改和扩展;而流程则相对固定,一旦设计完成,就需要按照规定的步骤执行。 示例 以一个具体的网络安全事件响应案例为例,当组织遭受到一次网络攻击时,安全编排系统会首先根据预设的剧本识别出攻击的类型和严重程度。然后,系统会根据剧本中定义的流程,自动触发相应的安全措施,如隔离被攻击的系统、收集攻击数据、通知安全团队等。在这个过程中,剧本和流程紧密配合,确保安全响应的准确性和及时性。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        安全编排
        安全编排概述
      • 日志存储
        本章节为媒体存储日志存储概述。 使用场景 媒体存储日志存储功能支持自动把桶的各类访问请求记录日志,并存储到某一存储桶中,适合对请求有分析或审计等需求的用户使用。 日志文件存放位置需要在开启桶日志存储功能时指定,仅支持在源存储桶所属区域中选择存储桶,也包括开启日志功能的桶本身。 日志记录设置成功后,大约5~10分钟后可在日志存储桶中查看到桶的操作日志。 为了更有效的管理日志,建议您将日志存放到不同的桶中。 日志文件记录的是通过API或SDK方式进行的S3协议操作。 生成的日志文件会保存在指定的存储桶,占用存储空间,因此会产生存储费用。如需定时清理,可通过生命周期相关配置实现,具体可参考:生命周期。 日志文件生成规则: 日志文件存储路径:日志存储位置 /日志文件前缀(如无设置则省略)/YYYY MM DD HHmmssUniqueStiring 。 生成周期:启用规则后开始生成,并且以5分钟为单位保存至日志存储位置中。 适用区域 本功能目前仅部分资源池支持,具体可参考:资源池与区域节点。 如需使用,可联系客户经理或提交工单申请。 日志文件参数 以下所示为生成的桶访问日志文件记录: gdoss.xstore.ctyun.cn [$serveraddr] [$remoteaddr] [$timelocal] "$requestmethod" "$host" "$requesturi" $status $bodybytessent $contentlength "$httpreferer" $requesttime "$httpuseragent" "$httpxforwardedfor" "$scheme" "$opname" "$httptransferencoding" "$httpctyunnetworktype" "$varUser" "$upstreamresponsetime" 访问日志主要包含如下信息: 参数 说明 gdoss.xstore.ctyun.cn 资源池域名,用来标记资源池。 $serveraddr 当前服务器地址,一般是内网IP。 $remoteaddr 连接的对端服务器地址。 $timelocal 日志时间。 $requestmethod HTTP Method,如PUT、GET、DELETE、POST、HEAD等。 $host HTTP请求里面的header字段:host。 $requesturi HTTP请求里面的URI。 $status HTTP状态码。如200、204、206、403、404等。 $bodybytessent 服务端发送给客户端的消息body长度。 $contentlength 服务端收到的消息的请求的长度。 $httpreferer HTTP请求里面的referer字段。 $requesttime 请求持续时间。包含从服务端建立连接完成到完成响应这段时间。 $httpuseragent HTTP请求里面的useragent字段。 $httpxforwardedfor HTTP请求里面的xforwardedfor字段。 $scheme 区分HTTP还是HTTPS请求。 $opname API接口名称。如GetObject、ListBuckets等等。 $httptransferencoding HTTP请求里面的transferencoding。 $httpctyunnetworktype 表示请求来源的网络类型:public(公网)、private(内网)。 $varUser 用户标记,表示这个请求对应的用户。 $upstreamresponsetime 请求在资源池内部的处理时间。 日志文件内容根据开通的区域不同,格式会有一定出入,请以实际为准。
        来自:
        帮助文档
        媒体存储
        用户指南
        数据监控
        日志存储
      • 配置MRS多用户访问OBS细粒度权限
        在开启OBS权限控制功能时各组件访问OBS的说明 以root用户登录集群任意一个节点,密码为用户创建集群时设置的root密码。 1. 配置环境变量(MRS 3.x及之后版本客户端默认安装路径为“/opt/Bigdata/client”,MRS 3.x之前版本为“/opt/client”。具体以实际为准。)。 source /opt/Bigdata/client/bigdataenv 2. 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户。如果当前集群未启用Kerberos认证,则无需执行此命令。 kinit MRS集群用户 例如, kinit admin 3. 如果当前集群未启用Kerberos认证,执行如下命令登录执行操作的用户,该用户需要属于supergroup组,创建用户可参考创建用户,将XXXX替换成用户名。 mkdir/home/XXXX chownXXXX /home/XXXX su XXXX 4. 访问OBS。无需再配置AK、SK和endpoint。OBS路径格式:obs://buckname/XXX。 例如:hadoop fs ls"obs://obsexample/job/hadoopmapreduceexamples3.1.2.jar" 说明 如需使用hadoop fs删除OBS上文件,请使用hadoop fs rm skipTrash来删除文件。 sparksql、sparkbeeline在创建表时,若不涉及数据导入,则不会访问OBS。即若在一个无权限的OBS目录下创建表,CREATE TABLE仍会成功,但插入数据会报403 AccessDeniedException。 在IAM服务创建策略及委托 在IAM服务创建策略及委托 1. 登录IAM服务控制台。 2. 单击“权限 > 创建自定义策略”。 3. 参考下表填写参数。 策略参数 参数 说明 策略名称 只能包含如下字符:大小写字母、中文、数字、空格和特殊字符(.,)。 作用范围 选择全局级服务,OBS为全局服务。 配置策略方式 选择可视化视图。 策略内容 1. “允许”选择“允许”。 2. “云服务”选择“对象存储服务(OBS)”。 3. “操作”勾选所有“写”、“列表”和“只读”权限。 4. “特定资源”选择: a. “object”选择“通过资源路径指定”,并单击“添加资源路径”分别输入路径obsbucketname /tmp/和 obsbucketname /tmp/ 。此处以 /tmp目录为例,如需其他目录权限请参考该步骤添加对应目录及该目录下所有对象的资源路径。 b. “bucket”选择“通过资源路径指定”,并单击“添加资源路径”输入路径 obsbucketname。 5. (可选)请求条件,暂不添加。 策略描述 可选,对策略的描述。 各个组件的写数据操作若通过rename的方式实现时,写数据时要配置删除对象的权限。 4. 单击“确定”保存策略。 5. 在IAM服务创建委托。 6. 登录IAM服务控制台。 7. 单击“委托 > 创建委托”。 8. 参考下表填写参数。 委托参数 参数 说明 委托名称 只能包含如下字符:大小写字母、中文、数字、空格和特殊字符(.,)。 委托类型 选择普通帐号。 委托的帐号 填写本用户的云帐号,即使用手机号开通的帐号,不能是联邦用户或者IAM用户。 持续时间 请根据需要选择。 描述 可选,对委托的描述。 权限选择 1. 在“项目”列对应的“对象存储服务”行,单击“操作”列的“修改”。 2. 勾选步骤1中创建的策略,使之出现在“已选择策略中”。 3. 单击“确定”。 4. 单击“确定”保存委托。 说明 当使用该委托访问过OBS后,再修改该委托及其绑定的策略时,最长需要等待15分钟,修改的内容才能生效。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        MRS多用户权限管理
        配置MRS多用户访问OBS细粒度权限
      • 创建表(CREATE TABLE)
        参数说明 tablename:待创建的数据表名称。 columnname:指定数据列名称。 columndefinition:指定数据列定义,可包括类型、能否为空、默认值等属性。 indexname:指定索引名称。 indextype:指定索引类型。 keypart:指定组成索引的数据列。 enginename:指定要使用的存储引擎,常用的引擎有innodb等。 charsetname:指定数据库的字符集。支持设置为utf8和utf8mb4字符集。 collationname:指定数据库的排序规则。支持设置为utf8generalci和utf8mb4bin排序规则。 其中: partitionoption以SQL风格写法来指定分库分表信息,shardinghint以HINT风格来指定分库分表信息,两者虽然写法不同,但作用相同。在简单使用场景可以使用SQL风格分片写法或HINT风格分片写法任意一种,而由于HINT风格分片写法支持更多的分库分表算法,功能更强大一些,如在复杂使用场景只能用HINT风格分片写法。 partitionoption和shardinghint支持的分库分表算法存在差异,详情如下: 说明 更多算法信息,请参见分片算法。 分库分表算法 partitionoption shardinghint (整数)取模(PartitionByMod) 支持(关键字HASH) 支持 字符串hashCode取模(PartitionByStringMod) 支持(关键字HASHSTRING) 支持 枚举(PartitionByFileMap) 不支持 支持 时间范围(PartitionByDateRange) 不支持 支持 枚举分组取模分片(PartitionByEnumAndMod) 不支持 支持 枚举分组字符串hashCode取模分片(PartitionByEnumAndStringMod) 不支持 支持 数值范围(PartitionByIntRange) 支持(关键字RANGE) 支持 partitionoption语法: 参数说明 GLOBAL:用于创建全局表。 SINGLE:用于创建单片表,且只能为单个逻辑库创建单个物理表。 DN: 用于指定待使用的RDS ,对于单片表只能使用一个RDS。仅当逻辑数据库只包含一个RDS时可省略此参数,将会使用已绑定的唯一RDS。 UDALPARTITION BY:用于创建分片(分库)表。仅支持整数取模(PartitionByMod)、字符串hashCode取模(PartitionByStringMod)和数值范围(PartitionByIntRange)三种算法。 HASH(columnname):用于指定分片算法为整数取模(PartitionByMod),columnname指定用于计算分片的数据列,此处只允许单个列。 HASHSTRING(columnname): 用于指定分片算法为字符串hashCode取模(PartitionByStringMod),columnname指定用于计算分片的数据列,这里只允许单个列。 RANGE(columnname):用于指定分片算法为数值范围(PartitionByIntRange),columnname指定用于计算分片的数据列,这里只允许单个列。 RANGEVALUES:用于指定数值范围分片算法的各个范围值,只允许int值。且数量必须与DN数量保持一致。 DN:用于指定要使用的RDS,默认值为当前逻辑数据库包含的所有RDS。 PARTITIONS:用于指定分表的数量,默认值为1。当省略时,将使用默认值。 BUCKETS:用于指定分桶的数量,无默认值,必须显式指定。 建表语句说明 分片表从类型上来说主要分成3类,分别为库内分表、库内分桶、既不分表也不分桶。本文将按照分片表类型来简单为您介绍建表语句。 库内分表 既分库(分片)也分表,通过在UDALPARTITION BY指定两次分片算法来依次指定分库算法和分表算法,主要语法格式为: plaintext UDALPARTITION BY 算法1(column1), 算法2(column2) 此处的算法是指上文介绍的HASH或HASHSTRING。另外可搭配PARTITIONS参数来指定分表数量,搭配DN参数指定待使用的RDS列表。 库内分桶 既分库(分片)也分桶,由于分桶是通过虚拟分片来实现,因此只需要指定一次分片算法即可,主要语法格式为: plaintext UDALPARTITION BY 算法(column) 此处的算法是指上文介绍的HASH或HASHSTRING。注意,必须添加BUCKETS参数来指定分桶数量,也可搭配DN参数指定待使用的RDS列表。 既不分表也不分桶 对应只分库的情况,只需指定一次分片算法,主要语法格式为: plaintext UDALPARTITION BY 算法(column) 由于不需要分表或分桶,因此无需使用PARTITIONS或BUCKETS参数,但可搭配DN参数指定待使用的RDS列表。 shardinghint语法: @@table name’{tablename}’:指定数据表名称。 type:指定表的类型。 支持的类型及对应的关键字如下: 全局表:global 单片表:single 分库分表:inner 库内分桶或既不分表也不分库:sharding dn:指定要使用的RDS列表。对于单片表只能使用一个RDS。当忽略此项时默认使用当前逻辑数据库包含的所有RDS。 shardingalgo:指定分片算法。 注意 该参数必须与shardingid搭配使用。 shardingid:指定用于计算分片的数据列。 注意 该参数必须与shardingalgo搭配一起使用。 buckets:指定分桶数量,合法取值范围为[1, 128]。 注意 当创建库内分桶(分库分桶)类型的数据表时必须指定此项。 shardingarea: 用于枚举分组取模分片(PartitionByEnumAndMod)和枚举分组字符串hashCode取模分片(PartitionByEnumAndStringMod)算法,指定分组列。使用这两种算法时必须指定此项。 rangevalues:用于指定数值范围(PartitionByIntRange)分片算法的各个范围值。 mapfile: 用于分片的枚举算法中指定各个枚举值对应的分片序号,枚举算法包括枚举(PartitionByFileMap)、枚举分组取模分片(PartitionByEnumAndMod)和枚举分组字符串hashCode取模分片(PartitionByEnumAndStringMod)。 defaultnode:用于分片的枚举算法中指定默认节点,枚举算法包括枚举(PartitionByFileMap)、枚举分组取模分片(PartitionByEnumAndMod)和枚举分组字符串hashCode取模分片(PartitionByEnumAndStringMod)。 startdate:用于分片的时间范围(PartitionByDateRange)算法中指定开始日期。 timeunittype:用于分片的时间范围(PartitionByDateRange)算法中指定时间单元类型,支持设置为day、 week,、month和year。 timeunitlen:用于分片的时间范围(PartitionByDateRange)算法中指定时间单元值。 innershardingalgo:指定分表算法。 注意 该参数必须与innershardingid搭配一起使用。 innershardingid:指定用于计算分表的数据列。 注意 该参数必须与innershardingalgo搭配一起使用。 innertotal:指定分表数量。 注意 当创建分库分表类型的数据表时必须指定此项。 innermapfile:用于分表的枚举算法中指定各个枚举值对应的分片序号,枚举算法包括枚举(PartitionByFileMap)、枚举分组取模分片(PartitionByEnumAndMod)和枚举分组字符串hashCode取模分片(PartitionByEnumAndStringMod)。 innerdefaultnode:用于分表的枚举算法中指定默认节点,枚举算法包括枚举(PartitionByFileMap)、枚举分组取模分片(PartitionByEnumAndMod)和枚举分组字符串hashCode取模分片(PartitionByEnumAndStringMod)。 innerstartdate:用于分表的时间范围(PartitionByDateRange)算法中指定开始日期。 innertimeunittype:用于分表的时间范围(PartitionByDateRange)算法中指定时间单元类型,支持设置为day、 week,、month和year。 innertimeunitlen:用于分表的时间范围(PartitionByDateRange)算法中指定时间单元值。
        来自:
        帮助文档
        分布式关系型数据库
        开发指南
        DDL语法
        管理数据表的DDL语句
        创建表(CREATE TABLE)
      • 使用查询参数验证
        本节主要介绍签名使用查询参数验证。 除了授权头以外,用户可以通过URL中加入查询参数来表达签名信息的方式,将该URL转给第三方实现授权访问,也称为预签名URL。这对于使用第三方浏览器获取对象存储数据的用户非常有用,不需要代理请求。这种方式通过构造并加密一个终端用户浏览器可以检索到的预签名的请求来实现,同时设置过期时间来标明预签名的有效期。 预签名URL支持GET请求和POST请求(POST Object除外)。 注意 使用预签名URL方式,有将您授权的数据在过期时间内曝露在互联网上的风险,建议您预先评估后使用。 URL中包含签名的示例如下: 注意 在URL中实现签名,必须至少包含Signature,Expires,AWSAccessKeyId三个参数。 请求参数 参数 描述 是否必须 ::: AWSAccessKeyId 用户的AccessKeyID信息,可以登录到可以登录到对象存储(经典版)I型控制中心,点击“访问控制”>“安全凭证”>“密钥”查看;或者调用ListAccessKey查看。 类型:字符串。 是 Expires 签名过期时间,按照秒来计算的。服务器端超过这个时间的请求将被拒绝。 类型:字符串。 是 Signature URL是按照HMACSHA1的StringToSign的Base64编码方式编码。 类型:字符串。 是 Expires是一个UNIX时间(自UTC时间1970年1月1号开始的秒数),用于标识该URL的超时时间。如果OOS接收到这个URL请求的时候晚于签名中包含的Expires参数时,则返回请求超时的错误码。例如:当前时间是1141889060,开发者希望创建一个60秒后自动失效的URL,则可以设置Expires时间为1141889120。 URL中包含签名的算法和Header中包含签名的算法基本一样,主要区别如下: 通过URL包含签名时,之前的Date参数换成Expires参数。 如果在URL和Header中同时包含签名,以Header中的签名为准。 对于URL预签名,如果传入的Signature,Expires,AWSAccessKeyId出现不止一次,以第一次为准。 对于URL预签名,请求先验证请求时间是否晚于Expires时间: 如果请求时间晚于Expires时间,则返回错误响应码。 如果请求时间不晚于Expires时间,则验证签名。
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        安全策略
        用户签名验证(V2)
        使用查询参数验证
      • Windows云主机报错:您的凭据无法工作
        本文带您了解提示“您的凭据无法工作”的处理方法。 问题描述 在天翼云官网开通对应Windows云主机后,除控制台VNC接入外还有其他PC本地进行远程接入场景。当接入时候提示您的凭据无法工作错误,远程登录失败。 已开通云主机信息:远程登录时需要公网IP信息、账号名及对应密码。 解决方法 步骤一: 修改Windows云主机网络策略 1、 使用管理控制台VNC方式登录云服务器。 2、 点击“开始 > 运行”,输入“gpedit.msc”,打开“本地组策略编辑器”。 3、 点击“计算机配置 运行”,输入“gpedit.msc”,打开“本地组策略编辑器”。 3、 选择“计算机配置 运行”输入gpupdate /force,更新组策略。
        来自:
        帮助文档
        弹性云主机 ECS
        故障修复
        远程连接报错
        Windows云主机报错:您的凭据无法工作
      • 创建工作负载弹性伸缩(HPA)
        本文主要介绍如何创建工作负载弹性伸缩(HPA)。 HPA策略即Horizontal Pod Autoscaling,是Kubernetes中实现POD水平自动伸缩的功能。该策略在kubernetes社区HPA功能的基础上,增加了应用级别的冷却时间窗和扩缩容阈值等功能。 前提条件 使用HPA需要安装能够提供Metrics API的插件,如metricsserver或Prometheus。 约束与限制 HPA策略:仅支持1.13及以上版本的集群创建。 每个工作负载只能创建一个策略,即如果您创建了一个HPA策略,则不能再对其创建CustomedHPA策略或其他HPA策略,您可以删除该HPA策略后再创建。 1.19.10以下版本的集群中,如果使用HPA策略对挂载了EVS卷的负载进行扩容,当新Pod被调度到另一个节点时,会导致之前Pod不能正常读写。 1.19.10及以上版本集群中,如果使用HPA策略对挂载了EVS卷的负载进行扩容,新Pod会因为无法挂载云硬盘导致无法成功启动。 操作步骤 步骤 1 在CCE控制台,单击集群名称进入集群。 步骤 2 单击左侧导航栏的“负载伸缩”,在右上角单击“创建HPA策略”。 步骤 3 填写策略参数。 表 HPA策略参数配置 参数 参数说明 策略名称 新建策略的名称,请自定义。 命名空间 请选择工作负载所在的命名空间。 关联工作负载 请选择要设置HPA策略的工作负载。 实例范围 请输入最小实例数和最大实例数。策略触发时,工作负载实例将在此范围内伸缩。 冷却时间 请输入缩容和扩容的冷却时间,单位为分钟,缩容扩容冷却时间不能小于1分钟 。 该设置仅在1.15及以上版本的集群中显示,1.13版本的集群不支持该设置。 策略成功触发后,在此缩容/扩容冷却时间内,不会再次触发缩容/扩容,目的是等待伸缩动作完成后在系统稳定且集群正常的情况下进行下一次策略匹配。 策略规则 策略规则可基于系统指标或自定义指标。 指标:可选择“CPU利用率”或“内存利用率”。 说明 利用率 工作负载Pod的实际使用量 / 申请量。 期望值:请输入期望资源平均利用率。期望值表示所选指标的期望值,通过向上取整(当前指标值 / 期望值 × 当前实例数)来计算需要伸缩的实例数。阈值:请输入缩容和扩容阈值。当指标值大于缩容阈值且小于扩容阈值时,不会触发扩容或缩容。 阈值仅在1.15及以上版本的集群中支持 。 自定义策略(仅在1.15及以上版本的集群中支持) 自定义指标名称:自定义指标的名称,输入时可根据联想值进行选择。 指标来源:在下拉框中选择对象类型,可选择“Pod”。 期望值:Pod支持指标为平均值。br伸缩范围:当指标值处于伸缩范围中时才会触发伸缩 说明 HPA在计算扩容、缩容实例数时,会选择最近5分钟内实例数的最大值。 步骤 4 设置完成后,单击“创建”,在“完成”步骤中若显示“创建工作负载策略提交成功”,可单击“返回工作负载伸缩策略”。 步骤 5 在“工作负载伸缩”页签下,可以看到刚刚创建的HPA策略。
        来自:
        帮助文档
        云容器引擎
        用户指南
        弹性伸缩
        工作负载弹性伸缩
        创建工作负载弹性伸缩(HPA)
      • 主机监控
        本节主要介绍主机监控 主机包括弹性云主机(ECS)、物理机。AOM既可监控通过创建CCE、ServiceStage集群时创建的主机,也可监控非CCE、ServiceStage集群环境下直接创建的主机(直接创建的主机操作系统需满足操作系统及版本,且创建后需要给主机安装ICAgent,安装操作详见安装ICAgent,否则AOM将无法监控)。同时,主机的IP地址支持IPv4、IPv6。 通过AOM您可监控主机的资源占用与健康状态,监控主机的磁盘、文件系统等常用系统设备,监控运行在主机上的业务进程或实例的资源占用与健康状态。 注意事项 一个主机最多可添加5个标签,且标签不能重复。 不同主机可添加同一个标签。 通过创建CCE、ServiceStage集群时创建的主机,不支持添加自定义集群和别名。 主机状态包含“正常”、“异常”、“亚健康”、“通道静默”、“已删除”。当网络异常、主机下电、关机等原因导致的主机异常时,或主机产生阈值告警时,主机状态为“异常”。 主机监控 步骤 1 在左侧导航栏中选择“主机监控”,查看主机列表。 为了方便您查看主机列表,您可以单击右上角图标对主机列表进行过滤显示,实现隐藏控制节点。 步骤 2 您可根据需要选择是否对主机执行如下操作: 添加别名 当主机名称过于复杂不便于识别时,您可根据需要给主机添加一个便于识别的别名。 在主机列表中,单击主机所在行“操作”列的“增加别名”进行添加。 添加标签 标签是主机的标识,通过标签您可管理主机,并对主机进行简单分类。添加标签后,您可快速识别、选择或搜索主机。 在主机列表中,单击主机所在行“操作”列的“更多>增加标签”,单击,输入标签后,单击,再单击“确定”。标签添加成功后,即可在页面右上角的搜索框中输入标签关键字进行搜索。主机列表的“标签”列默认隐藏,您可单击右上角的,通过选中或取消选中“标签”前的复选框,自定义其展示与隐藏。 步骤 3 设置搜索条件搜索待监控的主机。 步骤 4 单击主机名称,进入“主机详情”页面,在列表中可监控运行在主机上实例的资源占用与健康状态,单击“监控视图”页签,可监控该主机的各种指标。 步骤 5 监控主机的显卡、网卡等常用系统设备。 单击“显卡”页签,在列表中可查该主机显卡的基本信息,单击显卡名称,可在“监控视图”页面监控该显卡的各种指标。 单击“网卡”页签,在列表中可查看该主机网卡的基本信息,单击网卡名称,可在“监控视图”页面监控该网卡的各种指标。 单击“磁盘”页签,在列表中可查看该主机磁盘的基本信息,单击磁盘名称,可在“监控视图”页面监控该磁盘的各种指标。 单击“文件系统”页签,在列表中可查看该主机文件系统的基本信息,单击磁盘文件分区名称,可在“监控视图”页面监控该文件系统的各种指标。 单击“告警分析”页签,在列表中可查看该主机的相关告警信息。
        来自:
        帮助文档
        应用运维管理
        用户指南
        资源监控
        主机监控
      • 域名防护配置
        防护配置管理为用户提供域名防护的配置操作功能。 新增防护配置 1. 在Web应用防火墙配置菜单下,点击“新增”,弹出新增WAF防护配置对话框。 2. 配置防护参数。 参数名称 参数说明 实例ID 选择实例 ID;实例即为默认开通资源,直接进行勾选即可。 数据中心 选择数据中心;目前默认数据中心为内蒙,上海,广州,其中主选一个,备选一个,建议用户选择靠近自身资源部署地区的节点。 防护域名 输入防护域名。 输入格式示例: 防护网站域名:如ctyun.cn 防护网站域名:如www.ctyun.cn IP代理 选择IP代理。 IP代理分为NAT44,NAT66,NAT64。 网站如仅支持IPv4访问:则单选NAT44,并且填写域名对应的公网IPv4地址至源站IP一栏。 网站如同时支持IPv4以及IPv6访问:则需要同时勾选NAT44与NAT66。 在网站不支持IPv6的场景下,WAF可以协助网站支持IPv6访问,WAF接收到IPv6请求后将流量转换成IPv4的形式发送给客户源站,需要同时勾选NAT44与NAT64,源站IP侧应填写IPv4地址。 协议类型 支持HTTP和HTTPS协议。选择HTTPS协议,还需要上传证书。 协议端口 根据选择的协议,添加对应的端口。 Https证书 协议类型选择“https”时,需要进行证书上传。 上传证书步骤如下: 点击“Https证书”右侧的“新增证书”,在弹出的“新增证书”对话框中配置如下参数,然后点击“确定”,完成证书上传。 证书名称:证书名称可自定义添加。 证书公钥:一般情况下HTTPS证书需要从网站本身服务器上进行导出或联系域名服务商获取,公钥一般以pem或crt结尾,用文本形式打开后全量粘贴即可。 证书私钥:私钥一般以key结尾,用文本形式打开后粘贴即可。 开启防护 默认开启防护,如果开启防护按钮为“关闭”,该防护配置不会生效,业务不会下发至Web应用防火墙设备进行防护。 3. 点击“确定”,正式下发防护配置。 4. 添加完成后,显示应为下图。 参数名称 参数说明 防护域名 当前防护的域名。 CNAME CNAME地址为WAF配置成功后生成的代理地址(需要用户侧联系域名服务商将域名原本指向的记录值修改为WAF的地址)。 源站IP 源IP即配置WAF的目标地址,WAF接收请求后会将请求转发至当前配置的地址。 源端口 WAF所配置的端口。 状态 当配置处于防护中时为正常,配置状态为防护中时CNAME地址才可以被解析到。 业务带宽 与当前资源相关,对应当前的资源规格。 DNS牵引检测 当用户将域名解析至WAF后,此状态会在当天凌晨自动更新为已牵引。 HTTPS强制跳转 当域名同时开通80与443端口时,勾选强制跳转会让所有访问80端口的流量自动跳转到443(暂时只支持80跳转443)。
        来自:
        帮助文档
        Web应用防火墙
        快速入门
        域名防护配置
      • 以OpenTelemetry方式接入
        在监控Go应用之前,您需要通过客户端将应用数据上报至APM服务端。本文介绍如何通过OpenTelemetry Go SDK上报Go应用数据。 前提条件 完成vpce接入。 背景信息 OpenTelemetry Go SDK提供了Go语言的分布式链路追踪能力,您可以直接使用OTLP gRPC或者HTTP协议向APM服务端上报数据。 接入步骤 1. 添加OpenTelemetry Go依赖。 plaintext package main import ( "context" "flag" "go.opentelemetry.io/contrib/instrumentation/net/http/httptrace/otelhttptrace" "go.opentelemetry.io/contrib/instrumentation/net/http/otelhttp" "go.opentelemetry.io/otel" "go.opentelemetry.io/otel/baggage" "go.opentelemetry.io/otel/exporters/otlp/otlptrace" "go.opentelemetry.io/otel/exporters/otlp/otlptrace/otlptracehttp" "go.opentelemetry.io/otel/sdk/resource" sdktrace "go.opentelemetry.io/otel/sdk/trace" semconv "go.opentelemetry.io/otel/semconv/v1.17.0" "go.opentelemetry.io/otel/trace" "io" "log" "net/http" "net/http/httptrace" "time" ) 2. 查看接入点信息。 应用列表的接入指引会根据您所在资源池提供“通过 HTTP 上报数据”和“通过 gRPC 上报数据”的ENDPOINT(天翼云vpc网络接入点)、鉴权TOKEN信息。 3. 初始化OpenTelemetry Go SDK。 (注意需将token和endpoint替换成相应地域的接入点信息。) 注意 需将token和endpoint替换成相应地域的接入点信息。 方式1:使用HTTP协议上报数据。 plaintext func initProvider() func() { ctx : context.Background() auth : map[string]string{ "xctgauthorization": " ", // 替换成token信息 } path : flag.String("path", "/v1/traces", "path") traceClient : otlptracehttp.NewClient( otlptracehttp.WithEndpoint(" "), // 替换成otel http的上报地址。 otlptracehttp.WithURLPath(path), otlptracehttp.WithHeaders(auth), otlptracehttp.WithInsecure()) otlptracehttp.WithCompression(1) log.Println("start to connect to server") traceExp, err : otlptrace.New(ctx, traceClient) handleErr(err, "Failed to create the collector trace exporter") res, err : resource.New(ctx, resource.WithFromEnv(), resource.WithProcess(), resource.WithTelemetrySDK(), resource.WithHost(), resource.WithAttributes( // 在APM控制台显示的服务名称。 semconv.ServiceNameKey.String("otelgoclientdemo"), // 在APM控制台显示的主机名称。 semconv.HostNameKey.String("yourhostname"), // 在APM控制台显示的服务端地址。 semconv.NetSockHostAddr("serviceaddr"), // 在APM控制台显示的客户端地址。 semconv.NetSockPeerAddr("clientaddr"), ), ) handleErr(err, "failed to create resource") bsp : sdktrace.NewBatchSpanProcessor(traceExp) tracerProvider : sdktrace.NewTracerProvider( sdktrace.WithSampler(sdktrace.AlwaysSample()), sdktrace.WithResource(res), sdktrace.WithSpanProcessor(bsp), ) otel.SetTracerProvider(tracerProvider) return func() { cxt, cancel : context.WithTimeout(ctx, time.Second) defer cancel() if err : traceExp.Shutdown(cxt); err ! nil { otel.Handle(err) } } } 方式2:使用gRPC协议上报数据。 plaintext func initProviderGrpc() func() { ctx : context.Background() auth : map[string]string{ "xctgauthorization": " ", //接入流程里面获取token信息 } traceClient : otlptracegrpc.NewClient( otlptracegrpc.WithInsecure(), otlptracegrpc.WithEndpoint(" "), //替换成grpc接入信息 otlptracegrpc.WithHeaders(auth), otlptracegrpc.WithDialOption(grpc.WithBlock())) log.Println("start to connect to server") traceExp, err : otlptrace.New(ctx, traceClient) handleErr(err, "Failed to create the collector trace exporter") res, err : resource.New(ctx, resource.WithFromEnv(), resource.WithProcess(), resource.WithTelemetrySDK(), resource.WithHost(), resource.WithAttributes( // 在APM控制台显示的服务名称。 semconv.ServiceNameKey.String("otelgoclientdemoprovider"), // 在APM控制台显示的主机名称。 semconv.HostNameKey.String("yourhostname"), // 在APM控制台显示的服务端地址。 semconv.NetSockHostAddr("serviceaddr"), // 在APM控制台显示的客户端地址。 semconv.NetSockPeerAddr("clientaddr"), ), ) handleErr(err, "failed to create resource") bsp : sdktrace.NewBatchSpanProcessor(traceExp) tracerProvider : sdktrace.NewTracerProvider( sdktrace.WithSampler(sdktrace.AlwaysSample()), sdktrace.WithResource(res), sdktrace.WithSpanProcessor(bsp), ) otel.SetTracerProvider(tracerProvider) return func() { cxt, cancel : context.WithTimeout(ctx, time.Second) defer cancel() if err : traceExp.Shutdown(cxt); err ! nil { otel.Handle(err) } } } 4. client端上报例子。 plaintext func sendReq(url string, ctx context.Context) { // 构造一个trace client client : http.Client{ Transport: otelhttp.NewTransport( http.DefaultTransport, otelhttp.WithClientTrace(func(ctx context.Context) httptrace.ClientTrace { return otelhttptrace.NewClientTrace(ctx) }), ), } tr : otel.Tracer("example/client") err : func(ctx context.Context) error { ctx, span : tr.Start(ctx, "say hello", trace.WithAttributes(semconv.PeerService("ExampleService"))) defer span.End() ctx httptrace.WithClientTrace(ctx, otelhttptrace.NewClientTrace(ctx)) req, : http.NewRequestWithContext(ctx, "GET", url, nil) res, err : client.Do(req) if err ! nil { panic(err) } , err io.ReadAll(res.Body) res.Body.Close() return err }(ctx) if err ! nil { log.Fatal(err) } } func doClient(url string, ctx context.Context) { // 不断请求数据 for { sendReq(url, ctx) time.Sleep(3 time.Second) } } func main() { shutdown : initProvider() defer shutdown() url : flag.String("server", " "server url") flag.Parse() bag, : baggage.Parse("usernamexxx") ctx : baggage.ContextWithBaggage(context.Background(), bag) doClient(url, ctx) } 5. 服务端上报例子。 plaintext func handler() { uk : attribute.Key("username") //加点属性 helloHandler : func(w http.ResponseWriter, req http.Request) { ctx : req.Context() //继续调用下一个服务最终效果是client》hello》hello1 sendReq(" ctx) } helloHandler1 : func(w http.ResponseWriter, req http.Request) { ctx : req.Context() span : trace.SpanFromContext(ctx) bag : baggage.FromContext(ctx) span.AddEvent("handling this...", trace.WithAttributes(uk.String(bag.Member("username").Value()))) , io.WriteString(w, "Hello, world!n") } otelHandler : otelhttp.NewHandler(http.HandlerFunc(helloHandler), "Hello") otelHandler1 : otelhttp.NewHandler(http.HandlerFunc(helloHandler1), "Hello1") http.Handle("/hello", otelHandler) http.Handle("/hello1", otelHandler1) } func main() { flag.Parse() shutdown : initProvider() defer shutdown() handler() err : http.ListenAndServe(":" + serverPort, nil) //nolint:gosec // Ignoring G114: Use of net/http serve function that has no support for setting timeouts. if err ! nil { log.Fatal(err) } } 6. 通过以上步骤,最后就在APM控制台的应用列表页面选择目标应用,查看监控数据。
        来自:
        帮助文档
        应用性能监控 APM
        快速入门
        接入Go应用
        以OpenTelemetry方式接入
      • 产品优势
        说明:本章介绍关系数据库的优势,关系型数据库具有低成本、高安全性、高可靠性等优势,相对传统数据库运维繁琐等缺陷,关系型数据库使用更加方便简单。 即开即用 您可以通过官网实时生成目标实例,关系型数据库服务配合弹性云服务器一起使用,通过内网连接关系型数据库可以有效的降低应用响应时间、节省公网流量费用。 弹性扩容 可以根据您的业务情况弹性伸缩所需的资源,按需开支,量身订做。配合云监控(Cloud Eye)监测数据库压力和数据存储量的变化,您可以灵活调整实例规格。 完全兼容 您无需再次学习,关系型数据库各引擎的操作方法与原生数据库引擎的完全相同。关系型数据库还兼容现有的程序和工具。 运维便捷 RDS的日常维护和管理,包括但不限于软硬件故障处理、数据库补丁更新等工作,保障关系型数据库运转正常。提供专业数据库管理平台,重启、重置密码、参数修改、查看错误日志和慢查询日志、恢复数据等一键式功能。提供CPU利用率、IOPS、连接数、磁盘空间等实例信息实时监控及报警,让您随时随地了解实例动态。 网络隔离 通过虚拟私有云(Virtual Private Cloud,简称VPC)和网络安全组实现网络隔离。虚拟私有云允许租户通过配置虚拟私有云入站IP范围,来控制连接数据库的IP地址段。关系型数据库实例运行在租户独立的虚拟私有云内,可提升关系型数据库实例的安全性。您可以综合运用子网和安全组的配置,来完成关系型数据库实例的隔离。 访问控制 通过主/子帐号和安全组实现访问控制。创建关系型数据库实例时,关系型数据库服务会为租户同步创建一个数据库主帐户,根据需要创建数据库实例和数据库子帐户,将数据库对象赋予数据库子帐户,从而达到权限分离的目的。可以通过虚拟私有云对关系型数据库实例所在的安全组入站、出站规则进行限制,从而控制可以连接数据库的网络范围。 传输加密 通过TLS加密、SSL加密实现传输加密。使用从服务控制台上下载的CA根证书,并在连接数据库时提供该证书,对数据库服务端进行认证并达到加密传输的目的。 存储加密 通过静态加密、表空间加密、同态加密对数据进行加密。关系型数据库服务支持对存储到数据库中的数据加密后存储,加密密钥由KMS进行管理。 数据删除 删除关系型数据库实例时,存储在数据库实例中的数据都会被删除,任何人都无法查看及恢复数据。安全删除不仅包括数据库实例所挂载的磁盘,也包括备份数据的存储空间(通常为廉价的对象存储系统)。 防DDoS攻击 当用户使用外网连接和访问关系型数据库实例时,可能会遭受DDoS攻击。当关系型数据库安全体系认为用户实例正在遭受DDoS攻击时,会首先启动流量清洗的功能,如果流量清洗无法抵御攻击或者攻击达到黑洞阈值时,将会进行黑洞处理,保证关系型数据库整体服务的可用性。 安全防护 关系型数据库处于多层防火墙的保护之下,可以有力地抗击各种恶意攻击,保证数据安全,防御DDoS攻击、防SQL注入等。建议用户通过内网访问关系型数据库实例,可使关系型数据库实例免受DDoS攻击风险。 双机热备 关系型数据库服务采用热备架构,故障秒级自动切换。 数据备份 每天自动备份数据,上传到对象存储服务(Object Storage Service,简称OBS)。备份文件保留732天,支持一键式恢复。用户可以设置自动备份的周期,还可以根据自身业务特点随时发起备份,选择备份周期、修改备份策略。 数据恢复 支持按备份集和指定时间点的恢复。在大多数场景下,用户可以将732天内任意一个时间点的数据恢复到关系型数据库新实例或已有实例上,数据验证无误后即可将数据迁回关系型数据库主实例,完成数据回溯。 RDS与自建数据库优势对比 性能对比 性能项目 云数据库RDS 自购服务器搭建数据库服务 服务可用性 请参见《弹性云服务器用户指南》。 需要购买额外设备,自建主从,自建RAID。 数据可靠性 请参见《云硬盘用户指南》。 需要购买额外设备,自建主从,自建RAID。 系统安全性 防DDoS攻击,流量清洗;及时修复各种数据库安全漏洞。 需要购买昂贵的硬件设备和软件服务,需要自行检测和修复安全漏洞等。 数据库备份 支持自动备份,手动备份,自定义备份存储周期。 需要购买设备,并自行搭建设置和后期维护。 软硬件投入 无需投入软硬件成本,按需购买,弹性伸缩。 数据库服务器成本相对较高,对于Microsoft SQL Server需支付许可证费用。 系统托管 无需托管。 需要自购2U服务器设备,如需实现主从,购买两台服务器,并进行自建。 维护成本 无需运维。 需要投入大量人力成本,招聘专业的DBA进行维护。 部署扩容 弹性扩容,快速升级,按需开通。 需采购和原设备匹配的硬件,需托管机房的配合,需部署设备,整体周期较长。 资源利用率 按实际结算,100%利用率。 考虑峰值,资源利用率低。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        产品简介
        产品优势
      • HBlock用户手册和安装包
        版本 发布日期 说明 4.0 2026年03月24日 1. 支持免费版本。 2. 新增调整HBlock服务占用服务器内存参数功能。 3. 上云卷新增挂起卷功能。 4. 支持通过API设置本地卷的扩展属性。 5. 增加设置鉴权方式。 3.10 2025年09月25日 1. 支持target访问权限,实现客户端和target端权限管理。 2. 支持备份,基于快照生成独立于源卷的数据备份文件。 3. 支持设置QoS规则,从带宽和IOPS维度管控流量。 3.9 2025年04月21日 1. 支持快照功能,实现数据的快速备份与恢复。 2. 支持克隆卷功能,用于数据复制、测试验证等场景。 3.8 2025年02月14日 1. API签名方法变更,提升安全性。 2. 存储卷和缓存卷支持将数据上传至兼容 S3 的对象存储。 3. 支持设置基础服务的数据存储目录。 4. Target增加回收策略,支持无卷关联后自动删除。 5. 针对智算、虚拟化以及高可用敏感度等场景,支持一键调整系统参数。 6. 支持设置折叠副本数,允许数据副本/分片放在同一个故障域中。 3.7 2024年08月08日 1. 支持设置集群拓扑。 2. 支持创建和管理多存储池。 3. 支持机房和机架级别故障域。 4. 支持设置卷的高速缓存池。 5. 支持基础服务迁移。 3.6 2024年06月03日 1. 支持存储卷和缓存卷,将数据从后端上传到天翼云对象存储(经典版)I型。 2. 硬件及HBlock监控数据支持对接到Prometheus。 3. 支持HBlock告警信息对接到智能运维平台。 4. 优化读写性能。 5. 增加对龙芯服务器的支持。 3.5 2024年03月04日 1. 支持服务器、数据目录级别的故障域,支持磁盘级别的数据服务。 2. 支持指定基础服务的安装节点。 3. 支持数据目录配额,设置HBlock可写入的数据量上限。 4. Target可被多个客户端发现并连接。 5. 设置卷的最小写入副本数,提高数据写入安全性。 6. 扩大纠删码EC N+M支持范围,满足N+M<128。 3.4 2023年07月12日 1. 卷连接支持一主多备,提高业务可用性。 2. 支持IPv6环境。 3. 控制台提供Dashboard一页式概览。 4. 支持通过命令行查询CHAP密码。 3.3 2022年12月23日 支持安全移除服务器。 3.2 2022年09月26日 1. 监控项增加,扩大覆盖范围。 2. 增加对告警、日志管理的支持。 3. 事件中增加对系统事件的支持。 3.1 2022年06月14日 1. 单机版支持添加多个数据目录。 2. 集群版支持创建Target时指定对应的服务器,支持Target迁移。 3. 支持用户事件的记录和查询。 3.0 2022年01月18日 1. 命令行变更为非交互式。 2. 支持WEB、API调用方式。 3. 卷操作:支持设置卷的高可用类型和卷的写策略。 2.1 2021年08月27日 1. 增加对ARM服务器的支持。 2. 软件许可证:查看许可证时,可以显示允许的容量。 3. 卷操作:支持对卷进行主备切换,即卷对应的Active Target和Standby Target切换。 2.0 2021年05月28日 1. 支持集群版部署。 2. 支持多副本和纠删码数据冗余。
        来自:
        帮助文档
        存储资源盘活系统
        文档下载
        HBlock用户手册和安装包
      • 新建表/文件迁移作业
        参数 说明 取值样例 作业失败重试 如果作业执行失败,可选择自动重试三次或者不重试。 建议仅对文件类作业或启用了导入阶段表的数据库作业配置自动重试,避免自动重试重复写入数据导致数据不一致。 说明 如果通过DataArts Studio数据开发使用参数传递并调度CDM迁移作业时,不能在CDM迁移作业中配置“作业失败重试”参数,如有需要请在数据开发中的CDM节点配置“失败重试”参数。 不重试 作业分组 选择作业的分组,默认分组为“DEFAULT”。在CDM“作业管理”界面,支持作业分组显示、按组批量启动作业、按分组导出作业等操作。 DEFAULT 是否定时执行 如果选择“是”,可以配置作业自动启动的时间、重复周期和有效期,具体请参见 说明 如果通过DataArts Studio数据开发调度CDM迁移作业,此处也配置了定时任务,则两种调度均会生效。为了业务运行逻辑统一和避免调度冲突,推荐您启用数据开发调度即可,无需配置CDM定时任务。 否 抽取并发数 设置同时执行的抽取任务数。并发抽取数取值范围为1300,若配置过大,则以队列的形式进行排队。 CDM迁移作业的抽取并发量,与集群规格和表大小有关。 按集群规格建议每1CUs(1CUs1核4G)配置为4。 表每行数据大小为1MB以下的可以多并发抽取,超过1MB的建议单线程抽取数据。 说明 迁移的目的端为文件时,CDM不支持多并发,此时应配置为单进程抽取数据。 单作业的抽取并发数,受到作业“配置管理”中所配置的“最大抽取并发数”影响。“最大抽取并发数”配置的是抽取并发总数。 1 加载(写入)并发数 加载(写入)时并发执行的Loader数量。 仅当HBase或Hive作为目的数据源时该参数才显示。 3 分片重试次数 每个分片执行失败时的重试次数,为0表示不重试。 0 是否写入脏数据 选择是否记录脏数据,默认不记录脏数据。 CDM中脏数据指的是数据格式非法的数据。当源数据中存在脏数据时,建议您打开此配置。否则可能导致迁移作业失败。 是 脏数据写入连接 当“是否写入脏数据”为“是”才显示该参数。 脏数据要写入的连接,目前只支持写入到OBS连接。 obslink OBS桶 当“脏数据写入连接”为OBS类型的连接时,才显示该参数。 写入脏数据的OBS桶的名称。 dirtydata 脏数据目录 “是否写入脏数据”选择为“是”时,该参数才显示。 OBS上存储脏数据的目录,只有在配置了脏数据目录的情况下才会记录脏数据。 用户可以进入脏数据目录,查看作业执行过程中处理失败的数据或者被清洗过滤掉的数据,针对该数据可以查看源数据中哪些数据不符合转换、清洗规则。 /user/dirtydir 单个分片的最大错误记录数 当“是否写入脏数据”为“是”才显示该参数。 单个map的错误记录超过设置的最大错误记录数则任务自动结束,已经导入的数据不支持回退。推荐使用临时表作为导入的目标表,待导入成功后再改名或合并到最终数据表。 0 开启限速 设置限速可以保护源端读取压力,速率代表CDM传输速率,而非网卡流量。 是 单并发速率上限(Mb/s) 开启限速情况下设置的单并发速率上限值。 20
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        新建表/文件迁移作业
      • 数据安全概览
        总览页面分为云服务全景图(资产地图)、数据采集安全、数据传输/存储安全、数据使用安全和数据交换/删除安全共五大板块,实时呈现了用户资产的具体情况。 前提要求 已完成资产访问的授权,参考云资产委托授权/停止授权进行操作。 已完成添加数据库资产,参考数据库资产清单进行操作。 操作步骤 1. 登录管理控制台。 2. 单击左上角的,选择区域或项目。 3. 在左侧导航树中,单击,选择“安全> 数据安全中心”,进入数据安全中心总览界面。 4. 查看数据安全中心服务的总览—云服务全景图。 提供数据资产地图,帮助客户建立数据资产的全景视图,可视化呈现数据资产分布、数据敏感程度、当前的风险级别。 梳理云上数据资产:自动扫描并梳理云上数据资产,地图化展示资产分布,帮助用户解决数据在哪里的问题。 敏感数据展示:基于DSC的三层数据识别引擎、预置合规规则、自然语义识别技术、文件相似度检测技术,对数据资产进行分类分级。 对数据资产按照“风险VPC数”、“风险安全组数”、“风险主机数”、“风险RDS数”、“风险OBS数”进行分类展示。 每类资产按照“高危”、“中危”、“低危”、“未识别风险”对敏感数据进行分级定位。 风险监控和预警:基于风险识别引擎,对数据资产进行风险监控,展示每类资产的风险分布,并预警。 说明 将鼠标移动到数据资产图标处,可查看资产相关信息。 单击数据资产图标,在界面的右侧弹框中可详细查看该资产的“基本信息”、“风险信息”或者“风险安全组规则”等信息。 5. 查看数据安全中心服务的总览—数据采集安全。 DSC根据敏感数据规则对敏感数据进行识别和敏感等级分类,您可以在总览页面查看您资产中不同风险等级的数据的分布情况。 基于敏感字段在文件中出现的累计次数和敏感字段关联组来判断文件的敏感性,并根据文件的敏感程度将其划分为四个等级:“未识别风险”、“低风险”、“中风险”和“高风险”。风险等级依次递增。具体风险等级情况说明: 未识别风险:0级 低风险:1~3级 中风险:4~7级 高风险:8~10级 在柱状图中,不同高度代表该风险等级的资产数量。将鼠标箭头放置在柱状图上,可查看该风险等级的资产数量。 6. 查看数据安全中心服务的总览—数据传输/存储安全。 数据传输安全:DSC统计了以下可能存在传输安全的项,您可以直接单击具体项的名称,查看详细情况。 VPN连接数:您的资产中存在已创建的虚拟专用网络,具体的请参考《VPN服务用户指南》。 云专线连接数:您的资产中存在已创建的云专线物理连接,具体的请参考《云专线用户指南》。 ELB未采用加密通信的监听器:添加监听器时,未使用加密通信HTTPS协议的监听器数量的统计,建议您采用HTTS协议进行加密通信,具体的操作请参见修改监听器。 SSL证书订阅:您的资产中存在已购买或者已上传的证书数量,了解SSL证书请参考《SSL证书管理用户指南》。 WAF未采用加密通信的域名:WAF中添加域名时,未使用加密传输HTTPS协议的域名数量的统计,建议您采用HTTPS协议进行加密通信,具体的操作请参见修改服务器信息。 数据存储安全:该模块为您罗列了存在未加密的对象桶,为了防止您的资产存在不必要的存储安全,建议您单击对象桶名称,前往OBS界面,对未加密的对象桶进行加密。 7. 查看数据安全中心服务的总览—数据使用安全。 该模块统计了“近30分钟”、“近3小时”、“近24小时”、“近7天”、“近30天”内的数据使用安全信息。 未处理异常事件:按“数据访问异常”、“数据操作异常”、“数据管理异常”所占比例进行展示。同时,展示了异常事件总数、违例确认总数和违例排除总数。 单击“未处理异常事件”中的其中一个颜色区域,可查看指定数据异常占比。 当不需要展示某种类型的异常事件时,单击事件分布图右侧攻击类型对应的颜色方块,取消在事件分布圆环中的展示。 Top5访问源IP:前5的访问源IP的统计。 Top5被访问高风险对象:被访问的对象中,排在前5的高风险对象。 Top5访问帐号:前5的访问帐号的统计。 8. 查看数据安全中心服务的总览—数据交换/删除安全。 数据交换安全:展示了已创建的“静态脱敏任务数”以及“水印API调用次数”,如何创建数据脱敏任务请参考创建数据脱敏任务。 数据删除安全:DSC为您统计了数据库、ECS、OBS资产的当日删除数和总删除数。
        来自:
        帮助文档
        数据安全中心
        用户指南
        数据安全概览
      • 错误码
        本节主要介绍升级HBlock的错误码。 HTTP status 错误码 错误信息 描述 400 CanNotConnectToIP Can not connect to the IP IP. 无法连接指定的IP。 400 CanNotConnectToServer Can not connect to the server IP [:port]. 无法连接指定的服务器。 400 CanNotConnectToService Can not connect to 'serviceName ' service on server serverIp [:port]. 服务调用不通。 400 DuplicatePackage The name of the upgrade package must be unique. Please check and try again. 上传的安装包重名,请检查并重试。 400 ExceedThreshold The number of operation cannot exceed value. 升级操作中的文件个数超阈值。 400 GetUpgradeStatusFailed Failed to get upgrade status. Please check the network, service, etc, then try again. 无法获取到升级状态,请检查网络连接或者服务状态后重试。 400 InitUpgradeFailed The upgrade operation failed to start. reason 升级操作启动失败。 400 InsufficientFDForLUNToWrite Available fault domains and healthy disk paths are insufficient for the LUNs to write: lunname1 , lunname2 , lunname3... . Make sure available fault domains and healthy disk paths are greater than the minimum replica number of the LUNs. 卷的可用故障域和健康数据目录数量不足,请确保可用故障域和健康数据目录的数量大于卷要求的最小副本数。 400 InsufficientAvailableServices The number of available 'serviceName ' service node in the cluster must be greater than or equal to value. 集群中的某服务的可用节点数必须大于或等于某值才可以。 400 InvalidDouble Value value at 'argument' failed to satisfy constraint: Argument must be of type double. double类型不合法。 400 InvalidLong Invalid upgrade package. Please get the correct package. 安装包无效。 400 InvalidProductType Cannot run upgrade, product type mismatch. Please get the correct package. 安装包不匹配。 400 InvalidStorStatus The HBlock status is 'status', the request is invalid. HBlock当前的状态不正确,请求无效。 400 InvalidVersion No need to upgrade because your current version is newer. 不需要升级,当前运行的版本更新。 400 LoadConfigFailed Failed to load configuration files. 获取配置文件失败。 400 LoadPackageFailed Failed to load upgrade package. Reason: Reason 获取升级包失败。 400 LowVersion The upgrade package requires the current system version to be minimumVersion or later. 当前版本太旧,不符合升级包需求。 400 MissingArchPackage Missing architecture upgrade package. Please get the correct package. 缺少必要的升级包,请更换正确的安装包后重试。 400 MissingArgument Value null at 'argument' failed to satisfy constraint: Argument must not be null. Json参数不能为空。 400 SameVersion No need to upgrade because the versions are same. 没有升级操作。 400 ServiceWaitTimeout 'serviceName' service wait timeout. 服务等待超时。 400 SetConfigFailed Failed to set config. 配置失败。 400 SystemDataDegraded There is low redundancy or error data in the system, operation is not allowed. Please repair fault domains and disk paths. 系统中存在降级或错误数据,不允许操作。请修复故障域和磁盘路径。 400 UpgradeExpired Your upgrade function has expired onxxxxxxxx xx:xx:xx . To ensure business continuity and access the full product experience, please contact your software vendor to get a license. 您的免费版升级服务已于xxxxxxxx xx:xx:xx到期,现已停止更新支持。为确保您的业务连续性并获得完整的产品体验,请联系软件供应商获取商业版软件许可证。 400 UploadPackageFaied Failed to upload or unzip package. Reason: reason. 上传或者解压缩安装包失败。 409 InvalidTargetIQNsStatus The request is invalid. Ensure the number of target IQNs whose status is neither unavailable nor offline is greater than or equal to 2. 操作失败,target IQNs状态异常,请检查后重试。 409 UpgradeInProgress The upgrade task is in progress, the request is invalid. 系统升级正在进行中,无法执行操作。
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        升级HBlock
        错误码
      • 产品使用限制
        为保证对象存储的正常使用,在使用之前,请您务必仔细阅读以下使用限制。 限制项 说明 带宽 访问对象存储的带宽同时受用户本地公网带宽限制和单用户带宽上限影响。 单个天翼云账号在各地域的上行和下行带宽上限各为10Gbit/s。如果带宽达到阈值,请求会触发流控。 每TB存储量的保障带宽为16Mbit/s,即实际存放的数据容量每达到1TB,可获得16Mbit/s的保障带宽。存储的容量越大,获得的保障带宽越大,上限为10Gbit/s。 保障带宽为承诺可达到的带宽,闲时带宽可能高于该标准。 每秒请求数QPS(Query Per Second, QPS) 单个天翼云账号在每个地域的QPS上限均为10000,其中写请求上限是5000请求每秒,读请求上限是5000请求每秒。 存储桶 存储桶一旦创建成功,名称和所处地域不能修改。 桶名称全局唯一且不支持重命名。 用户在每个资源池的默认配额为100个桶,用户可通过工单申请扩大配额,最大配额1000个桶。 贵州3(2024年4月25日)、长沙42(2024年11月5日)、成都4(2024年11月12日)、华东1(2024年11月12日)、上海7(2024年11月12日)、杭州7(2024年12月3日)、内蒙6(2025年1月10日)、华北2(2025年3月28日)、重庆2(2025年4月15日)、昆明2(2025年4月15日)、北京5(2025年4月22日)、西南1(2025年5月9日)、华南2(2025年7月1日)、武汉41(2025年10月17日)、合肥2(2025年10月28)、芜湖4(2025年12月5日)已于括号内的时间完成升级。在资源池升级之后新创建的桶不再有对象数量上限,您可以放心使用。在升级之前已创建的桶,对象数量上限为4亿。除上述已完成升级的地域外,其余地域暂未升级,单桶的对象数量上限仍为4亿。当桶的对象数量达到该上限后,涉及新增对象的操作有被限制的风险。 对象 通过控制台上传单个对象最大为5GB。 通过SDK、API、客户端工具采用分段上传的方式,上传对象最大为48.8TB。 桶没有开启多版本控制功能时,对象删除后不可恢复,请谨慎操作。 资源包 只有开通了对象存储服务后才能购买资源包。 对象存储资源包各资源池节点需要单独订购,不可通用,资源包订购完即生效。 当月使用量超出已购资源包的额度,计费模式将自动转为按需付费。新购资源包不能抵扣已产生的资源用量。 归档存储的存储容量资源包不支持包年优惠,其他规格资源包支持包年优惠。 资源包可叠加订购,但不支持升级。 日志转存 开通日志转存会立刻生效,12个小时内的整点小时生成,比如8:05开通的,8点后的12个整点,即9点或10点生成。 版本控制 开启版本控制后将无法关闭,仅能暂停。 数据冗余策略 一旦选定后不可更改。 选择多 AZ 存储,数据会存储在同一地域的多个可用区中,可用性更高;单 AZ 则存储在一个可用区。 多 AZ 采用相对较高的计费标准。 生命周期规则 一个桶内最多可配置1000条生命周期规则。
        来自:
        帮助文档
        对象存储 ZOS
        产品简介
        产品使用限制
      • 网络策略
        使用限制 Cubecni IPVLAN模式下,基于eBPF实现NetworkPolicy,有如下限制: 1. IP Blocks即使包含Pod地址,这些Pod地址也不会加入白名单,需通过PodSelector或NamespeceSelector选择Pod; 2. IP Blocks的except支持不佳,不建议使用except关键字; 3. 若配置egress规则,会限制Pod访问所在节点以及其上HostNetwork类型Pod,即使白名单配置了所在Host地址也无效。 使用示例 网络策略详细使用方式可参考Kubernetes社区文档,下文以Nginx应用为例,介绍使用方式。 准备示例应用 使用YAMl方式创建示例应用,YAML定义如下: a. 登录云容器引擎控制台,左侧导航栏选择集群; b. 在集群列表页面,单击目标集群名称,进入集群管理页面; c. 左侧导航栏,选择工作负载 > 无状态; d. 选择default命名空间,点击新增YAML ,默认为一Nginx示例,将image字段替换为{镜像拉取地址}/opensource/nginx:1.26alpineslim,点击保存; e. 等待服务启动完成。 示例一:限制服务只能被带有特定标签的应用访问 通过控制台操作如下: 1. 登录云容器引擎控制台,左侧导航栏选择集群; 2. 在集群列表页面,单击目标集群名称,进入集群管理页面; 3. 左侧导航栏,选择网络 > 网络策略 ,选择default命名空间,点击创建网络策略; 创建面板配置说明如下: 配置名 说明 示例 名称 网络策略的名称。 example1 Pod选择器 单击+ 选择工作负载添加标签,设置使用网络策略的Pod。 若不配置Pod选择器,则对命名空间下所有Pod生效。 示例设置如下: 设置工作类型为:Deployment 设置工作负载为:nginxdeployment 设置标签为:appnginx 来源 配置入站规则(igress)列表,用于声明谁可以访问目标Pod。每个列表项包含规则和端口。 每个规则表示一组允许的来源,若配置多个规则,则满足任一规则即允许访问。 规则: 1. podSelector:此选择器将在与NetworkPolicy相同的名字空间中选择特定的Pod,将其允许作为入站流量来源; 2. namespaceSelector:此选择器将选择特定的名字空间,将所有Pod用作其入站流量来源; 3. ipBlock:此选择器将选择特定的IP CIDR范围用作入站流量来源。 端口:支持TCP和UDP协议。 本示例不添加任何来源规则。 去向 配置出站规则(egress)列表,用于声明目标Pod可以访问哪些地址。每个列表项包含规则和端口。 每个规则表示一组允许的去向,若配置多个规则,则满足任一规则即允许访问。 规则: 1. podSelector:此选择器将在与NetworkPolicy相同的名字空间中选择特定的Pod,将其允许作为出站流量目的地; 2. namespaceSelector:此选择器将选择特定的名字空间,将所有Pod用作其出站流量目的地; 3. ipBlock:此选择器将选择特定的IP CIDR范围用作出站流量目的地。 端口:支持TCP和UDP协议。 本示例不添加任何去向规则。 4. 点击下一步 ,点击确认; 5. 在另一个命名空间(例如demo)部署demo服务(可使用Nginx镜像),登陆容器,测试与示例Nginx的通信。可见,网络策略没有允许demo服务访问,导致访问会超时: 6. 修改网络策略为允许demo服务访问,点击编辑,在来源右侧,单击+添加,规则设置如下: 配置名 示例值 选择器 namespaceSelector 命名空间 demo 标签 kubernetes.io/metadata.name: demo 点击下一步 ,点击确认; 7. 登陆容器,测试与示例Nginx的通信。可见,网络策略允许demo服务访问,访问正常:
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        网络
        容器网络插件
        Cubecni网络插件
        网络策略
      • 排查实例CPU使用率高问题
        本页介绍了排查实例CPU使用率高问题的方法。 CPU使用率过高的一般排查步骤如下: 1. 在DDS控制台找到目标实例,单击监控图标, 然后在CPU页签下,查看CPU使用率较高的时间段。 2. 登录对应的实例机器查看系统资源使用情况:首先使用Linux的系统监控工具(如top、htop)或Windows的任务管理器,查看系统整体的CPU使用率和其他资源使用情况。确认是否只有MongoDB进程占用大量CPU资源,还是其他进程也在竞争CPU资源。 3. 文档数据库服务查询性能分析工具与方式: 1. MongoDB Compass等工具来查看当前正在执行的查询(MongoDB Compass 的下载与使用请参见Mongodb的官网下载)。 2. 使用MongoDB shell的db.currentOp()命令,检查是否有某个查询或操作占用了大量CPU资源。 db.currentOp()命令解析: 例如:连接上Mongodb shell 执行以下操作: > db.users.find({ age: { $gte: 18 } }).limit(10) > db.currentOp() { "inprog" : [ { "opid" : 1290, // 操作的唯一标识符 "op" : "query", // 操作类型:查询 "ns" : "exampledb.users", // 操作涉及的命名空间 "query" : { "age" : { "$gte" : 18 } }, // 查询条件 "client" : "127.0.0.1:57852", // 客户端IP地址和端口 "desc" : "conn211", // 操作的描述信息 "active" : true, // 操作是否活动中 "secsrunning" : 5, // 操作已经运行的时间(以秒为单位) "oplog" : false, "numYields" : 0, "locks" : { "Global" : "r", // 全局读锁 "MMAPV1Journal" : "r" // MMAPv1引擎的日志读锁 }, "waitingForLock" : false, "msg" : "", "numYieldOps" : 0, "database" : "exampledb", "command" : { "find" : "users", // 执行的命令:查找操作 "filter" : { "age" : { "$gte" : 18 } }, // 过滤条件 "limit" : 10 // 限制结果数 }, "planSummary" : "COLLSCAN", // 查询执行计划摘要 "lsid" : { "id" : { "UUID" : "e45ea9176c614a5e86812da4af89aa29" }, // 会话ID "uid" : ObjectId("ea6a1a2570a062f88eac10f5") // 用户ID }, "$clusterTime" : { "clusterTime" : Timestamp(1657796621, 1), "signature" : { "hash" : { "BsonData" : "wDUTByvnZXjN+MJB/M9Rlg", "Length" : 28 }, "keyId" : 6963168194386045953 } }, "stale" : false, "txnNumber" : 11, "startAt" : ISODate("20230721T15:57:01.246Z"), "autocommit" : false, "lastWrite" : { "opTime" : { "ts" : Timestamp(1657796621, 1), "t" : 1 }, "lastWriteDate" : ISODate("20230721T15:57:01Z"), "majorityOpTime" : { "ts" : Timestamp(1657796621, 1), "t" : 1 }, "majorityWriteDate" : ISODate("20230721T15:57:01Z") }, "activeShards" : {}, "numShards" : 0, "shardName" : "", "hashed" : false, "batchSize" : 0, "mode" : "scanned" } ] } 4. 确认索引使用情况:检查数据库中的索引是否被有效使用。缺少索引或索引使用不当可能导致查询性能下降,从而导致高CPU使用率。 5. 长时间运行的查询:检查是否有长时间运行的查询,这些查询可能会占用大量CPU资源。优化查询性能或者对长时间运行的查询进行调整可能有助于降低CPU使用率。 6. 调整Write Concern:写操作的Write Concern设置会影响数据写入的确认方式,使用较高级别的Write Concern可能会导致CPU开销增加。根据应用需求,选择合适的Write Concern。 7. 硬件性能:确认文档数据库运行在性能良好的硬件上,包括CPU、内存和磁盘。如果硬件性能不足,可能会导致CPU使用率过高。 8. 日志记录级别:考虑降低文档数据的日志记录级别,减少日志输出对CPU的影响。 9. 压力测试:进行压力测试以模拟生产环境的负载,并观察CPU使用率的变化。通过压力测试可以更好地理解系统的瓶颈和性能问题。 10. 数据分片:如果数据量较大,可以考虑使用文档数据库服务的分片集群,将数据分散到多个节点上,以实现水平扩展和负载均衡。 11. 数据库版本和配置:确保使用的文档数据库服务版本是较新的稳定版本,并根据硬件资源和负载情况合理配置文档数据库服务的参数。 注意 高CPU使用率可能是复杂的问题,可能有多个因素共同导致。在进行问题排查时,建议先在测试环境中进行实验和测试,逐步排查可能的原因。如果问题持续存在,可以考虑寻求专业的文档数据库技术支持。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        性能调优
        排查实例CPU使用率高问题
      • 步骤1:创建初始表并加装样例数据
        本章节主要介绍创建初始表并加装样例数据的最佳实践。 创建一组不设置存储方式,无分布键、分布方式和压缩方式的表。然后,为这些表加载样例数据。 1.(可选)创建集群。 如果已经有可供使用的集群,则可跳过这一步。创建集群的操作,请按中的步骤操作。同时请使用SQL客户端连接到集群并测试连接。 本实践所使用的是8节点集群。也可以使用4节点集群进行测试。 2.使用最少的属性创建SS(StoreSales)测试表。 说明 如果SS表在当前数据库中已存在,需要先删除这些表。删除表使用DROP TABLE命令。如下示例表示删除表storesales。 DROP TABLE storesales; 考虑到本实践的目的,首次创建表时,没有设置存储方式、分布键、分布方式和压缩方式。 执行CREATE TABLE命令创建上图"TPCDS Store Sales ERDiagram"中的11张表。限于篇幅,这里仅附storesales的创建语法。请从附录初始表创建中拷贝所有建表语法进行创建。 CREATE TABLE storesales ( sssolddatesk integer , sssoldtimesk integer , ssitemsk integer not null, sscustomersk integer , sscdemosk integer , sshdemosk integer , ssaddrsk integer , ssstoresk integer , sspromosk integer , ssticketnumber bigint not null, ssquantity integer , sswholesalecost decimal(7,2) , sslistprice decimal(7,2) , sssalesprice decimal(7,2) , ssextdiscountamt decimal(7,2) , ssextsalesprice decimal(7,2) , ssextwholesalecost decimal(7,2) , ssextlistprice decimal(7,2) , ssexttax decimal(7,2) , sscouponamt decimal(7,2) , ssnetpaid decimal(7,2) , ssnetpaidinctax decimal(7,2) , ssnetprofit decimal(7,2) ) ; 3.为这些表加载样例数据。 OBS存储桶中提供了本次实践的样例数据。该存储桶向所有经过身份验证的云用户提供了读取权限。请按照下面的步骤加载这些样例数据: a.为每个表创建对应的外表。 DWS应用Postgres提供的外部数据封装器FDW(Foreign Data Wrapper)进行数据并行导入。因此需要先创建FDW表,又称外表。限于篇幅,此处仅给出“storesales”表对应的外表“obsfromstoresales001”的创建语法。请从附录外表创建拷贝其他外表的语法进行创建。 说明 l 注意,以下语句中的代表OBS桶名,仅支持部分区域。DWS集群不支持跨区域访问OBS桶数据。 l 外表字段需与即将注入数据的普通表字段保持一致。例如此处storesales表及其对应的外表obsfromstoresales001,他们的字段是一致的。 l 这些外表语法能够帮助您获取OBS存储桶中为本次实践所提供的样例数据。如果您需要加载其他样例数据,需进行SERVER gsmppserver OPTIONS的调整。 CREATE FOREIGN TABLE obsfromstoresales001 ( sssolddatesk integer , sssoldtimesk integer , ssitemsk integer not null, sscustomersk integer , sscdemosk integer , sshdemosk integer , ssaddrsk integer , ssstoresk integer , sspromosk integer , ssticketnumber bigint not null, ssquantity integer , sswholesalecost decimal(7,2) , sslistprice decimal(7,2) , sssalesprice decimal(7,2) , ssextdiscountamt decimal(7,2) , ssextsalesprice decimal(7,2) , ssextwholesalecost decimal(7,2) , ssextlistprice decimal(7,2) , ssexttax decimal(7,2) , sscouponamt decimal(7,2) , ssnetpaid decimal(7,2) , ssnetpaidinctax decimal(7,2) , ssnetprofit decimal(7,2) ) Configure OBS server information and data format details. SERVER gsmppserver OPTIONS ( LOCATION '/tpcds/storesales', FORMAT 'text', DELIMITER '', ENCODING 'utf8', NOESCAPING 'true', ACCESSKEY 'accesskeyvaluetobereplaced', SECRETACCESSKEY 'secretaccesskeyvaluetobereplaced', REJECTLIMIT 'unlimited', CHUNKSIZE '64' ) If create foreign table failed,record error message WITH errobsfromstoresales001; b.将创建外表语句中的参数ACCESSKEY和SECRETACCESSKEY替换为实际值,然后在客户端工具中执行替换后的语句创建外表。 ACCESSKEY和SECRETACCESSKEY的值,请参见“常见问题通用问题”中的“如何获取Access Key ID(AK)和 Secret Access Key(SK)”。 c.执行数据导入。 创建包含如下语句的insert.sql脚本文件,并执行.sql脚本文件。 timing on parallel on 4 INSERT INTO storesales SELECT FROM obsfromstoresales001; INSERT INTO datedim SELECT FROM obsfromdatedim001; INSERT INTO store SELECT FROM obsfromstore001; INSERT INTO item SELECT FROM obsfromitem001; INSERT INTO timedim SELECT FROM obsfromtimedim001; INSERT INTO promotion SELECT FROM obsfrompromotion001; INSERT INTO customerdemographics SELECT from obsfromcustomerdemographics001 ; INSERT INTO customeraddress SELECT FROM obsfromcustomeraddress001 ; INSERT INTO householddemographics SELECT FROM obsfromhouseholddemographics001; INSERT INTO customer SELECT FROM obsfromcustomer001; INSERT INTO incomeband SELECT FROM obsfromincomeband001; parallel off 结果应该类似如下: SET Timing is on. SET Time: 2.831 ms Parallel is on with scale 4. Parallel is off. INSERT 0 402 Time: 1820.909 ms INSERT 0 73049 Time: 2715.275 ms INSERT 0 86400 Time: 2377.056 ms INSERT 0 1000 Time: 4037.155 ms INSERT 0 204000 Time: 7124.190 ms INSERT 0 7200 Time: 2227.776 ms INSERT 0 1920800 Time: 8672.647 ms INSERT 0 20 Time: 2273.501 ms INSERT 0 1000000 Time: 11430.991 ms INSERT 0 1981703 Time: 20270.750 ms INSERT 0 287997024 Time: 341395.680 ms total time: 341584 ms d.计算所有11张表的总执行时间。该数字将作为加载时间记录在下一小节步骤步骤1中的基准表内。 e.执行以下命令,验证每个表是否都已正确加载并将行数记录到表中。 SELECT COUNT() FROM storesales; SELECT COUNT() FROM datedim; SELECT COUNT() FROM store; SELECT COUNT() FROM item; SELECT COUNT() FROM timedim; SELECT COUNT() FROM promotion; SELECT COUNT() FROM customerdemographics; SELECT COUNT() FROM customeraddress; SELECT COUNT() FROM householddemographics; SELECT COUNT() FROM customer; SELECT COUNT() FROM incomeband; 以下显示每个SS表的行数: 表名称 行数 StoreSales 287997024 DateDim 73049 Store 402 Item 204000 TimeDim 86400 Promotion 1000 CustomerDemographics 1920800 CustomerAddress 1000000 HouseholdDemographics 7200 Customer 1981703 IncomeBand 20 4.执行ANALYZE更新统计信息。 ANALYZE; 返回ANALYZE后,表示执行成功。 ANALYZE ANALYZE语句可收集数据库中与表内容相关的统计信息,统计结果存储在系统表PGSTATISTIC中。查询优化器会使用这些统计数据,以生成最有效的执行计划。 建议在执行了大批量插入/删除操作后,例行对表或全库执行ANALYZE语句更新统计信息。
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        调优表实践
        步骤1:创建初始表并加装样例数据
      • 语音输入
        本文说明如何开启语音交互。 操作步骤 1. 发布应用时,配置项选择开启语音交互即可支持语音输入至节点机中,实现多人游戏开黑! 2. 如果业务需要在运行过程中控制网页中麦克风的开启和关闭,实现音频的捕获和停止操作,可以调用openMicrophone()控制麦克风开关。 shell //Microphone //Start capture audio to node onPhaseChange: (phase) > { if (phase "datachannelopen") { launcher?.launcherBase?.openMicrophone(); } }; //Stop launcher?.launcherBase?.closeMicrophone(); 注意 语音交互需要业务客户端开启了麦克风权限才可生效。
        来自:
        帮助文档
        实时云渲染(文档停止维护)
        用户指南
        应用管理
        应用交互配置说明
        语音输入
      • 产品规格
        section49bbf3dd441b752d)。 Web应用防火墙 v2.0 SaaS版 域名扩展包 1个域名扩展包支持10个域名,其中支持添加1个主域名(备案的域名)。 Web应用防火墙 v2.0 SaaS版 业务扩展包 1个业务扩展包包含1000QPS/个,最多支持30个业务扩展包,每增加一个业务扩展包,可增加50Mbps带宽弹性上限,100Mbps带宽保护上限。 Web应用防火墙 v2.0 SaaS版 规则扩展包 1个规则扩展包包含50条防护规则/域名,当前仅适用IP黑白名单防护模块。 Web应用防火墙 v2.0独享版 单机版(1节点/实例) 支持01Gbps的业务防护,默认业务请求峰值3000QPS(200Mbs),默认防护域名(不区分主域名、子域名)/IP(公网IP、私网IP)个数100个/实例,防护端口数最大支持65535个(常用端口除外),更多信息请参见产品规格。 Web应用防火墙 v2.0独享版 域名扩展包 1个域名扩展包支持10个域名或IP。 Web应用防火墙 v2.0独享版 带宽扩展包 1个带宽扩展包包含1000QPS业务请求峰值、50Mbps业务带宽。 数据分类分级 标准版 4资产 支持纳管4个数据库,支持处理的数据库字段数为3万字段以内。 数据分类分级 标准版 8资产 支持纳管8个数据库,支持处理的数据库字段数为7万字段以内。 数据分类分级 标准版 16资产 支持纳管16个数据库,支持处理的数据库字段数为15万字段以内。 数据分类分级 标准版 32资产 支持纳管32个数据库,支持处理的数据库字段数为30万字段以内。 数据脱敏与水印 标准版 4资产 支持纳管4个数据库,提供数据脱敏与水印溯源能力,仅允许脱敏基本数据库类型。 数据脱敏与水印 标准版 8资产 支持纳管8个数据库,提供数据脱敏与水印溯源能力,仅允许脱敏基本数据库类型。 数据脱敏与水印 标准版 16资产 支持纳管16个数据库,提供数据脱敏与水印溯源能力,仅允许脱敏基本数据库类型。 数据脱敏与水印 标准版 32资产 支持纳管32个数据库,提供数据脱敏与水印溯源能力,仅允许脱敏基本数据库类型。 数据脱敏与水印 高级版 4资产 支持纳管4个数据库,提供数据脱敏与水印溯源能力,允许脱敏基本数据库+国产数据库。 数据脱敏与水印 高级版 8资产 支持纳管8个数据库,提供数据脱敏与水印溯源能力,允许脱敏基本数据库+国产数据库。 数据脱敏与水印 高级版 16资产 支持纳管16个数据库,提供数据脱敏与水印溯源能力,允许脱敏基本数据库+国产数据库。 数据脱敏与水印 高级版 32资产 支持纳管32个数据库,提供数据脱敏与水印溯源能力,允许脱敏基本数据库+国产数据库。 数据脱敏与水印 企业版 4资产 支持纳管4个数据库,提供数据脱敏与水印溯源能力,允许脱敏基本数据库、国产数据库、大数据组件。 数据脱敏与水印 企业版 8资产 支持纳管8个数据库,提供数据脱敏与水印溯源能力,允许脱敏基本数据库、国产数据库、大数据组件。 数据脱敏与水印 企业版 16资产 支持纳管16个数据库,提供数据脱敏与水印溯源能力,允许脱敏基本数据库、国产数据库、大数据组件。 数据脱敏与水印 企业版 32资产 支持纳管32个数据库,提供数据脱敏与水印溯源能力,允许脱敏基本数据库、国产数据库、大数据组件。
        来自:
        帮助文档
        云等保专区
        产品介绍
        产品规格
      • ALM-16005 Hive服务进程堆内存使用超出阈值
        本章节主要介绍ALM16005 Hive服务进程堆内存使用超出阈值的告警。 告警解释 系统每30秒周期性检测Hive堆内存使用率,并把实际的Hive堆内存使用率和阈值相比较。当Hive堆内存使用率超出阈值(默认为最大堆内存的95%)时产生该告警。 用户可通过“运维 >告警 > 阈值设置 > 待操作集群的名称 > Hive”修改阈值。 当Hive堆内存使用率小于或等于阈值时,告警恢复。 告警属性 告警ID 告警级别 是否自动清除 16005 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 Trigger Condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 Hive堆内存使用率过高,会影响Hive任务运行的性能,甚至造成内存溢出导致Hive服务不可用。 可能原因 该节点Hive实例堆内存使用量过大,或分配的堆内存不合理,导致使用率超过阈值。 处理步骤 检查堆内存使用率 1.在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,选中“告警ID”为“16005”的告警,查看“定位信息”中的角色名并确定实例的IP地址。 告警上报的角色是HiveServer,执行步骤2。 告警上报的角色是MetaStore,执行步骤3。 2.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Hive > 实例”,单击告警上报的HiveServer,进入实例“概览”页面,单击图表区域右上角的下拉菜单,选择“定制 > CPU和内存”,勾选“HiveServer内存使用率统计”,单击“确定”,查看HiveServer进程使用的堆内存是否已达到HiveServer进程设定的最大堆内存的阈值(默认95%)。 是,执行步骤4。 否,执行步骤7。 3.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Hive > 实例”,单击告警上报的MetaStore,进入实例“概览”页面,单击图表区域右上角的下拉菜单,选择“定制 > CPU和内存”,勾选“MetaStore内存使用率统计”,单击“确定”,查看MetaStore进程使用的堆内存是否已达到MetaStore进程设定的最大堆内存的阈值(默认95%)。 是,执行步骤4。 否,执行步骤7。 4.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Hive > 配置”,选择“全部配置”,选择“HiveServer/MetaStore > JVM”,将“HIVEGCOPTS/METASTOREGCOPTS”参数中“Xmx”的值根据如下建议进行调整,并单击“保存”。 说明 HiveServer的GC参数配置建议 当HiveServer进程使用的堆内存已达到HiveServer进程设定的堆内存的阈值时,将“Xmx”值调整为默认值的2倍,比如:“Xmx”默认设置为2G时,调整“Xmx”的值为4G。在FusionInsight Manager首页,选择“运维 > 告警 > 阈值设置 > 待操作集群名称 > Hive > CPU和内存 > HiveServer堆内存使用率统计 (HiveServer)”,可查看“阈值”。 建议同时调节“Xms”的值,使“Xms”和“Xmx”比值为1:2,这样可以避免JVM动态调整堆内存大小时影响性能。 MetaServer的GC参数配置建议 当MetaStore进程使用的堆内存已达到MetaStore进程设定的堆内存的阈值时,将“Xmx”值调整为默认值的2倍,比如:“Xmx”默认设置为2G时,调整“Xmx”的值为4G。在FusionInsight Manager首页,选择“运维 > 告警 > 阈值设置 > 待操作集群名称 > Hive > CPU和内存 > MetaStore堆内存使用率统计 (MetaStore)”,可查看“阈值”。 建议同时调节“Xms”的值,使“Xms”和“Xmx”比值为1:2,这样可以避免JVM动态调整堆内存大小时影响性能。 5.选择“更多 > 重启服务”重启服务。 6.观察界面告警是否清除。 是,处理完毕。 否,执行步骤7。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-16005 Hive服务进程堆内存使用超出阈值
      • 添加子租户
        本章节主要介绍添加子租户 。 操作场景 当租户需要根据业务需求,将当前租户的资源进一步分配时,可以在MRS Manager添加子租户。 前提条件 已添加上级租户。 根据业务需求规划租户的名称,不得与当前集群中已有的角色或者Yarn队列重名。 如果子租户需要使用存储资源,则提前根据业务需要规划好存储路径,分配的存储目录在父租户的存储目录中不存在。 规划当前租户可分配的资源,确保每一级别父租户下,直接子租户的资源百分比之和不能超过100%。 操作步骤 在MRS Manager,单击“租户管理”。 1. 在左侧租户列表,将光标移动到需要添加子租户的租户节点上,单击“添加子租户”,打开添加子租户的配置页面,参见以下表格内容为租户配置属性。 子租户参数一览表 参数名 描述 “父租户” 显示上级父租户的名称。 “名称” 指定当前租户的名称,长度为1到20,可包含数字、字母和下划线。 “租户类型” 可选参数值为“叶子租户”和“非叶子租户”,当选中“叶子租户”时表示当前租户为叶子租户,无法再添加子租户。当选中“非叶子租户”时表示当前租户可以再添加子租户。 “动态资源” 为当前租户选择动态计算资源。系统将自动在Yarn父租户队列中以子租户名称创建任务队列。动态资源不选择“Yarn”时,系统不会自动创建任务队列。如果父租户未选择动态资源,子租户也无法使用动态资源。 “默认资源池容量(%)” 配置当前租户使用的资源百分比,基数为父租户的资源总量。 “默认资源池最大容量(%)” 配置当前租户使用的最大计算资源百分比,基数为父租户的资源总量。 “储存资源” 为当前租户选择存储资源。系统将自动在HDFS父租户目录中,以子租户名称创建文件夹。存储资源不选择“HDFS”时,系统不会在HDFS中创建存储目录。如果父租户未选择存储资源,子租户也无法使用存储资源。 “存储空间配额(MB)” 配置当前租户使用的HDFS存储空间配额。最小值值为“1”,最大值为父租户的全部存储配额。单位为MB。此参数值表示租户可使用的HDFS存储空间上限,不代表一定使用了这么多空间。如果参数值大于HDFS物理磁盘大小,实际最多使用全部的HDFS物理磁盘空间。若此配额大于父租户的配额,实际存储量受父租户配额影响。 说明 为了保证数据的可靠性,HDFS中每保存一个文件则自动生成1个备份文件,即默认共2个副本。HDFS存储空间球所有副本文件在HDFS中占用磁盘空间大小总和。例如“父租户中分配资源”设置为“500”,则实际只能保存约500/2250MB大小的文件。 “存储路径” 配置租户在HDFS中的存储目录。系统默认将自动在父租户目录中以子租户名称创建文件夹。例如子租户“ta1s”,父目录为“tenant/ta1”,系统默认自动配置此参数值为“tenant/ta1/ta1s”,最终子租户的存储目录为“/tenant/ta1/ta1s”。支持在父目录中自定义存储路径。存储路径的父目录必需是父租户的存储目录。 “服务” 配置当前租户关联使用的其他服务资源,支持HBase。单击“关联服务”,在“服务”选择“HBase”。在“关联类型”选择“独占”表示独占服务资源,选择“共享”表示共享服务资源。 “描述” 配置当前租户的描述信息。 2. 单击“确定”保存,完成子租户添加。 保存配置需要等待一段时间,界面右上角弹出提示“租户创建成功。”,租户成功添加。 说明 创建租户时将自动创建租户对应的角色、计算资源和存储资源。 新角色包含计算资源和存储资源的权限。此角色及其权限由系统自动控制,不支持通过“角色管理”进行手动管理。 使用此租户时,请创建一个系统用户,并分配租户对应的角色。具体操作请参见
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        租户管理
        添加子租户
      • 弹性伸缩搭配GPU云主机水平扩展最佳实践
        对比传统部署模式,GPU云主机配合弹性伸缩使用,可以帮助您在推理任务高峰期自动扩容GPU节点减少卡顿,在任务请求低峰期减少GPU服务器规模节约成本,保障业务连续性的同时降低资源、运维成本。 操作步骤 1. 使用大模型镜像创建包年包月的云主机实例 创建一定数量的包年包月GPU实例,用于后续将实例添加到伸缩组,满足大模型业务模块的非高峰或低谷时间段要求。 1. 登录控制中心。 2. 根据业务部署需求选择弹性伸缩组及其管理的云主机实例所在地域。 3. 单击“计算>弹性云主机”,进入弹性云主机管理控制台。 4. 在右上角点击“创建云主机”按钮,进入到弹性云主机创建页面。 5. 在弹性云主机创建页面,完成云主机参数配置。创建成功之后如图: 说明 搭建DeepSeek等大模型云主机选型、部署等说明可参考GPU云主机/弹性云主机:零基础搭建DeepSeek云端环境指南弹性云主机DeepSeek专题实践指南:DeepSeek驱动高效能云生态 天翼云。 2. 创建使用大模型镜像的伸缩配置 为业务创建可用于自动扩容的云主机模板,即弹性伸缩配置。 1. 登录控制中心,选择弹性伸缩组所在地域(与前一步骤中创建的GPU云主机需保持一致)。 2. 单击“计算>弹性伸缩服务”,进入弹性伸缩管理控制台并切换到伸缩配置页面。 3. 点击右上角“创建伸缩配置”,进入“创建伸缩”配置页面。使用步骤1中创建的实例作为模板创建伸缩配置。 4. 点击“确认”,即可创建伸缩配置成功,创建成功如图所示: 3. 创建伸缩组并添加云主机实例 为低成本、高稳定性业务集群创建弹性伸缩组,并将创建好的云主机实例添加至此伸缩组内,来满足日常业务的需求。 1. 登录控制中心,选择弹性伸缩组所在地域(与前一步骤中创建的GPU云主机需保持一致)。 2. 单击“计算>弹性伸缩服务”,进入弹性伸缩管理控制台。 3. 在“弹性伸缩组”页签中,点击右上角“创建弹性伸缩组”,进入“创建弹性伸缩组>伸缩参数”配置页面。 4. 在“伸缩参数”页面完成基础配置,具体参数配置可参见创建伸缩组。 5. 在“配置来源”页面,选择已有配置,为伸缩组绑定一个或多个配置。 6. 点击“立即创建”伸缩组创建成功,如下图: 7. 伸缩组创建成功之后,进入到伸缩组详情页面,将步骤1中创建包年包月弹性云主机添加至伸缩组内并开启伸缩保护防止实例被移除,用于日常业务需求的满足。具体操作步骤请参见将实例移入伸缩组。添加成功之后如图: 4. 根据业务场景为伸缩组设置自动伸缩策略 为已创建好的伸缩组设置伸缩策略,来满足突发的业务流量变化,确保业务的稳定运行。 1. 进入弹性伸缩管理控制台,点击步骤3创建好的伸缩组名称,进入到伸缩组详情页面。 2. 单击“伸缩策略”进入伸缩策略页签,单击“创建策略”按钮,进入到“创建伸缩策略”页面。 3. 在“创建伸缩策略”页面中完成策略的配置。您可以根据使用场景选择告警、定时等自动伸缩策略,帮助伸缩组在业务高峰期自动扩容大模型实例、在业务低谷期自动释放实例,保证业务稳定的同时最大程度的优化资源使用成本。具体操作步骤可参见创建伸缩策略。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        AIGC实践
        弹性伸缩搭配GPU云主机水平扩展最佳实践
      • Ingress诊断
        本节介绍了Ingress诊断对应的检查项以及修复方案。 Ingress诊断主要包括Ingress注解、Ingress Controller组件启动参数等检查项。 注意 使用故障诊断功能时,系统将在您的集群节点上执行数据采集程序并收集检查结果。采集的信息包括系统版本,负载、Docker、Kubelet等运行状态及系统日志中关键错误信息。数据采集程序不会采集您的业务信息及敏感数据。 Ingress诊断对应的检查项 根据集群配置,具体检查项可能稍有不同。实际结果请以诊断页面结果为准。 检查项名称 说明 修复方案 检查Ingress是否存在 检查是否通过提供的信息找到了对应的Ingress资源。 检查所提供的URL信息是否有能够对应的Ingress规则。若URL信息无误,可能是Ingress规则存在问题。 Ingress名称 展示所匹配到的Ingress规则名称。 无 检查是否使用了nginx.ingress.kubernetes.io/sessioncookiehash废弃注解 检查是否使用了在0.24.0版本废弃的nginx.ingress.kubernetes.io/sessioncookiehash注解key。 确认当前Ingress Controller版本,移除该注解或使用其他注解代替。 检查是否使用了nginx.ingress.kubernetes.io/baseurlscheme废弃注解 检查是否使用了在0.22.0版本废弃的nginx.ingress.kubernetes.io/baseurlscheme注解key。 确认当前Ingress Controller版本,移除该注解或使用其他注解代替。 检查是否使用了nginx.ingress.kubernetes.io/securebackends废弃注解 检查是否使用了在0.21.0版本废弃的nginx.ingress.kubernetes.io/securebackends注解key。 确认当前Ingress Controller版本,移除该注解或使用其他注解代替。 检查是否使用了nginx.com/nginx.org注解 检查是否使用了不兼容社区版Nginx Ingress Controller的商业版Ingress注解key(以nginx.com/nginx.org开头)。 请使用对应功能的正确用法。关于Ingress更多信息,请参见社区官方文档Nginx Ingress Controller。(引用到官方文档) 检查是否使用了nginx.ingress.kubernetes.io/grpcbackend废弃注解 检查是否使用了在0.21.0版本废弃的nginx.ingress.kubernetes.io/grpcbackend注解key。 确认当前Ingress Controller版本,移除该注解或使用其他注解代替。 检查是否使用了nginx.ingress.kubernetes.io/mirroruri废弃注解 检查是否使用了在0.24.0版本废弃的nginx.ingress.kubernetes.io/mirroruri注解key。 确认当前Ingress Controller版本,移除该注解或使用其他注解代替。 检查是否启用了canary 使用了nginx.ingress.kubernetes.io/canary相关注解,但value值为"false‘,如果需要使用灰度功能,请指定nginx.ingress.kubernetes.io/canary: "true"。 如果您需要在该Ingress上开启Canary功能,请在Ingress规则上添加nginx.ingress.kubernetes.io/canary: "true"注解。 检查Ingress是否存在异常事件 检查集群中是否存在与该Ingress相关的异常事件。 检查并处理异常事件描述信息中的报错,如无法解决,请提交工单处理。 检查Ingress Controller是否存在 检查Ingress使用的Ingress Class对应的Ingress Controller工作负载是否存在。 确认kubesystem命名空间下Ingress Controller工作负载存在。如不存在,请尝试安装相关Ingress Controller插件。 Ingress Controller就绪Pod比值 检查Ingress Controller工作负载对应的就绪Pod比值。 检查Ingress Controller Pod状态,保证Pod存在且处于Ready状态。 检查是否使用了forcenamespaceisolation废弃的启动参数 检查Ingress Controller是否使用了在0.24.0版本废弃的"forcenamespaceisolation"启动参数。 确认当前Ingress Controller版本,移除该启动参数。 检查是否使用了sortbackends废弃的启动参数 检查Ingress Controller是否使用了在0.22.0版本废弃的"sortbackends"启动参数。 确认当前Ingress Controller版本,移除该启动参数。 检查Ingress Controller Pod中是否存在error日志 检查Ingress Controller Pod最近的日志中是否包含error错误日志。 检查并处理Ingress Controller Pod中报错日志,如Service端口冲突等。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        运维管理
        故障诊断
        Ingress诊断
      • 1
      • ...
      • 219
      • 220
      • 221
      • 222
      • 223
      • ...
      • 230
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      镜像服务 IMS

      轻量型云主机

      天翼云CTyunOS系统

      公共算力服务

      一站式智算服务平台

      知识库问答

      人脸检测

      人脸实名认证

      推荐文档

      提现规则

      接口方法概述

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号