云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      等保咨询_相关内容
      • 工作负载弹性伸缩
        li16804196913 " ") 告警策略:支持根据CPU/内存的设置,进行工作负载的自动伸缩。工作负载创建完成后即可设置,在CPU/内存超过或少于一定值时,自动增减实例。 定时策略:支持在特定时间点进行工作负载的自动伸缩。适用于秒杀周年庆等活动,例如在秒杀这个时间点增加一定数量的实例个数。 周期策略:支持以天、周、月为周期的伸缩策略。适用于周期性的流量变化。 告警策略:支持根据CPU/内存的设置,进行工作负载的自动伸缩。 a. 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment/有状态负载 StatefulSet”,单击工作负载名称后的“更多 > 伸缩”。 b. 在弹性伸缩下,单击“添加伸缩策略”。 c. 参照下表设置伸缩策略参数: 表告警策略 参数 参数说明 策略名称 请输入伸缩策略的名称。 伸缩策略名称必须符合164字符,只能用字母、数字、下划线、中划线的组合,必须以字母开头。 策略类型 选择“告警策略”。 告警策略基于历史数据进行判断触发,以1 分钟为周期去判断监控窗口时间内用户设定的指标是否满足触发条件,若连续n个周期都满足触发条件,将会执行操作。 指标 指标是对资源性能的数据描述或状态描述。 CPU使用率:该指标用于统计测量对象的CPU使用率。工作负载实际使用的与申请的CPU核数量比率。 数据发送速率:该指标用于统计测量对象每秒钟发送的数据量。 磁盘写入速率:该指标用于统计每秒写入磁盘的数据量。 物理内存使用率:该指标用于统计测量对象已使用内存占申请物理内存总量的百分比。 物理内存总量:该指标用于统计测量对象申请的物理内存总量。 数据接收速率:该指标用于统计测量对象每秒钟接收的数据量。 CPU内核总量:该指标用于统计测量对象申请的CPU核总量。 物理内存使用量:该指标用于统计测量对象实际已经使用的物理内存(Resident Set Size)。 磁盘读取速率:该指标用于统计每秒从磁盘读出的数据量。 CPU内核占用:该指标用于统计测量对象已经使用的CPU核个数。 容器错包个数:该指标用于统计测量对象收到错误包的数量。 触发条件 可选“>”或“ ”70%,表示在CPU使用率超过70%时触发伸缩策略。 监控窗口 指数据的汇聚窗口大小。 若设置为60秒,表示每60秒统计一次。 连续周期 指监控窗口内连续触发阈值的次数,计算周期固定一分钟。 若设置为3,则表示指标数据连续三个统计周期达到了设定的阈值,则触发策略动作。 执行操作 策略触发后执行的动作,可增加或减少实例个数。 d. 单击“确定”。 e. 在弹性伸缩下,可看到策略已启动。 查看告警策略 待到触发条件发生时,弹性伸缩策略会自动启动。 定时策略:支持在特定时间点进行工作负载的自动伸缩。 a. 在弹性伸缩下,单击“添加伸缩策略”,选择“定时策略”。 表定时策略 参数 参数说明 策略名称 请输入伸缩策略的名称。 伸缩策略名称必须符合164字符,只能用字母、数字、下划线、中划线的组合,必须以字母开头。 策略类型 选择定时策略。 触发时间 策略触发时间。 执行操作 策略触发后执行的动作,可增加、减少或设置实例个数。 b. 单击“确定”。 c. 在弹性伸缩下,可看到策略已启动。 查看定时策略 待到触发时间时,可查看到实例列表页签中,弹性伸缩已生效。 周期策略:支持以天、周、月为周期的伸缩策略。 a. 在弹性伸缩下,单击“添加伸缩策略”,选择“周期策略” 表周期策略 参数 参数说明 策略名称 请输入伸缩策略的名称。 伸缩策略名称必须符合164字符,只能用字母、数字、下划线、中划线的组合,必须以字母开头。 策略类型 选择周期策略。 选择时间 选择策略触发的时间。 执行操作 策略触发后执行的动作,可增加、减少或设置实例个数。 b. 单击“确定”。 c. 在弹性伸缩下,可看到策略已启动。 图查看周期策略 待触发条件生效时,弹性伸缩策略会自动启动。 手动伸缩 步骤 1 登录,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment/有状态负载 StatefulSet”,单击工作负载名称后的“伸缩”。 步骤 2 在“手动伸缩”策略下,单击修改实例数量,例如修改为“3”,单击“保存”后实例伸缩操作即可生效。 步骤 3 在“实例列表”页签下,可查看到新的实例在创建中,待状态为运行中时,表示已成功完成实例伸缩操作。 图手动伸缩
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        工作负载
        工作负载弹性伸缩
      • 修改分区平衡
        带宽限制值估算方法 带宽限制值受分区平衡任务执行时间、分区副本Leader/Follower分布情况以及消息生产速率等因素影响,具体分析如下。 带宽限制值作用范围为整个Broker,对该Broker内所有副本同步的分区进行带宽限流。 带宽限制会将分区平衡后新增的副本视为Follower副本限流,分区平衡前的Leader副本视为Leader副本限流,Leader副本的限流和Follower副本限流分开计算。 带宽限制不会区分是正常的生产消息造成的副本同步还是分区平衡造成的副本同步,因此两者的流量都会被限流统计。 假设分区平衡任务需要在200s内完成,每个副本的数据量为100MB,在以下几种场景中,估算带宽限制值。 场景一:Topic1有2分区2副本,Topic2有1分区1副本,所有Leader副本在同一个Broker上 ,Topic1和Topic2分别需要新增1个副本 表 分区平衡前Topic分区的副本分布 Topic名称 分区名称 Leader副本所在Broker Follower副本所在Broker Topic1 0 0 0,1 Topic1 1 0 0,2 Topic2 0 0 0 表分区平衡后Topic分区的副本分布 Topic名称 分区名称 Leader副本所在Broker Follower副本所在Broker Topic1 0 0 0,1,2 Topic1 1 0 0,1,2 Topic2 0 0 0,2 图 场景一分区平衡图 如上图所示,有3个副本需要从Broker 0拉取数据,Broker 0中每个副本的数据量为100MB,Broker 0中只有Leader副本,Broker 1和Broker 2中只有Follower副本,由此得出以下数据: Broker 0在200s内完成分区平衡所需的带宽限制值(100+100+100)/2001.5MB/s Broker 1在200s内完成分区平衡所需的带宽限制值100/2000.5MB/s Broker 2在200s内完成分区平衡所需的带宽限制值(100+100)/2001MB/s 综上所述,若想要在200s内完成分区平衡任务,带宽限制值应设为大于等于1.5MB/s。 场景二:Topic1有2分区1副本,Topic2有2分区1副本,Leader副本分布在不同Broker上,Topic1和Topic2分别需要新增1个副本 表 分区平衡前Topic分区的副本分布 Topic名称 分区名称 Leader副本所在Broker Follower副本所在Broker Topic1 0 0 0 Topic1 1 1 1 Topic2 0 1 1 Topic2 1 2 2 表分区平衡后Topic分区的副本分布 Topic名称 分区名称 Leader副本所在Broker Follower副本所在Broker Topic1 0 0 0,2 Topic1 1 1 1,2 Topic2 0 1 1,2 Topic2 1 2 2,0 图 场景二分区平衡图 如上图所示,Broker 1中只有Leader副本,Broker 0和Broker 2中存在Leader副本和Follower副本,由于Leader副本的限流和Follower副本限流分开计算,Broker 0和Broker 2需要分别计算Leader副本的限流和Follower副本限流。由此得出以下数据: Broker 0作为Leader副本在200s内完成分区平衡所需的带宽限制值100/2000.5MB/s Broker 0作为Follower副本在200s内完成分区平衡所需的带宽限制值100/2000.5MB/s Broker 1在200s内完成分区平衡所需的带宽限制值(100+100)/2001MB/s Broker 2作为Leader副本在200s内完成分区平衡所需的带宽限制值100/2000.5MB/s Broker 2作为Follower副本在200s内完成分区平衡所需的带宽限制值(100+100+100)/2001.5MB/s 综上所述,若想要在200s内完成分区平衡任务,带宽限制值应设为大于等于1.5MB/s。 场景三:Topic1有1分区2副本,Topic2有1分区2副本,所有Leader副本在同一个Broker上,Topic1需要新增1个副本,Topic1上有生产消息造成的副本同步 表分区平衡前Topic分区的副本分布 Topic名称 分区名称 Leader副本所在Broker Follower副本所在Broker Topic1 0 0 0,1 Topic2 0 0 0,1 表 分区平衡后Topic分区的副本分布 Topic名称 分区名称 Leader副本所在Broker Follower副本所在Broker Topic1 0 0 0,1,2 Topic2 0 0 0,1 图 场景三分区平衡图 如上图所示,有1个副本由于分区平衡需要从Broker 0拉取数据,另1个副本由于生产消息需要从Broker 0拉取数据,带宽限制不会区分是正常的生产消息造成的副本同步还是分区平衡造成的副本同步,因此两者的流量都会被限流统计。由此得出以下数据: Broker 0在200s内完成分区平衡所需的带宽限制值(100MB+700KB/s200s)/200s+700KB/s1.9MB/s Broker 2在200s内完成分区平衡所需的带宽限制值100/2000.5MB/s 综上所述,若想要在200s内完成分区平衡任务,带宽限制值应设为大于等于1.9MB/s。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        修改分区平衡
      • 设置健康检查
        使用云应用引擎部署应用,您可以使用健康检查功能查看应用与业务运行是否正常,以便运行异常时定位问题。本文介绍如何在云应用引擎控制台配置健康检查。 功能入口 场景不同,操作入口也有所不同 创建应用 1. 登录云应用引擎控制台,在左侧导航栏选择应用管理>应用列表,然后选择单击创建应用 2. 在应用基本信息向导页面进行配置后,单击下一步:高级设置。 对正在运行的应用进行变更 1. 登录云应用引擎控制台,在左侧导航栏选择应用管理>应用列表,然后单击目标应用名称 2. 在目标应用的基础信息页面,单击部署应用 注意 重新部署应用后,该应用将会被重启。为避免业务中断等不可预知的错误,请在业务低峰期执行部署操作 对已停止的应用进行变更 1. 登录云应用引擎控制台,在左侧导航栏选择应用管理>应用列表,然后单击目标应用名称 2. 在目标应用的基础信息页面,单击部署应用 健康检查配置指引 根据需求启用应用实例存活检查(Liveness配置)、启用应用业务就绪检查(Readiness配置)或启用应用启动探测(StartupProbe配置)。三者需要配置的参数项相同,参数解释如下 Liveness探针配置 配置项 说明 路径 访问HTTP Server的路径。 端口 访问HTTP Server的端口。 高级设置 展开高级设置后,选择判断返回的字符串中是否包含设置的关键字。 协议 选择HTTP 或HTTPS。 延迟时间(秒) 表示应用启动之后多久开始探测。延迟时间请务必大于应用正常启动耗时,否则会导致应用发布/运行过程中健康检查失败,反复重启。例如,应用启动时长为60秒,建议将延迟时间设置为70秒。 超时时间(秒) 表示探测超时时间。单位为秒,默认为1秒。例如设置为10秒,如果探测超时等待时间超过10秒,表示本次健康检查失败,上报超时异常。如果设置为0或不设置,默认超时等待时间为1秒。 检查周期(秒) 健康检查周期。单位为秒,默认为30秒。例如设置为5秒,表示每隔5秒检查一次。在业务容器刚启动的时候,SAE可能会比配置的检查周期更频繁地执行Readiness Probe。这种策略可以让实例尽快开始处理请求,从而提高服务的启动速度和整体的用户体验。 健康阈值(次) 探针在失败后,被视为成功的最小连续成功数。Liveness必须设置为1。 不健康阈值(次) 判定总体失败的连续失败数。 Readiness探针配置 配置项 说明 TCP端口 设置TCP检查访问的端口。 延迟时间(秒) 表示应用启动之后多久开始探测。延迟时间请务必大于应用正常启动耗时,否则会导致应用发布/运行过程中健康检查失败,反复重启。例如,应用启动时长为60秒,建议将延迟时间设置为70秒。 超时时间(秒) 表示探测超时时间。单位为秒,默认为1秒。例如设置为10秒,如果探测超时等待时间超过10秒,表示本次健康检查失败,上报超时异常。如果设置为0或不设置,默认超时等待时间为1秒。 检查周期(秒) 健康检查周期。单位为秒,默认为30秒。例如设置为5秒,表示每隔5秒检查一次。在业务容器刚启动的时候,SAE可能会比配置的检查周期更频繁地执行Readiness Probe。这种策略可以让实例尽快开始处理请求,从而提高服务的启动速度和整体的用户体验。 健康阈值(次) 探针在失败后,被视为成功的最小连续成功数。Liveness必须设置为1。 不健康阈值(次) 判定总体失败的连续失败数。 Startup探针配置 配置项 说明 延迟时间(秒) 表示应用启动之后多久开始探测。延迟时间请务必大于应用正常启动耗时,否则会导致应用发布/运行过程中健康检查失败,反复重启。例如,应用启动时长为60秒,建议将延迟时间设置为70秒。 超时时间(秒) 表示探测超时时间。单位为秒,默认为1秒。例如设置为10秒,如果探测超时等待时间超过10秒,表示本次健康检查失败,上报超时异常。如果设置为0或不设置,默认超时等待时间为1秒。 检查周期(秒) 健康检查周期。单位为秒,默认为30秒。例如设置为5秒,表示每隔5秒检查一次。在业务容器刚启动的时候,SAE可能会比配置的检查周期更频繁地执行Readiness Probe。这种策略可以让实例尽快开始处理请求,从而提高服务的启动速度和整体的用户体验。 健康阈值(次) 探针在失败后,被视为成功的最小连续成功数。Liveness必须设置为1。 不健康阈值(次) 判定总体失败的连续失败数。 执行命令 设置应用实例或者进程内部执行的健康检查命令。如果该命令返回码为0,则表示应用健康。 健康检查相关命令,请参见Kubernetes官网Configure Probe
        来自:
        帮助文档
        云应用引擎
        用户指南
        应用管理
        应用配置
        设置健康检查
      • prometheus
        插件简介 Prometheus是一套开源的系统监控报警框架。它启发于Google的borgmon监控系统,由工作在SoundCloud的Google前员工在2012年创建,作为社区开源项目进行开发,并于2015年正式发布。2016年,Prometheus正式加入Cloud Native Computing Foundation,成为受欢迎度仅次于Kubernetes的项目。 在云容器引擎CCE中,支持以插件的方式快捷安装Prometheus。 插件官网: 开源社区地址: 插件特点 作为新一代的监控框架,Prometheus具有以下特点: 强大的多维度数据模型: a. 时间序列数据通过metric名和键值对来区分。 b. 所有的metrics都可以设置任意的多维标签。 c. 数据模型更随意,不需要刻意设置为以点分隔的字符串。 d. 可以对数据模型进行聚合,切割和切片操作。 e. 支持双精度浮点类型,标签可以设为全unicode。 灵活而强大的查询语句(PromQL):在同一个查询语句,可以对多个metrics进行乘法、加法、连接、取分数位等操作。 易于管理:Prometheus server是一个单独的二进制文件,可直接在本地工作,不依赖于分布式存储。 高效:平均每个采样点仅占 3.5 bytes,且一个Prometheus server可以处理数百万的metrics。 使用pull模式采集时间序列数据,这样不仅有利于本机测试而且可以避免有问题的服务器推送坏的metrics。 可以采用push gateway的方式把时间序列数据推送至Prometheus server端。 可以通过服务发现或者静态配置去获取监控的targets。 有多种可视化图形界面。 易于伸缩。 需要指出的是,由于数据采集可能会有丢失,所以Prometheus不适用对采集数据要100%准确的情形。但如果用于记录时间序列数据,Prometheus具有很大的查询优势,此外,Prometheus适用于微服务的体系架构。 约束与限制 1.11及以上版本的CCE集群支持此插件功能。 安装插件 步骤 1 在CCE控制台中,单击左侧导航栏的“插件管理”,在“插件市场”页签下,单击Prometheus下的“安装插件”按钮。 步骤 2 在安装插件页面,选择安装的集群和插件版本,单击“下一步:规格配置”。 步骤 3 在“规格配置”步骤中,配置以下参数: 表Prometheus配置参数说明 参数 参数说明 插件规格 根据业务需求,选择插件的规格,包含如下选项: 演示规格(100容器以内):适用于体验和功能演示环境,该规模下prometheus占用资源较少,但处理能力有限。建议在集群内容器数目不超过100时使用。 小规格(2000容器以内):建议在集群中的容器数目不超过2000时使用。 中规格(5000容器以内):建议在集群中的容器数目不超过5000时使用。 大规格(超过5000容器):建议集群中容器数目超过5000时使用此规格。 实例数 选择上方插件规格后,显示插件中的实例数,此处仅作显示。 容器 选择插件规格后,显示插件容器的CPU和内存配额,此处仅作显示。 监控数据保留期 自定义监控数据需要保留的天数,默认为15天。 存储 按照界面提示配置如下参数: 类型:支持云硬盘。 可用区:请根据业务需要进行选择。可用区是在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 子类型:支持普通IO、高IO和超高IO三种类型。 容量:请根据业务需要输入存储容量,默认10G。 说明: 若命名空间monitoring下已存在pvc,将使用此存储作为存储源。 步骤 4 单击“安装”。 待插件安装完成后,单击“返回”,在“插件实例”页签下,选择对应的集群,可查看到运行中的实例,这表明该插件已在当前集群的各节点中安装。 步骤 5 在CCE控制台中,单击左侧导航栏的“插件管理”,在“插件实例”中,单击“Prometheus”进入详情页,可以查看插件实例的详细情况。 升级插件 步骤 1 登录CCE控制台,在左侧导航栏中选择“插件管理”,在“插件实例”页签下,选择对应的集群,单击“Prometheus”下的“ 升级”。 说明: 如果升级按钮处于冻结状态,则说明当前插件版本是最新的版本,不需要进行升级操作。 升级“Prometheus”插件时,会替换原先节点上的旧版本的“Prometheus”插件,安装最新版本的“Prometheus”插件以实现功能的快速升级。 步骤 2 在基本信息页面选择插件版本,单击“下一步”。 步骤 3 参考安装插件中参数说明配置参数后,单击“升级”即可升级“Prometheus”插件。 卸载插件 步骤 1 在CCE控制台中,单击左侧导航栏的“插件管理”,在“插件实例”页签下,选择对应的集群,单击Prometheus下的“卸载”。 步骤 2 在弹出的窗口中,单击“是”,可卸载该插件。 参考资源 Prometheus概念及详细配置请参阅Prometheus 官方文档 Node exporter安装请参考nodeexporter github 仓库
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        插件管理
        prometheus
      • 创建API
        、"、[、、]、^、、{、、}、空白符、ASCII码为127到255的字符。 对于QUERY位置的参数值,API网关会对如下字符进行百分号编码:ASCII码为0到31的字符、>、、<、+、&、%、 、"、[、、]、^、、{、、}、空白符、ASCII码为127到255的字符。 步骤 4 (可选)配置默认后端的系统参数。如果后端服务需要接收系统运行时产生的参数信息,如网关内置参数、前端认证参数和后端认证参数等,可以通过设置系统参数来实现。API网关向后端服务发送请求时,将系统参数添加到请求的指定位置,然后将请求发送给后端服务。 1. 在“系统参数”下,单击“添加系统参数”,添加后端服务请求的系统参数。 表 系统参数配置 信息项 描述 系统参数类型 选择系统参数的类型。 l 网关内置参数:支持配置的系统参数。 l 前端认证参数:前端自定义认证返回结果中的参数。在前端配置中,“安全认证”选择“自定义认证”时,才可以选择此参数。 l 后端认证参数:后端自定义认证返回结果中的参数。在后端配置中,“后端认证”开启时,才可以选择此参数。 系统参数名 填写系统参数的名称。 l “系统参数类型”为“网关内置参数”时,支持选择如下参数: sourceIp:API调用者的源地址。 stage:API调用的部署环境。 apiId:API的ID。 appId:API调用者的APP ID。 requestId:当次调用API所生成的请求ID。 serverAddr:网关服务器的地址 。 serverName:网关服务器的名称。 handleTime:本次调用API的处理时间。 providerAppId:API提供者的凭据ID。 apiName:API的名称,需要发布API后才可使用此参数。 appName:调用API所使用的凭据名称。 l 系统参数类型为“前端认证参数”或“后端认证参数”时,支持自定义参数,但是此参数必须为自定义认证返回结果中的参数。 自定义认证函数的编写以及返回结果参数的获取方法,请参考。 后端参数名称 填写系统参数需要映射的后端参数名称。 说明 参数名不能以xapig 、xsdk开头,不能是xstage,不区分大小写。 参数位置为HEADER时,参数名不支持下划线开头,不区分大小写。 后端参数位置 选择后端参数在后端服务请求中的位置,可选择“PATH”、“HEADER”和“QUERY”。 描述 填写系统参数的描述信息。 步骤 5 (可选)添加策略后端。 添加多个后端策略后,通过不同的策略条件,请求被转发到不同的后端服务中。 1. 单击策略后端的加号,添加策略后端。 2. 后端策略增加的参数,具体如下表后端策略参数介绍。 表 后端策略参数 信息项 描述 后端策略名称 您自定义的名称,用于识别不同的后端策略。 生效方式 l 满足任一条件:只要满足策略条件中的任意一项,此后端策略就可以生效。 l 满足全部条件:只有满足所有的策略条件,此后端策略才生效。 策略条件 使后端策略生效的条件。 表 策略条件 信息项 描述 条件来源 l 源地址:以访问API的请求地址作为策略条件来源。 l 请求入参:以请求入参参数作为策略条件来源。 l Cookie:表示以API请求的Cookie信息作为判断条件。 l 系统参数网关内置参数:以网关内置参数作为策略条件来源。网关内置参数指API网关处理API请求时的系统运行时参数信息。 说明 选择“请求入参”作为策略条件时,入参需要在API前端请求中配置好,如在Header中添加一个参数。 如果未展示“系统参数”请联系技术支持升级实例。 参数名称 l 当“条件来源”为“请求入参”时,需要设置。选择已创建的入参参数名称。 l 当“条件来源”为“系统参数”时,需要选择参数名称。 reqPath:请求URI,如“/a/b/c”。 reqMethod:请求方法,如“GET”。 l 当“条件来源”为“COOKIE”时,需要填写Cookie中的参数名称。 参数位置 仅在“条件来源”为“请求入参”时,展示请求入参的参数位置。 条件类型 仅在“条件来源”为“请求入参”、“系统参数”、“COOKIE”时需要配置。 l 相等:请求参数值必须为输入值时,条件成立。 l 枚举:请求参数值只需要和枚举值中任何一个值相同,条件成立。 l 匹配:请求参数值只需要和正则表达式中任何一个值相同,条件成立。 说明 当“条件来源”为“系统参数”并且“参数名称”为“reqMethod”时,“条件类型”仅支持选择相等或枚举。 条件值 l “条件类型”为“相等”时,输入一个值。 l “条件类型”为“枚举”时,输入多个值,以英文逗号隔开。 l “条件类型”为“匹配”时,输入一个范围,例如:[05]。 l “条件来源”为“源地址”时,输入一个或多个IP地址,以英文逗号隔开。 步骤 6 定义返回结果。 在“返回结果基础定义”区域,填写返回信息。 表 定义返回结果 信息项 描述 成功响应示例 成功调用API时,返回的响应信息示例。 失败响应示例 调用API失败时,返回的响应信息示例。 步骤 7 单击“完成”,进入“API运行”页面,可查看API详情。
        来自:
        帮助文档
        API网关
        开放API网关
        API管理
        创建API
      • 创建API
        、"、[、、]、^、、{、、}、空白符、ASCII码为127到255的字符。 对于QUERY位置的参数值,API网关会对如下字符进行百分号编码:ASCII码为0到31的字符、>、、<、+、&、%、 、"、[、、]、^、、{、、}、空白符、ASCII码为127到255的字符。 步骤 4 (可选)配置默认后端的系统参数。如果后端服务需要接收系统运行时产生的参数信息,如网关内置参数、前端认证参数和后端认证参数等,可以通过设置系统参数来实现。API网关向后端服务发送请求时,将系统参数添加到请求的指定位置,然后将请求发送给后端服务。 1. 在“系统参数”下,单击“添加系统参数”,添加后端服务请求的系统参数。 表 系统参数配置 信息项 描述 系统参数类型 选择系统参数的类型。 l 网关内置参数:支持配置的系统参数。 l 前端认证参数:前端自定义认证返回结果中的参数。在前端配置中,“安全认证”选择“自定义认证”时,才可以选择此参数。 l 后端认证参数:后端自定义认证返回结果中的参数。在后端配置中,“后端认证”开启时,才可以选择此参数。 系统参数名 填写系统参数的名称。 l “系统参数类型”为“网关内置参数”时,支持选择如下参数: sourceIp:API调用者的源地址。 stage:API调用的部署环境。 apiId:API的ID。 appId:API调用者的APP ID。 requestId:当次调用API所生成的请求ID。 serverAddr:网关服务器的地址 。 serverName:网关服务器的名称。 handleTime:本次调用API的处理时间。 providerAppId:API提供者的凭据ID。 apiName:API的名称,需要发布API后才可使用此参数。 appName:调用API所使用的凭据名称。 l 系统参数类型为“前端认证参数”或“后端认证参数”时,支持自定义参数,但是此参数必须为自定义认证返回结果中的参数。 自定义认证函数的编写以及返回结果参数的获取方法,请参考。 后端参数名称 填写系统参数需要映射的后端参数名称。 说明 参数名不能以xapig 、xsdk开头,不能是xstage,不区分大小写。 参数位置为HEADER时,参数名不支持下划线开头,不区分大小写。 后端参数位置 选择后端参数在后端服务请求中的位置,可选择“PATH”、“HEADER”和“QUERY”。 描述 填写系统参数的描述信息。 步骤 5 (可选)添加策略后端。 添加多个后端策略后,通过不同的策略条件,请求被转发到不同的后端服务中。 1. 单击策略后端的加号,添加策略后端。 2. 后端策略增加的参数,具体如下表后端策略参数介绍。 表 后端策略参数 信息项 描述 后端策略名称 您自定义的名称,用于识别不同的后端策略。 生效方式 l 满足任一条件:只要满足策略条件中的任意一项,此后端策略就可以生效。 l 满足全部条件:只有满足所有的策略条件,此后端策略才生效。 策略条件 使后端策略生效的条件。 表 策略条件 信息项 描述 条件来源 l 源地址:以访问API的请求地址作为策略条件来源。 l 请求入参:以请求入参参数作为策略条件来源。 l Cookie:表示以API请求的Cookie信息作为判断条件。 l 系统参数网关内置参数:以网关内置参数作为策略条件来源。网关内置参数指API网关处理API请求时的系统运行时参数信息。 说明 选择“请求入参”作为策略条件时,入参需要在API前端请求中配置好,如在Header中添加一个参数。 如果未展示“系统参数”请联系技术支持升级实例。 参数名称 l 当“条件来源”为“请求入参”时,需要设置。选择已创建的入参参数名称。 l 当“条件来源”为“系统参数”时,需要选择参数名称。 reqPath:请求URI,如“/a/b/c”。 reqMethod:请求方法,如“GET”。 l 当“条件来源”为“COOKIE”时,需要填写Cookie中的参数名称。 参数位置 仅在“条件来源”为“请求入参”时,展示请求入参的参数位置。 条件类型 仅在“条件来源”为“请求入参”、“系统参数”、“COOKIE”时需要配置。 l 相等:请求参数值必须为输入值时,条件成立。 l 枚举:请求参数值只需要和枚举值中任何一个值相同,条件成立。 l 匹配:请求参数值只需要和正则表达式中任何一个值相同,条件成立。 说明 当“条件来源”为“系统参数”并且“参数名称”为“reqMethod”时,“条件类型”仅支持选择相等或枚举。 条件值 l “条件类型”为“相等”时,输入一个值。 l “条件类型”为“枚举”时,输入多个值,以英文逗号隔开。 l “条件类型”为“匹配”时,输入一个范围,例如:[05]。 l “条件来源”为“源地址”时,输入一个或多个IP地址,以英文逗号隔开。 步骤 6 定义返回结果。 在“返回结果基础定义”区域,填写返回信息。 表 定义返回结果 信息项 描述 成功响应示例 成功调用API时,返回的响应信息示例。 失败响应示例 调用API失败时,返回的响应信息示例。 步骤 7 单击“完成”,进入“API运行”页面,可查看API详情。
        来自:
        帮助文档
        API网关
        用户指南
        API管理
        创建API
      • 创建VPN连接
        本文向您介绍如何创建企业版VPN连接。 场景描述 如果您需要将VPC中的弹性云主机和数据中心或私有网络连通,创建VPN网关、对端网关之后,需要继续创建VPN连接。 约束与限制 使用静态路由模式创建VPN连接时,使能NQA前请确认对端网关支持ICMP功能,且对端接口地址已在对端网关上正确配置,否则可能导致流量不通。 操作步骤 1. 登录管理控制台,单击“网络 > VPN”进入VPN控制台。 2. 在左侧导航栏,单击“虚拟专用网络 > 企业版VPN连接”。 3. 在“VPN连接”页面,单击“创建VPN连接”。 说明 VPN网关的两个EIP支持分别和对端网关创建一条VPN连接。VPN双连接可以很大程度提升云上云下连接的可靠性,强烈建议配置。 4. 根据界面提示配置参数,单击“立即购买”。 表VPN连接参数说明 参数 说明 取值样例 名称 VPN连接的名称,只能由中文、英文字母、数字、下划线、中划线、点组成。 vpn001 VPN网关 选择待关联的VPN网关名称。 如果您使用国密型VPN网关,且VPN网关没有绑定相关证书,请先单击右侧“上传证书”完成上传证书操作,否则VPN连接将无法建立。 vpngw001 网关IP 选择VPN网关IP。 VPN网关对接同一对端网关时,不能选择已使用过的EIP地址。 可选的网关IP 对端网关 选择对端网关信息。 如果您使用国密型网关,且对端网关没有绑定CA证书,请先参见本指南“企业版对端网关管理 > 上传对端网关证书”上传CA证书,否则VPN连接将无法建立。 说明 如果一个对端网关同时对接多个VPN网关,则VPN网关的BGP ASN和连接模式需要相同。 cgw001 连接模式 IPsec连接的模式,支持路由模式和策略模式。 静态路由模式。 根椐路由配置(本端子网与对端子网)确定哪些数据进入IPsec VPN隧道。 适用场景:对端网关之间要求互通。 BGP路由模式。 根据BGP动态路由确定哪些数据进入IPsec VPN隧道。 适用场景:对端网关之间要求互通,互通子网数量多或变化频繁、与专线互备等组网场景。 策略模式。 根椐策略规则(用户侧到VPC之间通信的数据流信息)确定哪些数据进入IPsec VPN隧道,支持以源网段和目的网段定义策略规则。 适用场景:对端网关之间要求隔离。 静态路由模式 对端子网 指需要通过VPN连接访问云上VPC的用户侧子网。 若存在多个对端子网,请用半角逗号(,)隔开。 说明 对端子网可以和本端子网重叠,但不能重合。 对端子网不能被VPN网关关联的VPC内已有子网所包含;不能作为被VPN网关关联的VPC自定义路由表的目的地址。 对端子网不能是VPC的预留网段,例如100.64.0.0/10、214.0.0.0/8。 172.16.1.0/24,172.16.2.0/24 接口分配方式 仅“连接模式”采用“静态路由模式”和“BGP路由模式”时需要配置。 说明 接口地址为VPN网关和对端网关通信的tunnel隧道IP地址。 如果对端网关的tunnel接口地址固定不可更改,请使用“手动分配”模式,并根据对端网关的tunnel接口地址设置VPN网关的tunnel接口地址。 手动分配。 仅支持在169.254.x.x/30网段(除169.254.195.x/30)范围内,配置VPN网关本端接口地址的tunnel接口地址;对端网关对端接口地址的tunnel接口地址会根据本端接口地址随机生成。 例如:本端接口地址配置为169.254.1.6/30,则对端接口地址自动配置为169.254.1.5/30。 自动分配。 VPN网关默认使用169.254.x.x/30网段对tunnel接口分配地址。 自动分配的本端接口地址/对端接口地址,可以在VPN连接页面,单击“修改连接信息”进行查看。 自动分配 本端隧道接口地址 仅“接口分配方式”采用“手动分配”时需要配置。 配置在VPN网关上的tunnel接口地址。 对端隧道接口地址 仅“接口分配方式”采用“手动分配”时需要配置。 配置在对端网关上的tunnel接口地址,该接口地址需要和对端网关实际配置的tunnel接口地址保持一致。 检测机制 仅“连接模式”采用“静态路由模式”时需要配置。 说明 功能开启前,请确认对端网关支持ICMP功能,且对端接口地址已在对端网关上正确配置,否则可能导致流量不通。 功能开启后,VPN网关会自动对对端接口地址进行NQA探测。 勾选 预共享密钥 VPN网关和对端网关的预共享密钥需要保持一致。 取值范围: 取值长度:8~128个字符。 只能包括以下几种字符,且必须包含三种及以上类型: 数字 大写字母 小写字母 特殊符号:包括“~”、“!”、“@”、“
        来自:
        帮助文档
        VPN连接
        用户指南
        企业版VPN连接管理
        创建VPN连接
      • 开通云日志服务
        本文主要介绍如何开通云日志服务。 在使用天翼云云日志服务前,您需要先开通服务。开通服务不收取任何费用,开通后将根据实际用量进行计费,计费详情请查看计费说明。 前提条件 具备已通过实名认证的天翼云账号 账号中需要有100元及以上的余额 已支持开通的资源池 华东1、南昌5、杭州7、长沙42、华南2、西安7、西南1、西南2贵州、华北2、郑州5、太原4 操作步骤 1. 登录天翼云官网,进入控制中心。 2. 在控制中心选择目标资源池。 3. 在云原生可观测分类中,选择云日志服务,点击购买图标。您也可以直接点击此处进行开通。 4. 在订购开通页中点击【下一步】,并提交订单。 5. 提交后稍等片刻,待页面提示开通成功后,即可进入云日志服务控制台。您也可直接点击此处进入云日志服务控制台。
        来自:
        帮助文档
        云日志服务
        快速入门
        开通云日志服务
      • 修改数据库参数
        参数名称 参数描述 默认值 sessiontimeout Session闲置超时时间,单位为秒,0表示关闭超时限制。取值范围:0 ~ 86400。 600 datestyle 设置日期和时间值的显示格式。 ISO,MDY failedloginattempts 输入密码错误的次数达到该参数所设置的值时,帐户将会被自动锁定。配置为0时表示不限制密码输入错误的次数。取值范围:0 ~ 1000。 10 timezone 设置显示和解释时间类型数值时使用的时区。 UTC logtimezone 设置服务器写日志文件时使用的时区。 UTC enableresourcerecord 设置是否开启资源记录功能。 当SQL语句实际执行时间大于resourcetrackduration参数值(默认为60s,可自行设置)时,监控信息将会归档。 此功能开启后会引起存储空间膨胀及轻微性能影响,不用时请关闭。 说明 归档:监控信息保存在history视图,归档在info表。归档时间为三分钟,归档后history视图中的记录会被清除。 history视图GSWLMSESSIONHISTORY,对应存入info表GSWLMSESSIONINFO。 history视图GSWLMOPERATORHISTORY,对应存入info表GSWLMOPERATORINFO。 off querydop 用户自定义的查询并行度。 配置为0表示查询并行度自适应。 配置为1表示查询不并行。 配置为2表示查询并行度为2。 0 resourcetrackcost 设置对语句进行资源监控的最小执行代价。 值为1或者执行语句代价小于10时,不进行资源监控。值大于等于0时,执行语句的代价大于等于10并且超过这个参数的设定值就会进行资源监控。 SQL语句的预估执行代价可通过执行SQL命令Explain进行查询。 100000 resourcetrackduration 设置当前会话资源监控实时视图中记录的语句执行结束后进行归档的最小执行时间,单位为秒。 值为0时,资源监控实时视图中记录的所有语句都会进行历史信息归档。 值大于0时,资源监控实时视图中记录的语句的执行时间超过设定值就会进行历史信息归档。 60 passwordeffecttime 设置帐户密码的有效时间,临近或超过有效期系统会提示用户修改密码。 取值范围为0 ~999,单位为天。设置为0表示不开启有效期限制功能。 90 updatelockwaittimeout 该参数控制并发更新同一行时单个锁的最长等待时间。当申请的锁等待时间超过设定值时,系统会报错。0表示不等待,有锁时直接报错,单位为毫秒。 120000 enableresourcetrack 设置是否开启资源监控功能。开启后可以对SQL语句进行监控。 on passwordpolicy 使用CREATE ROLE/USER命令创建或ALTER ROLE/USER命令修改DWS帐户时,该参数决定是否进行密码复杂度检查。 0表示不采用任何密码复杂度策略。 1表示采用默认密码复杂度校验策略。 1 passwordreusetime 在使用ALTER USER或ALTER ROLE修改用户密码时,该参数指定是否对新密码进行可重用天数检查。 取值范围:0~3650,单位为天。0表示不检查密码可重用天数。正数表示新密码不能为该值指定的天数内使用过的密码。 说明 修改密码时会检查配置参数passwordreusetime和passwordreusemax。 passwordreusetime和passwordreusemax只要满足其中任一个为正数时,即认为密码可重用。 passwordreusetime为0时,表示不限制密码重用天数,仅限制密码重用次数。 passwordreusetime和passwordreusemax都为0时,表示不对密码重用进行限制。 60 passwordreusemax 在使用ALTER USER或ALTER ROLE修改用户密码时,该参数指定是否对新密码进行可重用次数检查。 0表示不检查密码可重用次数。正整数表示新密码不能为该值指定的次数内使用过的密码。 说明 修改密码时会检查配置参数passwordreusetime和passwordreusemax。 passwordreusetime和passwordreusemax只要满足其中任一个为正数时,即认为密码可重用。 passwordreusemax为0时,表示不限制密码重用次数,仅限制密码重用天数。 passwordreusetime和passwordreusemax都为0时,表示不对密码重用进行限制。 0 passwordlocktime 该参数指定帐户被锁定后自动解锁的时间。 0表示密码验证失败时,自动锁定功能不生效。 正数表示帐户被锁定后,当锁定时间超过该参数设定的值时,帐户将会被自行解锁。 1 passwordencryptiontype 该字段决定采用何种加密方式对用户密码进行加密存储。 0表示采用md5方式对密码加密。 1表示采用sha256方式对密码加密,兼容postgres客户端的md5用户认证方式。 2表示采用sha256方式对密码加密。md5为不安全的加密算法,不建议用户使用。 2 passwordnotifytime 该字段决定帐户密码到期前提醒的天数。 0表示不开启提醒功能。 1~999表示帐户密码到期前提醒的天数。 7 enablestatelesspoolerreuse pooler复用切换开关,重启集群生效。 on表示使用pooler复用模式。 off表示关闭pooler复用模式。 说明 CN和DN需要同步设置。如果CN设置为off,DN设置为on时会导致集群不能正常通信,因此必须对该参数做CN和DN全局相同的配置,重启集群才会生效。 off workmem 设置内部排序操作和Hash表在开始写入临时磁盘文件之前使用的内存大小,单位为KB。 ORDER BY,DISTINCT和merge joins都要用到排序操作。 Hash表在散列连接、散列为基础的聚集、散列为基础的IN子查询处理中都要用到。 对于复杂的查询,可能会同时并发运行好几个排序或者散列操作,每个都可以使用此参数所声明的内存量,不足时会使用临时文件。同样,好几个正在运行的会话可能会同时进行排序操作。因此使用的总内存可能是workmem的好几倍。 64MB maintenanceworkmem 设置在维护性操作(比如VACUUM、CREATE INDEX、ALTER TABLE ADD FOREIGN KEY等中可使用的最大的内存,单位为KB。 说明 该参数的设置会影响VACUUM、VACUUMFULL、CLUSTER、CREATE INDEX的执行效率。 128MB enableorccache 设置是否允许在初始化cstorebuffers时,将1/4的cstorebuffers空间预留,用于缓存orc元数据。 on表示开启缓存orc元数据,可提升hdfs表的查询性能,但是会占用列存buffer资源,导致列存性能下降。 off表示关闭缓存orc元数据。 on sqlusespacelimit 限制单个SQL在单个DN上,触发落盘操作时,落盘文件的空间大小,管控的空间包括普通表、临时表及中间结果集落盘占用的空间,单位为KB。其中1表示没有限制。 1 enablebitmapscan 控制优化器对位图扫描规划类型的使用。 on表示使用。 off表示不使用。 on enablehashagg 控制优化器对Hash聚集规划类型的使用。 on表示使用。 off表示不使用。 on enablehashjoin 控制优化器对Hash连接规划类型的使用。 on表示使用。 off表示不使用。 on enableindexscan 控制优化器对索引扫描规划类型的使用。 on表示使用。 off表示不使用。 on enableindexonlyscan 控制优化器对仅索引扫描规划类型的使用。 on表示使用。 off表示不使用。 on enablemergejoin 控制优化器对融合连接规划类型的使用。 on表示使用。 off表示不使用。 off enablenestloop 控制优化器对内表全表扫描嵌套循环连接规划类型的使用。虽然不能完全消除嵌套循环连接,但关闭该参数会使优化器在存在其他方法的时候优先选择其他方法。 on表示使用。 off表示不使用。 off enableseqscan 控制优化器对顺序扫描规划类型的使用。虽然不能完全消除顺序扫描,但关闭该参数会让优化器在存在其他方法的时候优先选择其他方法。 on表示使用。 off表示不使用。 on enabletidscan 控制优化器对TID扫描规划类型的使用。 on表示使用。 off表示不使用。 on enablekillquery CASCADE模式删除用户时,会删除此用户拥有的所有对象。此参数标识是否允许在删除用户的时候,取消锁定此用户所属对象的query。 on表示允许取消锁定。 off表示不允许取消锁定。 off enablevectorengine 控制优化器对向量化执行引擎的使用。 on表示使用。 off表示不使用。 on enablebroadcast 控制优化器对stream代价估算时对broadcast分布方式的使用。 on表示使用。 off表示不使用。 on skewoption 控制是否使用优化策略。 off:关闭策略。 normal:采用激进策略。对于不确定是否出现倾斜的场景,认为存在倾斜,并进行相应优化。 lazy:采用保守策略。对于不确定是否出现倾斜场景,认为不存在倾斜,不进行优化。 normal defaultstatisticstarget 为没有用ALTER TABLE SET STATISTICS设置字段目标的表设置缺省统计目标。此参数设置为正数是代表统计信息的样本数量,为负数时,代表使用百分比的形式设置统计目标,负数转换为对应的百分比,即5代表5%。 100 enablecodegen 标识是否允许开启代码生成优化,目前代码生成使用的是LLVM优化。 on表示允许开启代码生成优化。 off表示不允许开启代码生成优化。 on autoanalyze 标识是否允许在生成计划的时候,对于没有统计信息的表进行统计信息自动收集。 on表示允许自动进行统计信息收集。 off表示不允许自动进行统计信息收集。 说明 当前不支持对外表触发autoanalyze,如需收集,需用户手动执行analyze操作。 不支持对带有ON COMMIT [DELETE ROWS l DROP]选项的临时表触发autoanalyze,如需收集,需用户手动执行analyze操作。 如果在autoanalyze某个表的过程中数据库发生异常,当数据库正常运行之后再执行语句有可能仍提示需要收集此表的统计信息。此时需要用户对该表手动执行一次analyze操作,以同步统计信息数据。 off enablesonichashagg 标识是否依据规则约束使用基于面向列的hash表设计的Hash Agg算子。 on表示在满足约束条件时使用基于面向列的hash表设计的Hash Agg算子。 off表示不使用面向列的hash表设计的Hash Agg算子。 on loghostname 默认状态下,连接消息日志只显示正在连接主机的IP地址。打开此选项同时可以记录主机名。由于解析主机名可能需要一定的时间,可能影响数据库的性能。on表示可以同时记录主机名。off表示不可以同时记录主机名。 off maxactivestatements 设置全局的最大并发数量。此参数只应用到CN,且针对一个CN上的执行作业。设置为1和0表示对最大并发数不做限制。 60 enableresourcetrack 是否开启资源监控功能。 on resourcetracklevel 设置当前会话的资源监控的等级。该参数只有当参数enableresourcetrack为on时才有效。 none,不开启资源监控功能。 query,开启query级别资源监控功能,开启此功能会把SQL语句的计划信息(类似explain输出信息)记录到top SQL中。 perf,开启perf级别资源监控功能,开启此功能会把包含实际执行时间和执行行数的计划信息(类似explain analyze输出信息)记录到top SQL中。 operator,开启operator级别资源监控功能,开启此功能不仅会把包含实际执行时间和执行行数的信息记录到top SQL中,还会把算子级别执行信息刷新到top SQL中。 query enabledynamicworkload 是否开启动态负载管理功能。 on表示打开动态负载管理功能。 off表示关闭动态负载管理功能。 on topsqlretentiontime 设置历史TopSQL中gswlmsessioninfo和gswlmoperatorinfo表中数据的保存时间。单位为天。 值为0时,表示数据永久保存。 值大于0时,表示数据能够保存的对应天数。 0 trackcounts 控制收集数据库活动的统计数据。 on表示开启收集功能。 off表示关闭收集功能。 off autovacuum 控制数据库自动清理进程(autovacuum)的启动。自动清理进程运行的前提是将trackcounts设置为on。 on表示开启数据库自动清理进程。 off表示关闭数据库自动清理进程。 off autovacuummode 该参数仅在autovacuum设置为on的场景下生效,它控制autoanalyze或autovacuum的打开情况。 analyze表示只做autoanalyze。 vacuum表示只做autovacuum。 mix表示autoanalyze和autovacuum都做。 none表示二者都不做。 mix autoanalyzetimeout 设置autoanalyze的超时时间。在对某张表做autoanalyze时,如果该表的analyze时长超过了autoanalyzetimeout,则自动取消该表此次analyze,单位为秒。 5min autovacuumiolimits 控制autovacuum进程每秒触发IO的上限。其中1表示不控制,而是使用系统默认控制组。 1 autovacuummaxworkers 设置能同时运行的自动清理线程的最大数量。其中0表示不会自动进行autovacuum。 3 autovacuumnaptime 设置两次自动清理操作的时间间隔,单位为秒。 10min autovacuumvacuumthreshold 设置触发VACUUM的阈值。当表上被删除或更新的记录数超过设定的阈值时才会对这个表执行VACUUM操作。 50 autovacuumanalyzethreshold 设置触发ANALYZE操作的阈值。当表上被删除、插入或更新的记录数超过设定的阈值时才会对这个表执行ANALYZE操作。 50 autovacuumanalyzescalefactor 设置触发一个ANALYZE时增加到autovacuumanalyzethreshold的表大小的缩放系数。 0.1 statementtimeout 当语句执行时间超过该参数设置的时间(从服务器收到命令时开始计时)时,该语句将会报错并退出执行,单位为毫秒。 0 deadlocktimeout 设置死锁超时检测时间。当申请的锁超过设定值时,系统会检查是否产生了死锁,单位为毫秒。 1s lockwaittimeout 控制单个锁的最长等待时间。当申请的锁等待时间超过设定值时,系统会报错,单位为毫秒。 20min maxqueryretrytimes 指定SQL语句出错自动重试功能的最大重跑次数(目前支持重跑的错误类型为“Connection reset by peer”、“Lock wait timeout”和“Connection timed out”等,设定为0时关闭重跑功能。 6 maxpoolsize CN的连接池与其它某个CN/DN的最大连接数。 800 enablegtmfree 大并发场景下同一时刻存在活跃事务较多,GTM下发的快照变大且快照请求变多的情况下,瓶颈卡在GTM与CN通讯的网络上。为消除该瓶颈,引入GTMFREE模式。取消CN和GTM的交互,取消CN下发GTM获取的事务信息给DN。CN只向各个DN发送query,各个DN由本地产生快照及xid等信息,开启该参数支持分布式事务读最终一致性,即分布式事务只有写外部一致性,不具有读外部一致性。 off enablefastqueryshipping 控制查询优化器是否使用分布式框架。 on enablecrccheck 设置是否允许开启数据校验功能。写入表数据时生成校验信息,读取表数据时检查校验信息。不建议用户修改设置。 on explainperfmode 此参数用来指定explain的显示格式。 normal:代表使用默认的打印格式。 pretty:代表使用DWS改进后的新显示格式。新的格式层次清晰,计划包含了plan node id,性能分析简单直接。 summary:是在pretty的基础上增加了对打印信息的分析。 run:在summary的基础上,将统计的信息输出到csv格式的文件中,以便于进一步分析。 pretty udfmemorylimit 控制每个CN、DN执行UDF时可用的最大物理内存量,单位为KB。 200MB defaulttransactionreadonly 设置每个新创建事务是否是只读状态。on表示只读状态。off表示非只读状态。 off
        来自:
        帮助文档
        数据仓库服务
        用户指南
        集群管理
        修改数据库参数
      • 升级
        iscsid守护进程移动到宿主机的升级 下列情况使用该方案升级:升级前版本安装时中没设置参数iscsionhost(1.5.1之前版本不能设置该参数),升级后版本设置设置参数iscsionhost。 升级步骤 1. 暂停CSI相关业务,以及存量计算节点POD所有业务,留出升级时间。执行下列命令后,禁止用户执行创建PV、删除PV、POD挂载存储、卸载POD等CSI相关的业务。 plaintext kubectl delete daemonset csistorpluginnode 2. 在Kubernetes所有的slave节点宿主机安装iSCSI工具,并配置/etc/iscsi/iscsid.conf。 1. 安装iSCSI工具。 如果操作系统是CentOS/RHEL,请安装iscsiinitiatorutils,安装命令如下: plaintext yum y install iscsiinitiatorutils 如果操作系统是Ubuntu/Debian,安装命令如下: plaintext apt install openiscsi 2. 修改/etc/iscsi/iscsid.conf配置文件。 plaintext 如需启用iscsi target迁移自动恢复, 那么得将iscsid.safelogout设置为No iscsid.safelogout No 3. 在各宿主机启动iSCSI进程。 plaintext systemctl enable iscsid systemctl restart iscsid 确认iSCSI进程状态正常 systemctl status iscsid 3. 在Kubernetes所有的slave节点宿主机配置MPIO。 1. 安装 MPIO。 说明 如果已安装MPIO,忽略此步骤。 对于CentOS: plaintext yum y install devicemappermultipath devicemappermultipathlibs 对于Ubuntu: plaintext apt install multipathtools 2. 配置 MPIO。 1. 复制/usr/share/doc/devicemappermultipath X.Y.Z /multipath.conf (其中X.Y.Z 为multipath的实际版本号,请根据实际情况查找multipath.conf)到/etc/multipath.conf。 2. 在/etc/multipath.conf中增加如下配置: 注意 配置文件multipath.conf中,如果multipath部分与devices部分中有相同参数,multipath中的参数值会覆盖devices中的参数值。为了正常使用HBlock卷,需要删除multipath中的与下列字段相同的参数。如果升级前修改过stormultipathconf(可通过kubectl describe cm stormultipathconf查看文件内容),且与下列文件不一致,请务必联系天翼云客服后再做操作,否则可能会引起升级失败或者异常。 plaintext defaults { userfriendlynames yes findmultipaths yes uidattribute "IDWWN" } devices { device { vendor "CTYUN" product "iSCSI LUN Device" pathgroupingpolicy failover pathchecker tur pathselector "roundrobin 0" hardwarehandler "1 alua" rrweight priorities nopathretry queue prio alua } } 3. 重启multipathd服务。 对于CentOS: plaintext systemctl restart multipathd systemctl enable multipathd 对于Ubuntu: plaintext systemctl restart multipathtools.service systemctl enable multipathtools.service 4. 删除多余的配置文件: plaintext kubectl delete cm stormultipathconf n namespace 5. 更新驱动镜像:请根据逐台导入镜像的方式或docker私仓导入镜像的方式章节的步骤,导入最新安装包的驱动。 6. 在升级版本的对应文件下修改HBlock相关配置: 修改deploy/csipluginconf/csiconfigMap.yaml,确保与升级前版本的配置一致。 修改deploy/csipluginconf/csisecret.yaml,确保与升级前版本的配置一致。 修改deploy/csipluginconf/csisecretdecrypt.yaml,确保与升级前版本的配置一致。 7. 在升级版本的/depoly目录下执行下列命令升级: plaintext ./deploy.sh iscsionhost [ drivernamedrivername ] [ drivernamespacedrivernamespace ] 说明 iscsionhost:是必选参数。 drivername:升级前版本的驱动名称,如果升级前版本的驱动名称为默认值stor.csi.k8s.io,可以不填此参数。 drivernamespace:升级前版本绑定的Kubernetes命名空间,如果升级前版本绑定的Kubernetes命名空间为默认值default,此参数可以不填写。 8. 升级后检查: 进入各CSI POD,执行ps ef,确认容器内没有进程:multipathd f 、iscsid f。 可以在宿主机启动样例POD,进行基础流程测试,确认功能正常。 重启Kubernetes所有的slave宿主机节点,确认各存量POD能正确启动。(如果不验证重启恢复的场景,可跳过这步。) 从低版本(小于等于1.6.0)升级到高版本(大于等于1.6.1)后,如存在业务POD,确保在没有正在新建或者删除POD的前提下,执行命令kubectl get pod A grep csistorpluginnode awk '{print $2}' xargs I {} kubectl exec {} c storpluginnode sh c'/storadmupgrade addmissingtrackfile',补齐缺失的trackfile。 注意 kubectl get pod A grep csistorpluginnode的作用是过滤出所有CSI节点的驱动POD。执行此命令前需管理员检查此处需要与驱动实际部署方案一致,如果不一样,请修改为对应CSI节点的驱动POD。 命令执行完成后,将显示添加成功与失败的 tracefile 数量。若存在添加失败的情况(如提示“Failed to add x file(s)”),管理员需及时排查原因并处理。 如果用户使用了自定义的驱动部署方案,请注意:storadm工具的执行依赖于环境变量DRIVERNAME和KUBENODENAME,因此必须在 CSI Node Server 的Pod中配置这两个环境变量,否则可能导致功能异常。 plaintext env: name: DRIVERNAME value: 驱动名 name: KUBENODENAME valueFrom: fieldRef: apiVersion: v1 fieldPath: spec.nodeName
        来自:
        帮助文档
        存储资源盘活系统
        常用工具
        Container Storage Interface插件
        脚本方式使用指南
        升级
      • 初始化容量大于2TB的Windows数据盘(Windows 2012)
        本节介绍了初始化容量大于2TB的Windows数据盘(Windows 2012)的相关内容。 操作场景 本文以云主机的操作系统为“Windows Server 2012 R2 Standard 64bit”、磁盘容量为3 TB举例,提供容量大于2 TB的Windows数据盘的初始化操作指导。 MBR格式分区支持的磁盘最大容量为2 TB,GPT分区表最大支持的磁盘容量为18 EB,因此当为容量大于2 TB的磁盘分区时,请采用GPT分区方式。具体操作请参见初始化容量大于2TB的Windows数据盘(Windows 2008)。关于磁盘分区形式的更多介绍,请参见初始化数据盘场景及磁盘分区形式介绍。 不同云主机的操作系统的格式化操作可能不同,本文仅供参考,具体操作步骤和差异请参考对应的云主机操作系统的产品文档。 注意 首次使用磁盘时,如果您未参考本章节对磁盘执行初始化操作,主要包括创建分区和文件系统等操作,那么当后续扩容磁盘时,新增容量部分的磁盘可能无法正常使用。 前提条件 已挂载数据盘至云主机,且该数据盘未初始化。 已登录云主机。 弹性云主机请参见《弹性云主机用户指南》。 物理机服务器请参见《物理机用户指南》。 操作指导 1.在云主机桌面,单击桌面下方的。 弹出“服务器管理器”窗口,如下图所示。 图 服务器管理器(Windows 2012) 2.在“服务器管理器”页面右上方选择“工具 > 计算机管理”。 弹出“计算机管理”窗口,如下图所示。 图 计算机管理窗口(Windows 2012) 3.选择“存储 > 磁盘管理”。 进入磁盘列表页面,如下图所示。 图 磁盘列表(Windows 2012) 4.(可选)在页面右侧可以查看磁盘列表,若新增磁盘处于脱机状态,需要先进行联机,再进行初始化。 在磁盘1区域,右键单击菜单列表中的“联机”。 如下图所示,当磁盘1由“脱机”状态变为“没有初始化”,表示联机成功。 图 联机成功(Windows 2012) 5.(可选)在磁盘1区域,右键单击菜单列表中的“初始化磁盘”。 弹出“初始化磁盘”窗口,如下图所示。 图 初始化磁盘(Windows 2012) 6.在“初始化磁盘”对话框中显示需要初始化的磁盘,对于大于2 TB的磁盘,此处请选择“GPT(GUID分区表)”,单击“确定”。 返回“计算机管理”窗口,如下图所示。 图 计算机管理(Windows 2012) 注意 MBR支持的磁盘最大容量为2 TB,GPT最大支持的磁盘容量为18 EB,当前数据盘支持的最大容量为32 TB,如果您需要使用大于2 TB的磁盘容量,分区形式请采用GPT。 当磁盘已经投入使用后,此时切换磁盘分区形式时,磁盘上的原有数据将会清除,因此请在磁盘初始化时谨慎选择磁盘分区形式。 7.在磁盘1右侧的未分配的区域,右键单击选择“新建简单卷”。 弹出“新建简单卷向导”窗口,如下图所示。 图 新建简单卷向导(Windows 2012) 8.根据界面提示,单击“下一步”。 进入“指定卷大小”页面,如下图所示。 图 指定卷大小(Windows 2012) 9.指定卷大小,系统默认卷大小为最大值,您还可以根据实际需求指定卷大小,此处以保持系统默认配置为例,单击“下一步”。 进入“分配驱动器号和路径”页面,如下图所示。 图 分配驱动器号和路径(Windows 2012) 10.分配到驱动器号和路径,系统默认为磁盘分配驱动器号,驱动器号默认为“D”,此处以保持系统默认配置为例,单击“下一步”。 进入“格式化分区”页面,如下图所示。 图 格式化分区(Windows 2012) 11.格式化分区,系统默认的文件系统为NTFS,并根据实际情况设置其他参数,此处以保持系统默认设置为例,单击“下一步”。 进入“完成新建卷”页面,如下图所示。 图 完成新建卷(Windows 2012) 注意 不同文件系统支持的分区大小不同,请根据您的业务需求选择合适的文件系统。 12.单击“完成”。 需要等待片刻让系统完成初始化操作,当卷状态为“状态良好”时,表示初始化磁盘成功,如下图所示。 图 初始化磁盘成功(Windows 2012) 13.新建卷完成后,单击,在文件资源管理器中查看是否有新建卷,此处以“新建卷(D:)”为例。 若如下图所示,可以看到“新建卷(D:)”,表示磁盘初始化成功,任务结束。 图 文件资源管理器(Windows 2012)
        来自:
        帮助文档
        专属云(存储独享型)
        快速入门
        步骤四:初始化数据盘
        初始化容量大于2TB的Windows数据盘(Windows 2012)
      • 知识库问答
        本文介绍知识库问答内容。 接口描述 依据知识库与大模型进行对话问答 请求方法 POST 接口要求 无 URI /openapi/v1/rag/talk 请求参数 请求头header参数 参数 是否必填 参数类型 说明 示例 下级对象 ContentType 是 String json格式 application/json Accept 否 String 设置开启接收ServerSent Events (SSE) 格式的流式响应 text/eventstream tenantId 是 String 租户ID 562b89493b1a40e1b97ea05e50dd8170 ctyuneoprequestid 是 String 用户请求 id,由用户构造,用户可以通过 uuid 等方法自行生成唯一字符串,用于日志请求追踪 33dfa732b27b464fb15a21ed6845afd5 eopdate 是 String 请求时间,由用户构造,形如 yyyymmddTHHMMSSZ。 20211221T163014Z host 是 String 终端节点域名,固定字段 kqaglobal.ctapi.ctyun.cn EopAuthorization 是 String 由天翼云官网 accessKey 和 securityKey 经签名后生成,参与签名生成的字段包括天翼云官网 accessKey 、securityKey、平台应用的appkey(非必须),用户请求id(非必须),请求时间,终端节点域名(非必须)以及请求体内容。 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 text 是 String 问题的文本内容 infobaseIds 否 Array[String] 通用知识库ID列表 customBaseIds 否 Array[String] 自定义知识库ID列表 modelId 是 String 模型ID contextId 否 String 上一轮会话的ID,需要多轮对话时使用 searchEnable 否 Boolean 是否开启联网搜索 index 否 Boolean 是否输出文档索引引用标签 prompt 否 String 用户自定义输入的prompt 请求代码示例 plaintext Curl X POST " H "ContentType: application/json" H "Accept: text/eventstream" H "ctyuneoprequestid:33dfa732b27b464fb15a21ed6845afd5" H "tenantId:XXX" H "EopAuthorization:XXX" H "eopdate:20211109T104641Z" H "host:kqaglobal.ctapi.ctyun.cn" data '{ "text": "总结下文档内容", "infobaseIds": [123456789, 987654321], "modelId": "d5f09a41d4584715a5d94a4892411c0f", "searchEnable": false, "index": true, "prompt": "请依据文档内容进行回答,不得使用超出文档内容的知识;n 确保您的回答既精确又实用且忠实于原文,同时覆盖所有相关的要点,以满足用户的查询需求;n 要求语句通顺,条理清晰,易于阅读;n 请不要随意发散,尽量以原文档内容输出;n 对于包含多个子问题的问题,请回答每一个子问题,不要遗漏问题; n下面是文档信息:n{chunks}n问题为:{question}n开始回答:n" }' 返回值说明 1.请求成功返回响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 返回状态,返回200表示成功 200 message String 返回Success Success returnObj Object 接口返回结果 returnObj表 returnObj表 参数 参数类型 说明 示例 下级对象 code Int 0表示成功 0 message String 返回success success result Object 对话结果 result表 result表 参数 参数类型 说明 示例 下级对象 input String 对话输入文本 介绍下定积分 output String 对话输出文本 定积分是一种.... contextId String 此轮对话的ID finishState String 会话状态 状态取值:start(开始)/continued(生成中)/stop(正常结束)/interrupt(中断) stop inferSource Array[Object] 拼入模型prompt的参考文档信息。请求体参数index为false时生效 inferSource对象 indexInfo Array[Object] 模型回复的参考引用片段。请求体参数index为true时生效 indexInfo对象 indexInfo表 参数 参数类型 说明 示例 下级对象 indexId int 引用下标 1 subTitle String 子标题 docTitlec String 文档标题 文档.doc docTitle String 来源 Knowledge content String 引用片段内容 fileName String 引用文档名称 文档.doc fileId String 引用文档id 133 inferSource表 参数 参数类型 说明 示例 下级对象 fileName String 检索到的参考文档名称 文档.doc fileId String 检索到的参考文档id 133 fileType String 文档类型 doc contentText String 参考文档的内容 score Float 参考文档和用户输入的相关性分数,取值[01] 0.33 2.请求失败返回响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 错误码,放置API对应的错误码 40001 message String 失败信息 缺少鉴权信息 error String 返回对应的错误码 KQA40001 返回值示例 该接口为SSE接口,返回值为流式返回,返回时ContentType为text/eventstream。 1.请求成功返回值示例(关闭引用开关indexfalse) plaintext data:{ 'statusCode': 200, "error": null, "message": "Success", "returnObj": { "code": 0, "message": "success", "result": { "input": "水泥的国标", "output": " n好的,我现在需要处理用户的问题:“水泥的国标”。首先。。。", "finishState": "stop", "contextId": "2f963a77e58b467ead9223ddf2e4015b", "inferSource": [ { "fileName": "筑府办函xx号附件.wps", "fileId": 32432, "fileType": "doc", "contentText": "xxx", "score": 0.37754068 } ], "indexInfo": [] }, "details": null } } 2.请求成功返回值示例(开启引用开关indextrue) plaintext data:{ "statusCode": 200, "error": null, "message": "Success", "returnObj": { "code": 0, "message": "success", "result": { "input": "水泥的国标", "output": "根据提供的文档内容,水泥的参考标准为GB 16780[[1]]。。。", "finishState": "stop", "contextId": "bcca2bb95b454d41b9b878a24659b3d5", "inferSource": [], "indexInfo": [ { "indexId": 1, "subTitle": "", "docTitle": "筑府办函xx号附件.wps", "from": "Knowledge", "content": "xxx", "fileName": "筑府办函xx号附件.wps", "fileId": 32432 } ] }, "details": null } } 3.请求失败返回值示例 plaintext data:{ "statusCode": "40004", "error": "KQA40004", "message": "接口执行异常" } 状态码 http状态码 描述 200 表示请求成功 错误码说明 错误码 错误信息 错误描述 40013 对话出现异常 无法进行正常交互
        来自:
        帮助文档
        知识库问答
        API参考
        API
        知识库问答
      • 初始化容量大于2TB的Windows数据盘(Windows 2012)
        本节介绍了初始化容量大于2TB的Windows数据盘(Windows 2012)的操作场景、前提条件、操作指导等内容。 操作场景 本文以云主机的操作系统为“Windows Server 2012 R2 Standard 64bit”、磁盘容量为3 TB举例,提供容量大于2 TB的Windows数据盘的初始化操作指导。 MBR格式分区支持的磁盘最大容量为2 TB,GPT分区表最大支持的磁盘容量为18 EB,因此当为容量大于2 TB的磁盘分区时,请采用GPT分区方式。具体操作请参见初始化容量大于2TB的Windows数据盘(Windows 2008)。关于磁盘分区形式的更多介绍,请参见场景及磁盘分区形式介绍。 不同云主机的操作系统的格式化操作可能不同,本文仅供参考,具体操作步骤和差异请参考对应的云主机操作系统的产品文档。 前提条件 已挂载数据盘至云主机,且该数据盘未初始化。 已登录云主机。 操作指导 步骤 1 在云主机桌面,单击桌面下方的。 弹出“服务器管理器”窗口,如图所示。 图 服务器管理器(Windows 2012) 步骤 2 在“服务器管理器”页面右上方选择“工具 > 计算机管理”。 弹出“计算机管理”窗口,如图所示。 图 计算机管理窗口(Windows 2012) 步骤 3 选择“存储 > 磁盘管理”。 进入磁盘列表页面,如图所示。 图 磁盘列表(Windows 2012) 步骤 4 (可选)在页面右侧可以查看磁盘列表,若新增磁盘处于脱机状态,需要先进行联机,再进行初始化。 在磁盘1区域,右键单击菜单列表中的“联机”。 如图所示,当磁盘1由“脱机”状态变为“没有初始化”,表示联机成功。 图 联机成功(Windows 2012) 步骤 5 (可选)在磁盘1区域,右键单击菜单列表中的“初始化磁盘”。 弹出“初始化磁盘”窗口,如图所示。 图 初始化磁盘(Windows 2012) 步骤 6 在“初始化磁盘”对话框中显示需要初始化的磁盘,对于大于2 TB的磁盘,此处请选择“GPT(GUID分区表)”,单击“确定”。 返回“计算机管理”窗口,如图所示。 图 计算机管理(Windows 2012) 注意 MBR支持的磁盘最大容量为2 TB,GPT最大支持的磁盘容量为18 EB,当前数据盘支持的最大容量为32 TB,如果您需要使用大于2 TB的磁盘容量,分区形式请采用GPT。当磁盘已经投入使用后,此时切换磁盘分区形式时,磁盘上的原有数据将会清除,因此请在磁盘初始化时谨慎选择磁盘分区形式。 步骤 7 在磁盘1右侧的未分配的区域,右键单击选择“新建简单卷”。 弹出“新建简单卷向导”窗口,如图 所示。 图 新建简单卷向导(Windows 2012) 步骤 8 根据界面提示,单击“下一步”。 进入“指定卷大小”页面,如图 所示。 图 指定卷大小(Windows 2012) 步骤 9 指定卷大小,系统默认卷大小为最大值,您还可以根据实际需求指定卷大小,此处以保持系统默认配置为例,单击“下一步”。 进入“分配驱动器号和路径”页面,如图 所示。 图 分配驱动器号和路径(Windows 2012) 步骤 10 分配到驱动器号和路径,系统默认为磁盘分配驱动器号,驱动器号默认为“D”,此处以保持系统默认配置为例,单击“下一步”。 进入“格式化分区”页面,如图 所示。 图 格式化分区(Windows 2012) 步骤 11 格式化分区,系统默认的文件系统为NTFS,并根据实际情况设置其他参数,此处以保持系统默认设置为例,单击“下一步”。 进入“完成新建卷”页面,如图 所示。 图 完成新建卷(Windows 2012) 注意 不同文件系统支持的分区大小不同,请根据您的业务需求选择合适的文件系统。 步骤 12 单击“完成”。 需要等待片刻让系统完成初始化操作,当卷状态为“状态良好”时,表示初始化磁盘成功,如图 所示。 图 初始化磁盘成功(Windows 2012) 步骤 13 新建卷完成后,单击,在文件资源管理器中查看是否有新建卷,此处以“新建卷(D:)”为例。 若如图 所示,可以看到“新建卷(D:)”,表示磁盘初始化成功,任务结束。 图 文件资源管理器(Windows 2012)
        来自:
      • 初始化容量大于2TB的Windows数据盘(Windows 2012)
        本节介绍了初始化容量大于2TB的Windows数据盘(Windows 2012)的操作场景、前提条件、操作指导等内容。 操作场景 本文以云主机的操作系统为“Windows Server 2012 R2 Standard 64bit”、磁盘容量为3 TB举例,提供容量大于2 TB的Windows数据盘的初始化操作指导。 MBR格式分区支持的磁盘最大容量为2 TB,GPT分区表最大支持的磁盘容量为18 EB,因此当为容量大于2 TB的磁盘分区时,请采用GPT分区方式。具体操作请参见初始化容量大于2TB的Windows数据盘(Windows 2008)。关于磁盘分区形式的更多介绍,请参见场景及磁盘分区形式介绍。 不同云主机的操作系统的格式化操作可能不同,本文仅供参考,具体操作步骤和差异请参考对应的云主机操作系统的产品文档。 前提条件 已挂载数据盘至云主机,且该数据盘未初始化。 已登录云主机。 操作指导 步骤 1 在云主机桌面,单击桌面下方的。 弹出“服务器管理器”窗口,如图所示。 图 服务器管理器(Windows 2012) 步骤 2 在“服务器管理器”页面右上方选择“工具 > 计算机管理”。 弹出“计算机管理”窗口,如图所示。 图 计算机管理窗口(Windows 2012) 步骤 3 选择“存储 > 磁盘管理”。 进入磁盘列表页面,如图所示。 图 磁盘列表(Windows 2012) 步骤 4 (可选)在页面右侧可以查看磁盘列表,若新增磁盘处于脱机状态,需要先进行联机,再进行初始化。 在磁盘1区域,右键单击菜单列表中的“联机”。 如图所示,当磁盘1由“脱机”状态变为“没有初始化”,表示联机成功。 图 联机成功(Windows 2012) 步骤 5 (可选)在磁盘1区域,右键单击菜单列表中的“初始化磁盘”。 弹出“初始化磁盘”窗口,如图所示。 图 初始化磁盘(Windows 2012) 步骤 6 在“初始化磁盘”对话框中显示需要初始化的磁盘,对于大于2 TB的磁盘,此处请选择“GPT(GUID分区表)”,单击“确定”。 返回“计算机管理”窗口,如图所示。 图 计算机管理(Windows 2012) 注意 MBR支持的磁盘最大容量为2 TB,GPT最大支持的磁盘容量为18 EB,当前数据盘支持的最大容量为32 TB,如果您需要使用大于2 TB的磁盘容量,分区形式请采用GPT。当磁盘已经投入使用后,此时切换磁盘分区形式时,磁盘上的原有数据将会清除,因此请在磁盘初始化时谨慎选择磁盘分区形式。 步骤 7 在磁盘1右侧的未分配的区域,右键单击选择“新建简单卷”。 弹出“新建简单卷向导”窗口,如图 所示。 图 新建简单卷向导(Windows 2012) 步骤 8 根据界面提示,单击“下一步”。 进入“指定卷大小”页面,如图 所示。 图 指定卷大小(Windows 2012) 步骤 9 指定卷大小,系统默认卷大小为最大值,您还可以根据实际需求指定卷大小,此处以保持系统默认配置为例,单击“下一步”。 进入“分配驱动器号和路径”页面,如图 所示。 图 分配驱动器号和路径(Windows 2012) 步骤 10 分配到驱动器号和路径,系统默认为磁盘分配驱动器号,驱动器号默认为“D”,此处以保持系统默认配置为例,单击“下一步”。 进入“格式化分区”页面,如图 所示。 图 格式化分区(Windows 2012) 步骤 11 格式化分区,系统默认的文件系统为NTFS,并根据实际情况设置其他参数,此处以保持系统默认设置为例,单击“下一步”。 进入“完成新建卷”页面,如图 所示。 图 完成新建卷(Windows 2012) 注意 不同文件系统支持的分区大小不同,请根据您的业务需求选择合适的文件系统。 步骤 12 单击“完成”。 需要等待片刻让系统完成初始化操作,当卷状态为“状态良好”时,表示初始化磁盘成功,如图 所示。 图 初始化磁盘成功(Windows 2012) 步骤 13 新建卷完成后,单击,在文件资源管理器中查看是否有新建卷,此处以“新建卷(D:)”为例。 若如图 所示,可以看到“新建卷(D:)”,表示磁盘初始化成功,任务结束。 图 文件资源管理器(Windows 2012)
        来自:
        帮助文档
        弹性云主机 ECS
        快速入门
        初始化数据盘
        初始化容量大于2TB的Windows数据盘(Windows 2012)
      • 数据安全概览
        总览页面分为云服务全景图(资产地图)、数据采集安全、数据传输/存储安全、数据使用安全和数据交换/删除安全共五大板块,实时呈现了用户资产的具体情况。 前提要求 已完成资产访问的授权,参考云资产委托授权/停止授权进行操作。 已完成添加数据库资产,参考数据库资产清单进行操作。 操作步骤 1. 登录管理控制台。 2. 单击左上角的,选择区域或项目。 3. 在左侧导航树中,单击,选择“安全> 数据安全中心”,进入数据安全中心总览界面。 4. 查看数据安全中心服务的总览—云服务全景图。 提供数据资产地图,帮助客户建立数据资产的全景视图,可视化呈现数据资产分布、数据敏感程度、当前的风险级别。 梳理云上数据资产:自动扫描并梳理云上数据资产,地图化展示资产分布,帮助用户解决数据在哪里的问题。 敏感数据展示:基于DSC的三层数据识别引擎、预置合规规则、自然语义识别技术、文件相似度检测技术,对数据资产进行分类分级。 对数据资产按照“风险VPC数”、“风险安全组数”、“风险主机数”、“风险RDS数”、“风险OBS数”进行分类展示。 每类资产按照“高危”、“中危”、“低危”、“未识别风险”对敏感数据进行分级定位。 风险监控和预警:基于风险识别引擎,对数据资产进行风险监控,展示每类资产的风险分布,并预警。 说明 将鼠标移动到数据资产图标处,可查看资产相关信息。 单击数据资产图标,在界面的右侧弹框中可详细查看该资产的“基本信息”、“风险信息”或者“风险安全组规则”等信息。 5. 查看数据安全中心服务的总览—数据采集安全。 DSC根据敏感数据规则对敏感数据进行识别和敏感等级分类,您可以在总览页面查看您资产中不同风险等级的数据的分布情况。 基于敏感字段在文件中出现的累计次数和敏感字段关联组来判断文件的敏感性,并根据文件的敏感程度将其划分为四个等级:“未识别风险”、“低风险”、“中风险”和“高风险”。风险等级依次递增。具体风险等级情况说明: 未识别风险:0级 低风险:1~3级 中风险:4~7级 高风险:8~10级 在柱状图中,不同高度代表该风险等级的资产数量。将鼠标箭头放置在柱状图上,可查看该风险等级的资产数量。 6. 查看数据安全中心服务的总览—数据传输/存储安全。 数据传输安全:DSC统计了以下可能存在传输安全的项,您可以直接单击具体项的名称,查看详细情况。 VPN连接数:您的资产中存在已创建的虚拟专用网络,具体的请参考《VPN服务用户指南》。 云专线连接数:您的资产中存在已创建的云专线物理连接,具体的请参考《云专线用户指南》。 ELB未采用加密通信的监听器:添加监听器时,未使用加密通信HTTPS协议的监听器数量的统计,建议您采用HTTS协议进行加密通信,具体的操作请参见修改监听器。 SSL证书订阅:您的资产中存在已购买或者已上传的证书数量,了解SSL证书请参考《SSL证书管理用户指南》。 WAF未采用加密通信的域名:WAF中添加域名时,未使用加密传输HTTPS协议的域名数量的统计,建议您采用HTTPS协议进行加密通信,具体的操作请参见修改服务器信息。 数据存储安全:该模块为您罗列了存在未加密的对象桶,为了防止您的资产存在不必要的存储安全,建议您单击对象桶名称,前往OBS界面,对未加密的对象桶进行加密。 7. 查看数据安全中心服务的总览—数据使用安全。 该模块统计了“近30分钟”、“近3小时”、“近24小时”、“近7天”、“近30天”内的数据使用安全信息。 未处理异常事件:按“数据访问异常”、“数据操作异常”、“数据管理异常”所占比例进行展示。同时,展示了异常事件总数、违例确认总数和违例排除总数。 单击“未处理异常事件”中的其中一个颜色区域,可查看指定数据异常占比。 当不需要展示某种类型的异常事件时,单击事件分布图右侧攻击类型对应的颜色方块,取消在事件分布圆环中的展示。 Top5访问源IP:前5的访问源IP的统计。 Top5被访问高风险对象:被访问的对象中,排在前5的高风险对象。 Top5访问帐号:前5的访问帐号的统计。 8. 查看数据安全中心服务的总览—数据交换/删除安全。 数据交换安全:展示了已创建的“静态脱敏任务数”以及“水印API调用次数”,如何创建数据脱敏任务请参考创建数据脱敏任务。 数据删除安全:DSC为您统计了数据库、ECS、OBS资产的当日删除数和总删除数。
        来自:
        帮助文档
        数据安全中心
        用户指南
        数据安全概览
      • Statement
        条件键 运算符 条件值 ctyun:CurrentTime DateEquals:匹配指定日期。 DateNotEquals:不等于指定日期。 DateLessThan:早于指定日期。 DateLessThanEquals:早于或等于指定日期。 DateGreaterThan:晚于指定日期。 DateGreaterThanEquals:晚于或等于指定日期。 格式为:yyyyMMdd’T’HH:mm:ss’Z’。例如:20191218T09:00:00Z。 DateEquals和DateNotEquals精确到天,其他精确到秒。 注意 将需要设置的时间转换为UTC+0时间。 ctyun:SourceIp IpAddress:与指定IP地址或范围匹配。 NotIpAddress:除指定IP地址或范围外的所有IP地址匹配。 IPv4:点分十进制格式。 IPv6:32位16进制数,格式为X:X:X:X:X:X:X:X。 如果指定地址范围,IP地址后加掩码表示,如192.163.1.5/3。 ctyun:userid StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写的无效匹配。或通过填充通配符,与指定的值也不匹配。 包含数字和小写字母的32位字符串。 运算符为StringLike和StringNotLike,可以包含通配符。 ctyun:username StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 ()或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写的无效匹配。或通过填充通配符,与指定的值也不匹配。 1~64个字符组成,字符只能包含字母、数字或特殊字符,特殊字符只能是:下划线()、中划线()、逗号(,)、句点(.)、加号(+)、等号()和at符号(@)。 说明 运算符为StringLike和StringNotLike,可以包含通配符。 ctyun:UserAgent StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写的无效匹配。或通过填充通配符,与指定的值也不匹配。 字符串,可以包含特殊字符。 ctyun:Referer StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 ()或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写的无效匹配。或通过填充通配符,与指定的值也不匹配。 字符串,可以包含特殊字符。 ctyun:SecureTransport Bool:布尔匹配。 true false ctyun:MultiFactorAuthPresent Bool:布尔匹配。 说明 不建议对GetObject接口设置该条件键,否则在OOS控制台上无法下载、预览、分享文件和编辑元数据。 true false ctyun:MultiFactorAuthAge NumericEquals:与指定的值相同。 NumericNotEquals:与指定的值不同,否定匹配。 NumericLessThan:小于指定的值。 NumericLessThanEquals:小于等于指定的值。 NumericGreaterThan:大于指定的值。 NumericGreaterThanEquals:大于等于指定的值。 说明 不建议对GetObject接口设置该条件键,否则在OOS控制台上无法下载、预览、分享文件和编辑元数据。 整数形式,以秒为单位。 oos:prefix StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写。值可以在字符串中的任何位置包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。 字符串形式。 说明 本条件键仅对ListBucket生效。 oos:xamzacl StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写。值可以在字符串中的任何位置包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。 字符串形式。 取值为: private:私有。 publicread:公共读。 publicreadwrite:公共读写。 说明 创建Bucket时,通过使用此条件键可以控制存储桶ACL的类型,本条件键仅对PutBucket生效。
        来自:
        帮助文档
        对象存储(经典版)I型
        控制台指南
        访问控制
        IAM策略
        IAM策略编写规则
        Statement
      • 数据架构示例
        本章节主要介绍数据架构示例。 DataArts Studio数据架构以关系建模、维度建模理论支撑,实现规范化、可视化、标准化数据模型开发,定位于数据治理流程设计落地阶段,输出成果用于指导开发人员实践落地数据治理方法论。 本章节操作场景如下: 对MRS Hive数据湖中的出租车出行数据进行数据模型设计。 数据库demosdidb中已具备出租车出行原始数据表sditaxitripdata。 原始数据表sditaxitripdata的数据字段介绍如下: 数据说明如下: 下表为出租车行程数据 序号 字段名称 字段描述 1 VendorID 供应商编号 取值如下: 1A Company 2B Company 2 tpeppickupdatetime 上车时间 3 tpepdropoffdatetime 下车时间 4 passengercount 乘客人数 5 tripdistance 行驶距离 6 ratecodeid 费率代码 取值如下: 1Standard rate 2JFK 3Newark 4Nassau or Westchester 5Negotiated fare 6Group ride 7 storefwdflag 存储转发标识 8 PULocationID 上车地点 9 DOLocationID 下车地点 10 paymenttype 付款方式代码 取值如下: 1Credit card 2Cash 3No charge 4Dispute 5Unknown 6Voided trip 11 fareamount 车费 12 extra 加收 13 mtatax MTA税 14 tipamount 手续费 15 tollsamount 通行费 16 improvementsurcharge 改善附加费 17 totalamount 总车费 数据架构的流程如下: 1. 准备工作 : 添加审核人 :在数据架构中,业务流程中的步骤都需要经过审批,因此,需要先添加审核人。只有工作空间管理员角色的用户才具有添加审核人的权限。 管理配置中心 :数据架构中提供了丰富的自定义选项,统一通过配置中心提供,您需要根据自己的业务需要进行自定义配置。 2. 数据调研 :基于现有业务数据、行业现状进行数据调查、需求梳理、业务调研,输出企业业务流程以及数据主题划分。 主题设计 :通过分层架构表达对数据的分类和定义,帮助厘清数据资产,明确业务领域和业务对象的关联关系。 流程设计 :本例暂不涉及。流程设计是针对流程的一个结构化的整体框架,描述了企业流程的分类、层级以及边界、范围、输入/输出关系等,反映了企业的商业模式及业务特点。 3. 标准设计 :新建码表&数据标准。 新建码表并发布 :通常只包括一系列允许的值和附加文本描述,与数据标准关联用于生成值域校验质量监控。 新建数据标准并发布 :用于描述公司层面需共同遵守的属性层数据含义和业务规则。其描述了公司层面对某个数据的共同理解,这些理解一旦确定下来,就应作为企业层面的标准在企业内被共同遵守。 4. 模型设计: 应用关系建模和维度建模的方法,进行分层建模。 关系建模:新建SDI 层和DWI层两个模型 。 SDI :Source Data Integration,又称贴源数据层。SDI是源系统数据的简单落地。 DWI :Data Warehouse Integration,又称数据整合层。DWI整合多个源系统数据,对源系统进来的数据进行整合、清洗,并基于三范式进行关系建模。 维度建模:在DWR层新建并发布维度 & 维度建模:在DWR层新建并发布事实表。 DWR :Data Warehouse Report,又称数据报告层。DWR基于多维模型,和DWI层数据粒度保持一致。 维度 :维度是用于观察和分析业务数据的视角,支撑对数据进行汇聚、钻取、切片分析,用于SQL中的GROUP BY条件。 事实表 :归属于某个业务过程的事实逻辑表,可以丰富具体业务过程所对应事务的详细信息。 5. 指标设计:新建并发布技术指标 :新建业务指标(本例不涉及)和技术指标,技术指标又分为原子指标、衍生指标和复合指标。 指标 :指标一般由指标名称和指标数值两部分组成,指标名称及其涵义体现了指标质的规定性和量的规定性两个方面的特点,指标数值反映了指标在具体时间、地点、条件下的数量表现。 业务指标用于指导技术指标,而技术指标是对业务指标的具体实现。 原子指标 :原子指标中的度量和属性来源于多维模型中的维度表和事实表,与多维模型所属的业务对象保持一致,与多维模型中的最细数据粒度保持一致。 原子指标中仅含有唯一度量,所含其它所有与该度量、该业务对象相关的属性,旨在用于支撑指标的敏捷自助消费。 衍生指标 :是原子指标通过添加限定、维度卷积而成,限定、维度均来源于原子指标关联表的属性。 复合指标 :由一个或多个衍生指标叠加计算而成,其中的维度、限定均继承于衍生指标。 注意,不能脱离衍生指标、维度和限定的范围,去产生新的维度和限定。 6. 维度建模:在DM 层新建并发布汇总表 。 DM (Data Mart) :又称数据集市。DM面向展现层,数据有多级汇总。 汇总表 :汇总表是由一个特定的分析对象(如会员)及其相关的统计指标组成的。组成一个汇总逻辑表的统计指标都具有相同的统计粒度(如会员),汇总逻辑表面向用户提供了以统计粒度(如会员)为主题的所有统计数据(如会员主题集市)。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        使用教程
        数据架构示例
      • 概述
        关联性 当用户将密钥材料导入自定义密钥时,该自定义密钥与该密钥材料永久关联,不能将其他密钥材料导入该自定义密钥中。 唯一性 当用户使用导入的密钥加密数据时,加密后的数据必须使用加密时采用的自定义密钥(即自定义密钥的元数据及密钥材料与导入的密钥匹配)才能解密数据,否则解密会失败。 当用户希望使用自己的密钥材料,而不是KMS生成的密钥材料时,可通过密钥管理界面将自己的密钥材料导入到KMS,由KMS统一管理。 说明 导入的密钥与通过密钥管理服务创建的自定义密钥一样支持启用、禁用、计划删除和取消删除等操作。 用户仅能导入256位对称密钥。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角,选择区域或项目。 步骤 3 单击“服务列表”,选择“安全> 数据加密服务”,默认进入“密钥管理”界面。 步骤 4 单击“导入密钥”,弹出“导入密钥”对话框。 步骤 5 在弹出的对话框中填写密钥参数。 别名:待创建密钥的别名。 说明 输入字符支持数字、字母、“”、“”、“:”和“/”。 支持长度为1 ~ 255个字符。 (可选)描述:可根据自己的需要为自定义密钥添加描述。 企业项目:该参数针对企业用户使用。 如果您是企业用户,且已创建企业项目,则请从下拉列表中为密钥选择需要绑定的企业项目,默认项目为“default”。 未开通企业管理的用户页面则没有“企业项目”参数项,无需进行配置。 步骤 6 (可选)用户可根据自己的需要为自定义密钥添加标签,输入“标签键”和“标签值”。 说明 当用户在创建密钥时,没有为该自定义密钥添加标签。若用户需要为该自定义密钥添加标签,可单击该自定义密钥的别名,进入密钥详情页面,单击“标签”,为该自定义密钥添加标签。 同一个自定义密钥下,一个标签键只能对应一个标签值;不同的自定义密钥下可以使用相同的标签键。 用户最多可以给单个自定义密钥添加20个标签。 当同时添加多个标签,需要删除其中一个待添加的标签时,可单击该标签所在行的“删除”,删除标签。 步骤 7 单击“安全性与持久性”阅读并了解导入密钥的安全性和持久性。 步骤 8 勾选“我已经了解导入密钥的安全性和持久性”,创建密钥材料为空的自定义密钥。 步骤 9 单击“下一步”,进入“获取包装密钥和导入令牌”页面。 密钥包装算法说明 密钥包装算法 说明 设置 RSAESOAEPSHA256 具有“SHA256”哈希函数的OAEP的RSA加密算法。 请您根据自己的HSM功能选择加密算法。 如果您的HSM支持“RSAESOAEPSHA256”加密算法,推荐使用“RSAESOAEPSHA256”加密密钥材料。 如果您的HSM不支持“OAEP”选项,用户可以使用“RSAESPKCS1V15”加密密钥材料。 “RSAESOAEPSHA1”加密算法已经不再安全,请谨慎选择。 RSAESOAEPSHA1 具有“SHA1”哈希函数的OAEP的RSA加密算法。 请您根据自己的HSM功能选择加密算法。 如果您的HSM支持“RSAESOAEPSHA256”加密算法,推荐使用“RSAESOAEPSHA256”加密密钥材料。 如果您的HSM不支持“OAEP”选项,用户可以使用“RSAESPKCS1V15”加密密钥材料。 “RSAESOAEPSHA1”加密算法已经不再安全,请谨慎选择。 SM2ENCRYPT 国密推荐的SM2椭圆曲线公钥密码算法。 请在支持国密的局点使用SM2加密算法。 说明 当用户执行“导入密钥”操作,但未成功导入密钥材料便退出操作过程时,可在待导入密钥材料的自定义密钥所在行单击“导入密钥材料”,页面会弹出“导入密钥材料”对话框,用户可继续执行导入密钥材料的操作。 步骤 10 获取“包装密钥”和“导入令牌”,步骤详见本节下方内容“获取“包装密钥”和“导入令牌””,并加密密钥材料,详见本节下方内容“使用“包装密钥”加密密钥材料”。 步骤 11 单击“下一步”,进入“导入密钥材料”页面。 步骤 12 单击“下一步”,进入“导入密钥令牌”页面。根据以下图表设置参数。 导入密钥令牌参数说明 参数 操作说明 密钥ID 创建密钥时,随机生成的密钥ID。 密钥导入令牌 选择本章节中获取“包装密钥”和“导入令牌”的方法二调用API获取的导入令牌。 密钥材料失效模式 永不失效:导入的密钥材料永久不失效。 失效时间:用户可指定导入的密钥材料的失效时间,默认失效时间为24小时。密钥材料失效后,KMS会在24小时内自动删除密钥材料,删除后密钥将无法使用,且密钥状态变更为“等待导入”。 步骤 13 单击“确定”,页面右上角弹出“密钥导入成功”,则说明导入密钥成功。 注意 密钥ID、导入的密钥材料和导入的令牌需要全部匹配,密钥材料才能导入成功,否则会导入失败。 用户可在密钥列表中查看到导入的密钥信息,导入密钥的默认状态为“启用”。
        来自:
        帮助文档
        数据加密
        用户指南
        密钥管理
        导入密钥
        概述
      • 配置追踪器
        本章节主要介绍配置追踪器 。 操作场景 云审计服务管理控制台支持对已创建的管理类追踪器增加OBS转储、LTS转储等相关配置。 用户可以选择是否将已记录的事件发送到OBS桶永久保存。 配置追踪器完成后,系统立即以新的规则开始记录操作。 本节介绍如何配置管理类事件追踪器。 前提条件 已开通云审计服务。 配置管理类事件追踪器 1. 登录管理控制台。 2. 在管理控制台右上角单击图标,选择区域和项目。 3. 单击左上角,选择“管理与部署 > 云审计服务 CTS”,进入云审计服务详情页面。 4. 单击左侧导航树的“追踪器”,进入追踪器信息页面。 5. 在管理类追踪器信息右侧,单击操作下的“配置”。 6. 设置追踪器的基本信息,详见表 追踪器基本参数说明,单击“下一步”。 7. 在配置转储页面,您可以设置追踪器的转储信息。用户通过云审计控制台只能查询最近7天的操作记录,如果需要查询超过7天的操作记录,您必须配置转储到对象存储服务(OBS)或配置转储到云日志服务(LTS)。具体参数说明参见表 配置转储到OBS参数说明和表 配置转储到LTS参数说明。 8. 单击“下一步 > 配置”,完成配置管理类事件追踪器。 追踪器配置成功后,您可以在追踪器信息页面查看配置的追踪器的详细信息。 说明 因为CTS所存储的事件是周期性转储到OBS桶的,因此当您配置了追踪器所对应的OBS桶后,当前转储周期内(通常为数分钟)已收到事件会转储到配置后的OBS桶中。例如当前转储周期为12:00~12:05,用户在12:02分修改了当前追踪器对应的OBS桶,那么12:00~12:02分之间收到的事件会在12:05分时转储到新配置的OBS桶中。 9. (可选)在追踪器页面,单击标签列下的,可以为该追踪器添加标签。 标签以键值对的形式表示,用于标识追踪器,便于对追踪器进行分类和搜索。此处的标签仅用于追踪器的过滤和管理。一个追踪器最多添加20个标签。 如果您的组织已经设定云审计服务的相关标签策略,则需按照标签策略规则为追踪器添加标签。详情参考表 标签说明。 表 追踪器基本参数说明 参数名称 说明 追踪器名称 默认为system,不可修改。 企业项目 选择一个企业项目。 说明 企业项目是一种云资源管理方式,由企业项目管理服务提供将云资源统一按项目管理、项目内的资源管理或成员管理。 开启企业项目的具体操作请参考《企业管理服务用户指南》中的“创建企业项目”章节。 表 配置转储到OBS参数说明 参数名称 参数说明 转储到OBS 当“转储到OBS”开关打开时,您可以选择已存在的OBS桶或直接通过配置页面新建OBS桶,并配置事件文件前缀。 如果“转储到OBS”开关关闭时,则无需配置相应参数。 选择OBS 新建OBS桶:在您填写一个桶名后系统将自动为您创建一个OBS桶。 选择已有OBS桶:选择当前区域已创建的OBS桶。 OBS桶名称 当“选择OBS”选择“新建OBS桶”时,直接新建OBS桶名称。OBS桶名称不能为空,仅支持小写字母、数字、“”和“.”,且长度范围为363个字符。禁止两个“.”相邻(如“my..bucket”),禁止“.”和“”相邻(如“my.bucket”和“my.bucket”),禁止使用ip为桶名称。 当“选择OBS”选择“选择已有OBS桶”时,可以选择已存在的OBS桶。 保存周期 管理类事件追踪器的保存周期默认沿用在OBS的配置,不支持修改。 事件文件名前缀 用于标识被转储的事件文件,该字段支持用户自定义,会自动添加在转储事件文件的文件名前端,方便用户快速进行筛选。事件文件名前缀只能由英文字母、数字、下划线()、中划线()和小数点(.)组成,且长度范围为064个字符。 表 配置转储到LTS参数说明 参数名称 参数说明 转储到LTS 当“转储到LTS”开关打开时,表示操作事件将转储到日志流中。 日志组名称 当“转储到LTS”开关打开时,日志组名称默认为“CTS”。如果“转储到LTS”开关关闭时,则无需配置该参数。 表 标签说明 参数 说明 举例 标签键 输入标签的键,同一个追踪器标签的键不能重复。键可以自定义,也可以选择预先在标签服务(TMS)创建好的标签的键。 键命名规则如下: 长度范围为1到128个字符。 可以包含任意语种字母、数字、空格和.:+@,但首尾不能含有空格,不能以sys开头。 Key0001 标签值 输入标签的值,标签的值可以重复,并且可以为空。 标签值的命名规则如下: 长度范围为0到255个字符。 可以包含任意语种字母、数字、空格和.:/+@。 Value0001
        来自:
        帮助文档
        云审计
        用户指南
        管理类事件追踪器
        配置追踪器
      • 将Oracle同步到DRDS
        使用须知 在创建同步任务前,请务必阅读以下使用须知。 说明 建议创建单独用于DRS任务连接的数据库帐号,避免因为数据库帐号密码修改,导致的任务连接失败。 连接源或目标数据库的帐号密码修改后,请尽快修改连接信息,避免任务连接失败后自动重试,导致数据库帐号被锁定影响使用。 表使用须知 类型名称 使用和操作限制 数据库权限设置 l源数据库端: − 全量同步:需要具有CREATE SESSION,SELECT ANY DICTIONARY,针对单表的SELECT权限(GRANT SELECTto drsUser;)权限。 − 全量+增量同步: 12c及以上版本CDB数据库同步时,需要具有CREATE SESSION,SELECT ANY DICTIONARY,针对单表的SELECT权限(GRANT SELECTto drsUser;),EXECUTECATALOGROLE,SELECT ANY TRANSACTION,LOGMINING,SELECT ON SYS.COL$,SELECT ON SYS.OBJ$,SET CONTAINER(GRANT SET CONTAINER TOCONTAINERALL;)权限。 12c及以上版本PDB数据库同步时,除了需要具有CREATE SESSION,SELECT ANY DICTIONARY,针对单表的SELECT权限(GRANT SELECTto drsUser;),EXECUTECATALOGROLE,SELECT ANY TRANSACTION,LOGMINING,SELECT ON SYS.COL$,SELECT ON SYS.OBJ$权限,还需要具有CDB的CREATE SESSION,SELECT ANY DICTIONARY,EXECUTECATALOGROLE,SELECT ANY TRANSACTION,LOGMINING,SET CONTAINER(GRANT SET CONTAINER TOCONTAINERALL;)权限。 11g及以下版本数据库同步时,需要具有CREATE SESSION,SELECT ANY DICTIONARY,针对单表的SELECT权限(GRANT SELECTto drsUser;),EXECUTECATALOGROLE,SELECT ANY TRANSACTION,SELECT ON SYS.COL$,SELECT ON SYS.OBJ$。 − 增量同步时,源库Oracle需要开启日志归档模式和最小补充日志,所需同步表必须开启PK/UI或以ALL级别的补充日志,不限制库级或表级补充日志方式,若只开启表级补充日志,重建或者RENAME表后需要重新设置;请确保以上配置在同步过程中始终保持开启状态。 − 12c及以上版本不支持使用ORACLEMAINTAINEDY的用户帐号进行增量同步(system/sys除外),因为该属性的帐号无日志解析权限。 l目标数据库端:提供的目标数据库帐号必须拥有如下权限:SELECT、CREATE、DROP、DELETE、INSERT、UPDATE、ALTER、INDEX、EVENT、RELOAD、CREATE VIEW。 同步对象约束 l增量同步不支持DDL的同步。 l全量阶段不支持bfile,xml、sdogeometry、urowid、interval(精度大于6位)和自定义类型。 l增量阶段不支持bfile,xml、interval、sdogeometry、urowid、timestamp(精度大于6位)和自定义类型。 l增量阶段源库为Oracle物理备库(PHYSICAL STANDBY)时不支持解析lob类型数据(无法生成数据字典),如果增量同步的表中出现lob类型会导致增量同步异常。 l目前只支持同步源库的数据,不支持同步源库表结构及其他数据库对象。 l用户需要在目标库根据源端逻辑库的表结构,自行在目标库创建对应的表结构及索引。未在目标库创建的对象,视为用户不选择这个对象进行同步。 l同步时需要在目标库创建表结构,目标库表结构要包含源库所有列,且主键要一致。 l源库支持todate和sysguid函数做默认值。将其他函数作为default值时,需要目标库也有相同功能的函数。对于目标库不存在对应函数的情况,可能会出现以下结果: − 默认值函数可能会被置空。 − 创建表失败,导致对象对比不一致或者任务失败。 l如果表中只有LOB字段,可能出现数据不一致性情况。 l如果Oracle中使用LOB类型各自的empty函数写入数据时,通过JDBC查询出来的值是空字符串,写入到目标库后是空字符串还是NULL取决于目标库对空字符串值的处理。 l针对无主键且无索引的表,非大字段的列必须大于3列,否则会因为无法全列匹配导致增量异常。 l不支持默认值含有表达式的函数的表的同步。 l不支持同步源库中的临时表。 源数据库要求 lOracle单行记录不能超过8K(lob、long类型除外,会自动转换成MySQL的text、blob类型),原因是MySQL innodb引擎限制单行大小不能超过8K(text、blob类型除外)。 l不建议以字符串类型作为主键或唯一键,因为Oracle的字符串作为主键、唯一键时区分空格,而MySQL不区分,可能导致数据不一致和死锁问题。 l对于Oracle的binaryfloat或者binarydouble类型,MySQL中不支持设置Nan、Inf、Inf三种值,DRS默认会将这三种值转为0保存。 lOracle中建议列名不要取名AUTOPKROWID,原因是这个列名在MySQL5.7中是保留列名,无法创建出来。 lOracle中number(p, s)字段的精度不要超过p: [1, 38], s:[p65, min(p, 30)]的精度表示范围。其中,s取值依赖于p的取值变化,即下限为p65, 上限为p或30中取最小值。例如:当p1, s的取值范围是[64, 1]。当p38, s取值范围是[27, 30]。 int字段的值不要超过(65,0)的精度表示范围。原因是MySQL数字的表示范围比Oracle小。 l不支持表名包含除下划线外的其他特殊字符的表的同步。 l源数据库中的库名或映射后的名称不允许以iblogfile开头,也不能为ibbufferpool、ibdoublewrite、ibdata1、ibtmp1。 l不支持选择源数据库的空库进行同步。 l目前仅支持同步如下字符集:ZHS16GBK、AL32UTF8、UTF8、US7ASCII、WE8MSWIN1252、WE8ISO8859P1、WE8ISO8859P2、WE8ISO8859P4、WE8ISO8859P5、WE8ISO8859P7、WE8ISO8859P9、WE8ISO8859P13、WE8ISO8859P15。 目标数据库要求 l同步前,目标数据库必须存在待同步数据库及表,且库名,表名,列名,索引名、约束名等必须为对应的小写名称。 lDRS同步时会有大量数据写入目标库,目标库maxallowedpacket 参数过小会导致无法写入,建议将目标库maxallowedpacket参数值设置为大于100MB。 l同步的表要禁用外键,因为DRS并行回放会使得不同表之间的写入顺序和源库不一致,可能会触发外键约束限制,造成同步失败。 l支持目标数据库中的表比源数据库多列场景,但是需要避免以下场景可能导致的任务失败。 − 目标端多的列要求非空且没有默认值,源端insert数据,同步到目标端后多的列为null,不符合目标端要求。 − 目标端多的列设置固定默认值,且有唯一约束。源端insert多条数据后,同步到目标端后多的列为固定默认值,不符合目标端要求。 操作限制 l表对象名同步到目标库后会转换成小写,如ABC和abc。因此增量同步阶段,选择的源库表中不能存在表名称字母相同但大小写不同的表,否则,会导致同步失败。 l由于无主键表缺乏行的唯一性标志,网络不稳定时涉及少量重试,表数据存在少量不一致的可能性。 l如有特殊字符,业务连接Oracle数据库使用的编码需和Oracle数据库服务端编码一致,否则目标库会出现乱码。 lOracle中表结构同步到DRDS后表的字符集为utf8mb4。 lOracle中表结构长度(所有列长字节数之和,char、varchar2等类型字节长度和编码有关)超过65535时,可能导致同步失败。 lOracle归档日志文件大小必须大于单条数据最大值,避免单条数据日志跨文件(超过2个日志文件)导致的增量数据解析异常。 l对于Oracle RAC集群,建议使用SCAN IP+ SERVICENAMES方式创建任务,SCAN IP具有更强的容错性,更好的负载能力,更快的同步体验。 l源库为Oracle RAC时,如果需要使用SCAN IP配置DRS任务,需要保证SCAN IP、DRS节点的IP同时能与源库的所有VIP互通(Oracle内部机制),否则无法通过连通性检查。若不使用SCAN IP,可以使用某一节点的VIP,这种情况下DRS日志解析只会在VIP指定的RAC节点上进行。 l若源库为RAC,增量同步首次启动时所有RAC节点必须正常在线,否则增量启动会出现异常。 l若源库为RAC,增量同步时,不支持增加、减少节点数量,避免导致增量同步异常(为保证数据的强一致性)。 l数据类型不兼容时,可能引起同步失败。 l当Oracle字符集是WE8MSWIN1252时,CLOB列同步到目标库可能出现乱码,建议先修改源库字符集为AL32UTF8再同步数据。 l同步过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库的端口号。 l同步过程中,源库不能做DDL变更。 l同步过程中,禁止对Oracle源库做resetlogs操作,否则会导致数据无法同步且任务无法恢复。 l同步过程中,不支持LOB类型的rollback操作,否则会导致同步任务失败。 l对于同步中的数据库对象,在同步期间,目标库不能进行写入操作,否则会导致数据不一致。 lDRS全量同步表结构时,源库中的char、varchar2类型长度在目标库会按照字节长自动扩大(因为目标库为字节长),至少扩大1.5倍。扩大倍数和源库目标库的字符集有关,例如同为UTF8的情况下,默认扩大3倍,同为GBK的情况下,默认扩大2倍。 l全量同步分区表的结构时会将该对象转为非分区的普通表,增量同步时,源库跟分区表相关的操作,在目标库执行可能会失败。 l增量同步时,BLOB末尾的0x00、CLOB末尾的空格会被截断。 l选择表级对象同步时,增量同步过程中不建议对表进行重命名操作。 l源库的用户对应目标库的数据库。 l源库用户、表结构信息同步至目标库后全部转换为小写。如表Ab及表AB同步至目标库为ab。 l不支持索引组织表的同步。 l同步任务全量阶段开始前,如有长时间未提交的事务,有可能丢失数据。 l任务再编辑增加新表时,请确保新增的表的事务都已提交,否则未提交的事务可能无法同步到目标库。建议在业务低峰期做增加表的操作。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        入云
        将Oracle同步到DRDS
      • 产品实例退订
        本页介绍了文档数据库服务的实例退订。 操作说明 退订操作涉及实例中断服务,请确认您是否需要退订。 更多退订信息及规则,请参考费用中心的订单管理退订管理相关章节。 管理控制台进行退订 用户可以在TeleDB数据库控制台的“实例管理”页面的实例列表中,进行实例退订。 1. 登录TeleDB数据库控制台。 2. 在“DDS”>“实例管理”页面,在需要退订的目标实例上,单击“更多>退订",跳转到退订页面。 3. 在退订页面中,您可以确认你的订单信息是否无误。 4. 单击“确定”按钮(部分资源池为“确认”按钮),即可发起退订,即进入到订单详情页面。 5. 在订单详情页,稍等片刻,点击刷新,即可看到实例已完成退订。 费用中心进行退订 用户可以登录天翼云用户个人费用中心,进行实例退订。 1. 登录天翼云官网。 2. 当您处于天翼云官网页面时,点击右上角“我的”,在下拉中点击“费用心中”,进入到个人费用中心页面。 3. 当您处于TeleDB数据库控制台页面时,点击右上角的“费用”,进入到个人费用中心页面。 4. 在“费用中心”页面依次点击“订单管理”“退订管理”,进入到退订管理页面。 5. 在“退订管理”页面,勾选您要退订的实例,点击右侧的“退订”按钮。 6. 在点击“退订”按钮后弹出确认框,点击“确定”按钮即可完成退订。
        来自:
        帮助文档
        文档数据库服务
        计费说明
        产品实例退订
      • 错误码
        错误码 描述 Openapi.Acl.AccessFailed 资源获取失败 Openapi.Acl.CreateError 资源创建失败 Openapi.Acl.DeleteError 资源删除失败 Openapi.Acl.UpdateError 资源更新失败 Openapi.Acl.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Acl.AccessDenied 不允许的操作 Openapi.Acl.QuotaLimitExceed 超过配额限制 Openapi.SecurityGroup.AccessFailed 资源获取失败 Openapi.SecurityGroup.CreateError 资源创建失败 Openapi.SecurityGroup.DeleteError 资源删除失败 Openapi.SecurityGroup.UpdateError 资源更新失败 Openapi.SecurityGroup.DeleteCheckFailed 资源删除前置检查未通过 Openapi.SecurityGroup.AccessDenied 不允许的操作 Openapi.SecurityGroup.QuotaLimitExceed 超过配额限制 Openapi.Havip.AccessFailed 资源获取失败 Openapi.Havip.CreateError 资源创建失败 Openapi.Havip.DeleteError 资源删除失败 Openapi.Havip.UpdateError 资源更新失败 Openapi.Havip.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Havip.AccessDenied 不允许的操作 Openapi.Havip.QuotaLimitExceed 超过配额限制 Openapi.LoadBalancer.AccessFailed 资源获取失败 Openapi.LoadBalancer.CreateError 资源创建失败 Openapi.LoadBalancer.DeleteError 资源删除失败 Openapi.LoadBalancer.UpdateError 资源更新失败 Openapi.LoadBalancer.DeleteCheckFailed 资源删除前置检查未通过 Openapi.LoadBalancer.AccessDenied 不允许的操作 Openapi.LoadBalancer.QuotaLimitExceed 超过配额限制 Openapi.TargetGroup.AccessFailed 资源获取失败 Openapi.TargetGroup.CreateError 资源创建失败 Openapi.TargetGroup.DeleteError 资源删除失败 Openapi.TargetGroup.UpdateError 资源更新失败 Openapi.TargetGroup.DeleteCheckFailed 资源删除前置检查未通过 Openapi.TargetGroup.AccessDenied 不允许的操作 Openapi.TargetGroup.QuotaLimitExceed 超过配额限制 Openapi.Target.AccessFailed 资源获取失败 Openapi.Target.CreateError 资源创建失败 Openapi.Target.DeleteError 资源删除失败 Openapi.Target.UpdateError 资源更新失败 Openapi.Target.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Target.AccessDenied 不允许的操作 Openapi.Target.QuotaLimitExceed 超过配额限制 Openapi.Listener.AccessFailed 资源获取失败 Openapi.Listener.CreateError 资源创建失败 Openapi.Listener.DeleteError 资源删除失败 Openapi.Listener.UpdateError 资源更新失败 Openapi.Listener.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Listener.AccessDenied 不允许的操作 Openapi.Listener.QuotaLimitExceed 超过配额限制 Openapi.PrivateDns.AccessFailed 资源获取失败 Openapi.PrivateDns.CreateError 资源创建失败 Openapi.PrivateDns.DeleteError 资源删除失败 Openapi.PrivateDns.UpdateError 资源更新失败 Openapi.PrivateDns.DeleteCheckFailed 资源删除前置检查未通过 Openapi.PrivateDns.AccessDenied 不允许的操作 Openapi.PrivateDns.QuotaLimitExceed 超过配额限制 Openapi.Acl.AccessFailed 资源获取失败 Openapi.Acl.CreateError 资源创建失败 Openapi.Acl.DeleteError 资源删除失败 Openapi.Acl.UpdateError 资源更新失败 Openapi.Acl.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Acl.AccessDenied 不允许的操作 Openapi.Acl.QuotaLimitExceed 超过配额限制 Openapi.Ipv6.AccessFailed 资源获取失败 Openapi.Ipv6.CreateError 资源创建失败 Openapi.Ipv6.DeleteError 资源删除失败 Openapi.Ipv6.UpdateError 资源更新失败 Openapi.Ipv6.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Ipv6.AccessDenied 不允许的操作 Openapi.Ipv6.QuotaLimitExceed 超过配额限制 Openapi.Ipv6Gateway.AccessFailed 资源获取失败 Openapi.Ipv6Gateway.CreateError 资源创建失败 Openapi.Ipv6Gateway.DeleteError 资源删除失败 Openapi.Ipv6Gateway.UpdateError 资源更新失败 Openapi.Ipv6Gateway.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Ipv6Gateway.AccessDenied 不允许的操作 Openapi.Ipv6Gateway.QuotaLimitExceed 超过配额限制 Openapi.Ipv4Gateway.AccessFailed 资源获取失败 Openapi.Ipv4Gateway.CreateError 资源创建失败 Openapi.Ipv4Gateway.DeleteError 资源删除失败 Openapi.Ipv4Gateway.UpdateError 资源更新失败 Openapi.Ipv4Gateway.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Ipv4Gateway.AccessDenied 不允许的操作 Openapi.Ipv4Gateway.QuotaLimitExceed 超过配额限制 Openapi.Subnet.AccessFailed 资源获取失败 Openapi.Subnet.CreateError 资源创建失败 Openapi.Subnet.DeleteError 资源删除失败 Openapi.Subnet.UpdateError 资源更新失败 Openapi.Subnet.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Subnet.AccessDenied 不允许的操作 Openapi.Subnet.QuotaLimitExceed 超过配额限制 Openapi.Vpc.AccessFailed 资源获取失败 Openapi.Vpc.CreateError 资源创建失败 Openapi.Vpc.DeleteError 资源删除失败 Openapi.Vpc.UpdateError 资源更新失败 Openapi.Vpc.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Vpc.AccessDenied 不允许的操作 Openapi.Vpc.QuotaLimitExceed 超过配额限制 Openapi.VpcPeer.AccessFailed 资源获取失败 Openapi.VpcPeer.CreateError 资源创建失败 Openapi.VpcPeer.DeleteError 资源删除失败 Openapi.VpcPeer.UpdateError 资源更新失败 Openapi.VpcPeer.DeleteCheckFailed 资源删除前置检查未通过 Openapi.VpcPeer.AccessDenied 不允许的操作 Openapi.VpcPeer.QuotaLimitExceed 超过配额限制 Openapi.Endpoint.AccessFailed 资源获取失败 Openapi.Endpoint.CreateError 资源创建失败 Openapi.Endpoint.DeleteError 资源删除失败 Openapi.Endpoint.UpdateError 资源更新失败 Openapi.Endpoint.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Endpoint.AccessDenied 不允许的操作 Openapi.Endpoint.QuotaLimitExceed 超过配额限制 Openapi.EndpointSerivce.AccessFailed 资源获取失败 Openapi.EndpointSerivce.CreateError 资源创建失败 Openapi.EndpointSerivce.DeleteError 资源删除失败 Openapi.EndpointSerivce.UpdateError 资源更新失败 Openapi.EndpointSerivce.DeleteCheckFailed 资源删除前置检查未通过 Openapi.EndpointSerivce.AccessDenied 不允许的操作 Openapi.EndpointSerivce.QuotaLimitExceed 超过配额限制 Openapi.EndpointServiceRule.AccessFailed 资源获取失败 Openapi.EndpointServiceRule.CreateError 资源创建失败 Openapi.EndpointServiceRule.DeleteError 资源删除失败 Openapi.EndpointServiceRule.UpdateError 资源更新失败 Openapi.EndpointServiceRule.DeleteCheckFailed 资源删除前置检查未通过 Openapi.EndpointServiceRule.AccessDenied 不允许的操作 Openapi.EndpointServiceRule.QuotaLimitExceed 超过配额限制 Openapi.EndpointServiceTransitIp.AccessFailed 资源获取失败 Openapi.EndpointServiceTransitIp.CreateError 资源创建失败 Openapi.EndpointServiceTransitIp.DeleteError 资源删除失败 Openapi.EndpointServiceTransitIp.UpdateError 资源更新失败 Openapi.EndpointServiceTransitIp.DeleteCheckFailed 资源删除前置检查未通过 Openapi.EndpointServiceTransitIp.AccessDenied 不允许的操作 Openapi.EndpointServiceTransitIp.QuotaLimitExceed 超过配额限制 Openapi.EndpointWhitelist.AccessFailed 资源获取失败 Openapi.EndpointWhitelist.CreateError 资源创建失败 Openapi.EndpointWhitelist.DeleteError 资源删除失败 Openapi.EndpointWhitelist.UpdateError 资源更新失败 Openapi.EndpointWhitelist.DeleteCheckFailed 资源删除前置检查未通过 Openapi.EndpointWhitelist.AccessDenied 不允许的操作 Openapi.EndpointWhitelist.QuotaLimitExceed 超过配额限制 Openapi.EndpointServiceReverseRule.AccessFailed 资源获取失败 Openapi.EndpointServiceReverseRule.CreateError 资源创建失败 Openapi.EndpointServiceReverseRule.DeleteError 资源删除失败 Openapi.EndpointServiceReverseRule.UpdateError 资源更新失败 Openapi.EndpointServiceReverseRule.DeleteCheckFailed 资源删除前置检查未通过 Openapi.EndpointServiceReverseRule.AccessDenied 不允许的操作 Openapi.EndpointServiceReverseRule.QuotaLimitExceed 超过配额限制 Openapi.EndpointServiceWhitelist.AccessFailed 资源获取失败 Openapi.EndpointServiceWhitelist.CreateError 资源创建失败 Openapi.EndpointServiceWhitelist.DeleteError 资源删除失败 Openapi.EndpointServiceWhitelist.UpdateError 资源更新失败 Openapi.EndpointServiceWhitelist.DeleteCheckFailed 资源删除前置检查未通过 Openapi.EndpointServiceWhitelist.AccessDenied 不允许的操作 Openapi.EndpointServiceWhitelist.QuotaLimitExceed 超过配额限制 Openapi.MirrorFilter.AccessFailed 资源获取失败 Openapi.MirrorFilter.CreateError 资源创建失败 Openapi.MirrorFilter.DeleteError 资源删除失败 Openapi.MirrorFilter.UpdateError 资源更新失败 Openapi.MirrorFilter.DeleteCheckFailed 资源删除前置检查未通过 Openapi.MirrorFilter.AccessDenied 不允许的操作 Openapi.MirrorFilter.QuotaLimitExceed 超过配额限制 Openapi.FlowSession.AccessFailed 资源获取失败 Openapi.FlowSession.CreateError 资源创建失败 Openapi.FlowSession.DeleteError 资源删除失败 Openapi.FlowSession.UpdateError 资源更新失败 Openapi.FlowSession.DeleteCheckFailed 资源删除前置检查未通过 Openapi.FlowSession.AccessDenied 不允许的操作 Openapi.FlowSession.QuotaLimitExceed 超过配额限制 Openapi.SharedBandwidth.AccessFailed 资源获取失败 Openapi.SharedBandwidth.CreateError 资源创建失败 Openapi.SharedBandwidth.DeleteError 资源删除失败 Openapi.SharedBandwidth.UpdateError 资源更新失败 Openapi.SharedBandwidth.DeleteCheckFailed 资源删除前置检查未通过 Openapi.SharedBandwidth.AccessDenied 不允许的操作 Openapi.SharedBandwidth.QuotaLimitExceed 超过配额限制 Openapi.Ipv6Bandwidth.AccessFailed 资源获取失败 Openapi.Ipv6Bandwidth.CreateError 资源创建失败 Openapi.Ipv6Bandwidth.DeleteError 资源删除失败 Openapi.Ipv6Bandwidth.UpdateError 资源更新失败 Openapi.Ipv6Bandwidth.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Ipv6Bandwidth.AccessDenied 不允许的操作 Openapi.Ipv6Bandwidth.QuotaLimitExceed 超过配额限制 Openapi.RouterTableRule.AccessFailed 资源获取失败 Openapi.RouterTableRule.CreateError 资源创建失败 Openapi.RouterTableRule.DeleteError 资源删除失败 Openapi.RouterTableRule.UpdateError 资源更新失败 Openapi.RouterTableRule.DeleteCheckFailed 资源删除前置检查未通过 Openapi.RouterTableRule.AccessDenied 不允许的操作 Openapi.RouterTableRule.QuotaLimitExceed 超过配额限制 Openapi.RouterTable.AccessFailed 资源获取失败 Openapi.RouterTable.CreateError 资源创建失败 Openapi.RouterTable.DeleteError 资源删除失败 Openapi.RouterTable.UpdateError 资源更新失败 Openapi.RouterTable.DeleteCheckFailed 资源删除前置检查未通过 Openapi.RouterTable.AccessDenied 不允许的操作 Openapi.RouterTable.QuotaLimitExceed 超过配额限制 Openapi.Port.AccessFailed 资源获取失败 Openapi.Port.CreateError 资源创建失败 Openapi.Port.DeleteError 资源删除失败 Openapi.Port.UpdateError 资源更新失败 Openapi.Port.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Port.AccessDenied 不允许的操作 Openapi.Port.QuotaLimitExceed 超过配额限制 Openapi.Nat.AccessFailed 资源获取失败 Openapi.Nat.CreateError 资源创建失败 Openapi.Nat.DeleteError 资源删除失败 Openapi.Nat.UpdateError 资源更新失败 Openapi.Nat.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Nat.AccessDenied 不允许的操作 Openapi.Nat.QuotaLimitExceed 超过配额限制 Openapi.Snat.AccessFailed 资源获取失败 Openapi.Snat.CreateError 资源创建失败 Openapi.Snat.DeleteError 资源删除失败 Openapi.Snat.UpdateError 资源更新失败 Openapi.Snat.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Snat.AccessDenied 不允许的操作 Openapi.Snat.QuotaLimitExceed 超过配额限制 Openapi.Dnat.AccessFailed 资源获取失败 Openapi.Dnat.CreateError 资源创建失败 Openapi.Dnat.DeleteError 资源删除失败 Openapi.Dnat.UpdateError 资源更新失败 Openapi.Dnat.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Dnat.AccessDenied 不允许的操作 Openapi.Dnat.QuotaLimitExceed 超过配额限制 Openapi.Eip.AccessFailed 资源获取失败 Openapi.Eip.CreateError 资源创建失败 Openapi.Eip.DeleteError 资源删除失败 Openapi.Eip.UpdateError 资源更新失败 Openapi.Eip.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Eip.AccessDenied 不允许的操作 Openapi.Eip.QuotaLimitExceed 超过配额限制 Openapi.HealthCheck.AccessFailed 资源获取失败 Openapi.HealthCheck.CreateError 资源创建失败 Openapi.HealthCheck.DeleteError 资源删除失败 Openapi.HealthCheck.UpdateError 资源更新失败 Openapi.HealthCheck.DeleteCheckFailed 资源删除前置检查未通过 Openapi.HealthCheck.AccessDenied 不允许的操作 Openapi.HealthCheck.QuotaLimitExceed 超过配额限制 Openapi.AccessControl.AccessFailed 资源获取失败 Openapi.AccessControl.CreateError 资源创建失败 Openapi.AccessControl.DeleteError 资源删除失败 Openapi.AccessControl.UpdateError 资源更新失败 Openapi.AccessControl.DeleteCheckFailed 资源删除前置检查未通过 Openapi.AccessControl.AccessDenied 不允许的操作 Openapi.AccessControl.QuotaLimitExceed 超过配额限制 Openapi.ElbPolicy.AccessFailed 资源获取失败 Openapi.ElbPolicy.CreateError 资源创建失败 Openapi.ElbPolicy.DeleteError 资源删除失败 Openapi.ElbPolicy.UpdateError 资源更新失败 Openapi.ElbPolicy.DeleteCheckFailed 资源删除前置检查未通过 Openapi.ElbPolicy.AccessDenied 不允许的操作 Openapi.ElbPolicy.QuotaLimitExceed 超过配额限制 Openapi.Sla.AccessFailed 资源获取失败 Openapi.Sla.CreateError 资源创建失败 Openapi.Sla.DeleteError 资源删除失败 Openapi.Sla.UpdateError 资源更新失败 Openapi.Sla.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Sla.AccessDenied 不允许的操作 Openapi.Sla.QuotaLimitExceed 超过配额限制 Openapi.Certificate.AccessFailed 资源获取失败 Openapi.Certificate.CreateError 资源创建失败 Openapi.Certificate.DeleteError 资源删除失败 Openapi.Certificate.UpdateError 资源更新失败 Openapi.Certificate.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Certificate.AccessDenied 不允许的操作 Openapi.Certificate.QuotaLimitExceed 超过配额限制 Openapi.Subnet.DisassociateAclFailed 子网解绑 ACL 失败 Openapi.EndpointService.AcceptApplyFailed 通过终端节点的连接申请失败 Openapi.EndpointService.RejectApplyFailed 拒绝终端节点的连接申请失败 Openapi.Igw4.AddRouteTableFailed igw4 添加路由表失败 Openapi.Igw4.RemoveRouteTableFailed igw4 移除路由表失败 Openapi.SecurityGroup.BindInstanceFailed 安全组绑定实例失败 Openapi.SecurityGroup.UnBindInstanceFailed 安全组解绑实例失败 Openapi.Port.NotAttached 网卡未绑定资源 Openapi.Port.RepeatAttached 网卡不能重复绑定 Openapi.Port.AttachFailed 网卡绑定失败 Openapi.Port.DetachFailed 网卡解绑失败 Openapi.Port.AssignPrivateIpFailed 网卡分配辅助私网 IP 失败 Openapi.Port.UnAssignPrivateIpFailed 网卡移除辅助私网 IP 失败 Openapi.Port.AssignIpv6Failed 网卡分配辅助私网 IPv6 失败 Openapi.Port.UnAssignIpv6Failed 网卡移除辅助私网 IPv6 失败 Openapi.Havip.BindFailed 高可用虚 IP 绑定失败 Openapi.Havip.UnBindFailed 高可用虚 IP 解绑失败 Openapi.PrivateZone.BindVpcFailed 内网 dns 绑定 vpc 失败 Openapi.PrivateZone.UnBindVpcFailed 内网 dns 解绑 vpc 失败 Openapi.Ecs.Expired 主机已过期 Openapi.Bm.Expired 主机已过期 Openapi.VpcPeer.RejectFailed 拒绝创建对等链接失败 Openapi.VpcPeer.AgreeFailed 同意创建对等链接失败 Openapi.LoadBalancer.BindFailed 弹性负载均衡绑定弹性 IP 失败 Openapi.LoadBalancer.UnBindFailed 弹性负载均衡解绑弹性 IP 失败 Openapi.Eip.BindFailed 弹性 IP 绑定资源失败 Openapi.Eip.UnBindFailed 弹性 IP 解绑资源失败 Openapi.Parameter.Error 参数错误 Openapi.Subnet.ReplaceAclFailed 子网替换 ACL 失败 Openapi.Subnet.DisassociateAclFailed 子网解绑 ACL 失败 Openapi.Subnet.HasNoIPs 子网 IP 已被用尽 Openapi.Ecs.HasNoNetwork 弹性云主机未配置网络 Openapi.Ak.NotFound ak 不存在 Openapi.Signature.VerifyFailed 签名鉴权失败 Openapi.Implement.Error 实现错误 Openapi.RequestParse.EopInvalidRejection 请求来源非法 Openapi.RequestParse.JsonExpected 请求格式非法 Openapi.Region.AccessFailed 获取 region 信息失败
        来自:
        帮助文档
        弹性IP EIP
        API参考
        调用前必知
        错误码
      • 错误码
        错误码 描述 Openapi.Acl.AccessFailed 资源获取失败 Openapi.Acl.CreateError 资源创建失败 Openapi.Acl.DeleteError 资源删除失败 Openapi.Acl.UpdateError 资源更新失败 Openapi.Acl.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Acl.AccessDenied 不允许的操作 Openapi.Acl.QuotaLimitExceed 超过配额限制 Openapi.SecurityGroup.AccessFailed 资源获取失败 Openapi.SecurityGroup.CreateError 资源创建失败 Openapi.SecurityGroup.DeleteError 资源删除失败 Openapi.SecurityGroup.UpdateError 资源更新失败 Openapi.SecurityGroup.DeleteCheckFailed 资源删除前置检查未通过 Openapi.SecurityGroup.AccessDenied 不允许的操作 Openapi.SecurityGroup.QuotaLimitExceed 超过配额限制 Openapi.Havip.AccessFailed 资源获取失败 Openapi.Havip.CreateError 资源创建失败 Openapi.Havip.DeleteError 资源删除失败 Openapi.Havip.UpdateError 资源更新失败 Openapi.Havip.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Havip.AccessDenied 不允许的操作 Openapi.Havip.QuotaLimitExceed 超过配额限制 Openapi.LoadBalancer.AccessFailed 资源获取失败 Openapi.LoadBalancer.CreateError 资源创建失败 Openapi.LoadBalancer.DeleteError 资源删除失败 Openapi.LoadBalancer.UpdateError 资源更新失败 Openapi.LoadBalancer.DeleteCheckFailed 资源删除前置检查未通过 Openapi.LoadBalancer.AccessDenied 不允许的操作 Openapi.LoadBalancer.QuotaLimitExceed 超过配额限制 Openapi.TargetGroup.AccessFailed 资源获取失败 Openapi.TargetGroup.CreateError 资源创建失败 Openapi.TargetGroup.DeleteError 资源删除失败 Openapi.TargetGroup.UpdateError 资源更新失败 Openapi.TargetGroup.DeleteCheckFailed 资源删除前置检查未通过 Openapi.TargetGroup.AccessDenied 不允许的操作 Openapi.TargetGroup.QuotaLimitExceed 超过配额限制 Openapi.Target.AccessFailed 资源获取失败 Openapi.Target.CreateError 资源创建失败 Openapi.Target.DeleteError 资源删除失败 Openapi.Target.UpdateError 资源更新失败 Openapi.Target.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Target.AccessDenied 不允许的操作 Openapi.Target.QuotaLimitExceed 超过配额限制 Openapi.Listener.AccessFailed 资源获取失败 Openapi.Listener.CreateError 资源创建失败 Openapi.Listener.DeleteError 资源删除失败 Openapi.Listener.UpdateError 资源更新失败 Openapi.Listener.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Listener.AccessDenied 不允许的操作 Openapi.Listener.QuotaLimitExceed 超过配额限制 Openapi.PrivateDns.AccessFailed 资源获取失败 Openapi.PrivateDns.CreateError 资源创建失败 Openapi.PrivateDns.DeleteError 资源删除失败 Openapi.PrivateDns.UpdateError 资源更新失败 Openapi.PrivateDns.DeleteCheckFailed 资源删除前置检查未通过 Openapi.PrivateDns.AccessDenied 不允许的操作 Openapi.PrivateDns.QuotaLimitExceed 超过配额限制 Openapi.Acl.AccessFailed 资源获取失败 Openapi.Acl.CreateError 资源创建失败 Openapi.Acl.DeleteError 资源删除失败 Openapi.Acl.UpdateError 资源更新失败 Openapi.Acl.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Acl.AccessDenied 不允许的操作 Openapi.Acl.QuotaLimitExceed 超过配额限制 Openapi.Ipv6.AccessFailed 资源获取失败 Openapi.Ipv6.CreateError 资源创建失败 Openapi.Ipv6.DeleteError 资源删除失败 Openapi.Ipv6.UpdateError 资源更新失败 Openapi.Ipv6.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Ipv6.AccessDenied 不允许的操作 Openapi.Ipv6.QuotaLimitExceed 超过配额限制 Openapi.Ipv6Gateway.AccessFailed 资源获取失败 Openapi.Ipv6Gateway.CreateError 资源创建失败 Openapi.Ipv6Gateway.DeleteError 资源删除失败 Openapi.Ipv6Gateway.UpdateError 资源更新失败 Openapi.Ipv6Gateway.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Ipv6Gateway.AccessDenied 不允许的操作 Openapi.Ipv6Gateway.QuotaLimitExceed 超过配额限制 Openapi.Ipv4Gateway.AccessFailed 资源获取失败 Openapi.Ipv4Gateway.CreateError 资源创建失败 Openapi.Ipv4Gateway.DeleteError 资源删除失败 Openapi.Ipv4Gateway.UpdateError 资源更新失败 Openapi.Ipv4Gateway.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Ipv4Gateway.AccessDenied 不允许的操作 Openapi.Ipv4Gateway.QuotaLimitExceed 超过配额限制 Openapi.Subnet.AccessFailed 资源获取失败 Openapi.Subnet.CreateError 资源创建失败 Openapi.Subnet.DeleteError 资源删除失败 Openapi.Subnet.UpdateError 资源更新失败 Openapi.Subnet.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Subnet.AccessDenied 不允许的操作 Openapi.Subnet.QuotaLimitExceed 超过配额限制 Openapi.Vpc.AccessFailed 资源获取失败 Openapi.Vpc.CreateError 资源创建失败 Openapi.Vpc.DeleteError 资源删除失败 Openapi.Vpc.UpdateError 资源更新失败 Openapi.Vpc.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Vpc.AccessDenied 不允许的操作 Openapi.Vpc.QuotaLimitExceed 超过配额限制 Openapi.VpcPeer.AccessFailed 资源获取失败 Openapi.VpcPeer.CreateError 资源创建失败 Openapi.VpcPeer.DeleteError 资源删除失败 Openapi.VpcPeer.UpdateError 资源更新失败 Openapi.VpcPeer.DeleteCheckFailed 资源删除前置检查未通过 Openapi.VpcPeer.AccessDenied 不允许的操作 Openapi.VpcPeer.QuotaLimitExceed 超过配额限制 Openapi.Endpoint.AccessFailed 资源获取失败 Openapi.Endpoint.CreateError 资源创建失败 Openapi.Endpoint.DeleteError 资源删除失败 Openapi.Endpoint.UpdateError 资源更新失败 Openapi.Endpoint.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Endpoint.AccessDenied 不允许的操作 Openapi.Endpoint.QuotaLimitExceed 超过配额限制 Openapi.EndpointSerivce.AccessFailed 资源获取失败 Openapi.EndpointSerivce.CreateError 资源创建失败 Openapi.EndpointSerivce.DeleteError 资源删除失败 Openapi.EndpointSerivce.UpdateError 资源更新失败 Openapi.EndpointSerivce.DeleteCheckFailed 资源删除前置检查未通过 Openapi.EndpointSerivce.AccessDenied 不允许的操作 Openapi.EndpointSerivce.QuotaLimitExceed 超过配额限制 Openapi.EndpointServiceRule.AccessFailed 资源获取失败 Openapi.EndpointServiceRule.CreateError 资源创建失败 Openapi.EndpointServiceRule.DeleteError 资源删除失败 Openapi.EndpointServiceRule.UpdateError 资源更新失败 Openapi.EndpointServiceRule.DeleteCheckFailed 资源删除前置检查未通过 Openapi.EndpointServiceRule.AccessDenied 不允许的操作 Openapi.EndpointServiceRule.QuotaLimitExceed 超过配额限制 Openapi.EndpointServiceTransitIp.AccessFailed 资源获取失败 Openapi.EndpointServiceTransitIp.CreateError 资源创建失败 Openapi.EndpointServiceTransitIp.DeleteError 资源删除失败 Openapi.EndpointServiceTransitIp.UpdateError 资源更新失败 Openapi.EndpointServiceTransitIp.DeleteCheckFailed 资源删除前置检查未通过 Openapi.EndpointServiceTransitIp.AccessDenied 不允许的操作 Openapi.EndpointServiceTransitIp.QuotaLimitExceed 超过配额限制 Openapi.EndpointWhitelist.AccessFailed 资源获取失败 Openapi.EndpointWhitelist.CreateError 资源创建失败 Openapi.EndpointWhitelist.DeleteError 资源删除失败 Openapi.EndpointWhitelist.UpdateError 资源更新失败 Openapi.EndpointWhitelist.DeleteCheckFailed 资源删除前置检查未通过 Openapi.EndpointWhitelist.AccessDenied 不允许的操作 Openapi.EndpointWhitelist.QuotaLimitExceed 超过配额限制 Openapi.EndpointServiceReverseRule.AccessFailed 资源获取失败 Openapi.EndpointServiceReverseRule.CreateError 资源创建失败 Openapi.EndpointServiceReverseRule.DeleteError 资源删除失败 Openapi.EndpointServiceReverseRule.UpdateError 资源更新失败 Openapi.EndpointServiceReverseRule.DeleteCheckFailed 资源删除前置检查未通过 Openapi.EndpointServiceReverseRule.AccessDenied 不允许的操作 Openapi.EndpointServiceReverseRule.QuotaLimitExceed 超过配额限制 Openapi.EndpointServiceWhitelist.AccessFailed 资源获取失败 Openapi.EndpointServiceWhitelist.CreateError 资源创建失败 Openapi.EndpointServiceWhitelist.DeleteError 资源删除失败 Openapi.EndpointServiceWhitelist.UpdateError 资源更新失败 Openapi.EndpointServiceWhitelist.DeleteCheckFailed 资源删除前置检查未通过 Openapi.EndpointServiceWhitelist.AccessDenied 不允许的操作 Openapi.EndpointServiceWhitelist.QuotaLimitExceed 超过配额限制 Openapi.MirrorFilter.AccessFailed 资源获取失败 Openapi.MirrorFilter.CreateError 资源创建失败 Openapi.MirrorFilter.DeleteError 资源删除失败 Openapi.MirrorFilter.UpdateError 资源更新失败 Openapi.MirrorFilter.DeleteCheckFailed 资源删除前置检查未通过 Openapi.MirrorFilter.AccessDenied 不允许的操作 Openapi.MirrorFilter.QuotaLimitExceed 超过配额限制 Openapi.FlowSession.AccessFailed 资源获取失败 Openapi.FlowSession.CreateError 资源创建失败 Openapi.FlowSession.DeleteError 资源删除失败 Openapi.FlowSession.UpdateError 资源更新失败 Openapi.FlowSession.DeleteCheckFailed 资源删除前置检查未通过 Openapi.FlowSession.AccessDenied 不允许的操作 Openapi.FlowSession.QuotaLimitExceed 超过配额限制 Openapi.SharedBandwidth.AccessFailed 资源获取失败 Openapi.SharedBandwidth.CreateError 资源创建失败 Openapi.SharedBandwidth.DeleteError 资源删除失败 Openapi.SharedBandwidth.UpdateError 资源更新失败 Openapi.SharedBandwidth.DeleteCheckFailed 资源删除前置检查未通过 Openapi.SharedBandwidth.AccessDenied 不允许的操作 Openapi.SharedBandwidth.QuotaLimitExceed 超过配额限制 Openapi.Ipv6Bandwidth.AccessFailed 资源获取失败 Openapi.Ipv6Bandwidth.CreateError 资源创建失败 Openapi.Ipv6Bandwidth.DeleteError 资源删除失败 Openapi.Ipv6Bandwidth.UpdateError 资源更新失败 Openapi.Ipv6Bandwidth.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Ipv6Bandwidth.AccessDenied 不允许的操作 Openapi.Ipv6Bandwidth.QuotaLimitExceed 超过配额限制 Openapi.RouterTableRule.AccessFailed 资源获取失败 Openapi.RouterTableRule.CreateError 资源创建失败 Openapi.RouterTableRule.DeleteError 资源删除失败 Openapi.RouterTableRule.UpdateError 资源更新失败 Openapi.RouterTableRule.DeleteCheckFailed 资源删除前置检查未通过 Openapi.RouterTableRule.AccessDenied 不允许的操作 Openapi.RouterTableRule.QuotaLimitExceed 超过配额限制 Openapi.RouterTable.AccessFailed 资源获取失败 Openapi.RouterTable.CreateError 资源创建失败 Openapi.RouterTable.DeleteError 资源删除失败 Openapi.RouterTable.UpdateError 资源更新失败 Openapi.RouterTable.DeleteCheckFailed 资源删除前置检查未通过 Openapi.RouterTable.AccessDenied 不允许的操作 Openapi.RouterTable.QuotaLimitExceed 超过配额限制 Openapi.Port.AccessFailed 资源获取失败 Openapi.Port.CreateError 资源创建失败 Openapi.Port.DeleteError 资源删除失败 Openapi.Port.UpdateError 资源更新失败 Openapi.Port.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Port.AccessDenied 不允许的操作 Openapi.Port.QuotaLimitExceed 超过配额限制 Openapi.Nat.AccessFailed 资源获取失败 Openapi.Nat.CreateError 资源创建失败 Openapi.Nat.DeleteError 资源删除失败 Openapi.Nat.UpdateError 资源更新失败 Openapi.Nat.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Nat.AccessDenied 不允许的操作 Openapi.Nat.QuotaLimitExceed 超过配额限制 Openapi.Snat.AccessFailed 资源获取失败 Openapi.Snat.CreateError 资源创建失败 Openapi.Snat.DeleteError 资源删除失败 Openapi.Snat.UpdateError 资源更新失败 Openapi.Snat.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Snat.AccessDenied 不允许的操作 Openapi.Snat.QuotaLimitExceed 超过配额限制 Openapi.Dnat.AccessFailed 资源获取失败 Openapi.Dnat.CreateError 资源创建失败 Openapi.Dnat.DeleteError 资源删除失败 Openapi.Dnat.UpdateError 资源更新失败 Openapi.Dnat.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Dnat.AccessDenied 不允许的操作 Openapi.Dnat.QuotaLimitExceed 超过配额限制 Openapi.Eip.AccessFailed 资源获取失败 Openapi.Eip.CreateError 资源创建失败 Openapi.Eip.DeleteError 资源删除失败 Openapi.Eip.UpdateError 资源更新失败 Openapi.Eip.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Eip.AccessDenied 不允许的操作 Openapi.Eip.QuotaLimitExceed 超过配额限制 Openapi.HealthCheck.AccessFailed 资源获取失败 Openapi.HealthCheck.CreateError 资源创建失败 Openapi.HealthCheck.DeleteError 资源删除失败 Openapi.HealthCheck.UpdateError 资源更新失败 Openapi.HealthCheck.DeleteCheckFailed 资源删除前置检查未通过 Openapi.HealthCheck.AccessDenied 不允许的操作 Openapi.HealthCheck.QuotaLimitExceed 超过配额限制 Openapi.AccessControl.AccessFailed 资源获取失败 Openapi.AccessControl.CreateError 资源创建失败 Openapi.AccessControl.DeleteError 资源删除失败 Openapi.AccessControl.UpdateError 资源更新失败 Openapi.AccessControl.DeleteCheckFailed 资源删除前置检查未通过 Openapi.AccessControl.AccessDenied 不允许的操作 Openapi.AccessControl.QuotaLimitExceed 超过配额限制 Openapi.ElbPolicy.AccessFailed 资源获取失败 Openapi.ElbPolicy.CreateError 资源创建失败 Openapi.ElbPolicy.DeleteError 资源删除失败 Openapi.ElbPolicy.UpdateError 资源更新失败 Openapi.ElbPolicy.DeleteCheckFailed 资源删除前置检查未通过 Openapi.ElbPolicy.AccessDenied 不允许的操作 Openapi.ElbPolicy.QuotaLimitExceed 超过配额限制 Openapi.Sla.AccessFailed 资源获取失败 Openapi.Sla.CreateError 资源创建失败 Openapi.Sla.DeleteError 资源删除失败 Openapi.Sla.UpdateError 资源更新失败 Openapi.Sla.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Sla.AccessDenied 不允许的操作 Openapi.Sla.QuotaLimitExceed 超过配额限制 Openapi.Certificate.AccessFailed 资源获取失败 Openapi.Certificate.CreateError 资源创建失败 Openapi.Certificate.DeleteError 资源删除失败 Openapi.Certificate.UpdateError 资源更新失败 Openapi.Certificate.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Certificate.AccessDenied 不允许的操作 Openapi.Certificate.QuotaLimitExceed 超过配额限制 Openapi.Subnet.DisassociateAclFailed 子网解绑 ACL 失败 Openapi.EndpointService.AcceptApplyFailed 通过终端节点的连接申请失败 Openapi.EndpointService.RejectApplyFailed 拒绝终端节点的连接申请失败 Openapi.Igw4.AddRouteTableFailed igw4 添加路由表失败 Openapi.Igw4.RemoveRouteTableFailed igw4 移除路由表失败 Openapi.SecurityGroup.BindInstanceFailed 安全组绑定实例失败 Openapi.SecurityGroup.UnBindInstanceFailed 安全组解绑实例失败 Openapi.Port.NotAttached 网卡未绑定资源 Openapi.Port.RepeatAttached 网卡不能重复绑定 Openapi.Port.AttachFailed 网卡绑定失败 Openapi.Port.DetachFailed 网卡解绑失败 Openapi.Port.AssignPrivateIpFailed 网卡分配辅助私网 IP 失败 Openapi.Port.UnAssignPrivateIpFailed 网卡移除辅助私网 IP 失败 Openapi.Port.AssignIpv6Failed 网卡分配辅助私网 IPv6 失败 Openapi.Port.UnAssignIpv6Failed 网卡移除辅助私网 IPv6 失败 Openapi.Havip.BindFailed 高可用虚 IP 绑定失败 Openapi.Havip.UnBindFailed 高可用虚 IP 解绑失败 Openapi.PrivateZone.BindVpcFailed 内网 dns 绑定 vpc 失败 Openapi.PrivateZone.UnBindVpcFailed 内网 dns 解绑 vpc 失败 Openapi.Ecs.Expired 主机已过期 Openapi.Bm.Expired 主机已过期 Openapi.VpcPeer.RejectFailed 拒绝创建对等链接失败 Openapi.VpcPeer.AgreeFailed 同意创建对等链接失败 Openapi.LoadBalancer.BindFailed 弹性负载均衡绑定弹性 IP 失败 Openapi.LoadBalancer.UnBindFailed 弹性负载均衡解绑弹性 IP 失败 Openapi.Eip.BindFailed 弹性 IP 绑定资源失败 Openapi.Eip.UnBindFailed 弹性 IP 解绑资源失败 Openapi.Parameter.Error 参数错误 Openapi.Subnet.ReplaceAclFailed 子网替换 ACL 失败 Openapi.Subnet.DisassociateAclFailed 子网解绑 ACL 失败 Openapi.Subnet.HasNoIPs 子网 IP 已被用尽 Openapi.Ecs.HasNoNetwork 弹性云主机未配置网络 Openapi.Ak.NotFound ak 不存在 Openapi.Signature.VerifyFailed 签名鉴权失败 Openapi.Implement.Error 实现错误 Openapi.RequestParse.EopInvalidRejection 请求来源非法 Openapi.RequestParse.JsonExpected 请求格式非法 Openapi.Region.AccessFailed 获取 region 信息失败
        来自:
        帮助文档
        VPC终端节点
        API参考
        调用前必知
        错误码
      • 拨测
        场景描述 在进行消息发送与接收验证的过程中,我们需要确保RocketMQ的生产者能够将消息成功发送到指定的Topic,同时消费者能够接收到这些消息。通过验证,可以确认生产者发送的消息能够准确无误地到达消费者,这是消息队列最基本也是最重要的功能要求。在开发和测试阶段,通过消息发送与接收验证可以及时发现并修复可能存在的问题,避免在实际应用中出现故障。 操作步骤 1、 天翼云官网点击控制中心,选择产品分布式消息服务RocketMQ。 2、 登录分布式消息服务RocketMQ控制台,点击右上角地域选择对应资源池。 进入实例列表,点击【管理】按钮进入管理菜单。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入Topic管理菜单,点击【拨测】按钮,进行生产消费的拨测验证,验证开通的消息实例和Topic。 1)生产测试拨测: 选择消息类型,默认普通消息。 填写需要产生的测试消息数量,以及每条消息的大小,默认每条消息1KB,建议不超过4MB(4096KB)。 选择已建的消息Topic,若无选项,请新增Topic,详见上文创建Topic和订阅组。 点击【测试】按钮,按照已填写规格及数量产生测试消息数据,展示消息数据的信息,包括消息ID(messageID)、发送状态、主题名(topic名)、Broker名、队列ID。 拨测功能涉及消息发送状态码,以下是RocketMQ消息发送状态码及其说明: ✧ SENDOK(发送成功):表示消息成功发送到了消息服务器。 ✧ FLUSHDISKTIMEOUT(刷新磁盘超时):表示消息已经成功发送到消息服务器,但是刷新到磁盘上超时。这可能会导致消息服务器在宕机后,尚未持久化到磁盘上的数据丢失。 ✧ FLUSHSLAVETIMEOUT(刷新从服务器超时):表示消息已经成功发送到消息服务器,但是刷新到从服务器上超时。这可能会导致主从同步不一致。 ✧ SLAVENOTAVAILABLE(从服务器不可用):表示消息已经成功发送到消息服务器,但是从服务器不可用。这可能是由于网络故障或从服务器宕机引起的。 ✧ UNKNOWNERROR(未知错误):表示发送消息时遇到了未知的错误。一般情况下建议重试发送消息。 ✧ MESSAGESIZEEXCEEDED(消息大小超过限制):表示消息的大小超过了消息服务器的限制。需要检查消息的大小是否合适。 ✧ PRODUCETHROTTLE(消息生产被限流):表示消息生产者的频率超出了消息服务器的限制。这可能是由于消息发送频率过高引起的。 ✧ SERVICENOTAVAILABLE(服务不可用):表示消息服务器不可用。这可能是由于网络故障或者消息服务器宕机引起的。 请注意,以上状态码仅适用于RocketMQ消息发送阶段,并且并不代表消息是否成功被消费者接收。同时,这些状态码也可能因版本变化而有所不同,建议查阅官方文档获取最新信息。 2)消费测试拨测: 选择消息顺序,下拉选择无序/有序,默认选项为无序。 RocketMQ是一种开源的分布式消息中间件,它支持有序消息和无序消息。 ✧ 有序消息是指消息的消费顺序与发送顺序完全一致。在某些业务场景下,消息的处理需要保证顺序性,例如订单的处理或者任务的执行。RocketMQ提供了有序消息的支持,通过指定消息的顺序属性或使用消息队列的分区机制,可以确保消息按照指定的顺序进行消费。 ✧ 无序消息则是指消息的消费顺序与发送顺序无关。无序消息的特点是高吞吐量和低延迟,适用于一些不要求严格顺序的业务场景,如日志收集等。 在RocketMQ中,有序消息和无序消息的实现方式略有不同。有序消息需要借助MessageQueue的分区机制和消费者端的顺序消息消费来实现。而无序消息则是通过消息的发送和接收的并发处理来实现的。 总的来说,RocketMQ既支持有序消息也支持无序消息,根据业务需求选择合适的消息类型来满足业务的要求。 选择消费方式,目前仅提供pull方式。值得注意的是,RocketMQ还提供了推送(push)方式的消费模式,其中消息队列服务器会主动将消息推送给消费者。但在当前仅限于pull方式的消费模式。 填写消费数量。 下拉选择选择已建的消息主题和订阅组,若无选项,请新增主题和订阅组,详见上文创建主题和订阅组。 点击【测试】按钮,按照已填写规格及数量产生消费数据,展示消息数据的信息,包括消息ID(messageID)、主题名称(topicName)、生成时间、存储时间、队列ID、消费状态。 拨测功能涉及消息消费状态码,RocketMQ消费状态码是指在消息消费过程中,对消费结果进行标识的状态码。以下是常见的RocketMQ消费状态码: ✧ CONSUMESUCCESS(消费成功):表示消息成功被消费。 ✧ RECONSUMELATER(稍后重试):表示消费失败,需要稍后再次进行消费。 ✧ CONSUMEFAILURE(消费失败):表示消息消费出现异常或失败。 ✧ SLAVENOTAVAILABLE(从节点不可用):表示消费者无法访问从节点来消费消息。 ✧ NOMATCHEDMESSAGE(无匹配的消息):表示当前没有匹配的消息需要消费。 ✧ OFFSETILLEGAL(偏移量非法):表示消费的偏移量参数不合法。 ✧ BROKERTIMEOUT(Broker超时):表示由于Broker超时导致消费失败。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        Topic管理
        拨测
      • 通过自建网关实现全链路灰度
        本章节介绍如何通过自建网关实现全链路灰度 概述 您可以基于微服务治理在不修改任何业务代码的情况下,实现全链路灰度的流量控制。本文介绍用户如何通过自建网关实现全链路灰度功能。 前提条件 1、用户已开通微服务治理中心企业版。 2、用户已开通云容器引擎。 背景信息 在微服务架构下,一次需求可能会同时修改多个微服务应用。在发布应用时,通常将这些应用划分为同一个分组,使灰度流量始终在灰度应用中流转。当上游有灰度流量时,会通过引流的方式将灰度流量引导至灰度分组,在此次链路调用过程中,如果存在一些微服务没有灰度环境,那这些请求在下游时依然能回到灰度环境中,以此实现全链路灰度。 通过使用微服务治理中心,可以在不修改业务代码的情况下,轻松实现全链路灰度。本文介绍如何通过自建网关实现全链路灰度。 部署Demo应用 准备自建入口网关msgczuul,准备应用msgcappa,msgcappb和msgcappc。调用过程是msgcappa –> msgcappb > msgcappc。 步骤1:在云容器引擎集群中安装微服务治理插件: 1. 登录云容器引擎控制台。 2. 在左侧菜单栏选择集群,点击目标集群。 3. 在集群管理页面点击插件插件市场,选择cubems插件安装。 步骤2:为应用开启微服务治理能力: 1. 登录云容器引擎控制台。 2. 左侧菜单栏选择集群,点击目标集群。 3. 在集群管理页面点击工作负载无状态,选择目标命名空间。 4. 在Deployment列表页选择指定Deployment,并点击全量替换,进入Deployment编辑页。 5. 在Deployment编辑页点击显示高级设置,新增Pod标签: mseCubeMsAutoEnable:on。 6. 在发布应用时,配置指定环境变量,可指定注入微服务治理中心的应用名、命名空间和标签等信息。 环境变量配置如下: 环境变量名 环境变量值 MSEAPPNAME 接入到微服务治理中心的应用名。 MSESERVICETAG 应用标签信息,如灰度应用可配置gray。 MSENAMESPACE(选填) 接入到微服务治理中心的命名空间,默认为:default。 7. 完成编辑后点击提交,重新发布容器即可接入。 appa应用的配置: 基线: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appa" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appa" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appa" spec: containers: env: name: "MSEAPPNAME" value: "appa" image: "镜像仓库域名/xxx/appa:latest" imagePullPolicy: "Always" name: "appa" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" 灰度: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appa" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appa" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appa" spec: containers: env: name: "MSEAPPNAME" value: "appa" name: "MSESERVICETAG" value: "gray" image: "镜像仓库域名/xxx/appa:latest" imagePullPolicy: "Always" name: "appa" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" appb应用的配置: 基线: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appb" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appb" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appb" spec: containers: env: name: "MSEAPPNAME" value: "appb" image: "镜像仓库域名/xxx/appb:latest" imagePullPolicy: "Always" name: "appb" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" 灰度: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appb" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appb" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appb" spec: containers: env: name: "MSEAPPNAME" value: "appb" name: "MSESERVICETAG" value: "gray" image: "镜像仓库域名/xxx/appb:latest" imagePullPolicy: "Always" name: "appb" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" appc应用的配置: 基线: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appc" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appc" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appc" spec: containers: env: name: "MSEAPPNAME" value: "appc" image: "镜像仓库域名/xxx/appc:latest" imagePullPolicy: "Always" name: "appc" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" 灰度: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appc" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appc" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appc" spec: containers: env: name: "MSEAPPNAME" value: "appc" name: "MSESERVICETAG" value: "gray" image: "镜像仓库域名/xxx/appc:latest" imagePullPolicy: "Always" name: "appc" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" zuul应用的配置: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "zuul" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "zuul" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "zuul" spec: containers: env: name: "MSEAPPNAME" value: "zuul" image: "镜像仓库域名/xxx/zuul:latest" imagePullPolicy: "Always" name: "zuul" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi"
        来自:
        帮助文档
        微服务引擎
        最佳实践
        通过自建网关实现全链路灰度
      • 信任规则
        此章节为您介绍数据库审计信任规则的相关功能。 当系统匹配信任规则后,不会再匹配安全规则,不产生任何告警信息。 开启步骤 1. 在左侧菜单栏中选择“规则配置 > 信任规则”进入“信任规则”页面。 2. 单击“新增”,在弹出的新增规则对话框中编辑相关信息。 具体参数可参考下表。 项目 参数 参数说明 基本信息 名称 设置规则名称,必须为中文字符、字母、数字、下划线“”、点“.”或短横“”,长度不超过64字符。 基本信息 描述 规则描述。 基本信息 等级 必选项,系统默认等级为中风险。等级可选高风险、中风险和低风险。 基本信息 所属规则组 必选项,可选择自定义的规则组,也可以选择系统默认规则组。可通过以下步骤对自定义规则组进行管理: 单击所属规则组右边的“规则组管理”,可新增、修改和删除自定义规则组。 基本信息 规则类型 当前支持普通规则和统计规则两类。 普通规则:单条审计记录匹配配置的普通规则,会触发普通告警(例如一条select语句,可能会触发一条普通告警)。 统计规则:指定时间内多次匹配配置的统计规则,会触发一条统计告警(例如5分钟内10次select失败,可能会触发一条统计告警)。 基本信息 行为 当前支持告警和告警并阻断。 告警:操作命中规则后,仍正常执行,无特殊控制。 告警并阻断:操作命中规则后,该操作对应的数据库连接断开。 客户端 客户端来源 访问业务类型的客户端IP或IP组。可填写多个,以逗号“,”分隔。 客户端 客户端工具 可配多个客户端工具,使用逗号“,”分隔,例如:db2bp.exe,java.exe。 客户端 客户端端口 可配置多个值或区间,多个值间以逗号“,”分隔,例如:1015,20,25,3040。 客户端 客户端MAC地址 可填多个值,多个值间以逗号“,”分隔。 客户端 操作系统用户 可以选择字符串或者正则表达式,字符串可填多值,多个值间以逗号“,”分隔。 客户端 主机名 可以选择字符串或者正则表达式,字符串可填多值,多个值间以逗号“,”分隔。 客户端 应用IP 指定规则所匹配的应用IP或IP组,对应审计日志中的关联IP,可填多值,多个值间以逗号“,”分隔。 客户端 应用用户名 指定规则所匹配的应用用户或用户组,对应审计日志中的关联账号,可填多值,多个值间以逗号“,”分隔。 服务端 服务端IP 可填多个值,多个值间以逗号“,”分隔。 服务端 服务端端口 可配置多个值或区间,多个值间以逗号“,”分隔,例如:1015,20,25,3040。 服务端 数据库账号 指定规则所匹配的数据库登录用户账号或账号组或者使用正则表达式,可填多值,多个值之间以“,”分隔。 服务端 服务端MAC地址 可填多个值,多个值间以逗号“,”分隔。 服务端 数据库名(SID) 可以选择字符串或者正则表达式,Oracle数据库请输入SID,其他数据库输入数据库名,字符串可填多值,多个值间以逗号“,”分隔。 行为 对象 指定规则匹配的对象组。 行为 操作类型 指定SQL语句的操作类型,例如:select、update、delete等。 行为 SQL模板ID 可填项,可填多值,多个值间以逗号“,”分隔。 行为 SQL关键字 SQL关键字:支持以正则表达式匹配报文。 单击“正则验证”输入报文内容,单击“校验”,验证输入内容与执行结果关键字中的正则表达式是否匹配;单击“增加条件”可添加多个条件。 条件运算逻辑表达式:SQL关键字填写后,此项为必填项。条件间的关系,支持与、或、非、括号运算(&:与;:或;~:非),条件使用序号表示,即“1”表示条件1,例如:1&2,则代表有2个SQL关键字条件且两个关键字都要满足才能告警。 行为 SQL长度 指定SQL语句的长度,取值范围:1B~64KB。 行为 关联表数 SQL操作涉及表的个数大于等于此值时触发本规则,允许输入最大值为255。 行为 WHERE字句 是否包含WHERE,支持三个选项: 不判断 有WHERE子句 没有WHERE子句 默认为不判断。WHERE子句用于提取满足指定条件的SQL记录,语法如下: SELECT columnname,columnname FROM tablename WHERE columnname operator value; 结果 执行时长 (选填)单位:秒、毫秒、微秒,取值范围:0到半个小时,SQL执行时长属于此范围,则触发规则。 结果 影响行数 取值范围:0~999,999,999。SQL操作返回的记录数或受影响的行数属于此范围,则触发规则。 结果 返回结果集 支持以正则表达式匹配结果集。 单击“正则验证”输入报文内容,单击“校验”,验证输入内容与执行结果关键字中的正则表达式是否匹配;单击“增加条件”可添加多个条件。 条件运算逻辑表达式:SQL关键字填写后,此项为必填项。条件间的关系,支持与、或、非、括号运算(&:与;:或;~:非),条件使用序号表示,即“1”表示条件1,例如:1&2,则代表有2个SQL关键字条件且两个关键字都要满足才能告警。 结果 执行状态 可选三类执行状态: 全部 成功 失败 默认为全部。 结果 执行结果描述 支持以正则表达式方式匹配。 其他 生效时间 可自定义或者选择时间组。 其他 每日最大告警数 取值范围:0~99,999,输入0表示没有限制。 其他 结果集存储策略 设置触发该规则的告警日志的返回结果集存储策略,包含使用资产设置、保存和不保存。 3. 配置完成后,单击“保存”即可完成信任规则的配置。
        来自:
        帮助文档
        数据库审计
        用户指南
        审计规则配置
        信任规则
      • CSEProvider集群监控
        本文主要介绍CSEProvider集群监控 介绍APM采集的CSEProvider集群指标的类别、名称、含义等信息。 表 CSEProvider采集器采集参数 参数名 数据类型 应用类型 默认值 Agent支持的起始版本 Agent支持的终止版本 描述 采集黑名单配置 objarray JAVA 2.0.0 指定url黑名单列表,不采集在黑名单中的url;匹配方式包含startwith,endwith,include,regex四种方式。 业务状态码采集长度限制 integer JAVA 0 2.0.0 配置业务状态码采集长度之后,会解析指定长度之内的body内容,获取其中的业务状态码。 解析业务状态码的key值 array JAVA 2.0.0 根据该配置,从body内容中获取对应key值的字段的值,作为业务状态码上报。 业务状态码的正确值 array JAVA 2.0.0 获取到的业务状态码不在该配置中的请求会标记为错误的调用链。 慢请求阈值 integer JAVA 800 2.0.0 定义慢请求阈值,超过指定阈值定义为慢url,提高慢url的采样率。 慢url阈值 objarray JAVA 2.0.0 定义指定url的慢请求阈值,超过指定阈值定义为慢url,提高慢url的采样率;采样方式包含:1.全采;2.百分比采样;3.每分钟固定数量采样;4.自动采样 四种方式。 拦截header指定key值 array JAVA 2.0.0 拦截header中指定key值的内容。 表CSEProvider集群监控指标说明 指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 ::::::: CSEProvider集群监控(cluster,以调用方的集群id维度统计的接口调用详情。) clusterId 集群id 调用方的集群id ENUM LAST CSEProvider集群监控(cluster,以调用方的集群id维度统计的接口调用详情。) errorCount 错误数 集群调用的错误次数 INT SUM CSEProvider集群监控(cluster,以调用方的集群id维度统计的接口调用详情。) invokeCount 调用次数 集群调用次数 INT SUM CSEProvider集群监控(cluster,以调用方的集群id维度统计的接口调用详情。) maxTime 最大响应时间 集群调用的最大响应时间 ms INT MAX CSEProvider集群监控(cluster,以调用方的集群id维度统计的接口调用详情。) totalTime 总响应时间 集群调用的总响应时间 ms INT SUM CSEProvider调用详情(detail,以接口为维度统计的接口调用详情。) qualifiedName 调用url CSEProvider被调用的url ENUM LAST CSEProvider调用详情(detail,以接口为维度统计的接口调用详情。) method 调用httpmethod CSEProvider被调用url的httpmethod ENUM LAST CSEProvider调用详情(detail,以接口为维度统计的接口调用详情。) concurrentMax 最大并发 CSEProvider被调用url的最大并发 INT MAX CSEProvider调用详情(detail,以接口为维度统计的接口调用详情。) errorCount 错误数 CSEProvider被调用url的错误数 INT SUM CSEProvider调用详情(detail,以接口为维度统计的接口调用详情。) invokeCount 调用次数 CSEProvider被调用url的调用次数 INT SUM CSEProvider调用详情(detail,以接口为维度统计的接口调用详情。) lastError 错误信息 错误调用产生的错误信息 STRING LAST CSEProvider调用详情(detail,以接口为维度统计的接口调用详情。) maxTime 最大响应时间 CSEProvider被调用url的最大响应时间 ms INT MAX CSEProvider调用详情(detail,以接口为维度统计的接口调用详情。) totalTime 总响应时间 CSEProvider被调用url的总响应时间 ms INT SUM CSEProvider调用详情(detail,以接口为维度统计的接口调用详情。) range1 010ms 响应时间在010ms范围请求数 INT SUM CSEProvider调用详情(detail,以接口为维度统计的接口调用详情。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM CSEProvider调用详情(detail,以接口为维度统计的接口调用详情。) range3 100500ms 响应时间在100500ms范围请求数 INT SUM CSEProvider调用详情(detail,以接口为维度统计的接口调用详情。) range4 5001000ms 响应时间在5001000ms范围请求数 INT SUM CSEProvider调用详情(detail,以接口为维度统计的接口调用详情。) range5 110s 响应时间在110s范围请求数 INT SUM CSEProvider调用详情(detail,以接口为维度统计的接口调用详情。) range6 10s以上 响应时间在10s以上请求数 INT SUM CSEProvider汇总(total,所有接口的汇总统计数据。) errorCount 错误数 CSEProvider调用总的错误数 INT SUM CSEProvider汇总(total,所有接口的汇总统计数据。) invokeCount 调用次数 CSEProvider总的调用次数 INT SUM CSEProvider汇总(total,所有接口的汇总统计数据。) totalTime 总响应时间 CSEProvider调用的总响应时间 ms INT SUM 状态码监控(statuscode ,以接口返回的状态码为维度统计的接口调用详情。) code 状态码 http状态码 ENUM LAST 状态码监控(statuscode ,以接口返回的状态码为维度统计的接口调用详情。) count 次数 状态码发生次数 INT SUM 状态码监控(statuscode ,以接口返回的状态码为维度统计的接口调用详情。) url 采样url 对应状态码的采样url STRING LAST
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        接口调用
        CSEProvider集群监控
      • 创建数据库和表
        创建表 创建表前,请确保已创建数据库。 1. 创建表的入口有两个,分别在“数据管理”和“SQL编辑器”页面。 说明 此处创建表的方式不支持创建View,HBase(MRS)表、OpenTSDB(MRS)表、DWS表、RDS表和CSS表等跨源连接表。可通过SQL方式创建View和跨源连接表,具体请参考 在“数据管理”页面创建表。 a. 在管理控制台左侧,单击“数据管理”>“库表管理”。 b. 在库表管理页面中,选择需要建表的数据库。在其“操作”栏中,单击“更多”>“创建表”,可创建当前数据库下的表。 在“SQL编辑器”页面创建表。 a. 在管理控制台左侧,单击“SQL编辑器”。 b. 在“SQL编辑器”页面的左侧导航栏单击“数据库”页签。有两种方式创建表。 鼠标左键单击数据库名,进入“表”区域,单击右侧,创建当前数据库下的表。 鼠标左键单击对应数据库右侧的,在列表菜单中选择“创建表”,创建当前数据库下的表。 2. 在“创建表”页面,填写参数。 当数据位置为DLI时,请参见下表填写相关参数; 当数据位置为OBS时,请参见下表填写相关参数。 详见下表:通用参数说明 参数名称 描述 示例 表名称 表名称只能包含数字、英文字母和下划线,但不能是纯数字,且不能以下划线开头。 表名称大小写不敏感且不能为空。 表名称支持包含“”符号。例如:test。 输入长度不能超过128个字符。 table01 数据位置 数据存储位置,当前支持DLI和OBS。 OBS 描述 该表的描述。 列类型 选择为“普通列”或“分区列”。 普通列 列名称 表的列名。列名应至少包含一个字母,并允许下划线(),但不支持纯数字。 可选择“普通列”或“分区列”。“分区列”是分区表专用的,对用户数据进行分区,可提高查询效率。 说明 列名不区分大小写,不能相同。 name 数据类型 与“列名”对应,表示该列的数据类型。 字符串(string):字符串类型。 有符号整数(int):存储空间为4字节。 日期类型(date):所表示日期的范围为00000101 to 99991231。 双精度浮点型(double):存储空间为8字节。 l 布尔类型(boolean):存储空间为1字节。 固定有效位数和小数位数的数据类型(decimal):有效位数为1~38之间的正整数,包含1和38;小数位数为小于10的整数。 有符号整数(smallint/short):存储空间为2字节。 有符号整数(bigint/long):存储空间为8字节。 时间戳(timestamp):表示日期和时间,可达到小数点后6位。 单精度浮点型(float):存储空间为4字节。 有符号整数(tinyint):存储空间为1字节。仅OBS表支持。 string 列描述 该列的描述。 操作 增加列 删除列 说明 当列数较多时,建议您使用SQL语句创建表,或直接从本地Excel导入列信息。 详见下表: 数据位置为OBS的参数说明 参数名称 描述 示例 数据格式 支持以下数据格式。 Parquet:DLI支持读取不压缩、snappy压缩、gzip压缩的parquet数据。 CSV:DLI支持读取不压缩、gzip压缩的csv数据。 ORC:DLI支持读取不压缩、snappy压缩的orc数据。 JSON:DLI支持读取不压缩、gzip压缩的json数据。 Carbon:DLI支持读取不压缩的carbon数据。 Avro:DLI支持读取不压缩的avro数据。 CSV 存储路径 输入或选择OBS路径。路径可以是文件夹,也可以是路径。 说明 如果需要将OBS上的数据导入OBS表,则建表路径必须是文件夹。 建表路径是文件时,会导致数据导入失败。 obs://obs1/sampledata.csv 表头:无/有 当“数据格式”为“CSV”时,该参数有效。设置导入数据源是否含表头。 选中“高级选项”,勾选“表头:无”前的方框,“表头:无”显示为“表头:有”,表示有表头;去勾选即为“表头:无”,表示无表头。 自定义分隔符 当“数据格式”为“CSV”,并在自定义分隔符前的方框打勾时,该参数有效。 选中高级选项,支持选择如下分隔符。 逗号(,) 竖线() 制表符(t) 其他:输入自定义分隔符 ) l 制表符(t) l 其他:输入自定义分隔符 自定义引用字符 当“数据格式”为“CSV”,并在自定义引用字符前的方框打勾时,该参数有效。 选中高级选项,支持选择如下引用字符。 单引号(') 双引号(") l 其他:输入自定义引用字符 单引号(') 自定义转义字符 当“数据格式”为“CSV”,并在自定义转义字符前的方框打勾时,该参数有效。 选中高级选项,支持选择如下转义字符。 反斜杠() 其他:输入自定义转义字符 反斜杠() 日期格式 当“数据格式”为“CSV”和“JSON”时此参数有效。 选中“高级选项”,该参数表示表中日期的格式,默认格式为“yyyyMMdd”。 20000101 时间戳格式 当“数据格式”为“CSV”和“JSON”时此参数有效。 选中“高级选项”,该参数表示表中时间戳的格式,默认格式为“yyyyMMdd HH:mm:ss”。 20000101 09:00:00 3.单击“确定”,完成表创建。 表创建成功后,您可以在“表管理”页面或者“SQL编辑器”页面查看和选择使用对应的表。 4.(可选)DLI表创建完成后,您可以选择是否直接向该表导入数据。
        来自:
        帮助文档
        数据湖探索
        用户指南
        数据管理
        库表管理
        创建数据库和表
      • 团队管理
        本页介绍天翼云TeleDB数据库团队管理相关操作。 注意 团队管理模块只有超级管理员和团队管理员才能进入。 团队作为数据管理模块中一组用户和数据库资源的集合,团队内成员均可访问团队内的实例,在查询窗口、数据导入和导出等功能中,可搜索并选中团队内的所有数据库进行操作。 团队成员有包括团队管理员和普通成员两种团队角色,其中: 团队管理员:每个团队至少有一个团队管理员。团队管理员可以添加和删除团队内的成员和实例。 普通成员:团队内的普通成员可访问团队内所有实例,查看团队内其他成员信息。 团队管理功能包含全部团队列表、团队成员管理和团队实例管理三部分。 全部团队列表:只有超级管理员可访问。通过此界面,超级管理员可查看所有团队信息、添加团队和删除团队,同时也可以进入特定团队去管理该团队的成员和实例。 团队成员管理:超级管理员或者团队的团队管理员可访问。通过此界面,用户可查看团队内的所有成员信息,添加和删除团队成员,变更成员的团队角色。 团队实例管理:超级管理员或者团队的团队管理员可访问。通过此界面,用户可查看团队内的所有实例信息,添加实例至团队,且可通过快速跳转到元数据管理界面编辑和移除实例。实例添加至团队后,团队内所有成员均可访问团队内的实例。 1. 查看所有团队 1. 以超级管理员身份登录数据管理模块。 2. 在左侧菜单栏依次选择安全中心 > 团队管理。 3. 界面展示当前组织下,所有团队列表。 2. 添加团队 1. 在全部团队列表页中单击新建团队 ,系统显示新建团队弹窗。 2. 输入团队名称 ,选择一个或多个用户作为团队的团队管理员。 3. 单击确定完成团队的添加。 3. 修改团队 1. 在全部团队列表页中单击要修改团队 右侧的管理按钮,系统显示团队修改弹窗。 2. 输入新的团队名称,调整团队管理员。 3. 单击确定完成团队的修改操作。 4. 删除团队 1. 在全部团队列表页中单击要删除团队右侧的删除 按钮,系统显示团队删除确认 弹窗。 2. 单击确定完成团队的删除操作。 5. 添加团队成员 1. 在团队成员管理页中,团队下拉列表选中要添加成员的团队,系统显示该团队下所有成员。 2. 单击添加用户 至团队,系统显示添加弹窗。 3. 在团队角色下拉列表中选择要添加的团队角色。 4. 在用户下拉列表中,搜索要添加的用户后进行选中。可以多次搜索和选中多个用户。 5. 单击确定完成团队成员的添加操作。 6. 修改成员角色 1. 在团队成员管理页中,团队下拉列表选中要修改成员角色的团队,系统显示该团队下所有成员。 2. 单击要修改角色的成员的团队内角色下拉列表,选择新的团队角色。 3. 系统自动保存成员的新角色。 7. 删除团队成员 1. 在团队成员管理页中,团队下拉列表选中要删除成员的团队,系统显示该团队下所有成员。 2. 单击某个成员右侧的从团队移除按钮,系统显示团队移除确认弹窗。 3. 单击确定完成团队成员的删除操作。 8. 录入实例到团队 1. 在团队实例管理页中,团队下拉列表选中要录入实例的团队,系统显示该团队下所有实例。 2. 单击添加实例至团队,系统显示添加实例弹窗。 3. 在实例弹窗中,实例已默认绑定到当前团队,填写其他信息进行实例的录入。具体如何填写,参见数据资产 > 元数据管理 中关于各种类型实例录入的说明。 4. 单击确定完成团队实例的录入操作。 9. 删除团队中的实例 1. 在团队实例管理页中,团队下拉列表选中要删除实例的团队,系统显示该团队下所有实例。 2. 单击要删除实例右侧实例元数据 按钮,跳转到实例元数据页。 3. 在实例元数据中,列表默认显示要移除的实例,单击右侧更多 > 删除实例 ,系统显示实例删除确认弹窗。 4. 单击确定完成团队实例的删除操作。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据管理服务操作指南
        团队管理
      • CCE发布Kubernetes 1.27版本说明
        本节主要介绍CCE发布Kubernetes 1.27版本 云容器云容器引擎(CCE)严格遵循社区一致性认证,现已支持创建Kubernetes 1.27集群。本文介绍Kubernetes 1.27版本相对于1.25版本所做的变更说明。 主要特性 Kubernetes 1.27版本 SeccompDefault特性已进入稳定阶段 如需使用SeccompDefault特性,您需要为每个节点的kubelet启用seccompdefault命令行标志。如果启用该特性,kubelet将为所有工作负载默认使用RuntimeDefault seccomp配置文件,该配置文件由容器运行时定义,而不是使用Unconfined(禁用seccomp)模式。 Job可变调度指令 该特性在Kubernetes 1.22版本中引入,当前已进入稳定阶段。在大多数情况下,并行作业Pod希望在一定的约束下运行,例如希望所有Pod在同一可用区。该特性允许在Job开始前修改调度指令。您可以使用suspend字段挂起Job,在Job挂起阶段,Pod模板中的调度部分(例如节点选择器、节点亲和性、反亲和性、容忍度)允许修改。 Downward API HugePages已进入稳定阶段 在Kubernetes 1.20版本中,Downward API引入了 requests.hugepages 和 limits.hugepages ,HugePage可以和其他资源一样设置资源配额。 Pod调度就绪态进入Beta阶段 Pod创建后,Kubernetes调度程序会负责选择合适的节点运行pending状态的Pod。在实际使用时,一些Pod可能会由于资源不足长时间处于pending状态。这些Pod可能会影响集群中的其他组件运行(如Cluster Autoscaler)。通过指定/删除Pod的.spec.schedulingGates,您可以控制Pod何时准备好进行调度。 通过Kubernetes API访问节点日志 此功能当前处于Alpha阶段。集群管理员可以直接查询节点上的服务日志,可以帮助调试节点上运行的服务问题。如需使用此功能,请确保在该节点上启用了NodeLogQuery特性门控,并且kubelet配置选项enableSystemLogHandler和enableSystemLogQuery都设置为true。 ReadWriteOncePod访问模式进入Beta阶段 在Kubernetes 1.22版本中,PV和PVC提供了一种新的访问模式ReadWriteOncePod,该功能当前进入Beta阶段。卷可以被单个Pod以读写方式挂载。如果您想确保整个集群中只有一个Pod可以读取或写入该PVC,请使用ReadWriteOncePod访问模式。 Pod拓扑分布约束中matchLabelKeys字段进入Beta阶段 matchLabelKeys是一个Pod标签键的列表,用于选择需要计算分布方式的Pod集合。使用matchLabelKeys字段,您无需在变更Pod修订版本时更新pod.spec。控制器或Operator只需要将不同修订版的标签键设为不同的值。调度器将根据matchLabelKeys自动确定取值。 快速标记SELinux卷标签功能进入Beta阶段 默认情况下,容器运行时递归地将SELinux标签赋予所有Pod卷上的所有文件。 为了加快该过程,Kubernetes使用挂载可选项 o context 可以立即改变卷的SELinux标签。 VolumeManager重构进入Beta阶段 重构的VolumeManager后,如果启用NewVolumeManagerReconstruction特性门控,将会在kubelet启动期间使用更有效的方式来获取已挂载卷。 服务器端字段校验和OpenAPI V3已进入稳定阶段 Kubernetes 1.23中添加了对OpenAPI v3的支持,1.24版本中已进入Beta阶段,1.27已进入稳定阶段。 控制StatefulSet启动序号 Kubernetes 1.26为StatefulSet引入了一个新的Alpha级别特性,可以控制Pod副本的序号。 从Kubernetes 1.27开始,此特性进入Beta阶段,序数可以从任意非负数开始。 HorizontalPodAutoscaler ContainerResource类型指标进入Beta阶段 Kubernetes 1.20在HorizontalPodAutoscaler (HPA) 中引入了ContainerResource类型指标。在 Kubernetes 1.27中,此特性进阶至Beta,相应的特性门控 (HPAContainerMetrics) 默认被启用。 StatefulSet PVC自动删除进入Beta阶段 Kubernetes v1.27提供一种新的策略机制,用于控制StatefulSets的PersistentVolumeClaims(PVCs)的生命周期。这种新的PVC保留策略允许用户指定当删除StatefulSet或者缩减StatefulSet中的副本时,是自动删除还是保留从StatefulSet规约模板生成的PVC。 磁盘卷组快照 磁盘卷组快照在Kubernetes 1.27中作为Alpha特性被引入。 此特性允许用户对多个卷进行快照,以保证在发生故障时数据的一致性。 它使用标签选择器来将多个PersistentVolumeClaims分组以进行快照。 这个新特性仅支持CSI卷驱动器。 kubectl apply裁剪更安全、更高效 在Kubernetes 1.5版本中,kubectl apply引入了prune标志来删除不再需要的资源,允许kubectl apply自动清理从当前配置中删除的资源。然而,现有的prune实现存在设计缺陷,会降低性能并导致意外行为。 为NodePort Service分配端口时避免冲突 在Kubernetes 1.27中,您可以启用新的特性门控ServiceNodePortStaticSubrange,为NodePort Service使用不同的端口分配策略,减少冲突的风险。当前该特性处于Alpha阶段。 原地调整Pod资源 在Kubernetes 1.27中,允许用户调整分配给Pod的CPU和内存资源大小,而无需重新启动容器。 加快Pod启动 在Kubernetes 1.27中进行了一系列的参数调整,以提高Pod的启动速度,例如并行镜像拉取、提高Kubelet默认API每秒查询限值等。 KMS V2进入Beta阶段 Kubernetes中的密钥管理KMS v2 API进入Beta阶段,对KMS加密提供程序的性能进行了重大改进。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群概述
        集群Kubernetes版本发布说明
        CCE发布Kubernetes 1.27版本说明
      • 链路追踪
        概述 服务网格支持使用opentelmetry方式接入应用性能监控链路追踪能力,本章节介绍如何开启和使用链路追踪。 开启条件 需要开通APM应用性能监控,可参考开通应用性能监控应用性能监控快速入门 天翼云 (ctyun.cn) 需要在网格实例所属VPC下开通APM相关的终端节点(VPCE) 开启方式 登录服务网格控制台,网格实例 > 网格配置 > 自定义配置 > 启用链路追踪 开启即可。 开启时,您需要设置采样里,取值1100。 如果您还未开通应用性能监控服务及链路追踪数据上报需要的VPCE等资源,您可以授权服务网格组件一键开通相关资源。 链路追踪接入示例 概述 本节展示服务网格接入链路追踪的操作流程及效果,首先确认已经开启了链路追踪功能开关并将采样率配置为100%。演示架构如下图所示 其中ELB和Ingress Gateway作为接入层,业务层包括app1、app2、app3三个服务(分别都注入了网格sidecar),业务代码中也通过opentelemetry方式接入了链路追踪,触发数据面访问后,预期会上报链路数据到APM,完整覆盖网格数据面和应用。 部署测试程序 创建demo命名空间并配置好相关注入标签,保证sidecar注入;部署应用及服务,如下 注意 1. 本示例使用的镜像地址是华南2资源池,如果您在其他资源池体验,请替换镜像地址 2. 本示例采用go语言+opentelemetry方式接入链路追踪,您可以参考应用性能监控go语言接入链路追踪的文档将Deployment中的token和endpoint环境变量替换成您看到的值 html apiVersion: apps/v1 kind: Deployment metadata: name: app1base namespace: demo labels: app: app1 csmtraffictag: base spec: replicas: 1 selector: matchLabels: app: app1 name: app1 csmtraffictag: base template: metadata: labels: sidecar.istio.io/inject: "true" app: app1 name: app1 source: CCSE csmtraffictag: base spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: base name: app value: app1 name: upstreamurl value: " ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app2base namespace: demo labels: app: app2 csmtraffictag: base spec: replicas: 1 selector: matchLabels: app: app2 name: app2 csmtraffictag: base template: metadata: labels: sidecar.istio.io/inject: "true" app: app2 name: app2 source: CCSE csmtraffictag: base spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: base name: app value: app2 name: upstreamurl value: " ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app3base namespace: demo labels: app: app3 csmtraffictag: base spec: replicas: 1 selector: matchLabels: app: app3 name: app3 csmtraffictag: base template: metadata: labels: sidecar.istio.io/inject: "true" app: app3 name: app3 source: CCSE csmtraffictag: base spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: base name: app value: app3 ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app1test namespace: demo labels: app: app1 csmtraffictag: test spec: replicas: 1 selector: matchLabels: app: app1 name: app1 csmtraffictag: test template: metadata: labels: sidecar.istio.io/inject: "true" app: app1 name: app1 source: CCSE csmtraffictag: test spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: test name: app value: app1 name: upstreamurl value: " ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app2test namespace: demo labels: app: app2 csmtraffictag: test spec: replicas: 1 selector: matchLabels: app: app2 name: app2 csmtraffictag: test template: metadata: labels: sidecar.istio.io/inject: "true" app: app2 name: app2 source: CCSE csmtraffictag: test spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: test name: app value: app2 name: upstreamurl value: " ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app3test namespace: demo labels: app: app3 csmtraffictag: test spec: replicas: 1 selector: matchLabels: app: app3 name: app3 csmtraffictag: test template: metadata: labels: sidecar.istio.io/inject: "true" app: app3 name: app3 source: CCSE csmtraffictag: test spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: test name: app value: app3 ports: containerPort: 8000 apiVersion: v1 kind: Service metadata: name: app1 labels: app: app1 service: app1 spec: ports: port: 8000 name: http selector: app: app1 apiVersion: v1 kind: Service metadata: name: app2 labels: app: app2 service: app2 spec: ports: port: 8000 name: http selector: app: app2 apiVersion: v1 kind: Service metadata: name: app3 labels: app: app3 service: app3 spec: ports: port: 8000 name: http selector: app: app3
        来自:
        帮助文档
        应用服务网格
        用户指南
        可观测管理中心
        链路追踪
      • KafkaConsumer监控
        本文主要介绍KafkaConsumer监控 介绍APM采集的KafkaConsumer监控指标的类别、名称、含义等信息。 表 KafkaConsumer监控采集参数 参数名 数据类型 应用类型 默认值 Agent支持的起始版本 Agent支持的终止版本 描述 kafka慢请求阈值 integer JAVA 800 2.1.14 超过慢请求阈值的方法提高采样率。 kafka消费方法配置 objarray JAVA 2.1.14 kafka消费方法配置。 表 KafkaConsumer监控指标说明 指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 ::::::: 主题 (topic,kafka的topic监控数据。) id id clientid和ip信息 ENUM LAST 主题 (topic,kafka的topic监控数据。) topic topic kafka的topic名称 ENUM LAST 主题 (topic,kafka的topic监控数据。) bytesConsumedRate 每秒消费字节 每秒消费字节 Byte INT AVG 主题 (topic,kafka的topic监控数据。) fetchSizeAvg 请求获取平均字节 请求获取平均字节 Byte INT AVG 主题 (topic,kafka的topic监控数据。) fetchSizeMax 请求获取最大字节 请求获取最大字节 Byte INT MAX 主题 (topic,kafka的topic监控数据。) recordsConsumedRate 每秒消费消息数 每秒消费消息数 INT AVG 主题 (topic,kafka的topic监控数据。) recordsPerRequestAvg 单次请求平均消息数 单次请求平均消息数 INT AVG 主题 (topic,kafka的topic监控数据。) seqIds Producer生成序列号 Producer生成序列号 STRING LAST 主题 (topic,kafka的topic监控数据。) recordConsumedTotal 总消费次数 总消费次数 INT SUM 主题 (topic,kafka的topic监控数据。) bytesConsumedTotal 总消费字节数 总消费字节数 INT SUM fetch (fetch,kafka的fetch监控数据) id id clientid和ip信息 ENUM LAST fetch (fetch,kafka的fetch监控数据) bytesConsumedRate 每秒消费字节 每秒消费字节 Byte INT AVG fetch (fetch,kafka的fetch监控数据) fetchLatencyAvg 请求平均时延 请求平均时延 ms INT AVG fetch (fetch,kafka的fetch监控数据) fetchLatencyMax 请求最大时延 请求最大时延 ms INT MAX fetch (fetch,kafka的fetch监控数据) fetchRate 每秒请求数 每秒请求数 INT AVG fetch (fetch,kafka的fetch监控数据) fetchSizeAvg 请求获取平均字节 请求获取平均字节 Byte INT AVG fetch (fetch,kafka的fetch监控数据) fetchSizeMax 请求获取最大字节 请求获取最大字节 Byte INT MAX fetch (fetch,kafka的fetch监控数据) recordsConsumedRate 每秒消费消息数 每秒消费消息数 INT AVG fetch (fetch,kafka的fetch监控数据) recordsLagMax 最大堆积消息数 最大堆积消息数 INT MAX fetch (fetch,kafka的fetch监控数据) recordsPerRequestAvg 单次请求平均消息数 单次请求平均消息数 INT AVG fetch (fetch,kafka的fetch监控数据) seqIds Producer生成序列号 Producer生成序列号 STRING LAST fetch (fetch,kafka的fetch监控数据) recordConsumedTotal 总消费次数 总消费次数 INT SUM fetch (fetch,kafka的fetch监控数据) bytesConsumedTotal 总消费字节数 总消费字节数 INT SUM partition (partition,kafka的partition监控数据。) id id clientid和ip信息 ENUM LAST partition (partition,kafka的partition监控数据。) partition partition kafka的partition名称 ENUM LAST partition (partition,kafka的partition监控数据。) recordsLag 堆积消息数 堆积消息数 INT LAST partition (partition,kafka的partition监控数据。) recordsLagAvg 平均堆积消息数 平均堆积消息数 INT AVG partition (partition,kafka的partition监控数据。) recordsLagMax 最大堆积消息数 最大堆积消息数 INT MAX partition (partition,kafka的partition监控数据。) seqIds Producer生成序列号 Producer生成序列号 STRING LAST kafka消费方法监控 (consumer,kafka消费方法监控。) method method 消费方法 ENUM LAST kafka消费方法监控 (consumer,kafka消费方法监控。) concurrentMax 最大并发 最大并发 INT MAX kafka消费方法监控 (consumer,kafka消费方法监控。) errorCount 错误数 错误数 INT SUM kafka消费方法监控 (consumer,kafka消费方法监控。) invokeCount 调用次数 调用次数 INT SUM kafka消费方法监控 (consumer,kafka消费方法监控。) lastError 错误信息 发生错误时产生的错误信息 STRING LAST kafka消费方法监控 (consumer,kafka消费方法监控。) maxTime 最大响应时间 采集周期内最大响应时间 INT MAX kafka消费方法监控 (consumer,kafka消费方法监控。) range1 010ms 响应时间在010ms范围调用次数 INT SUM kafka消费方法监控 (consumer,kafka消费方法监控。) range2 10100ms 响应时间在10100ms范围调用次数 INT SUM kafka消费方法监控 (consumer,kafka消费方法监控。) range3 100500ms 响应时间在100500ms范围调用次数 INT SUM kafka消费方法监控 (consumer,kafka消费方法监控。) range4 5001000ms 响应时间在5001000ms范围调用次数 INT SUM kafka消费方法监控 (consumer,kafka消费方法监控。) range5 110s 响应时间在110s范围调用次数 INT SUM kafka消费方法监控 (consumer,kafka消费方法监控。) range6 10s以上 响应时间在10s以上调用次数 INT SUM kafka消费方法监控 (consumer,kafka消费方法监控。) totalTime 总响应时间 总响应时间 INT SUM KafkaConsumer汇总(total,KafkaConsumer汇总信息统计。) recordConsumedTotal 总消费次数 总消费次数 INT SUM KafkaConsumer汇总(total,KafkaConsumer汇总信息统计。) bytesConsumedTotal 总消费字节数 总消费字节数 INT SUM KafkaConsumer汇总(total,KafkaConsumer汇总信息统计。) recordsLag 总堆积消息数 总堆积消息数 INT LAST 异常 (exception,kafka消费异常信息。) causeType 异常发生类 异常发生类 ENUM LAST 异常 (exception,kafka消费异常信息。) exceptionType 异常类 异常类 ENUM LAST 异常 (exception,kafka消费异常信息。) count 数量 异常数量 INT SUM 异常 (exception,kafka消费异常信息。) message 异常消息 异常消息 STRING LAST 异常 (exception,kafka消费异常信息。) stackTrace 异常堆栈 异常堆栈 CLOB LAST
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        消息队列
        KafkaConsumer监控
      • 1
      • ...
      • 288
      • 289
      • 290
      • 291
      • 292
      • ...
      • 296
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      GPU云主机

      轻量型云主机

      弹性伸缩服务 AS

      训推服务

      AI Store

      应用托管

      推荐文档

      云课堂 第十九课:RDS数据库服务基于SSL的安全访问

      什么是服务器迁移

      CDN快速入门

      Push方式的调用说明

      监控节点运行状态

      备案概述

      Telnet/SSH/Rlogin访问

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号