云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      等保咨询_相关内容
      • 信任规则
        此章节为您介绍数据库审计信任规则的相关功能。 当系统匹配信任规则后,不会再匹配安全规则,不产生任何告警信息。 开启步骤 1. 在左侧菜单栏中选择“规则配置 > 信任规则”进入“信任规则”页面。 2. 单击“新增”,在弹出的新增规则对话框中编辑相关信息。 具体参数可参考下表。 项目 参数 参数说明 基本信息 名称 设置规则名称,必须为中文字符、字母、数字、下划线“”、点“.”或短横“”,长度不超过64字符。 基本信息 描述 规则描述。 基本信息 等级 必选项,系统默认等级为中风险。等级可选高风险、中风险和低风险。 基本信息 所属规则组 必选项,可选择自定义的规则组,也可以选择系统默认规则组。可通过以下步骤对自定义规则组进行管理: 单击所属规则组右边的“规则组管理”,可新增、修改和删除自定义规则组。 基本信息 规则类型 当前支持普通规则和统计规则两类。 普通规则:单条审计记录匹配配置的普通规则,会触发普通告警(例如一条select语句,可能会触发一条普通告警)。 统计规则:指定时间内多次匹配配置的统计规则,会触发一条统计告警(例如5分钟内10次select失败,可能会触发一条统计告警)。 基本信息 行为 当前支持告警和告警并阻断。 告警:操作命中规则后,仍正常执行,无特殊控制。 告警并阻断:操作命中规则后,该操作对应的数据库连接断开。 客户端 客户端来源 访问业务类型的客户端IP或IP组。可填写多个,以逗号“,”分隔。 客户端 客户端工具 可配多个客户端工具,使用逗号“,”分隔,例如:db2bp.exe,java.exe。 客户端 客户端端口 可配置多个值或区间,多个值间以逗号“,”分隔,例如:1015,20,25,3040。 客户端 客户端MAC地址 可填多个值,多个值间以逗号“,”分隔。 客户端 操作系统用户 可以选择字符串或者正则表达式,字符串可填多值,多个值间以逗号“,”分隔。 客户端 主机名 可以选择字符串或者正则表达式,字符串可填多值,多个值间以逗号“,”分隔。 客户端 应用IP 指定规则所匹配的应用IP或IP组,对应审计日志中的关联IP,可填多值,多个值间以逗号“,”分隔。 客户端 应用用户名 指定规则所匹配的应用用户或用户组,对应审计日志中的关联账号,可填多值,多个值间以逗号“,”分隔。 服务端 服务端IP 可填多个值,多个值间以逗号“,”分隔。 服务端 服务端端口 可配置多个值或区间,多个值间以逗号“,”分隔,例如:1015,20,25,3040。 服务端 数据库账号 指定规则所匹配的数据库登录用户账号或账号组或者使用正则表达式,可填多值,多个值之间以“,”分隔。 服务端 服务端MAC地址 可填多个值,多个值间以逗号“,”分隔。 服务端 数据库名(SID) 可以选择字符串或者正则表达式,Oracle数据库请输入SID,其他数据库输入数据库名,字符串可填多值,多个值间以逗号“,”分隔。 行为 对象 指定规则匹配的对象组。 行为 操作类型 指定SQL语句的操作类型,例如:select、update、delete等。 行为 SQL模板ID 可填项,可填多值,多个值间以逗号“,”分隔。 行为 SQL关键字 SQL关键字:支持以正则表达式匹配报文。 单击“正则验证”输入报文内容,单击“校验”,验证输入内容与执行结果关键字中的正则表达式是否匹配;单击“增加条件”可添加多个条件。 条件运算逻辑表达式:SQL关键字填写后,此项为必填项。条件间的关系,支持与、或、非、括号运算(&:与;:或;~:非),条件使用序号表示,即“1”表示条件1,例如:1&2,则代表有2个SQL关键字条件且两个关键字都要满足才能告警。 行为 SQL长度 指定SQL语句的长度,取值范围:1B~64KB。 行为 关联表数 SQL操作涉及表的个数大于等于此值时触发本规则,允许输入最大值为255。 行为 WHERE字句 是否包含WHERE,支持三个选项: 不判断 有WHERE子句 没有WHERE子句 默认为不判断。WHERE子句用于提取满足指定条件的SQL记录,语法如下: SELECT columnname,columnname FROM tablename WHERE columnname operator value; 结果 执行时长 (选填)单位:秒、毫秒、微秒,取值范围:0到半个小时,SQL执行时长属于此范围,则触发规则。 结果 影响行数 取值范围:0~999,999,999。SQL操作返回的记录数或受影响的行数属于此范围,则触发规则。 结果 返回结果集 支持以正则表达式匹配结果集。 单击“正则验证”输入报文内容,单击“校验”,验证输入内容与执行结果关键字中的正则表达式是否匹配;单击“增加条件”可添加多个条件。 条件运算逻辑表达式:SQL关键字填写后,此项为必填项。条件间的关系,支持与、或、非、括号运算(&:与;:或;~:非),条件使用序号表示,即“1”表示条件1,例如:1&2,则代表有2个SQL关键字条件且两个关键字都要满足才能告警。 结果 执行状态 可选三类执行状态: 全部 成功 失败 默认为全部。 结果 执行结果描述 支持以正则表达式方式匹配。 其他 生效时间 可自定义或者选择时间组。 其他 每日最大告警数 取值范围:0~99,999,输入0表示没有限制。 其他 结果集存储策略 设置触发该规则的告警日志的返回结果集存储策略,包含使用资产设置、保存和不保存。 3. 配置完成后,单击“保存”即可完成信任规则的配置。
        来自:
        帮助文档
        数据库审计
        用户指南
        审计规则配置
        信任规则
      • 拨测
        场景描述 在进行消息发送与接收验证的过程中,我们需要确保RocketMQ的生产者能够将消息成功发送到指定的Topic,同时消费者能够接收到这些消息。通过验证,可以确认生产者发送的消息能够准确无误地到达消费者,这是消息队列最基本也是最重要的功能要求。在开发和测试阶段,通过消息发送与接收验证可以及时发现并修复可能存在的问题,避免在实际应用中出现故障。 操作步骤 1、 天翼云官网点击控制中心,选择产品分布式消息服务RocketMQ。 2、 登录分布式消息服务RocketMQ控制台,点击右上角地域选择对应资源池。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入Topic管理菜单,点击【拨测】按钮,进行生产消费的拨测验证,验证开通的消息实例和Topic。 1)生产测试拨测: 选择消息类型,默认普通消息。 填写需要产生的测试消息数量,以及每条消息的大小,默认每条消息1KB,建议不超过4MB(4096KB)。 选择已建的消息Topic,若无选项,请新增Topic,详见上文创建Topic和订阅组。 点击【测试】按钮,按照已填写规格及数量产生测试消息数据,展示消息数据的信息,包括消息ID(messageID)、发送状态、主题名(topic名)、Broker名、队列ID。 拨测功能涉及消息发送状态码,以下是RocketMQ消息发送状态码及其说明: ✧ SENDOK(发送成功):表示消息成功发送到了消息服务器。 ✧ FLUSHDISKTIMEOUT(刷新磁盘超时):表示消息已经成功发送到消息服务器,但是刷新到磁盘上超时。这可能会导致消息服务器在宕机后,尚未持久化到磁盘上的数据丢失。 ✧ FLUSHSLAVETIMEOUT(刷新从服务器超时):表示消息已经成功发送到消息服务器,但是刷新到从服务器上超时。这可能会导致主从同步不一致。 ✧ SLAVENOTAVAILABLE(从服务器不可用):表示消息已经成功发送到消息服务器,但是从服务器不可用。这可能是由于网络故障或从服务器宕机引起的。 ✧ UNKNOWNERROR(未知错误):表示发送消息时遇到了未知的错误。一般情况下建议重试发送消息。 ✧ MESSAGESIZEEXCEEDED(消息大小超过限制):表示消息的大小超过了消息服务器的限制。需要检查消息的大小是否合适。 ✧ PRODUCETHROTTLE(消息生产被限流):表示消息生产者的频率超出了消息服务器的限制。这可能是由于消息发送频率过高引起的。 ✧ SERVICENOTAVAILABLE(服务不可用):表示消息服务器不可用。这可能是由于网络故障或者消息服务器宕机引起的。 请注意,以上状态码仅适用于RocketMQ消息发送阶段,并且并不代表消息是否成功被消费者接收。同时,这些状态码也可能因版本变化而有所不同,建议查阅官方文档获取最新信息。 2)消费测试拨测: 选择消息顺序,下拉选择无序/有序,默认选项为无序。 RocketMQ是一种开源的分布式消息中间件,它支持有序消息和无序消息。 ✧ 有序消息是指消息的消费顺序与发送顺序完全一致。在某些业务场景下,消息的处理需要保证顺序性,例如订单的处理或者任务的执行。RocketMQ提供了有序消息的支持,通过指定消息的顺序属性或使用消息队列的分区机制,可以确保消息按照指定的顺序进行消费。 ✧ 无序消息则是指消息的消费顺序与发送顺序无关。无序消息的特点是高吞吐量和低延迟,适用于一些不要求严格顺序的业务场景,如日志收集等。 在RocketMQ中,有序消息和无序消息的实现方式略有不同。有序消息需要借助MessageQueue的分区机制和消费者端的顺序消息消费来实现。而无序消息则是通过消息的发送和接收的并发处理来实现的。 总的来说,RocketMQ既支持有序消息也支持无序消息,根据业务需求选择合适的消息类型来满足业务的要求。 选择消费方式,目前仅提供pull方式。值得注意的是,RocketMQ还提供了推送(push)方式的消费模式,其中消息队列服务器会主动将消息推送给消费者。但在当前仅限于pull方式的消费模式。 填写消费数量。 下拉选择选择已建的消息主题和订阅组,若无选项,请新增主题和订阅组,详见上文创建主题和订阅组。 点击【测试】按钮,按照已填写规格及数量产生消费数据,展示消息数据的信息,包括消息ID(messageID)、主题名称(topicName)、生成时间、存储时间、队列ID、消费状态。 拨测功能涉及消息消费状态码,RocketMQ消费状态码是指在消息消费过程中,对消费结果进行标识的状态码。以下是常见的RocketMQ消费状态码: ✧ CONSUMESUCCESS(消费成功):表示消息成功被消费。 ✧ RECONSUMELATER(稍后重试):表示消费失败,需要稍后再次进行消费。 ✧ CONSUMEFAILURE(消费失败):表示消息消费出现异常或失败。 ✧ SLAVENOTAVAILABLE(从节点不可用):表示消费者无法访问从节点来消费消息。 ✧ NOMATCHEDMESSAGE(无匹配的消息):表示当前没有匹配的消息需要消费。 ✧ OFFSETILLEGAL(偏移量非法):表示消费的偏移量参数不合法。 ✧ BROKERTIMEOUT(Broker超时):表示由于Broker超时导致消费失败。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        Topic管理
        拨测
      • KafkaConsumer监控
        本文主要介绍KafkaConsumer监控 介绍APM采集的KafkaConsumer监控指标的类别、名称、含义等信息。 表 KafkaConsumer监控采集参数 参数名 数据类型 应用类型 默认值 Agent支持的起始版本 Agent支持的终止版本 描述 kafka慢请求阈值 integer JAVA 800 2.1.14 超过慢请求阈值的方法提高采样率。 kafka消费方法配置 objarray JAVA 2.1.14 kafka消费方法配置。 表 KafkaConsumer监控指标说明 指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 ::::::: 主题 (topic,kafka的topic监控数据。) id id clientid和ip信息 ENUM LAST 主题 (topic,kafka的topic监控数据。) topic topic kafka的topic名称 ENUM LAST 主题 (topic,kafka的topic监控数据。) bytesConsumedRate 每秒消费字节 每秒消费字节 Byte INT AVG 主题 (topic,kafka的topic监控数据。) fetchSizeAvg 请求获取平均字节 请求获取平均字节 Byte INT AVG 主题 (topic,kafka的topic监控数据。) fetchSizeMax 请求获取最大字节 请求获取最大字节 Byte INT MAX 主题 (topic,kafka的topic监控数据。) recordsConsumedRate 每秒消费消息数 每秒消费消息数 INT AVG 主题 (topic,kafka的topic监控数据。) recordsPerRequestAvg 单次请求平均消息数 单次请求平均消息数 INT AVG 主题 (topic,kafka的topic监控数据。) seqIds Producer生成序列号 Producer生成序列号 STRING LAST 主题 (topic,kafka的topic监控数据。) recordConsumedTotal 总消费次数 总消费次数 INT SUM 主题 (topic,kafka的topic监控数据。) bytesConsumedTotal 总消费字节数 总消费字节数 INT SUM fetch (fetch,kafka的fetch监控数据) id id clientid和ip信息 ENUM LAST fetch (fetch,kafka的fetch监控数据) bytesConsumedRate 每秒消费字节 每秒消费字节 Byte INT AVG fetch (fetch,kafka的fetch监控数据) fetchLatencyAvg 请求平均时延 请求平均时延 ms INT AVG fetch (fetch,kafka的fetch监控数据) fetchLatencyMax 请求最大时延 请求最大时延 ms INT MAX fetch (fetch,kafka的fetch监控数据) fetchRate 每秒请求数 每秒请求数 INT AVG fetch (fetch,kafka的fetch监控数据) fetchSizeAvg 请求获取平均字节 请求获取平均字节 Byte INT AVG fetch (fetch,kafka的fetch监控数据) fetchSizeMax 请求获取最大字节 请求获取最大字节 Byte INT MAX fetch (fetch,kafka的fetch监控数据) recordsConsumedRate 每秒消费消息数 每秒消费消息数 INT AVG fetch (fetch,kafka的fetch监控数据) recordsLagMax 最大堆积消息数 最大堆积消息数 INT MAX fetch (fetch,kafka的fetch监控数据) recordsPerRequestAvg 单次请求平均消息数 单次请求平均消息数 INT AVG fetch (fetch,kafka的fetch监控数据) seqIds Producer生成序列号 Producer生成序列号 STRING LAST fetch (fetch,kafka的fetch监控数据) recordConsumedTotal 总消费次数 总消费次数 INT SUM fetch (fetch,kafka的fetch监控数据) bytesConsumedTotal 总消费字节数 总消费字节数 INT SUM partition (partition,kafka的partition监控数据。) id id clientid和ip信息 ENUM LAST partition (partition,kafka的partition监控数据。) partition partition kafka的partition名称 ENUM LAST partition (partition,kafka的partition监控数据。) recordsLag 堆积消息数 堆积消息数 INT LAST partition (partition,kafka的partition监控数据。) recordsLagAvg 平均堆积消息数 平均堆积消息数 INT AVG partition (partition,kafka的partition监控数据。) recordsLagMax 最大堆积消息数 最大堆积消息数 INT MAX partition (partition,kafka的partition监控数据。) seqIds Producer生成序列号 Producer生成序列号 STRING LAST kafka消费方法监控 (consumer,kafka消费方法监控。) method method 消费方法 ENUM LAST kafka消费方法监控 (consumer,kafka消费方法监控。) concurrentMax 最大并发 最大并发 INT MAX kafka消费方法监控 (consumer,kafka消费方法监控。) errorCount 错误数 错误数 INT SUM kafka消费方法监控 (consumer,kafka消费方法监控。) invokeCount 调用次数 调用次数 INT SUM kafka消费方法监控 (consumer,kafka消费方法监控。) lastError 错误信息 发生错误时产生的错误信息 STRING LAST kafka消费方法监控 (consumer,kafka消费方法监控。) maxTime 最大响应时间 采集周期内最大响应时间 INT MAX kafka消费方法监控 (consumer,kafka消费方法监控。) range1 010ms 响应时间在010ms范围调用次数 INT SUM kafka消费方法监控 (consumer,kafka消费方法监控。) range2 10100ms 响应时间在10100ms范围调用次数 INT SUM kafka消费方法监控 (consumer,kafka消费方法监控。) range3 100500ms 响应时间在100500ms范围调用次数 INT SUM kafka消费方法监控 (consumer,kafka消费方法监控。) range4 5001000ms 响应时间在5001000ms范围调用次数 INT SUM kafka消费方法监控 (consumer,kafka消费方法监控。) range5 110s 响应时间在110s范围调用次数 INT SUM kafka消费方法监控 (consumer,kafka消费方法监控。) range6 10s以上 响应时间在10s以上调用次数 INT SUM kafka消费方法监控 (consumer,kafka消费方法监控。) totalTime 总响应时间 总响应时间 INT SUM KafkaConsumer汇总(total,KafkaConsumer汇总信息统计。) recordConsumedTotal 总消费次数 总消费次数 INT SUM KafkaConsumer汇总(total,KafkaConsumer汇总信息统计。) bytesConsumedTotal 总消费字节数 总消费字节数 INT SUM KafkaConsumer汇总(total,KafkaConsumer汇总信息统计。) recordsLag 总堆积消息数 总堆积消息数 INT LAST 异常 (exception,kafka消费异常信息。) causeType 异常发生类 异常发生类 ENUM LAST 异常 (exception,kafka消费异常信息。) exceptionType 异常类 异常类 ENUM LAST 异常 (exception,kafka消费异常信息。) count 数量 异常数量 INT SUM 异常 (exception,kafka消费异常信息。) message 异常消息 异常消息 STRING LAST 异常 (exception,kafka消费异常信息。) stackTrace 异常堆栈 异常堆栈 CLOB LAST
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        消息队列
        KafkaConsumer监控
      • 错误码
        错误码 描述 Openapi.Acl.AccessFailed 资源获取失败 Openapi.Acl.CreateError 资源创建失败 Openapi.Acl.DeleteError 资源删除失败 Openapi.Acl.UpdateError 资源更新失败 Openapi.Acl.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Acl.AccessDenied 不允许的操作 Openapi.Acl.QuotaLimitExceed 超过配额限制 Openapi.SecurityGroup.AccessFailed 资源获取失败 Openapi.SecurityGroup.CreateError 资源创建失败 Openapi.SecurityGroup.DeleteError 资源删除失败 Openapi.SecurityGroup.UpdateError 资源更新失败 Openapi.SecurityGroup.DeleteCheckFailed 资源删除前置检查未通过 Openapi.SecurityGroup.AccessDenied 不允许的操作 Openapi.SecurityGroup.QuotaLimitExceed 超过配额限制 Openapi.Havip.AccessFailed 资源获取失败 Openapi.Havip.CreateError 资源创建失败 Openapi.Havip.DeleteError 资源删除失败 Openapi.Havip.UpdateError 资源更新失败 Openapi.Havip.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Havip.AccessDenied 不允许的操作 Openapi.Havip.QuotaLimitExceed 超过配额限制 Openapi.LoadBalancer.AccessFailed 资源获取失败 Openapi.LoadBalancer.CreateError 资源创建失败 Openapi.LoadBalancer.DeleteError 资源删除失败 Openapi.LoadBalancer.UpdateError 资源更新失败 Openapi.LoadBalancer.DeleteCheckFailed 资源删除前置检查未通过 Openapi.LoadBalancer.AccessDenied 不允许的操作 Openapi.LoadBalancer.QuotaLimitExceed 超过配额限制 Openapi.TargetGroup.AccessFailed 资源获取失败 Openapi.TargetGroup.CreateError 资源创建失败 Openapi.TargetGroup.DeleteError 资源删除失败 Openapi.TargetGroup.UpdateError 资源更新失败 Openapi.TargetGroup.DeleteCheckFailed 资源删除前置检查未通过 Openapi.TargetGroup.AccessDenied 不允许的操作 Openapi.TargetGroup.QuotaLimitExceed 超过配额限制 Openapi.Target.AccessFailed 资源获取失败 Openapi.Target.CreateError 资源创建失败 Openapi.Target.DeleteError 资源删除失败 Openapi.Target.UpdateError 资源更新失败 Openapi.Target.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Target.AccessDenied 不允许的操作 Openapi.Target.QuotaLimitExceed 超过配额限制 Openapi.Listener.AccessFailed 资源获取失败 Openapi.Listener.CreateError 资源创建失败 Openapi.Listener.DeleteError 资源删除失败 Openapi.Listener.UpdateError 资源更新失败 Openapi.Listener.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Listener.AccessDenied 不允许的操作 Openapi.Listener.QuotaLimitExceed 超过配额限制 Openapi.PrivateDns.AccessFailed 资源获取失败 Openapi.PrivateDns.CreateError 资源创建失败 Openapi.PrivateDns.DeleteError 资源删除失败 Openapi.PrivateDns.UpdateError 资源更新失败 Openapi.PrivateDns.DeleteCheckFailed 资源删除前置检查未通过 Openapi.PrivateDns.AccessDenied 不允许的操作 Openapi.PrivateDns.QuotaLimitExceed 超过配额限制 Openapi.Acl.AccessFailed 资源获取失败 Openapi.Acl.CreateError 资源创建失败 Openapi.Acl.DeleteError 资源删除失败 Openapi.Acl.UpdateError 资源更新失败 Openapi.Acl.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Acl.AccessDenied 不允许的操作 Openapi.Acl.QuotaLimitExceed 超过配额限制 Openapi.Ipv6.AccessFailed 资源获取失败 Openapi.Ipv6.CreateError 资源创建失败 Openapi.Ipv6.DeleteError 资源删除失败 Openapi.Ipv6.UpdateError 资源更新失败 Openapi.Ipv6.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Ipv6.AccessDenied 不允许的操作 Openapi.Ipv6.QuotaLimitExceed 超过配额限制 Openapi.Ipv6Gateway.AccessFailed 资源获取失败 Openapi.Ipv6Gateway.CreateError 资源创建失败 Openapi.Ipv6Gateway.DeleteError 资源删除失败 Openapi.Ipv6Gateway.UpdateError 资源更新失败 Openapi.Ipv6Gateway.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Ipv6Gateway.AccessDenied 不允许的操作 Openapi.Ipv6Gateway.QuotaLimitExceed 超过配额限制 Openapi.Ipv4Gateway.AccessFailed 资源获取失败 Openapi.Ipv4Gateway.CreateError 资源创建失败 Openapi.Ipv4Gateway.DeleteError 资源删除失败 Openapi.Ipv4Gateway.UpdateError 资源更新失败 Openapi.Ipv4Gateway.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Ipv4Gateway.AccessDenied 不允许的操作 Openapi.Ipv4Gateway.QuotaLimitExceed 超过配额限制 Openapi.Subnet.AccessFailed 资源获取失败 Openapi.Subnet.CreateError 资源创建失败 Openapi.Subnet.DeleteError 资源删除失败 Openapi.Subnet.UpdateError 资源更新失败 Openapi.Subnet.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Subnet.AccessDenied 不允许的操作 Openapi.Subnet.QuotaLimitExceed 超过配额限制 Openapi.Vpc.AccessFailed 资源获取失败 Openapi.Vpc.CreateError 资源创建失败 Openapi.Vpc.DeleteError 资源删除失败 Openapi.Vpc.UpdateError 资源更新失败 Openapi.Vpc.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Vpc.AccessDenied 不允许的操作 Openapi.Vpc.QuotaLimitExceed 超过配额限制 Openapi.VpcPeer.AccessFailed 资源获取失败 Openapi.VpcPeer.CreateError 资源创建失败 Openapi.VpcPeer.DeleteError 资源删除失败 Openapi.VpcPeer.UpdateError 资源更新失败 Openapi.VpcPeer.DeleteCheckFailed 资源删除前置检查未通过 Openapi.VpcPeer.AccessDenied 不允许的操作 Openapi.VpcPeer.QuotaLimitExceed 超过配额限制 Openapi.Endpoint.AccessFailed 资源获取失败 Openapi.Endpoint.CreateError 资源创建失败 Openapi.Endpoint.DeleteError 资源删除失败 Openapi.Endpoint.UpdateError 资源更新失败 Openapi.Endpoint.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Endpoint.AccessDenied 不允许的操作 Openapi.Endpoint.QuotaLimitExceed 超过配额限制 Openapi.EndpointSerivce.AccessFailed 资源获取失败 Openapi.EndpointSerivce.CreateError 资源创建失败 Openapi.EndpointSerivce.DeleteError 资源删除失败 Openapi.EndpointSerivce.UpdateError 资源更新失败 Openapi.EndpointSerivce.DeleteCheckFailed 资源删除前置检查未通过 Openapi.EndpointSerivce.AccessDenied 不允许的操作 Openapi.EndpointSerivce.QuotaLimitExceed 超过配额限制 Openapi.EndpointServiceRule.AccessFailed 资源获取失败 Openapi.EndpointServiceRule.CreateError 资源创建失败 Openapi.EndpointServiceRule.DeleteError 资源删除失败 Openapi.EndpointServiceRule.UpdateError 资源更新失败 Openapi.EndpointServiceRule.DeleteCheckFailed 资源删除前置检查未通过 Openapi.EndpointServiceRule.AccessDenied 不允许的操作 Openapi.EndpointServiceRule.QuotaLimitExceed 超过配额限制 Openapi.EndpointServiceTransitIp.AccessFailed 资源获取失败 Openapi.EndpointServiceTransitIp.CreateError 资源创建失败 Openapi.EndpointServiceTransitIp.DeleteError 资源删除失败 Openapi.EndpointServiceTransitIp.UpdateError 资源更新失败 Openapi.EndpointServiceTransitIp.DeleteCheckFailed 资源删除前置检查未通过 Openapi.EndpointServiceTransitIp.AccessDenied 不允许的操作 Openapi.EndpointServiceTransitIp.QuotaLimitExceed 超过配额限制 Openapi.EndpointWhitelist.AccessFailed 资源获取失败 Openapi.EndpointWhitelist.CreateError 资源创建失败 Openapi.EndpointWhitelist.DeleteError 资源删除失败 Openapi.EndpointWhitelist.UpdateError 资源更新失败 Openapi.EndpointWhitelist.DeleteCheckFailed 资源删除前置检查未通过 Openapi.EndpointWhitelist.AccessDenied 不允许的操作 Openapi.EndpointWhitelist.QuotaLimitExceed 超过配额限制 Openapi.EndpointServiceReverseRule.AccessFailed 资源获取失败 Openapi.EndpointServiceReverseRule.CreateError 资源创建失败 Openapi.EndpointServiceReverseRule.DeleteError 资源删除失败 Openapi.EndpointServiceReverseRule.UpdateError 资源更新失败 Openapi.EndpointServiceReverseRule.DeleteCheckFailed 资源删除前置检查未通过 Openapi.EndpointServiceReverseRule.AccessDenied 不允许的操作 Openapi.EndpointServiceReverseRule.QuotaLimitExceed 超过配额限制 Openapi.EndpointServiceWhitelist.AccessFailed 资源获取失败 Openapi.EndpointServiceWhitelist.CreateError 资源创建失败 Openapi.EndpointServiceWhitelist.DeleteError 资源删除失败 Openapi.EndpointServiceWhitelist.UpdateError 资源更新失败 Openapi.EndpointServiceWhitelist.DeleteCheckFailed 资源删除前置检查未通过 Openapi.EndpointServiceWhitelist.AccessDenied 不允许的操作 Openapi.EndpointServiceWhitelist.QuotaLimitExceed 超过配额限制 Openapi.MirrorFilter.AccessFailed 资源获取失败 Openapi.MirrorFilter.CreateError 资源创建失败 Openapi.MirrorFilter.DeleteError 资源删除失败 Openapi.MirrorFilter.UpdateError 资源更新失败 Openapi.MirrorFilter.DeleteCheckFailed 资源删除前置检查未通过 Openapi.MirrorFilter.AccessDenied 不允许的操作 Openapi.MirrorFilter.QuotaLimitExceed 超过配额限制 Openapi.FlowSession.AccessFailed 资源获取失败 Openapi.FlowSession.CreateError 资源创建失败 Openapi.FlowSession.DeleteError 资源删除失败 Openapi.FlowSession.UpdateError 资源更新失败 Openapi.FlowSession.DeleteCheckFailed 资源删除前置检查未通过 Openapi.FlowSession.AccessDenied 不允许的操作 Openapi.FlowSession.QuotaLimitExceed 超过配额限制 Openapi.SharedBandwidth.AccessFailed 资源获取失败 Openapi.SharedBandwidth.CreateError 资源创建失败 Openapi.SharedBandwidth.DeleteError 资源删除失败 Openapi.SharedBandwidth.UpdateError 资源更新失败 Openapi.SharedBandwidth.DeleteCheckFailed 资源删除前置检查未通过 Openapi.SharedBandwidth.AccessDenied 不允许的操作 Openapi.SharedBandwidth.QuotaLimitExceed 超过配额限制 Openapi.Ipv6Bandwidth.AccessFailed 资源获取失败 Openapi.Ipv6Bandwidth.CreateError 资源创建失败 Openapi.Ipv6Bandwidth.DeleteError 资源删除失败 Openapi.Ipv6Bandwidth.UpdateError 资源更新失败 Openapi.Ipv6Bandwidth.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Ipv6Bandwidth.AccessDenied 不允许的操作 Openapi.Ipv6Bandwidth.QuotaLimitExceed 超过配额限制 Openapi.RouterTableRule.AccessFailed 资源获取失败 Openapi.RouterTableRule.CreateError 资源创建失败 Openapi.RouterTableRule.DeleteError 资源删除失败 Openapi.RouterTableRule.UpdateError 资源更新失败 Openapi.RouterTableRule.DeleteCheckFailed 资源删除前置检查未通过 Openapi.RouterTableRule.AccessDenied 不允许的操作 Openapi.RouterTableRule.QuotaLimitExceed 超过配额限制 Openapi.RouterTable.AccessFailed 资源获取失败 Openapi.RouterTable.CreateError 资源创建失败 Openapi.RouterTable.DeleteError 资源删除失败 Openapi.RouterTable.UpdateError 资源更新失败 Openapi.RouterTable.DeleteCheckFailed 资源删除前置检查未通过 Openapi.RouterTable.AccessDenied 不允许的操作 Openapi.RouterTable.QuotaLimitExceed 超过配额限制 Openapi.Port.AccessFailed 资源获取失败 Openapi.Port.CreateError 资源创建失败 Openapi.Port.DeleteError 资源删除失败 Openapi.Port.UpdateError 资源更新失败 Openapi.Port.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Port.AccessDenied 不允许的操作 Openapi.Port.QuotaLimitExceed 超过配额限制 Openapi.Nat.AccessFailed 资源获取失败 Openapi.Nat.CreateError 资源创建失败 Openapi.Nat.DeleteError 资源删除失败 Openapi.Nat.UpdateError 资源更新失败 Openapi.Nat.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Nat.AccessDenied 不允许的操作 Openapi.Nat.QuotaLimitExceed 超过配额限制 Openapi.Snat.AccessFailed 资源获取失败 Openapi.Snat.CreateError 资源创建失败 Openapi.Snat.DeleteError 资源删除失败 Openapi.Snat.UpdateError 资源更新失败 Openapi.Snat.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Snat.AccessDenied 不允许的操作 Openapi.Snat.QuotaLimitExceed 超过配额限制 Openapi.Dnat.AccessFailed 资源获取失败 Openapi.Dnat.CreateError 资源创建失败 Openapi.Dnat.DeleteError 资源删除失败 Openapi.Dnat.UpdateError 资源更新失败 Openapi.Dnat.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Dnat.AccessDenied 不允许的操作 Openapi.Dnat.QuotaLimitExceed 超过配额限制 Openapi.Eip.AccessFailed 资源获取失败 Openapi.Eip.CreateError 资源创建失败 Openapi.Eip.DeleteError 资源删除失败 Openapi.Eip.UpdateError 资源更新失败 Openapi.Eip.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Eip.AccessDenied 不允许的操作 Openapi.Eip.QuotaLimitExceed 超过配额限制 Openapi.HealthCheck.AccessFailed 资源获取失败 Openapi.HealthCheck.CreateError 资源创建失败 Openapi.HealthCheck.DeleteError 资源删除失败 Openapi.HealthCheck.UpdateError 资源更新失败 Openapi.HealthCheck.DeleteCheckFailed 资源删除前置检查未通过 Openapi.HealthCheck.AccessDenied 不允许的操作 Openapi.HealthCheck.QuotaLimitExceed 超过配额限制 Openapi.AccessControl.AccessFailed 资源获取失败 Openapi.AccessControl.CreateError 资源创建失败 Openapi.AccessControl.DeleteError 资源删除失败 Openapi.AccessControl.UpdateError 资源更新失败 Openapi.AccessControl.DeleteCheckFailed 资源删除前置检查未通过 Openapi.AccessControl.AccessDenied 不允许的操作 Openapi.AccessControl.QuotaLimitExceed 超过配额限制 Openapi.ElbPolicy.AccessFailed 资源获取失败 Openapi.ElbPolicy.CreateError 资源创建失败 Openapi.ElbPolicy.DeleteError 资源删除失败 Openapi.ElbPolicy.UpdateError 资源更新失败 Openapi.ElbPolicy.DeleteCheckFailed 资源删除前置检查未通过 Openapi.ElbPolicy.AccessDenied 不允许的操作 Openapi.ElbPolicy.QuotaLimitExceed 超过配额限制 Openapi.Sla.AccessFailed 资源获取失败 Openapi.Sla.CreateError 资源创建失败 Openapi.Sla.DeleteError 资源删除失败 Openapi.Sla.UpdateError 资源更新失败 Openapi.Sla.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Sla.AccessDenied 不允许的操作 Openapi.Sla.QuotaLimitExceed 超过配额限制 Openapi.Certificate.AccessFailed 资源获取失败 Openapi.Certificate.CreateError 资源创建失败 Openapi.Certificate.DeleteError 资源删除失败 Openapi.Certificate.UpdateError 资源更新失败 Openapi.Certificate.DeleteCheckFailed 资源删除前置检查未通过 Openapi.Certificate.AccessDenied 不允许的操作 Openapi.Certificate.QuotaLimitExceed 超过配额限制 Openapi.Subnet.DisassociateAclFailed 子网解绑 ACL 失败 Openapi.EndpointService.AcceptApplyFailed 通过终端节点的连接申请失败 Openapi.EndpointService.RejectApplyFailed 拒绝终端节点的连接申请失败 Openapi.Igw4.AddRouteTableFailed igw4 添加路由表失败 Openapi.Igw4.RemoveRouteTableFailed igw4 移除路由表失败 Openapi.SecurityGroup.BindInstanceFailed 安全组绑定实例失败 Openapi.SecurityGroup.UnBindInstanceFailed 安全组解绑实例失败 Openapi.Port.NotAttached 网卡未绑定资源 Openapi.Port.RepeatAttached 网卡不能重复绑定 Openapi.Port.AttachFailed 网卡绑定失败 Openapi.Port.DetachFailed 网卡解绑失败 Openapi.Port.AssignPrivateIpFailed 网卡分配辅助私网 IP 失败 Openapi.Port.UnAssignPrivateIpFailed 网卡移除辅助私网 IP 失败 Openapi.Port.AssignIpv6Failed 网卡分配辅助私网 IPv6 失败 Openapi.Port.UnAssignIpv6Failed 网卡移除辅助私网 IPv6 失败 Openapi.Havip.BindFailed 高可用虚 IP 绑定失败 Openapi.Havip.UnBindFailed 高可用虚 IP 解绑失败 Openapi.PrivateZone.BindVpcFailed 内网 dns 绑定 vpc 失败 Openapi.PrivateZone.UnBindVpcFailed 内网 dns 解绑 vpc 失败 Openapi.Ecs.Expired 主机已过期 Openapi.Bm.Expired 主机已过期 Openapi.VpcPeer.RejectFailed 拒绝创建对等链接失败 Openapi.VpcPeer.AgreeFailed 同意创建对等链接失败 Openapi.LoadBalancer.BindFailed 弹性负载均衡绑定弹性 IP 失败 Openapi.LoadBalancer.UnBindFailed 弹性负载均衡解绑弹性 IP 失败 Openapi.Eip.BindFailed 弹性 IP 绑定资源失败 Openapi.Eip.UnBindFailed 弹性 IP 解绑资源失败 Openapi.Parameter.Error 参数错误 Openapi.Subnet.ReplaceAclFailed 子网替换 ACL 失败 Openapi.Subnet.DisassociateAclFailed 子网解绑 ACL 失败 Openapi.Subnet.HasNoIPs 子网 IP 已被用尽 Openapi.Ecs.HasNoNetwork 弹性云主机未配置网络 Openapi.Ak.NotFound ak 不存在 Openapi.Signature.VerifyFailed 签名鉴权失败 Openapi.Implement.Error 实现错误 Openapi.RequestParse.EopInvalidRejection 请求来源非法 Openapi.RequestParse.JsonExpected 请求格式非法 Openapi.Region.AccessFailed 获取 region 信息失败
        来自:
        帮助文档
        共享带宽 SBW
        API参考
        调用前必知
        错误码
      • 链路追踪
        概述 服务网格支持使用opentelmetry方式接入应用性能监控链路追踪能力,本章节介绍如何开启和使用链路追踪。 开启条件 需要开通APM应用性能监控,可参考开通应用性能监控应用性能监控快速入门 天翼云 (ctyun.cn) 需要在网格实例所属VPC下开通APM相关的终端节点(VPCE) 开启方式 登录服务网格控制台,网格实例 > 网格配置 > 自定义配置 > 启用链路追踪 开启即可。 开启时,您需要设置采样里,取值1100。 如果您还未开通应用性能监控服务及链路追踪数据上报需要的VPCE等资源,您可以授权服务网格组件一键开通相关资源。 链路追踪接入示例 概述 本节展示服务网格接入链路追踪的操作流程及效果,首先确认已经开启了链路追踪功能开关并将采样率配置为100%。演示架构如下图所示 其中ELB和Ingress Gateway作为接入层,业务层包括app1、app2、app3三个服务(分别都注入了网格sidecar),业务代码中也通过opentelemetry方式接入了链路追踪,触发数据面访问后,预期会上报链路数据到APM,完整覆盖网格数据面和应用。 部署测试程序 创建demo命名空间并配置好相关注入标签,保证sidecar注入;部署应用及服务,如下 注意 1. 本示例使用的镜像地址是华南2资源池,如果您在其他资源池体验,请替换镜像地址 2. 本示例采用go语言+opentelemetry方式接入链路追踪,您可以参考应用性能监控go语言接入链路追踪的文档将Deployment中的token和endpoint环境变量替换成您看到的值 html apiVersion: apps/v1 kind: Deployment metadata: name: app1base namespace: demo labels: app: app1 csmtraffictag: base spec: replicas: 1 selector: matchLabels: app: app1 name: app1 csmtraffictag: base template: metadata: labels: sidecar.istio.io/inject: "true" app: app1 name: app1 source: CCSE csmtraffictag: base spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: base name: app value: app1 name: upstreamurl value: " ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app2base namespace: demo labels: app: app2 csmtraffictag: base spec: replicas: 1 selector: matchLabels: app: app2 name: app2 csmtraffictag: base template: metadata: labels: sidecar.istio.io/inject: "true" app: app2 name: app2 source: CCSE csmtraffictag: base spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: base name: app value: app2 name: upstreamurl value: " ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app3base namespace: demo labels: app: app3 csmtraffictag: base spec: replicas: 1 selector: matchLabels: app: app3 name: app3 csmtraffictag: base template: metadata: labels: sidecar.istio.io/inject: "true" app: app3 name: app3 source: CCSE csmtraffictag: base spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: base name: app value: app3 ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app1test namespace: demo labels: app: app1 csmtraffictag: test spec: replicas: 1 selector: matchLabels: app: app1 name: app1 csmtraffictag: test template: metadata: labels: sidecar.istio.io/inject: "true" app: app1 name: app1 source: CCSE csmtraffictag: test spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: test name: app value: app1 name: upstreamurl value: " ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app2test namespace: demo labels: app: app2 csmtraffictag: test spec: replicas: 1 selector: matchLabels: app: app2 name: app2 csmtraffictag: test template: metadata: labels: sidecar.istio.io/inject: "true" app: app2 name: app2 source: CCSE csmtraffictag: test spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: test name: app value: app2 name: upstreamurl value: " ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app3test namespace: demo labels: app: app3 csmtraffictag: test spec: replicas: 1 selector: matchLabels: app: app3 name: app3 csmtraffictag: test template: metadata: labels: sidecar.istio.io/inject: "true" app: app3 name: app3 source: CCSE csmtraffictag: test spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: test name: app value: app3 ports: containerPort: 8000 apiVersion: v1 kind: Service metadata: name: app1 labels: app: app1 service: app1 spec: ports: port: 8000 name: http selector: app: app1 apiVersion: v1 kind: Service metadata: name: app2 labels: app: app2 service: app2 spec: ports: port: 8000 name: http selector: app: app2 apiVersion: v1 kind: Service metadata: name: app3 labels: app: app3 service: app3 spec: ports: port: 8000 name: http selector: app: app3
        来自:
        帮助文档
        应用服务网格
        用户指南
        可观测管理中心
        链路追踪
      • 步骤五:配置对端网关设备
        本文向您介绍通过企业版VPN实现数据中心和VPC互通第五步:配置对端网关设备。 操作步骤 说明 本示例对端网关以华为AR路由器为例。 1. 登录AR路由器配置界面。 2. 进入系统视图。 shell systemview 3. 配置公网接口的IP地址。本示例假设AR路由器GigabitEthernet 0/0/8为公网接口。 shell [AR651]interface GigabitEthernet 0/0/8 [AR651GigabitEthernet0/0/8]ip address 22.xx.xx.22 255.255.255.0 [AR651GigabitEthernet0/0/8]quit 4. 配置默认路由。 shell [AR651]ip routestatic 0.0.0.0 0.0.0.0 22.xx.xx.1 其中,22.xx.xx.1为AR路由器公网IP的网关地址,请根据实际替换。 5. 开启SHA2算法兼容RFC标准算法功能。 shell [AR651]IPsec authentication sha2 compatible enable 6. 配置IPsec安全提议。 shell [AR651]IPsec proposal hwproposal1 [AR651IPsecproposalhwproposal1]esp authenticationalgorithm sha2256 [AR651IPsecproposalhwproposal1]esp encryptionalgorithm aes128 [AR651IPsecproposalhwproposal1]quit 7. 配置IKE安全提议。 shell [AR651]ike proposal 2 [AR651ikeproposal2]encryptionalgorithm aes128 [AR651ikeproposal2]dh group14 [AR651ikeproposal2]authenticationalgorithm sha2256 [AR651ikeproposal2]authenticationmethod preshare [AR651ikeproposal2]integrityalgorithm hmacsha2256 [AR651ikeproposal2]prf hmacsha2256 [AR651ikeproposal2]quit 8. 配置IKE对等体。 shell [AR651]ike peer hwpeer1 [AR651ikepeerhwpeer1]undo version 1 [AR651ikepeerhwpeer1]presharedkey cipher Test@123 [AR651ikepeerhwpeer1]ikeproposal 2 [AR651ikepeerhwpeer1]localaddress 22.xx.xx.22 [AR651ikepeerhwpeer1]remoteaddress 11.xx.xx.11 [AR651ikepeerhwpeer1]rsa encryptionpadding oaep [AR651ikepeerhwpeer1]rsa signaturepadding pss [AR651ikepeerhwpeer1]ikev2 authentication signhash sha2256 [AR651ikepeerhwpeer1]quit [AR651]ike peer hwpeer2 [AR651ikepeerhwpeer2]undo version 1 [AR651ikepeerhwpeer2]presharedkey cipher Test@123 [AR651ikepeerhwpeer2]ikeproposal 2 [AR651ikepeerhwpeer2]localaddress 22.xx.xx.22 [AR651ikepeerhwpeer2]remoteaddress 11.xx.xx.12 [AR651ikepeerhwpeer2]rsa encryptionpadding oaep [AR651ikepeerhwpeer2]rsa signaturepadding pss [AR651ikepeerhwpeer2]ikev2 authentication signhash sha2256 [AR651ikepeerhwpeer2]quit 相关命令说明如下: presharedkey cipher:预共享密钥,需要和VPN连接配置的预共享密钥保持一致。 localaddress:AR路由器的公网地址。 remoteaddress:VPN网关的主EIP/主EIP2。 9. 配置IPsec安全框架。 shell [AR651]IPsec profile hwpro1 [AR651IPsecprofilehwpro1]ikepeer hwpeer1 [AR651IPsecprofilehwpro1]proposal hwproposal1 [AR651IPsecprofilehwpro1]pfs dhgroup14 [AR651IPsecprofilehwpro1]quit [AR651]IPsec profile hwpro2 [AR651IPsecprofilehwpro2]ikepeer hwpeer2 [AR651IPsecprofilehwpro2]proposal hwproposal1 [AR651IPsecprofilehwpro2]pfs dhgroup14 [AR651IPsecprofilehwpro2]quit 10. 配置虚拟隧道接口。 shell [AR651]interface Tunnel0/0/1 [AR651Tunnel0/0/1]mtu 1400 [AR651Tunnel0/0/1]ip address 169.254.70.1 255.255.255.252 [AR651Tunnel0/0/1]tunnelprotocol IPsec [AR651Tunnel0/0/1]source 22.xx.xx.22 [AR651Tunnel0/0/1]destination 11.xx.xx.11 [AR651Tunnel0/0/1]IPsec profile hwpro1 [AR651Tunnel0/0/1]quit [AR651]interface Tunnel0/0/2 [AR651Tunnel0/0/2]mtu 1400 [AR651Tunnel0/0/2]ip address 169.254.71.1 255.255.255.252 [AR651Tunnel0/0/2]tunnelprotocol IPsec [AR651Tunnel0/0/2]source 22.xx.xx.22 [AR651Tunnel0/0/2]destination 11.xx.xx.12 [AR651Tunnel0/0/2]IPsec profile hwpro2 [AR651Tunnel0/0/2]quit 相关命令说明如下: interface Tunnel0/0/1、interface Tunnel0/0/2:两条VPN连接对应的Tunnel隧道。 本示例中,Tunnel0/0/1对应VPN网关主EIP所在的VPN连接;Tunnel0/0/2对应VPN网关主EIP2所在的VPN连接。 ip address:AR路由器的Tunnel接口地址。 source:AR路由器的公网地址。 destination:VPN网关的主EIP/主EIP2。 11. 配置NQA。 shell [AR651]nqa testinstance IPsecnqa1 IPsecnqa1 [AR651nqaIPsecnqa1IPsecnqa1]testtype icmp [AR651nqaIPsecnqa1IPsecnqa1]destinationaddress ipv4 169.254.70.2 [AR651nqaIPsecnqa1IPsecnqa1]sourceaddress ipv4 169.254.70.1 [AR651nqaIPsecnqa1IPsecnqa1]frequency 15 [AR651nqaIPsecnqa1IPsecnqa1]ttl 255 [AR651nqaIPsecnqa1IPsecnqa1]start now [AR651nqaIPsecnqa1IPsecnqa1]quit [AR651]nqa testinstance IPsecnqa2 IPsecnqa2 [AR651nqaIPsecnqa2IPsecnqa2]testtype icmp [AR651nqaIPsecnqa2IPsecnqa2]destinationaddress ipv4 169.254.71.2 [AR651nqaIPsecnqa2IPsecnqa2]sourceaddress ipv4 169.254.71.1 [AR651nqaIPsecnqa2IPsecnqa2]frequency 15 [AR651nqaIPsecnqa2IPsecnqa2]ttl 255 [AR651nqaIPsecnqa2IPsecnqa2]start now [AR651nqaIPsecnqa2IPsecnqa2]quit 相关命令说明如下: nqa testinstance IPsecnqa1 IPsecnqa1、nqa testinstance IPsecnqa2 IPsecnqa2:NQA名称。 本示例中,IPsecnqa1对应VPN网关主EIP所在的VPN连接;IPsecnqa2对应VPN网关主EIP2所在的VPN连接。 destinationaddress:VPN网关的Tunnel接口地址。 sourceaddress:AR路由器的Tunnel接口地址。 12. 配置静态路由联动NQA功能。 shell [AR651]ip routestatic 192.168.0.0 255.255.255.0 Tunnel0/0/1 track nqa IPsecnqa1 IPsecnqa1 [AR651]ip routestatic 192.168.0.0 255.255.255.0 Tunnel0/0/2 track nqa IPsecnqa2 IPsecnqa2 相关参数说明如下: 192.168.0.0:VPC的本端子网。 同一条命令中,Tunnelx 和IPsecnqax需要同属于一条VPN连接。
        来自:
        帮助文档
        VPN连接
        快速入门
        通过企业版VPN实现数据中心和VPC互通
        步骤五:配置对端网关设备
      • Windows任务配置
        本节为您介绍云迁移服务CMS服务器迁移中Windows迁移任务相关配置。 迁移盘符 您可以在此设置所需“迁移盘符”及“目的盘符”。 说明 Windows迁移任务,盘符配置必须对C盘进行配置。当有多物理盘符时,目标机重新启动后要于磁盘管理中进行脱机磁盘联机,手动调整驱动号与源机保持一致。 自定义分区 1. 在“配置迁移任务”界面,单击“重置目标分区”进行分区。 2. 若磁盘分区类型是MBR,则要选择主分区的分区类型,分区类型为主分区则输入主分区大小和驱动器号。 说明 系统盘符要勾选系统分区选项,后续其余盘符请勿重复勾选系统盘符选项。 3. 完成配置后,单击“确认分区”。 说明 指定了系统分区才可以对目标机分区,如果驱动器号或者分区大小不合规,则无法执行分区操作。 开始迁移 1. 单击“开始迁移”,执行迁移任务。 2. 在开始迁移确认提示框单击“确定”。 3. 系统进入迁移任务配置中的状态。 4. 稍等片刻出现任务追踪面板,即可在此观察迁移任务进度。
        来自:
        帮助文档
        云迁移服务CMS
        快速入门
        服务器迁移服务模块
        迁移任务配置与开始全量迁移
        Windows任务配置
      • 监听器
        本文汇总了使用弹性负载均衡产品时常见的监听器相关的常见问题。 监听器中分配算法和会话保持算法是什么关系? 分配算法用于决定负载均衡器如何将请求分配给后端实例。它是负载均衡器的核心算法,其目标是平衡负载并确保请求能够有效地分发到可用的后端实例。常见的分配算法包括轮询算法、最小连接算法、源IP算法等。 会话保持算法是一种特殊的分配算法。它的目标是确保来自同一客户端的请求始终被分发到同一个后端实例,以维持会话的连续性。会话保持算法基于客户端的某些标识符来决定请求的目标后端实例。这样,即使客户端发出多个请求,它们也会被分发到相同的后端实例,以保持会话状态。天翼云弹性负载均衡支持的分配算法和会话保持算法如下: 分配算法 会话保持类型 TCP/UDP HTTP/HTTPS :::: 轮询算法 SOURCEIP 支持 不支持 区域资源池为集群模式资源池,主备、集群模式资源池列表见产品简介>产品类型和规格>按资源池区分, 实际情况以控制台展现为准。 轮询算法 植入 cookie 不支持 支持 区域资源池为集群模式资源池,主备、集群模式资源池列表见产品简介>产品类型和规格>按资源池区分, 实际情况以控制台展现为准。 轮询算法 重写 cookie 不支持 支持 区域资源池为集群模式资源池,主备、集群模式资源池列表见产品简介>产品类型和规格>按资源池区分, 实际情况以控制台展现为准。 最小连接算法 SOURCEIP 支持 不支持 区域资源池为集群模式资源池,主备、集群模式资源池列表见产品简介>产品类型和规格>按资源池区分, 实际情况以控制台展现为准。 最小连接算法 植入 cookie 不支持 不支持 区域资源池为集群模式资源池,主备、集群模式资源池列表见产品简介>产品类型和规格>按资源池区分, 实际情况以控制台展现为准。 最小连接算法 重写 cookie 不支持 不支持 区域资源池为集群模式资源池,主备、集群模式资源池列表见产品简介>产品类型和规格>按资源池区分, 实际情况以控制台展现为准。 源IP算法 SOURCEIP 不支持 不支持 区域资源池为集群模式资源池,主备、集群模式资源池列表见产品简介>产品类型和规格>按资源池区分, 实际情况以控制台展现为准。 源IP算法 植入 cookie 不支持 不支持 区域资源池为集群模式资源池,主备、集群模式资源池列表见产品简介>产品类型和规格>按资源池区分, 实际情况以控制台展现为准。 源IP算法 重写 cookie 不支持 不支持 区域资源池为集群模式资源池,主备、集群模式资源池列表见产品简介>产品类型和规格>按资源池区分, 实际情况以控制台展现为准。 分配算法 会话保持类型 TCP/UDP HTTP/HTTPS :::: 轮询算法 SOURCEIP 支持 支持 区域资源池为主备模式资源池,主备、集群模式资源池列表见产品简介>产品类型和规格>按资源池区分, 实际情况以控制台展现为准。 轮询算法 HTTPCOOKIE 不支持 支持 区域资源池为主备模式资源池,主备、集群模式资源池列表见产品简介>产品类型和规格>按资源池区分, 实际情况以控制台展现为准。 轮询算法 APPCOOKIE 不支持 支持 区域资源池为主备模式资源池,主备、集群模式资源池列表见产品简介>产品类型和规格>按资源池区分, 实际情况以控制台展现为准。 最小连接算法 SOURCEIP 支持 支持 区域资源池为主备模式资源池,主备、集群模式资源池列表见产品简介>产品类型和规格>按资源池区分, 实际情况以控制台展现为准。 最小连接算法 HTTPCOOKIE 不支持 支持 区域资源池为主备模式资源池,主备、集群模式资源池列表见产品简介>产品类型和规格>按资源池区分, 实际情况以控制台展现为准。 最小连接算法 APPCOOKIE 不支持 支持 区域资源池为主备模式资源池,主备、集群模式资源池列表见产品简介>产品类型和规格>按资源池区分, 实际情况以控制台展现为准。 源IP算法 SOURCEIP 不支持 不支持 区域资源池为主备模式资源池,主备、集群模式资源池列表见产品简介>产品类型和规格>按资源池区分, 实际情况以控制台展现为准。 源IP算法 HTTPCOOKIE 不支持 支持 区域资源池为主备模式资源池,主备、集群模式资源池列表见产品简介>产品类型和规格>按资源池区分, 实际情况以控制台展现为准。 源IP算法 APPCOOKIE 不支持 支持 区域资源池为主备模式资源池,主备、集群模式资源池列表见产品简介>产品类型和规格>按资源池区分, 实际情况以控制台展现为准。
        来自:
        帮助文档
        弹性负载均衡 ELB
        常见问题
        监听器
      • 添加HTTP监听器
        本文主要介绍如何添加HTTP监听器 HTTP协议适用于需要对数据内容进行识别的应用,如Web应用、小的手机游戏等。您可以添加一个HTTP监听器转发来自HTTP协议的请求。 说明 前端协议为“HTTP”时,后端协议默认为“HTTP”,且不支持修改。 如果您的独享型负载均衡实例类型为网络型(TCP/UDP),则无法创建HTTP监听器。 添加独享型负载均衡HTTP监听器 1. 登录管理控制台。 2. 在管理控制台左上角选择区域和项目。 3. 选择“服务列表 > 网络 > 弹性负载均衡”。 4. 在“负载均衡器”界面,单击需要添加监听器的负载均衡名称。 5. 切换到“监听器”页签,单击“添加监听器”,配置监听器。 独享型负载均衡配置监听器参数说明表 参数 说明 示例 ::: 名称 监听器名称。 listenerpnqy 前端协议/端口 负载分发的协议和端口。 协议选择HTTP,端口取值范围[165535]。 HTTP/80 重定向 重定向开关是否开启。 协议类型为HTTP时,可根据需要设置该项。需要保证业务建立安全连接时,若同时创建了HTTPS监听器和HTTP监听器,可以通过重定向功能,将HTTP监听器访问重定向至HTTPS监听器。 HTTP监听器被重定向后,会返回301返回码。 重定向至 选择需要重定向HTTPS监听器的名称。 listener9ecd(HTTPS/443) 高级配置 访问策略 支持通过白名单和黑名单进行访问控制: 允许所有IP访问 黑名单 白名单 黑名单 IP地址组 设置白名单或者黑名单时,必须选择一个IP地址组。如果还未创建IP地址组,需要先创建IP地址组。 ipGroupb2 空闲超时时间(秒) 如果在超时时间内一直没有访问请求,负载均衡会中断当前连接,直到下一次请求到来时再重新建立新的连接。 时间取值范围[04000]。 60 请求超时时间(秒) 客户端向负载均衡发起请求,如果在超时时间内客户端没有完成整个请求的传输,负载均衡将放弃等待关闭连接。 时间取值范围[1300]。 60 响应超时时间(秒) 负载均衡向后端云主机发起请求,如果超时时间内接收请求的后端云主机无响应,负载均衡会向其他后端云主机重试请求。如果重试期间后端云主机一直没有响应,则负载均衡会给客户端返回HTTP 504错误码。 时间取值范围[1300]。 说明: 当开启了会话保持功能时,响应超时时间内如果对应的后端云主机无响应,则直接会返回HTTP 504错误码。 60 描述 对于监听器描述。 字数范围:0/255。 标签 可通过配置该项使用标签功能。标签的“键”和“值”是一一对应的,其中“键”值是唯一的。 6. 单击“下一步”,配置后端主机组及配置健康检查。 独享型负载均衡配置后端主机组参数说明表 参数 说明 示例 后端主机组 把具有相同特性的后端云主机放在一个组。说明:使用已有后端主机组时,请确保此后端主机组未被使用。 并且只能选择前端协议匹配的后端主机组。例如前端协议是TCP时,后端协议只能是TCP。 新创建 名称 后端主机组名称。 servergroupsq4v 后端协议 云云主机开通的协议。前端协议为HTTP时,后端协议默认为HTTP,不支持修改。 HTTP 分配策略类型 负载均衡采用的算法。说明:用户可以根据自身需求选择相应的算法来分配用户访问流量,提升负载均衡能力。 对于加权轮询算法和加权最少连接,当云主机的权重为“0”时,将不会被分发访问请求。 加权轮询算法 会话保持 开启会话保持后,弹性负载均衡将属于同一个会话的请求都转发到同一个云主机进行处理。 说明:当分配策略类型为“加权轮询算法”或"加权最少连接”时,可配置会话保持。 会话保持类型 前端协议为HTTP或HTTPS时,支持负载均衡器cookie类型的会话保持。 负载均衡器cookie 会话保持时间(分钟) 当分配策略类型选择“加权轮询算法”或“加权最少连接”,会话保持开启后,需添加会话保持时间。 四层会话保持的会话保持时间取值范围为[1,60]。七层会话保持的会话保持时间取值范围为[1,1440]。 20 慢启动 慢启动默认关闭。当开启慢启动时,负载均衡器向该模式下的后端云主机线性增加请求分配权重, 当配置的慢启动持续时间期限结束后,负载均衡器向后端云主机发送完整的请求比例,此后本次添加的后端云主机退出慢启动模式。 慢启动时间(秒) 配置慢启动的时间。取值范围为30~1200,默认为30秒。 30 描述 后端主机组的描述。字数范围:0/255。 7. 配置健康检查参数。 独享型负载均衡配置健康检查参数说明表 参数 说明 示例 ::: 是否开启 开启或者关闭健康检查。 协议 健康检查支持HTTP、TCP、HTTPS协议,设置后不可修改。 HTTP 域名 健康检查的请求域名。 默认值为空,由数字、字母、‘’、‘.’组成的字符串,只能以数字或字符开头。 只有健康检查协议为HTTP时,需要设置。 www.elb.com 高级配置 检查间隔(秒) 每次健康检查响应的最大间隔时间。 取值范围[150]。 5 超时时间(秒) 每次健康检查响应的最大超时时间。取值范围[150]。 3 检查路径 指定健康检查的URL地址。当“协议”为HTTP时生效。检查路径只能以/开头,长度范围[180]。 支持使用英文字母、数字和‘’、‘/’、‘.’、‘%’、‘&’以及特殊字符~';@$+,!:()。 例如: 访问链接为: 访问链接为: /index.html 最大重试次数 健康检查最大的重试次数,取值范围[110]。 3 8. 单击“完成”。
        来自:
        帮助文档
        弹性负载均衡 ELB
        用户指南
        监听器
        添加HTTP监听器
      • 从ClickHouse 自建集群迁移数据(方案二)
        迁移方案概述 迁移方案是通过源集群的zookeeper 做副本数据同步,架构如下: 前提条件: 要求源、目标集群在同一个网络,源、目标集群的分片数是相同的,另外建议源、目标集群的ck内核版本也一致,避免不同版本使用到的zstd 版本不一致导致merge出错 迁移条件 & 情况: 目标集群必须跟源集群具备相同的分片数,目标集群跟源集群网络相通; 只支持依赖zk的副本表; partitiong同步过程,源集群可正常读写,迁移过程源集群能正常读,但是不能写; 数据同步和迁移过程,不会删除源集群的数据; 数据同步过程源集群下的数据(本地数据 + cos数据)都会同步到目标集群下,因此目标集群下的容量要足够。 迁移步骤: 整体的迁移环节可概括为:创建临时表 (开始同步数据)和正式表 》修改临时表引擎为 MergeTree — 》从临时表把数据转移到正式表 》删除临时表 具体步骤如下: 1、在目标集群的各个分片选择一个节点,加入到tmpcluster里头去(metrika.xml文件中新增tmpcluster),修改目标集群的config.xml文件,把源集群的zk信息配置进来,如果有多个,那分别加入 ip1 2181 ip2 2181 ip3 2181 60000 30000 2、在目标集群上创建临时的副本表,绑定源集群的zk,以ReplicatedMergeTree为例子: CREATE TABLE tablenametmp on cluster tmpcluster ( ... ) ENGINE ReplicatedMergeTree('zookeeper2:path', '{replica}') ... 备注说明: 创建的临时副本表使用临时表名,在正式表后面加tmp。 创建的临时副本表使用的ZooKeeper路径和源端搬迁表的ZooKeeper路径需保持一致。 创建的临时副本表的表结构需和源端搬迁表保持一致。 3、创建完临时副本表之后,集群会自动通过源zk做part同步到目标集群的副本。期间不用做任何处理,可以准备下一步骤工作 (这个过程不要对临时表做任何数据分区操作,因为操作临时表分区就等于操作源集群对应正式表) 4、在目标集群创建正式名字的 副本表,采用默认zookeeper(可直接通过on cluster defaultcluster去创建) 5、同步完成之后,检查源集群和目标集群,各个表数据分布情况,数据准确性校验(查询part数,以及count总数是否匹配,校验数据准确性时最好做到源集群停写) 6、检查无误之后,在目标集群metadata 目录下,修改所有临时表的sql,把Engine均改成MergeTree (这步是为了迁移过程影响到源集群,保证源集群的数据可读),修改完后重启集群 —— 有现成脚本 7、执行DETACH 命令对临时表中的每个partition DETACH,然后登入目标集群,把临时表下detached目录的所有part mv 到对应的目标表的detached 目录下 —— 如果分区多,可用脚本完成,有现成脚本 例如:default 下lineorder表,可以执行 mv /data/clickhouse/clickhouseserver/data/default/lineordertmp/ detached/ /data/clickhouse/clickhouseserver/data/default/lineorder/detached/ 例如:default 下lineordertmp临时表,分区有'1992','1993','1994','1995','1996' 第一步:在studio上执行(也可以通过脚本去完成): ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1992'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1993'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1994'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1995'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1996'; 第二步:登入到目标集群在各个节点上,执行: mv /data/clickhouse/clickhouseserver/data/default/lineordertmp/detached/ /data/clickhouse/clickhouseserver/data/default/lineorder/detached/ 8、执行attach 命令,把目标表下detached的part加载到表内 —— 如果分区多,可用脚本完成,有现成脚本(可找作者提供) 例如:default 下lineorder表,可以执行 alter table default.lineorder attach partition 'partitionname'; 依次把所有的partition 加载到正式表 9、所有的表迁移完成之后,删除临时表,再删除config.xml文件中的 auxiliaryzookeepers配置; 说明: 数据副本同步过程因为某种原因导致副本服务中断(可能是网络、bug、人为手工停止),再次重启后支持断点续传,不会影响源数据同步传输。 操作过程会涉及到多个partition的 DETACH和 attach命令,同时还需要登入到目标节点执行mv 操作,为了简化工作提高效率,减少过多人为操作而导致的失误,建议 通过批量工具(天翼云ClickHouse提供) + 脚本方式执行(找作者提供) 批量工具:批量分发文件到目标集群各个节点,批量在目标集群各个节点执行命令脚本等 参考脚本:查询一个表下的所有partition 列表,然后执行 DETACH命令, mv 命令 和最后的 attach命令 注意: 在添加临时表之后,源集群表的part就会自动通过zk做part复制,因为数据量很大,建议分批创建临时副本表,以免对源zk造成负载过高,从而影响业务 在临时表数据同步的过程中,一定不要对临时表做任何数据或是分区操作,操作临时表就等于操作源集群对应的正式表 在临时表数据同步过程,不能有ddl变化 方案优点:可支持对巨量副本表(几百个以上)的数据迁移,数据同步过程通过zk 做到后台自动同步,无需干预;同时支持对cos 数据的迁移; 不足:只能迁移ReplicatedMergeTree 引擎表,其它表不支持这种方案。
        来自:
        帮助文档
        云数据库ClickHouse
        ClickHouse数据迁移
        从ClickHouse 自建集群迁移数据(方案二)
      • 备份与恢复索引
        前提条件 登录云搜索服务管理控制台的账号或IAM用户必须同时具备如下权限才能使用创建或恢复快照功能。 “全局服务”中“对象存储服务”项目的“OBS Administrator”权限。 当前所属区域的“Elasticsearch Administrator”权限。 管理自动创建快照 1.在云搜索服务管理控制台,单击左侧导航栏的“集群管理”。 2.在“集群管理”页面,单击需要进行备份的集群名称,进入集群信息页面。在集群信息页面,单击“集群快照”页签。 或者,在“集群管理”页面,单击对应集群“操作”列的“更多>备份与恢复”,进入“集群快照”管理页面。 3.在“集群快照”管理页面,在“集群快照开关”右侧单击开关,打开集群快照功能。 表示关闭集群快照功能,表示打开集群快照功能。 4.(可选)打开集群快照功能后,配置OBS桶和IAM委托路径。 在基础配置弹出框中,您可以在下拉框中选择您账户下已有的OBS桶和IAM委托,或者通过“创建桶”和“创建委托”链接重新创建。 参数说明 参数 说明 注意事项 “OBS桶” 快照存储的OBS桶的名称。 创建或者已存在的OBS桶需满足如下条件: “存储类别”为“标准存储”。 创建桶时不能开启加密功能,加密桶不可用。 “区域”须与创建的集群所在区域相同。 “备份路径” 快照在OBS桶中的存放路径。 备份路径配置规则: 备份路径不能包括下列符号::?"<>l。 备份路径不能以“/”开头。 备份路径不能以“.”开头或结尾。 备份路径的总长度不能超过1023个字符。 “IAM委托” 指当前账户授权云搜索服务访问或维护存储在OBS中数据。 创建或者已存在的IAM需满足如下条件: “委托类型”选择“云服务”。 “云服务”选择“Elasticsearch”。 设置当前委托具备“全局服务”中“对象存储服务”项目的“OBS Administrator”权限。 说明 如果是子账户,需要同时设置GetBucketStoragePolicy、GetBucketLocation、ListBucket权限,才能看到OBS桶。 详见下图:修改基础配置 5.在“自动创建快照”右侧,单击开关开启自动创建快照功能。 表示打开自动创建快照功能,表示关闭自动创建快照功能。 6.在“创建快照策略”页面进行策略设置。 “快照名称前缀”:快照名称由快照名称前缀加上时间组成,例如自动生成的快照名称snapshot2018022405925。快照名称前缀的长度为1~31个字符,只能包含小写字母、数字、中划线和下划线,且必须以字母开头。 “时区”:指备份时间对应的时区。请基于此时区选择“备份开始时间”。 “备份开始时间”:指每天自动开始备份的时间,只能指定整点时间,如00:00、01:00,取值范围为00:00~23:00。请在下拉框中选择备份时间。 “保留时间(天)”:指备份的快照在OBS的保留时间,以天为单位,取值范围为1~90,您可以根据自己的需求进行设置。系统在半点时刻会自动删除超过保留时间的快照,例如:创建快照的策略设置如下图所示,则系统会在35天后的00:30自动删除35天前00:00自动开始备份的快照。 详见下图:自动创建快照 7.设置完成后,单击“保存”。 自动创建策略配置完成后,策略信息将直接呈现在集群快照页面,如下图所示。当业务发生变更,需要修改策略时,您可以单击进行重新设置。 按照策略自动创建的快照将呈现在快照管理列表中。快照列表同时展示自动创建和手动创建的快照,您可以通过快照类型参数进行区分。在快照列表右上角,您可以输入快照名称或快照ID的关键字进行查找。您还可以通过快照列表表头的按钮根据不同参数进行排序,以便进行快速查找。 详见下图:自动创建快照策略 8.(可选)关闭自动创建快照功能。 关闭自动创建快照功能后,系统将停止继续自动创建快照。如果系统正在根据策略自动创建快照,而快照列表还未呈现正在创建的快照时,无法关闭自动创建快照功能。如果您单击了关闭按钮,系统将提示您无法关闭。建议等快照自动创建成功后,即快照列表已出现最新创建的快照时,再单击关闭按钮,关闭自动创建快照功能。 关闭自动创建快照功能时,您可以在弹出窗口中通过“删除自动创建的快照”选项,选择是否立即删除之前已自动创建的快照,默认不勾选。 不勾选:表示不会删除关闭此功能前已自动创建的快照。如果不删除,后续还可以在快照列表中通过删除按钮手动删除,详细操作指导请参见下方 删除快照。如果未手动删除,且之后用户又重新开启了自动创建快照功能,那么此集群中所有“快照类型”为自动创建的快照(包含开启自动创建快照功能前已存在的自动创建的快照)都无法手动删除,只会被系统自动删除。系统会基于重新开启自动创建快照功能时的配置策略进行自动删除,例如此策略中定义的保留时间为10天,那么系统中超过10天的快照将被系统自动删除。 勾选:表示删除此集群快照列表中所有“快照类型”为自动创建的快照。
        来自:
        帮助文档
        云搜索服务
        用户指南
        使用Elasticsearch搜索数据
        管理Elasticsearch类型集群
        备份与恢复索引
      • 备案变更
        备案变更流程 备案变更是指通过将在天翼云备案并已被管局审核通过的备案信息进行修改后重新提交给管局进行审核的备案类型操作。例如修改单位名称、证件号码、负责人信息、域名信息、接入信息等等。备案变更适用于已备案全量信息的修改操作,如果修改主体信息请选择 “变更主体”操作;如果修改部分网站信息请选择“变更网站”操作;如果修改部分网站的接入信息,请选择“变更接入”操作。 注意: 1、备案变更不能删除已备案的网站,如需删除网站,请通过注销网站或取消接入来实现; 2、备案变更不能删除备案主体信息,如需删除主体,请通过注销主体来实现; 3、已备案网站(在天翼云已经有网站备案号的)增加IP,可通过备案变更来实现; 4、已经创建备案变更订单,将无法在“创建备案变更订单”中查询到,即同一条备案信息不能重复创建备案变更订单。 备案变更流程简图,如下所示: 备案变更详细流程图,如下所示: 1 创建备案变更订单 发起备案变更,首页要创建相应的备案订单任务(备案变更订单仅能创建一条),如下图所示,点击“备案变更”即可创建备案变更订单。 订单创建后,页面随即跳转至“在途备案订单管理”,备案变更订单在此可查询、管理和撤销,如下图所示。 2 修改主体信息 主体信息编辑时,无法修改主办单位所在“省”,此项为禁止编辑项。如需调整所在省,请通过“变更主体”操作。 所有必填项信息填写完毕后,点击“保存”或“下一步,填写网站信息”按钮保存所填写的主体信息。 3 修改网站信息 变更网站信息时,只能对已经备案成功的网站进行信息修改,不能发起“新增网站”,如果需要增加新的网站,请通过“新增网站”按钮单独发起新增网站备案订单任务。 修改您本次备案的网站信息和接入信息,如上图所示,点击对应网站后方的“编辑”按钮进行修改即可。备案变更不能修改已备案的域名信息,为更好落实《关于调整非经营性互联网信息服务备案编号规则的通知》(工信管函【2019】633号)文件要求,自2019年4月22日起在审核或操作新增备案、新增网站、域名迁移备案数据时,每个网站仅能填报一个网站域名;在审核或操作备案变更、变更网站时,若网站下为单域名,则不允许变更域名;若网站下为多域名,则只允许在原有域名列表基础上保持不变或减少域名,不允许新增域名,如果需要新加或修改域名,请通过新增网站操作进行增加。如下图所示。 所有必填项信息填写完毕后,点击“保存”或“下一步,上传备案材料”按钮保存所填写的网站信息。 4 资料上传 系统支持通过小程序采集上传和本地图片上传两种方式。 材料上传只支持jpg、png格式的图片,请勿上传其他格式的图片。系统限定每个图片类型最多上传3张图片,如位置不够可以传至其他空白位置。 5 本地上传图片 用户需要按照页面指引,上传各类证件彩色图片。 6 APP电子化方式上传图片 通过微信小程序扫描二维码后,在小程序端按照系统所提示采集需要图片,完成图片采集完成后会自动生成18位验证码,需将验证码填报至上图指定位置后,点击“确定”按钮,系统会自动将图片对应到合适位置。 预览填写的信息,并准确核对所填写的信息,并对有需更正的地方返回上一步修改。 信息预览无误后,点击“提交审核”,备案信息将提交至管理员进行审核。 7 天翼云/管局审核 提交审核,天翼云备案专员将会尽快审核您的信息是否符合备案要求。审核符合要求的,天翼云会尽快代您将备案信息提交至管局进行备案终审,提交管局后,请变更后的主体和网站负责人收到验证短信后,在24小时内按照短信指引完成,否则会被管局退单。 管理员将根据真实性验信息和图片信息情况填写审核意见,如所备案信息和证件等信息无误,审核通过并提交管局;反之,审核拒绝,退回备案信息给备案发起人进行修改,或退回至待核验环节或待预审核环节由相关人员处理。 信息提交管局后,请耐心等待管局的审核,管局审核拒绝或接口自动退回后,会在订单中获得退回的意见,管理员或用户需根据退回意见进行修改后重新进行备案流程。 备案通过后,管局会给主办单位负责人发送备案通过通知,同时,经过管局审核的备案信息会同步给天翼云侧备案系统,您所已经备案通过的信息可以通过“已备案信息管理”进行查看管理。 去备案
        来自:
        帮助文档
        ICP备案
        备案类型
        备案变更
      • 创建卷
        项目 描述 卷名称 设置卷名称。 字符串形式,长度范围是1~16,只能由字母、数字和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 iSCSI目标 设置iSCSI目标名称。 iSCSI目标名称:字符串形式,长度范围1~16,只能由小写字母、数字、句点(.)和短横线()组成,且仅支持以字母或数字开头。 说明 创建卷时可以选择已经存在的iSCSI目标;也可以输入新的iSCSI目标名称,在创建卷的同时创建新的iSCSI目标。 缓存存储池 指定缓存存储池(仅集群版支持)。如果指定了缓存存储池,卷数据首先写入缓存存储池,然后再存入存储池。 存储池 指定存储池(仅集群版支持),表示最终存储池,卷数据最终落在该存储池内。默认使用集群的基础存储池。 注意 存储池与缓存存储池不能是同一个存储池。 容量 设置卷容量。整数形式,数字后面可以选择单位(GiB、TiB、PiB)。 扇区大小 设置磁盘扇区大小。 取值:512 Bytes、4 KiB。默认值为4 KiB。 说明 扇区大小的选取:根据自身业务场景,一般情况下,单次I/O操作的数据大小大于或接近4 KiB,则推荐选择4 KiB;单次I/O操作的数据大小接近512 Bytes,则推荐选择512 Bytes。如果对接VMware等虚拟化平台,则推荐选择512 Bytes。 卷存储模式 卷存储模式: 本地模式:数据全部保留在本地。 缓存模式:本地保留部分热数据,全部数据异步存储到对象存储中。 存储模式:本地保留全部数据,并异步存储到对象存储中。 存储类型默认为本地模式。 卷冗余模式 卷冗余模式(仅集群版支持): 取值: 副本: 单副本。 两副本。 三副本。 EC N+M :纠删码模式。其中N、M为正整数,N≥M,且N+M≤128。表示将数据分割成N个片段,并生成M个校验数据。分片大小可以为1 KiB、2 KiB、4 KiB、8 KiB、16 KiB、32 KiB、64 KiB、128 KiB、256 KiB、512 KiB、1024 KiB、2048 KiB、4096 KiB。 说明 以下场景均为集群可用的前提下: 创建EC N+M的卷后: 卷所在存储池可用故障域数量大于等于卷的最小副本数时,可以向卷中写数据。卷所在存储池可用故障域数量小于最小副本数时,不能向卷写数据,且系统会产生告警。 卷所在存储池可用故障域数量大于等于N+M,卷数据正常,不会产生降级。卷所在存储池可用故障域数量处于[N, N+M),卷数据将处于降级状态,建议尽快添加或修复故障域。卷所在存储池可用故障域数量小于N时,已写入的数据发生损毁。 创建副本模式的卷后: 卷所在存储池可用故障域数量大于等于卷的最小副本数时,可以向卷中写数据。卷所在存储池可用故障域数量小于最小副本数时,不能向卷写数据,且系统会产生告警。 卷所在存储池可用故障域数量大于等于副本数,卷数据正常,不会产生降级。对于两副本、三副本卷,卷存储池所在故障域大于等于1,但小于副本数时,卷数据将处于降级状态,建议尽快添加或修复存储池故障域。卷所在存储池无可用故障域时,已写入的数据发生损毁。 最小副本数 最小副本数(仅集群版支持)。点击“卷冗余模式”后的“更多”按钮,可以填写最小副本数。 对于副本模式的卷,假设卷副本数为X,最小副本数为Y(Y必须≤X),该卷每次写入时,至少Y份数据写入成功,才视为本次写入成功。 对于EC N+M模式的卷,假设该卷最小副本数设置为Y(必须满足N≤Y≤N+M),必须满足总和至少为Y的数据块和校验块写入成功,才视为本次写入成功。 取值:整数。对于副本卷,取值范围是[1, N],N为副本模式卷的副本数,默认值为1。对于EC卷,取值范围是[N, N+M],默认值为N。 折叠副本数 指定卷的折叠副本数(仅集群版支持)。在数据冗余模式下,同一份数据的不同副本/分片默认分布在不同的故障域,当故障域损坏时,允许根据卷的冗余折叠原则,将多份数据副本放在同一个故障域中,但是分布在不同的path上。 注意 如果存储池故障域为path,此参数不生效。 取值:整数。对于副本卷,取值范围是[1, N],N为副本模式卷的副本数,默认值为1;对于EC卷,取值范围是[1, N+M],默认值为1。 高可用 卷的高可用类型(仅集群版支持): 主备:该卷关联对应target下的所有IQN。 禁用:不启用主备,该卷关联对应target下的1个IQN。 默认值为主备。 写策略 卷的写策略: 回写:指数据写入到内存后即返回客户端成功,之后再异步写入磁盘。适用于对性能要求较高,稳定性要求不高的场景。 透写:指数据同时写入内存和磁盘,并在都写成功后再返回客户端成功。适用于稳定性要求较高,写性能要求不高,且最近写入的数据会较快被读取的场景。 绕写:指数据直接写到磁盘,不写入内存。适用于稳定性要求较高,性能要求不高,且写多读少的场景。 默认值为回写。 数据目录 单机版本创建卷时,指定卷数据的存储位置(仅单机版支持)。 如果创建卷时不指定数据目录,使用服务器设置的默认数据目录。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        卷操作
        创建卷
      • 注册配置中心计费说明
        本章节介绍注册配置中心的计费项、计费方式和计费规则。本产品计费不包含负载均衡和容器服务等IaaS层资源的费用。 计费项 微服务引擎注册配置中心的计费项包含注册配置中心托管的普通实例费用、数据盘费用,其中数据盘费用单独计算。 计费方式 目前注册配置中心提供包年包月和按需付费两种付费模式。 按需付费:按需付费是后付费模式,您只需按实际情况进行使用,然后按照使用账单付费即可。为避免造成您的损失,如果您不想再使用此产品,则需要您在微服务引擎注册配置中心实例管理页面内将指定实例退订,系统才会正式停止计费。 包年包月:包年包月是预付费模式,按照包年包月的方式进行付费购买。只要您实际接入的实例数不超过您购买的实例数,不会造成额外的费用。包年包月的模式下,您需要在到期前进行续费或选择自动续费的方式,确保产品持续可用。 计费规则 实例计费规则 注册配置中心实例计费规则如下: 版本类型 主机类型 CPU(核) 内存(GB) 按需(元/节点/小时) 包月(元/节点/月) 注册配置中心单机版 X86通用型 2 4 0.461 221 注册配置中心集群版 X86通用型 2 4 0.77 369 注册配置中心集群版 X86通用型 4 8 1.413 677 注册配置中心集群版 X86通用型 8 16 2.7 1294 注册配置中心集群版 X86通用型 16 32 5.274 2528 注册配置中心企业版 X86通用型 2 4 1.51 724 注册配置中心企业版 X86通用型 4 8 2.869 1377 注册配置中心企业版 X86通用型 8 16 5.451 2616 注册配置中心企业版 X86通用型 16 32 10.357 4971 注册配置中心单机版(鲲鹏) ARM鲲鹏通用型 2 4 0.6 255 注册配置中心单机版(鲲鹏) ARM鲲鹏计算增强型 2 4 0.8 364 注册配置中心集群版(鲲鹏) ARM鲲鹏通用型 2 4 0.9 425 注册配置中心集群版(鲲鹏) ARM鲲鹏通用型 4 8 1.7 779 注册配置中心集群版(鲲鹏) ARM鲲鹏通用型 8 16 3.2 1489 注册配置中心集群版(鲲鹏) ARM鲲鹏通用型 16 32 6.1 2908 注册配置中心集群版(鲲鹏) ARM鲲鹏计算增强型 2 4 1.3 606 注册配置中心集群版(鲲鹏) ARM鲲鹏计算增强型 4 8 2.4 1111 注册配置中心集群版(鲲鹏) ARM鲲鹏计算增强型 8 16 4.5 2122 注册配置中心集群版(鲲鹏) ARM鲲鹏计算增强型 16 32 8.7 4144 注册配置中心企业版(鲲鹏) ARM鲲鹏通用型 2 4 1.8 833 注册配置中心企业版(鲲鹏) ARM鲲鹏通用型 4 8 3.3 1584 注册配置中心企业版(鲲鹏) ARM鲲鹏通用型 8 16 6.3 3009 注册配置中心企业版(鲲鹏) ARM鲲鹏通用型 16 32 12 5717 注册配置中心企业版(鲲鹏) ARM鲲鹏计算增强型 2 4 2.5 1188 注册配置中心企业版(鲲鹏) ARM鲲鹏计算增强型 4 8 4.8 2258 注册配置中心企业版(鲲鹏) ARM鲲鹏计算增强型 8 16 9 4288 注册配置中心企业版(鲲鹏) ARM鲲鹏计算增强型 16 32 17 8147 注册配置中心单机版(飞腾) ARM飞腾通用型 2 4 0.6 255 注册配置中心单机版(飞腾) ARM飞腾计算增强型 2 4 0.8 338 注册配置中心集群版(飞腾) ARM飞腾通用型 2 4 0.9 425 注册配置中心集群版(飞腾) ARM飞腾通用型 4 8 1.7 779 注册配置中心集群版(飞腾) ARM飞腾通用型 8 16 3.2 1489 注册配置中心集群版(飞腾) ARM飞腾通用型 16 32 6.1 2908 注册配置中心集群版(飞腾) ARM飞腾计算增强型 2 4 1.2 564 注册配置中心集群版(飞腾) ARM飞腾计算增强型 4 8 2.2 1033 注册配置中心集群版(飞腾) ARM飞腾计算增强型 8 16 4.2 1973 注册配置中心集群版(飞腾) ARM飞腾计算增强型 16 32 8.1 3854 注册配置中心企业版(飞腾) ARM飞腾通用型 2 4 1.8 833 注册配置中心企业版(飞腾) ARM飞腾通用型 4 8 3.3 1584 注册配置中心企业版(飞腾) ARM飞腾通用型 8 16 6.3 3009 注册配置中心企业版(飞腾) ARM飞腾通用型 16 32 12 5717 注册配置中心企业版(飞腾) ARM飞腾计算增强型 2 4 2.3 1104 注册配置中心企业版(飞腾) ARM飞腾计算增强型 4 8 4.4 2099 注册配置中心企业版(飞腾) ARM飞腾计算增强型 8 16 8.4 3987 注册配置中心企业版(飞腾) ARM飞腾计算增强型 16 32 15.8 7576 注册配置中心单机版(海光) X86海光通用型 2 4 0.6 255 注册配置中心单机版(海光) X86海光计算增强型 2 4 0.8 345 注册配置中心集群版(海光) X86海光通用型 2 4 0.9 425 注册配置中心集群版(海光) X86海光通用型 4 8 1.7 779 注册配置中心集群版(海光) X86海光通用型 8 16 3.2 1489 注册配置中心集群版(海光) X86海光通用型 16 32 6.1 2908 注册配置中心集群版(海光) X86海光计算增强型 2 4 1.2 574 注册配置中心集群版(海光) X86海光计算增强型 4 8 2.2 1052 注册配置中心集群版(海光) X86海光计算增强型 8 16 4.2 2011 注册配置中心集群版(海光) X86海光计算增强型 16 32 8.2 3926 注册配置中心企业版(海光) X86海光通用型 2 4 1.8 833 注册配置中心企业版(海光) X86海光通用型 4 8 3.3 1584 注册配置中心企业版(海光) X86海光通用型 8 16 6.3 3009 注册配置中心企业版(海光) X86海光通用型 16 32 12 5717 注册配置中心企业版(海光) X86海光计算增强型 2 4 2.4 1125 注册配置中心企业版(海光) X86海光计算增强型 4 8 4.5 2139 注册配置中心企业版(海光) X86海光计算增强型 8 16 8.5 4063 注册配置中心企业版(海光) X86海光计算增强型 16 32 16.1 7718 以订购注册配置中心集群版4C8G为例,若订购3节点,则价格为:677 3 2031元/月。
        来自:
        帮助文档
        微服务引擎
        购买指南
        计费说明
        注册配置中心计费说明
      • 基于消息队列RocketMQ实现全链路灰度
        本章节介绍如何基于消息队列RocketMQ实现全链路灰度 概述 本文介绍在使用消息队列(RocketMQ)这种异步场景下,可以在不修改业务代码的情况下,实现异步场景的灰度,从而实现全链路灰度。本文介绍基于消息队列RocketMQ实现全链路灰度。 背景介绍 在大多数业务场景中对于消息的灰度并没有RPC调用那么严格,但是当全链路灰度调用中涉及到消息消费时,如果消息消费没有按照全链路流量规则路由,则会导致通过消息产生的流量逃逸,从而破坏全链路规则,导致出现一些不符合预期的情况。 如下图所示,本文分别部署网关、appa、appagray、appb、appbgray、appc、appcgray以及RocketMQ,模拟一个真实的全链路灰度场景。 通过网关调用appa应用的接口,当满足路由规则后,灰度流量会被路由到appagray,appagray又会调用appbgray,随后由appbgray发送灰度消息,appcgray将会收到灰度消息,而appc不会收到灰度消息。 前提条件 1. 用户已开通微服务治理中心企业版。 2. 用户已开通云容器引擎。 3. 用户已部署RocketMQ,且RocketMQ版本在4.5.0以上,broker.conf中已配置enablePropertyFiltertrue。 部署Demo应用 准备自建入口网关msgczuul,准备应用msgcappa,msgcappb和msgcappc。调用过程是msgcappa –> msgcappb > msgcappc。 步骤1:在云容器引擎中安装微服务治理插件: 1. 登录“云容器引擎”控制台。 2. 在左侧菜单栏选择“集群”,点击目标集群。 3. 在集群管理页面点击“插件”“插件市场”,选择“cubems”插件安装。 步骤2:为应用开启微服务治理能力: 1. 登录“云容器引擎”控制台。 2. 左侧菜单栏选择“集群”,点击目标集群。 3. 在集群管理页面点击“工作负载”“无状态”,选择目标命名空间。 4. 在Deployment列表页选择指定Deployment,并点击“全量替换”,进入Deployment编辑页。 5. 在Deployment编辑页点击“显示高级设置”,新增“Pod标签”: mseCubeMsAutoEnable:on。 6. 在发布应用时,配置指定环境变量,可指定注入微服务治理中心的应用名、命名空间和标签等信息。 环境变量配置如下: 环境变量名 环境变量值 MSEAPPNAME 接入到微服务治理中心的应用名。 MSESERVICETAG 应用标签信息,如灰度应用可配置gray。 MSENAMESPACE(选填) 接入到微服务治理中心的命名空间,默认为:default。 7. 完成编辑后点击“提交”,重新发布容器即可接入。 appa应用的配置 基线: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appa" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appa" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appa" spec: containers: env: name: "MSEAPPNAME" value: "appa" image: "镜像仓库域名/xxx/appa:latest" imagePullPolicy: "Always" name: "appa" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" 灰度: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appa" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appa" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appa" spec: containers: env: name: "MSEAPPNAME" value: "appa" name: "MSESERVICETAG" value: "gray" image: "镜像仓库域名/xxx/appa:latest" imagePullPolicy: "Always" name: "appa" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" appb应用的配置 基线: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appb" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appb" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appb" spec: containers: env: name: "MSEAPPNAME" value: "appb" image: "镜像仓库域名/xxx/appb:latest" imagePullPolicy: "Always" name: "appb" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" 灰度: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appb" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appb" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appb" spec: containers: env: name: "MSEAPPNAME" value: "appb" name: "MSESERVICETAG" value: "gray" image: "镜像仓库域名/xxx/appb:latest" imagePullPolicy: "Always" name: "appb" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" appc应用的配置 基线: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appc" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appc" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appc" spec: containers: env: name: "MSEAPPNAME" value: "appc" image: "镜像仓库域名/xxx/appc:latest" imagePullPolicy: "Always" name: "appc" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" 灰度: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appc" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appc" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appc" spec: containers: env: name: "MSEAPPNAME" value: "appc" name: "MSESERVICETAG" value: "gray" image: "镜像仓库域名/xxx/appc:latest" imagePullPolicy: "Always" name: "appc" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" zuul应用的配置: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "zuul" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "zuul" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "zuul" spec: containers: env: name: "MSEAPPNAME" value: "zuul" image: "镜像仓库域名/xxx/zuul:latest" imagePullPolicy: "Always" name: "zuul" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi"
        来自:
        帮助文档
        微服务引擎
        最佳实践
        基于消息队列RocketMQ实现全链路灰度
      • 重置升级/滚动升级(1.13版本)
        本文主要介绍 重置升级/滚动升级(1.13版本) 。 操作场景 您可以通过云容器引擎管理控制台,快速升级Kubernetes版本,以支持新特性的使用。 升级前,请先了解CCE各集群版本能够升级到的目标版本,以及升级方式和升级影响,详情请参见集群升级概述和升级前须知。 注意事项 集群升级时若需要升级CoreDNS插件,请确保节点数大于等于CoreDNS的实例数,且CoreDNS的所有实例都处于运行状态,否则将导致升级失败。1.13版本的集群若需升级到更高版本,需先将CoreDNS插件升级当前集群可用的最新版本。 1.13版本内升级时,集群上的应用只会在升级网络组件时有短暂中断。 操作步骤 步骤 1 登录CCE控制台,单击集群名称进入集群。 步骤 2 在左侧导航栏选择“集群升级”,在右侧可以看到可升级的版本,单击“版本升级”。 说明 若您的集群当前已是最新版本,则“版本升级”按钮为灰色不可用状态。 若您的集群状态异常或存在异常状态的插件,则“版本升级”按钮为灰色不可用状态,请参考升级前须知检查。 步骤 3 在弹出的“升级前预检查”对话框中,单击“开始检查”。 升级前预检查 步骤 4 升级前预检查开始启动,在此过程中集群状态将显示为“预检查中”,期间该集群不能进行新业务下发,运行中的业务不受影响,该过程将持续35分钟。 升级前预检查进行中 步骤 4 待升级前预检查的状态显示为“已完成”时,单击“去升级”。 升级前预检查完成 步骤 6 进入集群升级页面,参照下表确认或配置基本信息。 基本信息确认与配置 参数 参数说明 集群名称 请确认您要升级的集群名称。 当前版本 请确认待升级集群的版本。 升级后版本 请确认升级后的目标版本。 节点升级策略 重置升级:用户节点采用重置安装方式,节点操作系统将会被重装,系统盘和数据盘的数据均会被清空,请谨慎使用。 说明 本集群的节点及工作负载生命周期管理功能暂不可用。 API访问功能暂不可用。 由于升级过程节点进行重置安装,用户已运行的工作负载业务将会中断。 用户节点的系统盘和数据盘将会被清空,升级前请事先备份重要数据。 用户节点上挂载的非LVM管理的数据盘,升级后需要重新挂载,盘中数据不会丢失。 云硬盘的配额需大于0。 容器的IP地址会发生变化,但是不影响容器间的网络通信。 用户节点的自定义标签将不会保留。 集群升级时间约为12分钟。 滚动升级 :用户节点采用节点池滚动升级,适用于集群下节点均采用节点池创建的场景。 说明 本集群的节点及工作负载生命周期管理功能暂不可用。 API访问功能暂不可用。 用户已运行的工作负载业务不会中断。 集群升级时间约为12分钟。 重置节点镜像 仅支持物理机节点。物理机节点支持在升级时替换操作系统镜像,可指定节点使用新的镜像,在升级时会使用新镜像重装操作系统。如不指定则默认使用原有镜像重装操作系统。 登录方式 密码用户名默认为“root”,请输入登录节点的密码,并确认密码。登录节点时需要使用该密码,请妥善管理密码,系统无法获取您设置的密码内容。选择用于登录本节点的密钥对,支持选择共享密钥。密钥对用于远程登录节点时的身份认证。若没有密钥对,可单击选项框右侧的“创建密钥对”来新建。 集群备份 对集群的Master节点进行整机备份,需要用户手动确认 ,备份过程会使用云备份服务,备份通常耗时在20分钟左右, 若当前局点云备份任务排队较多时,备份时间可能同步延长,推荐用户使用进行整机备份。 节点升级优先级 可选择优先升级的节点。 步骤 7 完成后单击“下一步”,在弹出的“集群升级”对话框中单击“确定”。 根据您选择的“节点升级策略”,对话框中会有如下两种不同的提示: 重置升级:升级后的集群版本将使用更高版本操作系统,升级将会重启节点并升级操作系统版本,升级过程中运行的业务会暂时中断。 滚动升级:滚动升级后,需要用户重置节点(同时去除不可调度标签)或新建节点才能完成升级。 步骤 8 进入“升级插件”步骤,如有需要升级的插件会有红色圆点提示,请单击插件卡片左下角的“升级”按钮,完成后单击页面右下角的“升级”。 说明 集群将依次升级控制节点,然后并发升级用户节点。用户节点较多时,节点将分批升级。 请选择合适的时间段进行升级,以减少升级对业务的影响 单击“升级”会立刻开始执行升级操作,并且无法撤销。升级过程中请勿对节点执行关机、重启等操作。 步骤 9 在弹出的“集群升级”对话框中阅读提示信息,确认后单击“确定”,注意集群升级后不可回退。 集群升级确认 步骤 10 在集群列表页面中可以看到集群的状态为“升级中”,升级过程需要一定的时间,请耐心等待升级完成。 升级成功后,您可以在集群列表或集群详情页面查看升级后的集群状态和版本。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群升级
        重置升级/滚动升级(1.13版本)
      • 新增媒体处理模板
        接口功能介绍 支持直播转码、直播录制、直播截图和直播审核等媒体处理模板参数设置。 使用说明 此接口需与“绑定/解绑媒体处理模板”接口搭配使用,才可实现进行域名的媒体处理配置 接口详情 请求方式:POST 请求路径:/live/mediatemplate/createmediatemplate 请求JSON参数 参数名 类型 名称 是否必填 说明 TemplateType string 模板类型 是 livetran:直播转码 liverecord:直播录制 livesnapshot:直播截图 liveidentify:直播审核 TemplateName string 模板名称 是 1至10个大小写英文字符、数字及““符号 选择直播转码时,此参数值为转码请求uri中的档位参数,如md Description string 模板描述 否 1至255 个字符 Params dict 模板参数 是 见下文说明 转码参数Params 参数名 类型 名称 是否必填 说明 Output list 参数集 是 输出文件的相关参数,目前只支持配置一个 Video dict 视频参数集 否 视频设置补充参数集 Output结构 参数名 类型 名称 是否必填 说明 Format dict 参数内容 是 转码输出流关键参数集 Format结构 参数名 类型 名称 是否必填 说明 Vcodec string 编码方式 是 1:H264 2:H265 OutputFormat string 推荐模板 否 ld:流畅 sd:标清 hd:高清 ud:超清 设置此参数值后,使用默认值,无须再设置具体值。 亦可以选择不设置此参数,进行下面几个参数(从Vbr至SeiContent)的自定义配置。 Vbr string 视频码率 否 若未设置OutputFormat参数,则该参数必填。 取值范围为100~8000。 Width string 视频分辨率宽度 否 若未设置OutputFormat参数,则该参数必填。 取值范围为100~8000,必须为2的倍数。 Height string 视频分辨率高度 否 若未设置OutputFormat参数,则该参数必填。 取值范围为100~8000,必须为2的倍数。 Fr string 视频帧率 否 取值范围为5~60 Abr string 音频码率 否 取值范围为10~500 Asr int 音频采样率 否 取值范围>0 Acodec string 音频编码 否 1:AAC 2:PCM Gop int Gop 否 取值范围为1~20 SeiType int SEI类型 否 取值范围:5、1,默认1(即不新增sei) SeiPattern string SEI模式 否 取值范围:keyframe SeiContent string SEI内容 否 长度限制为4000字节,SEI值不为1时,SeiContent不能为空 推荐模板参数值: Vcodec OutputFormat Acodec Width Height Fr Vbr(bps) Asr(Hz) Abr(bps) H264 ld AAC 480 360 18 500k 22050 48k H264 sd AAC 1280 720 25 1100k 44100 96k H264 hd AAC 1920 1080 30 2000k 44100 128k H264 ud AAC 2560 1440 30 3000k 44100 128k H265 ld AAC 480 360 18 400K 22050 48k H265 sd AAC 1280 720 25 800K 44100 96k H265 hd AAC 1920 1080 30 1400K 44100 128k H265 ud AAC 2560 1440 30 2000k 44100 128k Video结构 参数名 类型 名称 是否必填 说明 Logo list Logo 否 输出文件的相关参数,目前只支持配置一个 Logo结构 参数名 类型 名称 是否必填 说明 Pic string 水印图片地址 否 水印图片地址 OptimalW int 水印宽度 否 水印宽度,占直播原始画面宽度百分比,建议高宽只设置一项,另外一项会自适应缩放,避免变形。 默认原始宽度。最大30% OptimalH int 水印高度 否 水印高度,占直播原始画面高度百分比,建议高宽只设置一项,另外一项会自适应缩放,避免变形。 默认原始高度。最大50% OffsetX int OffsetX 否 显示位置,X轴偏移,单位是百分比,默认0。 OffsetY int OffsetY 否 显示位置,Y轴偏移,单位是百分比,默认0。 录制参数Params 参数名 类型 名称 是否必填 说明 Output list 参数集 是 输出文件的相关参数,目前只支持配置一个 Output[].Format string 输出文件的封装格式 是 hls、flv、mp4、aac四种格式,格式名统一小写 Output[]. SegmentTime string 录制文件分段时长 否 取值范围:5~86400(单位秒) 1.当format为hls时,该字段代表ts文件的切片时长 2.当format为hls时,默认切片时长为10秒,为其它格式时默认分段为6小时 Output[].OssFilePath string 文件存储路径 否 设置录制文件在媒体存储的存放路径,可配置固定值及变量,变量包含: appname:频道名 streamname:流名 taskstarttime:任务开始UTC时间戳 默认: record/ {appname}/ {taskstarttime} Output[]. OssFileName string 文件命名规则 否 设置录制文件的命名规则,可配置固定值及变量,变量包含: appname:频道名 streamname:流名 filestarttime:录制文件开始UTC时间戳 fileendtime:录制文件结束UTC时间戳 默认: {filestarttime} {fileendtime} OssRegion string OSS的Region名称 是 OSS的Region名称 OssBucket string OSS的Bucket名称 是 OSS的Bucket名称 OssEndpoint string OSS的服务地址 是 OSS的服务地址 OssExpiration int OSS的生命周期 是 OSS的生命周期,单位为天,取值范围1~3650 即在对象在创建多少天后将其删除 截图参数Params 参数名 类型 名称 是否必填 说明 Output list 参数集 是 输出文件的相关参数,目前只支持配置一个 Output.Format string 图片格式 是 支持jpg、png格式名统一小写,默认jpg Output.Interval string 截图间隔时长 否 截图间隔时长,单位 秒,默认10秒 Output. SamplingSnapshot int 是否截关键帧 否 0:是; 1:否 Output.OssFilePath string 截图存储路径 否 截图路径, 可配置固定值及变量,变量包含: appname:频道名 streamname:流名 taskstarttime:任务开始UTC时间戳 默认:snapshot/ {appname}/ {streamname} Output.OssFileName string 截图文件命名规则 否 截图命名,可配置固定值及变量,变量包含: appname:频道名; streamname:流名; filestarttime:截图文件开始时间 默认:${filestarttime} OssRegion string OSS存储的Region名称 是 1至255个字符 OssBucket string OSS存储的Bucket名称 是 1至255个字符 OssEndpoint string OSS存储的Endpoint名称 是 1至255个字符 OssExpiration int 存储时长 是 13650,单位为天,即在对象创建多少天后将其删除
        来自:
        帮助文档
        视频直播
        API参考
        API
        直播媒体处理
        新增媒体处理模板
      • Ubuntu系列
        本章节主要介绍Ubuntu系列自定义VLAN网络配置。 注意事项: 自定义VLAN网络网段不能与现有的物理机上已经配置的网段重叠。 下面以Ubuntu 16.04 LTS (Xenial Xerus x8664)操作系统为例,举例介绍物理机的自定义VLAN网络配置方法: 说明 Ubuntu系列其他操作系统的配置方法与Ubuntu 16.04 LTS (Xenial Xerus x8664)类似。 步骤 1 以“root”用户,使用密钥或密码登录物理机。 步骤 2 进入物理机的命令行界面,查询网卡信息。 ip link 返回信息示例如下: 1: lo: mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default qlen 1 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 2: eth0: mtu 8888 qdisc mq master bond0 state UP mode DEFAULT group default qlen 1000 link/ether fa:16:3e:1c:35:37 brd ff:ff:ff:ff:ff:ff 3: eth1: mtu 8888 qdisc mq master bond0 state UP mode DEFAULT group default qlen 1000 link/ether fa:16:3e:1c:35:37 brd ff:ff:ff:ff:ff:ff 4: enp129s0f0: mtu 1500 qdisc noop state DOWN mode DEFAULT group default qlen 1000 link/ether f4:4c:7f:3f:da:07 brd ff:ff:ff:ff:ff:ff 5: enp129s0f1: mtu 1500 qdisc noop state DOWN mode DEFAULT group default qlen 1000 link/ether f4:4c:7f:3f:da:08 brd ff:ff:ff:ff:ff:ff 6: bond0: mtu 8888 qdisc noqueue state UP mode DEFAULT group default qlen 1000 link/ether fa:16:3e:1c:35:37 brd ff:ff:ff:ff:ff:ff 说明 其中,“eth0”和“eth1”为承载VPC网络的网络设备,“enp129s0f0”和“enp129s0f1”为承载自定义VLAN网络的网络设备。下面步骤将使用“enp129s0f0”和“enp129s0f1”配置自定义VLAN网络。 步骤 3 执行以下命令,查看“/etc/udev/rules.d/”目录下是否有“80persistentnet.rules”配置文件。 /etc/udev/rules.d/ grep 80persistentnet.rules 如果存在“80persistentnet.rules”,且该配置文件中已存在步骤2中查询到的除“bond0”和“lo”以外的其它所有网卡和对应的MAC地址,请执行步骤6。 否则,继续执行步骤4。 步骤 4 执行以下命令,将“/etc/udev/rules.d/70persistentnet.rules”文件拷贝一份(文件名为“/etc/udev/rules.d/80persistentnet.rules”)。 cp p /etc/udev/rules.d/70persistentnet.rules /etc/udev/rules.d/80persistentnet.rules 步骤 5 设置udev规则。 将步骤2中查询到的除“lo”、“eth0”、“eth1”和“bond0”以外的网卡和MAC对应关系添加到“/etc/udev/rules.d/80persistentnet.rules”文件中,使得物理机重启复位后,网卡名称和顺序不会发生改变。 说明 网卡的MAC地址和名称中的字母,请使用小写字母。 vim /etc/udev/rules.d/80persistentnet.rules 修改后的示例如下: SUBSYSTEM"net", ACTION"add", DRIVERS"?", ATTR{address}"e8:4d:d0:c8:99:5b", NAME"eth0" SUBSYSTEM"net", ACTION"add", DRIVERS"?", ATTR{address}"e8:4d:d0:c8:99:5c", NAME"eth1" SUBSYSTEM"net", ACTION"add", DRIVERS"?", ATTR{address}"f4:4c:7f:3f:da:07", NAME"enp129s0f0" SUBSYSTEM"net", ACTION"add", DRIVERS"?", ATTR{address}"f4:4c:7f:3f:da:08", NAME"enp129s0f1" 修改完成后,按“Esc”,输入":wq" 保存并退出。 步骤 6 执行以下命令,将网卡配置文件“/etc/network/interfaces.d/50cloudinit.cfg”拷贝为“/etc/network/interfaces.d/60cloudinit.cfg”。 cp p /etc/network/interfaces.d/50cloudinit.cfg /etc/network/interfaces.d/60cloudinit.cfg 步骤 7 执行以下命令,编辑“/etc/network/interfaces.d/60cloudinit.cfg”,配置“enp129s0f0”设备和“enp129s0f1”设备的网络配置文件“/etc/network/interfaces.d/60cloudinit.cfg”。 vim /etc/network/interfaces.d/60cloudinit.cfg 按如下格式编辑: auto enp129s0f0 iface enp129s0f0 inet manual bondmode 1 bondmaster bond1 bondmiimon 100 mtu 8888 auto enp129s0f1 iface enp129s0f1 inet manual bondmode 1 bondmaster bond1 bondmiimon 100 mtu 8888 auto bond1 iface bond1 inet static bondmiimon 100 bondslaves none bondmode 1 address 10.10.10.3 netmask 255.255.255.0 hwaddress f4:4c:7f:3f:da:07 mtu 8888 其中 “enp129s0f0”和“enp129s0f1”为承载自定义VLAN网络配置的网卡名称。 “hwaddress”为“enp129s0f0”设备对应的MAC地址。 “address”的取值为给自定义VLAN网络“bond1”配置的IP(给自定义VLAN网络规划的IP地址在没有与VPC网段冲突的情况下可任意规划,需要通过自定义VLAN网络通信的物理机须将自定义VLAN网络配置在同一个网段)。 “netmask”的取值为给自定义VLAN网络“bond1”配置的IP的掩码。 各个设备的其他参数可参考如上信息进行配置,如“mtu”配置为“8888”,“bondmiimon”配置为“100”,“bondmode”配置为“1”等。 修改完成后,按“Esc”,输入":wq" 保存并退出。 步骤 8 执行以下命令,重启网络。 fup enp129s0f0 ifup enp129s0f1 说明 其中,“enp129s0f0”和“enp129s0f1”分别为承载自定义VLAN网络的网卡。 步骤 9 执行以下命令,查看网卡设备的状态和“bond1”配置文件是否生效。 ip link ifconfig 步骤 10 参见上述步骤,完成其他物理机的配置。 步骤 11 待其他物理机配置完成后,互相ping对端自定义VLAN网络配置的同网段IP,检查是否可以ping通。
        来自:
        帮助文档
        物理机 DPS
        用户指南
        自定义VLAN网络配置
        Ubuntu系列
      • 弹性云主机支持的基础监控指标
        指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标,本列监控周期值适用于KVM实例) cpuutil CPU使用率 该指标用于统计弹性云主机的CPU使用率。 单位:百分比 计算公式:单个弹性云主机CPU使用率 / 单个弹性云主机的CPU总核数。 0100% 弹性云主机 5分钟 memutil 内存使用率 该指标用于统计弹性云主机的内存使用率。 如果用户使用的镜像未安装UVP VMTools,则无法获取该监控指标。 单位:百分比 计算公式:该弹性云主机内存使用量 / 该弹性云主机内存总量。 0100% 弹性云主机 5分钟 diskutilinband 磁盘使用率 该指标用于统计弹性云主机的磁盘使用情况。 如果用户使用的镜像未安装UVP VMTools,则无法获取该监控指标。 单位:百分比 计算公式:弹性云主机磁盘使用容量 /弹性云主机磁盘总容量。 0100% 弹性云主机 5分钟 diskreadbytesrate 磁盘读带宽 该指标用于统计每秒从弹性云主机读出数据量。 计算公式:弹性云主机的磁盘读出的字节数之和 / 测量周期。 单位:字节/秒 byteout (rdbytes lastrdbytes) /时间差。 ≥ 0 弹性云主机 5分钟 diskwritebytesrate 磁盘写带宽 该指标用于统计每秒写到弹性云主机的数据量。 单位:字节/秒 计算公式:弹性云主机的磁盘写入的字节数之和 / 测量周期。 ≥ 0 弹性云主机 5分钟 diskreadrequestsrate 磁盘读IOPS 该指标用于统计每秒从弹性云主机读取数据的请求次数。 单位:请求/秒 计算公式:请求读取弹性云主机磁盘的次数之和 / 测量周期。 reqout (rdreq lastrdreq) /时间差。 ≥ 0 request/s 弹性云主机 5分钟 diskwriterequestsrate 磁盘写IOPS 该指标用于统计每秒从弹性云主机写数据的请求次数。 单位:请求/秒。 计算公式:请求写入弹性云主机磁盘的次数之和 / 测量周期。 reqin (wrreq lastwrreq) /时间差。 ≥ 0 request/s 弹性云主机 5分钟 networkincomingbytesrateinband 带内网络流入速率 该指标用于在弹性云主机内统计每秒流入弹性云主机的网络流量。 单位:字节/秒。 计算公式:弹性云主机的带内网络流入字节数之和/测量周期。 ≥ 0 Byte/s 弹性云主机 5分钟 networkoutgoingbytesrateinband 带内网络流出速率 该指标用于在弹性云主机内统计每秒流出弹性云主机的网络流量。 单位:字节/秒。 计算公式:弹性云主机的带内网络流出字节数之和 / 测量周期。 ≥ 0 Byte/s 弹性云主机 5分钟 networkincomingbytesaggregaterate 带外网络流入速率 该指标用于在虚拟化层统计每秒流入弹性云主机的网络流量。 单位:字节/秒。 计算公式:弹性云主机的带外网络流入字节数之和 / 测量周期。 当使用SRIOV时,无法获取该监控指标。 ≥ 0 Byte/s 弹性云主机 5分钟 networkoutgoingbytesaggregaterate 带外网络流出速率 该指标用于在虚拟化层统计每秒流出弹性云主机的网络流量。 单位:字节/秒。 计算公式:弹性云主机的带外网络流出字节数之和 / 测量周期。 当使用SRIOV时,无法获取该监控指标。 ≥ 0 Byte/s 弹性云主机 5分钟 networkvmconnections 网络连接数 该指标表示弹性云主机已经使用的TCP和UDP的连接数总和。 单位:个 ≥ 0 弹性云主机 5分钟 networkvmbandwidthin 虚拟机入方向带宽 虚拟机整机每秒接收的比特数,此处为公网和内网流量总和。 单位:比特/秒 ≥ 0 弹性云主机 5分钟 networkvmbandwidthout 虚拟机出方向带宽 虚拟机整机每秒发送的比特数,此处为公网和内网流量总和。 单位:比特/秒 ≥ 0 弹性云主机 5分钟 networkvmppsin 虚拟机入方向PPS 虚拟机整机每秒接收的数据包数,此处为公网和内网数据包总和。 单位:包/秒 ≥ 0 弹性云主机 5分钟 networkvmppsout 虚拟机出方向PPS 虚拟机整机每秒发送的数据包数,此处为公网和内网数据包总和。 单位:包/秒 ≥ 0 弹性云主机 5分钟 networkvmnewconnections 虚拟机整机新建连接数 虚拟机整机新建连接数,包括TCP协议、UDP协议以及ICMP协议等。 单位:个 ≥ 0 弹性云主机 5分钟 cpucreditusage CPU积分使用量 该指标表示积分型实例累积花费的CPU积分数。 单位:分。 计算公式:一个CPU积分等于一个vCPU按照100%利用率,运行1分钟。 说明 仅T6型支持。 ≥ 0 分 弹性云主机 5分钟 cpucreditbalance CPU积分累积量 该指标表示实例自启动后已累积获得的CPU积分数。 单位:分。 计算公式:根据Flavor定义,CPU积分/小时小时积分使用量。 说明 当累积积分超过上限以后,不再累积积分,初始积分不计入上限。 仅T6型支持。 ≥ 0 分 弹性云主机 5分钟 cpusurpluscreditbalance CPU超额积分累积量 该指标表示在“CPU积分累积量”为零时,实例花费的超额积分数。 单位:分。 计算公式:一个CPU积分等于一个vCPU按照100%利用率,运行1分钟。 说明 累积积分为0且服务器性能超过基准性能时,开始累积超额积分。 仅T6型支持。 ≥ 0 分 弹性云主机 5分钟 cpusurpluscreditcharged CPU超额积分收费量 该指标表示在“CPU积分累积量”为零时,实例花费的超额积分并需要收费的积分量。 单位:分。 计算公式:一个CPU积分等于一个vCPU按照100%利用率,运行1分钟。 说明 超额积分累积达到上限且服务器持续长时间超过基准使用率运行。 仅T6型支持。 ≥ 0 分 弹性云主机 5分钟
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        监控
        弹性云主机支持的基础监控指标
      • 处理主机告警事件
        本小节介绍处理主机告警事件。 主机安全可对您已开启的告警防御能力提供总览数据,帮助您快速了解安全告警概况包括存在告警的服务器、待处理告警事件、未处理告警事件、已拦截IP和已隔离文件。 事件列表仅保留近30天内发生的告警事件,您可以根据自己的业务需求,自行判断并处理告警,快速清除资产中的安全威胁。 告警事件处理完成后,告警事件将从“未处理”状态转化为“已处理”。 约束与限制 若不需要检测高危命令执行、提权操作、反弹Shell、异常Shell或者Webshell,您可以通过“策略管理”页面手动关闭指定策略的检测。关闭检测后,HSS不对策略组关联的服务器进行检测。 其他检测项不允许手动关闭检测。 未开启防护不支持告警事件相关操作。 操作步骤 当发生安全告警事件后,为了保障您的云服务器安全,可以根据以下方式处理安全告警事件。 注意 由于网络攻击手段、病毒样本在不断演变,实际的业务环境也有不同差异,因此,无法保证能实时检测防御所有的未知威胁,建议您基于安全告警处理、漏洞、基线检查等安全能力,提升整体安全防线,预防黑客入侵、盗取或破坏业务数据。 1、登录管理控制台。 2、在页面左上角选择“区域”,选择“安全 > 企业主机安全”,进入“企业主机安全”页面。 3、在左侧导航栏中,单击“入侵检测 > 安全告警事件 > 主机安全告警”,进入“主机安全告警”页面。 安全告警统计说明 参数名称 告警事件状态说明 时间范围 支持选择固定周期,固定周期可选择如下: 最近24小时 最近3天 最近7天 最近30天 主机安全告警 存在告警的服务器 待处理告警事件 展示您资产中所有待处理告警的数量。 安全告警处理页面默认展示所有待处理告警信息。 已处理告警事件 展示您资产中所有已处理的告警事件数量。 已拦截IP 展示已拦截的IP。单击“已拦截IP”,可查看已拦截的IP地址列表。 已拦截IP列表展示“服务器名称”、“攻击源IP”、“登录类型”、“拦截状态”、“拦截次数”、“开始拦截时间”、“最近拦截时间”。 如果您发现有合法IP被误封禁(比如运维人员因为记错密码,多次输错密码导致被封禁),可以手工解除拦截。如果发现某个主机被频繁攻击,需要引起重视,建议及时修补漏洞,处理风险项。 须知 : 解除被拦截的IP后,主机将不会再拦截该IP地址对主机执行的操作。 每种软件最多拦截10000个ip。 如果您的linux主机不支持ipset,mysql和vsftp最多拦截50个ip。 如果您的linux主机既不支持ipset不支持hosts.deny,ssh最多拦截50个ip。 已隔离文件 主机安全可对检测到的威胁文件进行隔离处理,被成功隔离的文件会添加到“主机安全告警”的“文件隔离箱”中。 被成功隔离的文件一直保留在文件隔离箱中,您可以根据自己的需要进行一键恢复处理,关于文件隔离箱的详细信息,请参见管理文件隔离箱。 容器安全告警 存在告警的服务器 待处理告警事件 展示您资产中所有待处理告警的数量。 安全告警处理页面默认展示所有待处理告警信息。 已处理告警事件 展示您资产中所有已处理的告警事件数量。 威胁等级 将被告警按照不同等级进行统计:致命 、 高危 、 中危 、 低危。 TOP5事件类型 展示数量最多的前五种告警类型及数量。 4、处理告警事件。 注意 告警事件展示在“主机安全告警”页面中,事件列表仅展示最近30天的告警事件。 您需要根据自己的业务需求,自行判断并处理告警。告警事件处理完成后,告警事件将从“未处理”状态变更为“已处理”。HSS将不再对已处理的事件进行统计,并且不在“总览”页展示。 方式一:批量处理勾选的告警 任意选中“事件类型”,在事件列表勾选多个目标告警,单击“事件列表”下方的“批量处理”。 在弹窗中选择处理方式,确认无误,单击“确认”,完成勾选告警处理,处理方式详情如下表所示。 方式二:处理单个告警 选中目标“事件类型”,单击目标告警事件“操作”类的“处理”。选中目标“事件类型”,单击目标告警事件“操作”类的“处理”。 在弹窗中选择处理方式,确认无误,单击“确认”,完成单个告警处理,处理方式详情如下表所示。 处理告警事件说明 处理方式 处理方式说明 忽略 仅忽略本次告警。若再次出现相同的告警信息,HSS会再次告警。 隔离查杀 选择隔离查杀后,该程序无法执行“读/写”操作,同时该程序的进程将被立即终止。HSS将程序或者进程的源文件加入文件隔离箱,被隔离的文件不会对主机造成威胁。 您可以单击“文件隔离箱”,查看已隔离的文件,详细信息请参见管理文件隔离箱。 程序被隔离查杀时,该程序的进程将被立即终止,为避免影响业务,请及时确认检测结果,若隔离查杀有误报,您可以执行取消隔离/忽略操作。 手动处理 选择手动处理。您可以根据自己的需要为该事件添加“备注”信息,方便您记录手动处理该告警事件的详细信息。 加入登录白名单 如果确认“暴力破解”和“异常登录”类型的告警事件是误报,且不希望HSS再上报该告警,您可以将本次登录告警事件加入登录白名单。 HSS不会对登录白名单内的登录事件上报告警。加入登录白名单后,若再次出现该登录事件,则HSS不会告警。 有以下告警事件支持加入登录白名单。 暴力破解 异常登录 加入告警白名单 如果确认以下类型的告警事件是误报,且不希望HSS再上报该告警,您可以将本次告警事件加入告警白名单。 HSS不会对告警白名单内的告警事件上报告警。加入告警白名单后,若再次出现该告警事件,则HSS不会告警。
        来自:
        帮助文档
        企业主机安全
        用户指南
        入侵检测
        主机安全告警
        处理主机告警事件
      • 配置追踪器
        本章节介绍如何配置追踪器。 操作场景 云审计服务管理控制台支持对已创建的数据类追踪器增加OBS转储、LTS转储等相关配置。 用户可以选择是否将已记录的事件发送到OBS桶永久保存。 配置追踪器完成后,系统立即以新的规则开始记录操作。 本节介绍如何配置数据类事件追踪器。 前提条件 已开通云审计服务,且已创建一个数据类事件追踪器。 配置数据类事件追踪器 1. 登录管理控制台。 2. 在管理控制台右上角单击图标,选择区域和项目。 3. 单击左上角,选择“管理与部署 > 云审计服务 CTS”,进入云审计服务详情页面。 4. 单击左侧导航树的“追踪器”,进入追踪器信息页面。 5. 在数据类追踪器信息右侧,单击操作下的“配置”。 6. 在选择追踪对象页面,设置相关参数,参数详情见表 选择转储事件参数表,单击“下一步”。 7. 在配置转储页面可以修改该追踪器的转储信息。用户通过云审计控制台只能查询最近7天的操作记录,如果需要查询超过7天的操作记录,您必须配置转储到对象存储服务(OBS)或配置转储到云日志服务(LTS)。具体参数说明参见表 配置转储到OBS参数列表和表 配置转储到LTS参数列表。 8. 单击“下一步 > 配置”,完成配置数据类事件追踪器。 追踪器配置成功后,您可以在追踪器信息页面查看配置的追踪器的详细信息。 说明 因为CTS所存储的事件是周期性转储到OBS桶的,因此当您配置了追踪器所对应的OBS桶后,当前转储周期内(通常为数分钟)已收到事件会转储到配置后的OBS桶中。例如当前转储周期为12:00~12:05,用户在12:02分修改了当前追踪器对应的OBS桶,那么12:00~12:02分之间收到的事件会在12:05分时转储到新配置的OBS桶中。 9. (可选)在追踪器页面,单击标签列下的,可以为该追踪器添加标签。 标签以键值对的形式表示,用于标识追踪器,便于对追踪器进行分类和搜索。此处的标签仅用于追踪器的过滤和管理。一个追踪器最多添加20个标签。 如果您的组织已经设定云审计服务的相关标签策略,则需按照标签策略规则为追踪器添加标签。详情参考表 标签说明。 表 选择转储事件参数表 参数名称 参数说明 数据事件来源 数据事件的存储容器,默认为OBS桶。 OBS桶名称 默认为您创建数据类追踪器时设置的OBS桶名称,不可以修改。 事件操作类型 数据操作类型分为“读操作”和“写操作”,读操作指的是从OBS桶中获取或下载对象数据,写操作指的是向OBS桶中上传或写入对象数据。 勾选“读操作”后,CTS只会记录读操作类型的数据事件。 勾选“写操作”后,CTS只会记录写操作类型的数据事件。 您可以在OBS服务的页面的“表2 云审计服务支持的OBS数据事件操作列表”中,查看当前支持云审计的全部OBS操作数据事件,以及查看具体有哪些读操作类型事件和写操作类型事件。 表 配置转储到OBS参数列表 参数名称 参数说明 转储到OBS 当“转储到OBS”开关打开时,您可以选择已存在的OBS桶,并配置事件文件前缀。 如果“转储到OBS”开关关闭时,则无需配置相应参数。 选择OBS 选择已有OBS桶:选择当前区域已创建的OBS桶。 OBS桶名称 当“选择OBS”选择“新建OBS桶”时,直接新建OBS桶名称。OBS桶名称不能为空,仅支持小写字母、数字、“”和“.”,且长度范围为363个字符。禁止两个“.”相邻(如“my..bucket”),禁止“.”和“”相邻(如“my.bucket”和“my.bucket”),禁止使用ip为桶名称。 当“选择OBS”选择“选择已有OBS桶”时,可以选择已存在的OBS桶。 保存周期 转储至OBS桶中日志的保存周期。该配置会修改被选择桶的桶策略,影响范围为桶内的所有文件。不同类型、不同级别的合规认证标准对审计日志的保存时间有不同的要求,建议设置保存周期不低于180天。 数据类事件追踪器:保存周期支持设置为30天、60天、90天、180天、三年和沿用OBS配置。 事件文件名前缀 用于标识被转储的事件文件,该字段支持用户自定义,会自动添加在转储事件文件的文件名前端,方便用户快速进行筛选。事件文件名前缀只能由英文字母、数字、下划线()、中划线()和小数点(.)组成,且长度范围为064个字符。 表 配置转储到LTS参数列表 参数名称 参数说明 转储到LTS 当“转储到LTS”开关打开时,表示操作事件将转储到日志流中。 日志组名称 当“转储到LTS”开关打开时,日志组名称默认为“CTS”。如果“转储到LTS”开关关闭时,则无需配置该参数。 表 标签说明 参数 说明 举例 标签键 输入标签的键,同一个追踪器标签的键不能重复。键可以自定义,也可以选择预先在标签服务(TMS)创建好的标签的键。 键命名规则如下: 长度范围为1到128个字符。 可以包含任意语种字母、数字、空格和.:+@,但首尾不能含有空格,不能以sys开头。 Key0001 标签值 输入标签的值,标签的值可以重复,并且可以为空。 标签值的命名规则如下: 长度范围为0到255个字符。 可以包含任意语种字母、数字、空格和.:/+@。 Value0001
        来自:
        帮助文档
        云审计
        用户指南
        数据类事件追踪器
        配置追踪器
      • 日志模拟接入
        云日志服务支持模拟接入日志数据,可为您自动生成各类的日志数据至指定的日志单元中。 创建模拟接入任务 1. 登录云日志服务控制台。 2. 点击左侧菜单栏“日志接入”“模拟接入”。 3. 点击【创建模拟接入】按钮,选择需要模拟的日志类型。 4. 选择日志接入的目标日志项目与日志单元后,点击下一步即可完成任务创建,稍等片刻后,将会自动往指定的日志单元中写入模拟日志数据。 说明 模拟接入默认1天后自动结束,如需提前停止,请手动操作。 删除模拟接入任务 模拟接入默认1天后自动结束,如需提前停止,可手动删除或停止模拟接入任务。 1. 登录云日志服务控制台。 2. 点击左侧菜单栏“日志接入”“模拟接入”。 3. 选择指定的模拟接入任务,在操作列中点击“删除”,即可删除该任务。点击“暂停”,即可暂停模拟日志写入,暂定后可重新恢复。 模拟接入日志类型 当前支持的日志类型以及对应的字段说明如下: Nginx日志 字段名称 字段说明 remoteaddr 客户端IP地址(IPv4格式) remoteuser 客户端用户名称 timelocal 服务器本地时间,格式为:日/月/年:时:分:秒 requestmethod HTTP请求方法 requesturi 请求URI status HTTP响应状态码 bodybytessent 发送给客户端的响应体字节数 host 请求头中的Host字段 requesttime 请求处理总时间(单位:秒) requestlength 客户端请求的总字节数 httpuseragent 客户端浏览器标识 httpreferer 请求来源页面地址 httpxforwardedfor 代理链中的客户端原始IP upstreamresponsetime 服务器响应时间
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        其他接入方式
        日志模拟接入
      • 资源配额
        前言 资源配额是允许用户对购买的专属集群资源按照自身业务实际情况进行资源划分的一种资源分配方式,凸显“专款专用”的理念。比如,用户可以基于作业类型维度将专属集群的资源进行划分:希望将专属集群的部分资源专门交给训练任务使用,因此可以创建一份资源配额专门交给训练任务使用;还可以基于用户公司部门/团队维度进行划分:将专属集群的部分资源交给A部门/团队使用,此时可以创建一份资源配额专供A部门/团队使用;总之,资源配额是将专属集群资源进行划分的一种方式。资源配额的使用需要结合工作空间一起使用,需要将资源配额与对应工作空间进行关联,这样在工作空间里进行相关作业(如任务训练、推理、开发机)时,就可以使用划分给工作空间的资源配额的资源。工作空间是息壤训推智算服务平台的顶层逻辑概念,为企业和团队提供统一的计算资源管理及人员权限管理能力,可以将工作空间类比成“办公室”,“办公室”就是员工工作的地方,允许有权进入“办公室”的人员进行相关作业(如任务训练、推理、开发机),在“办公室”内作业时可以使用资源配额的资源,即资源配额的使用需要在关联的工作空间进行作业时才能使用。 创建资源配额 前置条件 1. 已购买专属集群(专属资源) 2. 当前账号为IAM管理员 操作步骤 1. 进入训推智算服务平台后,将集群切换为购买的专属集群,然后在【管理中心】打开【资源配额】菜单,点击【新增资源配额】按钮,打开【新增资源配额】页面。 2. 在【新增资源配额】页面,依次填写【基础信息】【资源配额】【算力借用】【调度策略】【关联工作空间】等模块内容。其中最重要的是【资源配额】【算力借用】【调度策略】【关联工作空间】四个模块,其介绍如下: 2.1资源配额:指的是分配给配额的资源量,由所属集群、负载类型、实例规格、实例数四个字段组成。 1. 所属集群:即用户购买的专属集群,数据来源于用户在训推智算服务平台顶部所选的专属集群。 2. 支持任务类型:即当前资源配额给哪些任务类型使用,目前有两大任务类型,分别是:IDE、自定义训练,若只选择自定义训练,则该资源配额只允许自定义训练可以使用,IDE不可使用该资源配额的资源。 3. 实例规格:选择资源配额的实例规格,由专属集群自身机器资源细分而来,分为1、2、4、8卡四种粒度的资源规格,如集群的资源为英伟达H800资源,则实例规格由H8001卡、H8002卡、H8004卡、H8008卡四种规格可选。 4. 即所选资源规格的数量,如实例规格选择的是H8002卡,实例数选择2,则资源配额总资源为H8004卡。注:实例规格选择的是H8002卡,实例数选择2和实例规格选择的是H8004卡,实例数选择1,其总资源是一样的,都是4张H800的GPU卡,此处的资源只代表资源配额的资源总量,提供不同的实例规格是为了更精细的分配资源配额的资源。例:实例规格选择的是H8002卡,实例数选择2,并不代表任务在使用该配额时,只能选择资源规格为H8002卡的资源,而是可以在不超过资源配额总资源4张H800 GPU卡的情况下自由选择,比如可以创建一个任务直接使用资源配额的全部资源H8004卡,也可以创建4个任务资源使用量为H8001卡的任务。 2.2算力借用:可以设置配额的权重、是否可以借用同一专属集群下其他配额的闲置资源以及是否允许别的配额借用自身的闲置资源。由资源配额权重、闲时算力借用、独享配额资源三个字段组成: 1. 资源配额权重:允许填入1100的整数,数字越大代表资源配额的重要性越高,同一集群下的资源配额权重不可重复。 2. 闲时算力借用:默认关闭 ,开启则代表允许使用当前资源配额的任务在资源配额所剩资源不足时,可以去借用同一专属集群下其他资源配额的闲置资源,从而保证任务优先运行,被借用资源的资源配额,在借用资源的任务运行完成后,被借用的资源会自动归还。若存在多个资源配额,则优先去借用资源配额权重低的资源配额的闲置资源。若资源配额权重较高建议开启此设置,开启后使用此资源配额运行的任务,在当前资源配额资源不足时,将不会排队等待已运行的任务运行完毕后释放资源配额的资源,而去借用其他配额的闲置资源,保证任务可以优先运行。注:可借用的最大资源量专属集群总资源专属集群未分配的资源(未分配给资源配额的资源)当前资源配额的资源。 3. 独享资源配额:独享资源配额是设置自身配额资源不被其他配额借用的开关,开启后则不允许别的配额来借用,关闭则允许别的配额借用,若需要保证资源配额的资源随时可用,不被其他配额借用资源,则建议开启此开关。 2.3调度策略:指的是当提交给资源配额的任务由于配额资源不够时导致任务排队时,排队任务的排队逻辑,目前仅有一个先进先出策略,先进先出策略是指:按照任务提交时间升序进行排队(提交时间最早的排在前),如果队列中的第一个任务无法出队(配额剩余资源>第一个排队任务所需资源时就会出队,任务将会调度成功),系统将反复尝试对第一个任务进行出队操作,而不会跳过。 2.4关联工作空间:只有关联工作空间后,资源配额才可以在对应的工作空间内使用,由管理员、关联工作空间两个字段组成。 1. 管理员:可以添加指定用户为管理员,管理员除了能使用资源以外,还能管理该资源配额,具体包含管理用户,编辑,更配、启动/停止、删除操作。 2. 关联工作空间:将该资源配额分配给指定工作空间,在该工作空间内进行作业时,可以使用该资源配额。
        来自:
        帮助文档
        训推服务
        用户指南
        管理中心
        资源配额
      • 资源配额
        前言 资源配额是允许用户对购买的专属集群资源按照自身业务实际情况进行资源划分的一种资源分配方式,凸显“专款专用”的理念。比如,用户可以基于作业类型维度将专属集群的资源进行划分:希望将专属集群的部分资源专门交给训练任务使用,因此可以创建一份资源配额专门交给训练任务使用;还可以基于用户公司部门/团队维度进行划分:将专属集群的部分资源交给A部门/团队使用,此时可以创建一份资源配额专供A部门/团队使用;总之,资源配额是将专属集群资源进行划分的一种方式。资源配额的使用需要结合工作空间一起使用,需要将资源配额与对应工作空间进行关联,这样在工作空间里进行相关作业(如任务训练、推理、开发机)时,就可以使用划分给工作空间的资源配额的资源。工作空间是息壤一站式智算服务平台的顶层逻辑概念,为企业和团队提供统一的计算资源管理及人员权限管理能力,可以将工作空间类比成“办公室”,“办公室”就是员工工作的地方,允许有权进入“办公室”的人员进行相关作业(如任务训练、推理、开发机),在“办公室”内作业时可以使用资源配额的资源,即资源配额的使用需要在关联的工作空间进行作业时才能使用。 注:仅在杭州7资源池支持 创建资源配额 前置条件 1. 已购买专属集群(专属资源) 2. 当前账号为IAM管理员 操作步骤 1. 进入一站式智算平台后,将集群切换为购买的专属集群,然后在【管理中心】打开【资源配额】菜单,点击【新增资源配额】按钮,打开【新增资源配额】页面。 2. 在【新增资源配额】页面,依次填写【基础信息】【资源配额】【算力借用】【调度策略】【关联工作空间】等模块内容。其中最重要的是【资源配额】【算力借用】【调度策略】【关联工作空间】四个模块,其介绍如下: 2.1资源配额:指的是分配给配额的资源量,由所属集群、负载类型、实例规格、实例数四个字段组成。 1. 所属集群:即用户购买的专属集群,数据来源于用户在一站式智算平台顶部所选的专属集群。 2. 负载类型:即当前资源配额给哪些任务类型使用,目前有两大任务类型,分别是:IDE、自定义训练,若只选择自定义训练,则该资源配额只允许自定义训练可以使用,IDE不可使用该资源配额的资源。 3. 实例规格:选择资源配额的实例规格,由专属集群自身机器资源细分而来,分为1、2、4、8卡四种粒度的资源规格,如集群的资源为英伟达H800资源,则实例规格由H8001卡、H8002卡、H8004卡、H8008卡四种规格可选。 4. 即所选资源规格的数量,如实例规格选择的是H8002卡,实例数选择2,则资源配额总资源为H8004卡。注:实例规格选择的是H8002卡,实例数选择2和实例规格选择的是H8004卡,实例数选择1,其总资源是一样的,都是4张H800的GPU卡,此处的资源只代表资源配额的资源总量,提供不同的实例规格是为了更精细的分配资源配额的资源。例:实例规格选择的是H8002卡,实例数选择2,并不代表任务在使用该配额时,只能选择资源规格为H8002卡的资源,而是可以在不超过资源配额总资源4张H800 GPU卡的情况下自由选择,比如可以创建一个任务直接使用资源配额的全部资源H8004卡,也可以创建4个任务资源使用量为H8001卡的任务。 2.2算力借用:可以设置配额的权重、是否可以借用同一专属集群下其他配额的闲置资源以及是否允许别的配额借用自身的闲置资源。由资源配额权重、闲时算力借用、独享配额资源三个字段组成: 1. 资源配额权重:允许填入1100的整数,数字越大代表资源配额的重要性越高,同一集群下的资源配额权重不可重复。 2. 闲时算力借用:默认关闭 ,开启则代表允许使用当前资源配额的任务在资源配额所剩资源不足时,可以去借用同一专属集群下其他资源配额的闲置资源,从而保证任务优先运行,被借用资源的资源配额,在借用资源的任务运行完成后,被借用的资源会自动归还。若存在多个资源配额,则优先去借用资源配额权重低的资源配额的闲置资源。若资源配额权重较高建议开启此设置,开启后使用此资源配额运行的任务,在当前资源配额资源不足时,将不会排队等待已运行的任务运行完毕后释放资源配额的资源,而去借用其他配额的闲置资源,保证任务可以优先运行。注:可借用的最大资源量专属集群总资源专属集群未分配的资源(未分配给资源配额的资源)当前资源配额的资源。 3. 独享资源配额:独享资源配额是设置自身配额资源不被其他配额借用的开关,开启后则不允许别的配额来借用,关闭则允许别的配额借用,若需要保证资源配额的资源随时可用,不被其他配额借用资源,则建议开启此开关。 2.3调度策略:指的是当提交给资源配额的任务由于配额资源不够时导致任务排队时,排队任务的排队逻辑,目前仅有一个先进先出策略,先进先出策略是指:按照任务提交时间升序进行排队(提交时间最早的排在前),如果队列中的第一个任务无法出队(配额剩余资源>第一个排队任务所需资源时就会出队,任务将会调度成功),系统将反复尝试对第一个任务进行出队操作,而不会跳过。 2.4关联工作空间:只有关联工作空间后,资源配额才可以在对应的工作空间内使用,由管理员、关联工作空间两个字段组成。 1. 管理员:可以添加指定用户为管理员,管理员除了能使用资源以外,还能管理该资源配额,具体包含管理用户,编辑,更配、启动/停止、删除操作。 2. 关联工作空间:将该资源配额分配给指定工作空间,在该工作空间内进行作业时,可以使用该资源配额。
        来自:
        帮助文档
        一站式智算服务平台
        用户指南
        管理中心
        资源配额
      • 创建备份策略
        本文为您介绍创建备份策略的操作步骤,用户可按需创建需要的备份策略。 操作场景 通过备份策略,您可以按照预设的策略任务对已绑定的云硬盘资源进行周期性自动备份,确保云硬盘的安全性,能够在云硬盘损坏或数据丢失时快速恢复数据,保证业务稳定运行。 约束与限制 通过自动备份的方式对云硬盘进行周期性备份时,需确保备份策略为“启用”状态,只有当备份策略为“启用”状态时,系统才会为绑定的云硬盘资源进行自动备份,并按照策略要求定期删除过期的备份。 按备份策略自动生成的备份名称为“autobkxxxx”。 每个用户默认可以创建20个备份策略,一个备份策略默认可以绑定256块云硬盘,如需调整配额请提交工单。 操作步骤 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域。 3. 单击“存储>云硬盘备份”,点击“备份策略”,进入云硬盘备份策略页签中。 4. 点击“创建备份策略”按钮。 5. 在创建备份策略页面中设置备份策略信息。参数说明如下表: 参数 参数说明 名称 为备份策略设置名称,默认为“policy四位随机数”。只能由中文字符、英文字母、数字、下划线、中划线组成,且长度为264个字符。 是否启用 备份策略的启用状态,默认为不启动。 建议此处将备份策略启用,仅当备份策略为“启用”状态时,系统才会为绑定的云硬盘资源进行自动备份。 备份时间 设置备份任务的执行时间。此处选择的时间是细粒度至天之后的整点执行时间,用户可在一天内选择多个整点时间进行备份执行。 建议您选择业务量较少或无业务的时间进行备份,比如凌晨时间。 注意 设定的备份时间和控制台实际创建备份的时间可能存在差异。 如需要备份的资源总数据量较大,建议备份执行时间点不宜设置过于紧密。如果单个资源执行备份的时长超过两个备份执行时间间隔,则会跳过第二个备份时间点不进行备份。 例如:某磁盘的备份策略设置的备份时间点为:00:00,01:00,02:00。在00:00时,磁盘开始进行备份,由于磁盘此次备份增量数据较大,或者该时间段同时执行的备份任务较多,该次备份任务耗时90分钟,在01:30时完成备份。则01:00的备份时间点会跳过,在02:00时再执行备份,将只会产生两个备份。 若云硬盘备份策略、云硬盘自动快照策略和云主机备份策略的备份时间重叠,可能导致备份时间有重叠的备份任务失败而影响数据安全性。请您在设置时预留充足间隔,保障所有备份任务顺利执行。 备份周期 设置备份任务的执行日期。有两种方式,按周、按天。 按周:以周为周期,用户可指定在每周的周几进行备份,可以多选。 按天:以天为周期,用户可指定每隔几天进行一次备份,取值范围为1~30天。 按天备份的备份时间是每个月的固定时间,例如"每3天"表示执行备份的日期为每月1日、4日、7日,以此类推。备份策略在创建当月生效。举例来说,在某月2日创建备份周期为“每3天”的备份策略,则第一次备份日期为当月4日。"每3天"表示执行备份的日期为每月1日、4日、7日,以此类推。 建议选择无业务或者业务量较少的时间对云硬盘进行备份。 全量备份配置 若不配置定期全量备份,默认在绑定的存储库的首次备份进行全量备份,后续进行永久增量备份。 若您开启了定期全量备份,则会按照配置频次执行全量备份。 注意 仅上线华东1、华北2、沈阳8、乌鲁木齐7资源池。 保留规则 设置备份产生后的保留规则,即哪些备份将被保留。共有三种规则,按时间、按数量、永久保留。 按时间:可选择1个月、3个月、6个月、1年的固定保留时长或根据需要自定义保留时长。取值范围为1~99999天,当到达规定时间,备份将被自动删除。 按数量:单个云硬盘执行备份策略保留的备份总份数。取值范围为1~99999个。 永久保留:备份产生后将会被永久保留,用户可以手动将其删除。 说明 当保留规则为按数量保留,保留的备份数超过预设保留数值时,系统会按照时间自动删除最早创建的备份。 当保留规则为按时间保留,保留的备份超过预设时间时,系统会自动删除所有过期的备份。删除的备份不会影响其他备份的数据恢复。 修改备份策略或将云硬盘绑定到新策略,备份副本会按照新策略的保留规则执行自动删除。 高级保留选项 日备份:保留指定周期内每天最新的一个备份副本。 周备份:保留指定周期内每周最新的一个备份副本。 月备份:保留指定周期内每月最新的一个备份副本。 年备份:保留指定周期内每年最新的一个备份副本。 设置高级保留选项后,指定周期内每日/周/月/年最新的一个备份副本不受保留规则的影响。例如,设置“日备份:保留3天内,每天最新的一个备份”。假设某月1日起开始执行该备份策略,在3日时,除按“保留规则”对备份副本进行保留外,1日和2日两天最后创建的备份副本不受“保留规则”的影响,不会被自动删除。 注意 仅上线华东1、华北2资源池。 企业项目 支持为备份策略选择企业项目。 说明 理论上,备份做的越频繁,生成的备份越多,对云硬盘数据的保护越充足,但在实际工作中,需要考虑成本、存储空间容量、业务可靠性需求等多种因素来综合考虑选择一个合适的备份方案。 6. 参数配置完成之后,单击“确定”,完成备份策略的创建。 注意 创建完成备份策略后,还需要为备份策略绑定云硬盘,以及将备份策略绑定至存储库,自动备份功能才可真正生效。具体操作步骤可参见向备份策略中绑定云硬盘和存储库绑定备份策略。
        来自:
        帮助文档
        云硬盘备份 VBS
        用户指南
        策略管理
        创建备份策略
      • GaussDb数据库
        本文主要介绍 GaussDb数据库 介绍APM采集的GaussDb数据库指标的类别、名称、含义等信息。 表 GaussDb数据库采集参数 参数名 数据类型 应用类型 默认值 Agent支持的起始版本 Agent支持的终止版本 描述 是否采集原始sql radio JAVA false 2.2.8 调用链中是否采集上报带有参数内容的原始sql。 表 GaussDb数据库指标说明 指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 ::::::: 数据库连接(connection,以数据库为维度统计sql调用详情。) db 数据库 数据库名称 ENUM LAST 数据库连接(connection,以数据库为维度统计sql调用详情。) createdCount 创建连接数 该数据库创建连接数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) currentCount 当前连接数 该数据库当前连接数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) destroyedCount 销毁连接数 该数据库销毁连接数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) errorCount 错误数 该数据库发生错误数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) invokeCount 调用次数 该数据库的调用次数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) maxTime 最大响应时间 该数据库的最大响应时间 INT MAX 数据库连接(connection,以数据库为维度统计sql调用详情。) range1 010ms 响应时间在010ms范围请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) range3 100200ms 响应时间在100200ms范围请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) range4 2001000ms 响应时间在2001000ms范围请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) range5 110s 响应时间在110s范围请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) range6 10s以上 响应时间在10s以上请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) ranges 自定义响应时间区间 自定义响应时间区间 STRING LAST 数据库连接(connection,以数据库为维度统计sql调用详情。) readRowCount 读取行数 该数据库读取行数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) updatedRowCount 更新行数 该数据库更新行数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) totalTime 总响应时间 该数据库的总响应时间 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) slowestSql 最慢sql 该数据库在采集周期内的最慢sql STRING LAST 异常(exception,sql调用发送的异常统计信息。) causeType 类名 异常发生类 ENUM LAST 异常(exception,sql调用发送的异常统计信息。) exceptionType 异常类型 异常类型 ENUM LAST 异常(exception,sql调用发送的异常统计信息。) count 次数 异常次数 INT SUM 异常(exception,sql调用发送的异常统计信息。) message 消息 异常消息 STRING LAST 异常(exception,sql调用发送的异常统计信息。) sql 异常sql 发生异常的sql STRING LAST 异常(exception,sql调用发送的异常统计信息。) stackTrace 异常堆栈 异常产生的堆栈信息 CLOB LAST 版本(version,GaussDb的包版本信息。) version 版本 驱动包版本 STRING LAST sql监控(sql,以sql为维度统计sql调用详情。) sql sql唯一标识 sql对应的唯一id,用于告警配置 ENUM LAST sql监控(sql,以sql为维度统计sql调用详情。) concurrentMax 最大并发 该sql的最大并发 INT MAX sql监控(sql,以sql为维度统计sql调用详情。) errorCount 错误次数 该sql的错误次数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST sql监控(sql,以sql为维度统计sql调用详情。) invokeCount 调用次数 该sql的调用次数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) lastError 错误信息 sql发生错误产生的错误信息 STRING LAST sql监控(sql,以sql为维度统计sql调用详情。) maxTime 最大响应时间 该sql的最大响应时间 INT MAX sql监控(sql,以sql为维度统计sql调用详情。) readRowCount 读取行数 该sql的读取行数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) runningCount 正在执行数 采集时间点正在执行的sql数量 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST sql监控(sql,以sql为维度统计sql调用详情。) sqlString sql语句 sql语句 STRING LAST sql监控(sql,以sql为维度统计sql调用详情。) totalTime 总响应时间 该sql的总响应时间 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) updatedRowCount 更新行数 该sql的更新行数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) range1 010ms 响应时间在010ms范围请求数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) range3 100200ms 响应时间在100200ms范围请求数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) range4 2001000ms 响应时间在2001000ms范围请求数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) range5 110s 响应时间在110s范围请求数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) range6 10s以上 响应时间在10s以上请求数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) ranges 自定义响应时间区间 自定义响应时间区间 STRING LAST 汇总(total,sql调用的汇总数据统计。) invokeCount 调用次数 总调用次数 INT SUM 汇总(total,sql调用的汇总数据统计。) errorCount 错误次数 总错误次数 INT SUM 汇总(total,sql调用的汇总数据统计。) readRowCount 读取行数 总读取行数 INT SUM 汇总(total,sql调用的汇总数据统计。) totalTime 响应时间 总响应时间 INT SUM 汇总(total,sql调用的汇总数据统计。) updatedRowCount 更新行数 总更新行数 INT SUM
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        数据库
        GaussDb数据库
      • ClickHouse数据库
        本文主要介绍 ClickHouse数据库 介绍APM采集的ClickHouse数据库指标的类别、名称、含义等信息。 表ClickHouse数据库采集参数 参数名 数据类型 应用类型 默认值 Agent支持的起始版本 Agent支持的终止版本 描述 是否采集原始sql radio JAVA false 2.0.0 调用链中是否采集上报带有参数内容的原始sql。 表 ClickHouse数据库指标说明 指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 ::::::: 数据库连接(connection,以数据库为维度统计sql调用详情。) db 数据库 数据库名称 ENUM LAST 数据库连接(connection,以数据库为维度统计sql调用详情。) createdCount 创建连接数 该数据库创建连接数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) currentCount 当前连接数 该数据库当前连接数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) destroyedCount 销毁连接数 该数据库销毁连接数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) errorCount 错误数 该数据库发生错误数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) invokeCount 调用次数 该数据库的调用次数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) maxTime 最大响应时间 该数据库的最大响应时间 INT MAX 数据库连接(connection,以数据库为维度统计sql调用详情。) range1 010ms 响应时间在010ms范围请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) range3 100200ms 响应时间在100200ms范围请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) range4 2001000ms 响应时间在2001000ms范围请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) range5 110s 响应时间在110s范围请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) range6 10s以上 响应时间在10s以上请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) readRowCount 读取行数 该数据库读取行数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) updatedRowCount 更新行数 该数据库更新行数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) totalTime 总响应时间 该数据库的总响应时间 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) slowestSql 最慢sql 该数据库在采集周期内的最慢sql STRING LAST 异常(exception,sql调用发送的异常统计信息。) causeType 类名 异常发生类 ENUM LAST 异常(exception,sql调用发送的异常统计信息。) exceptionType 异常类型 异常类型 ENUM LAST 异常(exception,sql调用发送的异常统计信息。) count 次数 异常次数 INT SUM 异常(exception,sql调用发送的异常统计信息。) message 消息 异常消息 STRING LAST 异常(exception,sql调用发送的异常统计信息。) sql 异常sql 发生异常的sql STRING LAST 异常(exception,sql调用发送的异常统计信息。) stackTrace 异常堆栈 异常产生的堆栈信息 CLOB LAST 版本(version,ClickHouse的包版本信息。) version 版本 驱动包版本 STRING LAST sql监控 (sql,以sql为维度统计sql调用详情。) sql sql唯一标识 sql对应的唯一id,用于告警配置 ENUM LAST sql监控 (sql,以sql为维度统计sql调用详情。) concurrentMax 最大并发 该sql的最大并发 INT MAX sql监控 (sql,以sql为维度统计sql调用详情。) errorCount 错误次数 该sql的错误次数 INT SUM sql监控 (sql,以sql为维度统计sql调用详情。) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST sql监控 (sql,以sql为维度统计sql调用详情。) invokeCount 调用次数 该sql的调用次数 INT SUM sql监控 (sql,以sql为维度统计sql调用详情。) lastError 错误信息 sql发生错误产生的错误信息 STRING LAST sql监控 (sql,以sql为维度统计sql调用详情。) maxTime 最大响应时间 该sql的最大响应时间 INT MAX sql监控 (sql,以sql为维度统计sql调用详情。) readRowCount 读取行数 该sql的读取行数 INT SUM sql监控 (sql,以sql为维度统计sql调用详情。) runningCount 正在执行数 采集时间点正在执行的sql数量 INT SUM sql监控 (sql,以sql为维度统计sql调用详情。) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST sql监控 (sql,以sql为维度统计sql调用详情。) sqlString sql语句 sql语句 STRING LAST sql监控 (sql,以sql为维度统计sql调用详情。) totalTime 总响应时间 该sql的总响应时间 INT SUM sql监控 (sql,以sql为维度统计sql调用详情。) updatedRowCount 更新行数 该sql的更新行数 INT SUM sql监控 (sql,以sql为维度统计sql调用详情。) range1 010ms 响应时间在010ms范围请求数 INT SUM sql监控 (sql,以sql为维度统计sql调用详情。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM sql监控 (sql,以sql为维度统计sql调用详情。) range3 100200ms 响应时间在100200ms范围请求数 INT SUM sql监控 (sql,以sql为维度统计sql调用详情。) range4 2001000ms 响应时间在2001000ms范围请求数 INT SUM sql监控 (sql,以sql为维度统计sql调用详情。) range5 110s 响应时间在110s范围请求数 INT SUM sql监控 (sql,以sql为维度统计sql调用详情。) range6 10s以上 响应时间在10s以上请求数 INT SUM 汇总(total,sql调用的汇总数据统计。) invokeCount 调用次数 总调用次数 INT SUM 汇总(total,sql调用的汇总数据统计。) errorCount 错误次数 总错误次数 INT SUM 汇总(total,sql调用的汇总数据统计。) readRowCount 读取行数 总读取行数 INT SUM 汇总(total,sql调用的汇总数据统计。) totalTime 响应时间 总响应时间 INT SUM 汇总(total,sql调用的汇总数据统计。) updatedRowCount 更新行数 总更新行数 INT SUM
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        数据库
        ClickHouse数据库
      • URL监控
        本文主要介绍 URL监控 介绍APM采集的URL监控指标的类别、名称、含义等信息。 表 URL监控采集参数 参数名 数据类型 应用类型 默认值 Agent支持的起始版本 Agent支持的终止版本 描述 拦截header指定key值 array JAVA 2.0.0 拦截header中指定key值的内容。 拦截url参数指定key值 array JAVA 2.0.0 拦截url参数指定key值的内容。 拦截cookie指定key值 array JAVA 2.0.0 拦截cookie指定key值的内容。 url采集配置 objarray JAVA 2.0.0 url采集配置,将restful风格url按配置进行规整;规整方式包含startwith,endwith,include,regex四种方式。 采集黑名单配置 objarray JAVA 2.0.0 指定规则匹配的url不采集,匹配方式包含startwith,endwith,include,regex四种方式。 业务code采集长度限制 integer JAVA 0 2.0.0 解析业务code需要采集body内容的长度限制。 解析业务code的key array JAVA 2.0.0 解析json格式的body内容的key,获取业务状态码。 业务code的正确值 array JAVA 2.0.0 配置正确的业务状态码的值,业务状态码不在该范围的值定义为错误的调用链。 慢请求阈值定义 integer JAVA 800 2.0.0 定义慢请求阈值,超过该阈值的url会定义为慢url,默认提高调用链采样率。 url配置 objarray JAVA 2.0.0 单独配置每个url的慢请求阈值和采样率;采样方式包含2.百分比采样;3.每分钟固定数量采样;4.自动采样三种采样方式。 错误状态码定义 radio JAVA 500 2.0.0 设置统计为错误的状态码范围。 Url自动规整 radio JAVA false 2.3.11 Url自动规整。 表 URL监控指标说明 指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 ::::::: 汇总(total ,url接口调用汇总统计数据。) errorCount 错误次数 总错误次数 INT SUM 汇总(total ,url接口调用汇总统计数据。) invokeCount 调用次数 总调用次数 INT SUM 汇总(total ,url接口调用汇总统计数据。) totalTime 总响应时间 总响应时间 ms INT SUM 汇总(total ,url接口调用汇总统计数据。) satisfiedCount 满意请求数 满意请求数 INT SUM 汇总(total ,url接口调用汇总统计数据。) toleratingCount 可容忍请求数 可容忍请求数 INT SUM 状态码(statuscode,以接口返回的状态码维度统计接口调用数据。) code 状态码 状态码 ENUM LAST 状态码(statuscode,以接口返回的状态码维度统计接口调用数据。) count 调用次数 该状态码的发生次数 INT SUM 状态码(statuscode,以接口返回的状态码维度统计接口调用数据。) url 采样url 该状态码在采集周内采样的url STRING LAST url监控(url,以url维度统计接口调用数据。) url url 请求的url ENUM LAST url监控(url,以url维度统计接口调用数据。) method httpmethod 请求的httpmethod ENUM LAST url监控(url,以url维度统计接口调用数据。) concurrentMax 最大并发 该url的最大并发 INT MAX url监控(url,以url维度统计接口调用数据。) errorCount 错误数 该url的错误数 INT SUM url监控(url,以url维度统计接口调用数据。) invokeCount 调用次数 该url的调用次数 INT SUM url监控(url,以url维度统计接口调用数据。) lastError 错误信息 该url发生错误时产生的错误信息 STRING LAST url监控(url,以url维度统计接口调用数据。) maxTime 最大响应时间 该url在采集周期内最大响应时间 ms INT MAX url监控(url,以url维度统计接口调用数据。) maxTimeNativeUrl 最慢url 该url在采集周期内最慢url STRING LAST url监控(url,以url维度统计接口调用数据。) runningCount 正在执行数 该url在采集时间点正在执行数量 INT SUM url监控(url,以url维度统计接口调用数据。) range1 010ms 响应时间在010ms范围请求数 INT SUM url监控(url,以url维度统计接口调用数据。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM url监控(url,以url维度统计接口调用数据。) range3 100500ms 响应时间在100500ms范围请求数 INT SUM url监控(url,以url维度统计接口调用数据。) range4 5001000ms 响应时间在5001000ms范围请求数 INT SUM url监控(url,以url维度统计接口调用数据。) range5 110s 响应时间在110s范围请求数 INT SUM url监控(url,以url维度统计接口调用数据。) range6 10s以上 响应时间在10s以上请求数 INT SUM url监控(url,以url维度统计接口调用数据。) totalTime 总响应时间 该url的总响应时间 ms INT SUM url监控(url,以url维度统计接口调用数据。) isRoot 是否根调用 是否是根调用 INT SUM url监控(url,以url维度统计接口调用数据。) satisfiedCount 满意请求数 满意请求数 INT SUM url监控(url,以url维度统计接口调用数据。) toleratingCount 可容忍请求数 可容忍请求数 INT SUM 集群调用(user,以调用方集群id维度统计接口调用数据。) clusterId 集群id 调用方的集群id ENUM LAST 集群调用(user,以调用方集群id维度统计接口调用数据。) invokeCount 调用次数 该集群的调用次数 INT SUM 集群调用(user,以调用方集群id维度统计接口调用数据。) total1xxCount 1xx次数 状态码为1xx的调用次数 INT SUM 集群调用(user,以调用方集群id维度统计接口调用数据。) total2xxCount 2xx次数 状态码为2xx的调用次数 INT SUM 集群调用(user,以调用方集群id维度统计接口调用数据。) total3xxCount 3xx次数 状态码为3xx的调用次数 INT SUM 集群调用(user,以调用方集群id维度统计接口调用数据。) total4xxCount 4xx次数 状态码为4xx的调用次数 INT SUM 集群调用(user,以调用方集群id维度统计接口调用数据。) total5xxCount 5xx次数 状态码为5xx的调用次数 INT SUM 集群调用(user,以调用方集群id维度统计接口调用数据。) totalTime 总响应时间 该集群调用的总响应时间 ms INT SUM 集群调用(user,以调用方集群id维度统计接口调用数据。) errorCount 错误次数 该集群调用的错误次数 INT SUM 集群调用(user,以调用方集群id维度统计接口调用数据。) concurrentMax 最大并发 该集群的最大并发 INT MAX 集群调用(user,以调用方集群id维度统计接口调用数据。) maxTime 最大响应时间 该url在采集周期内最大响应时间 ms INT MAX
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        接口调用
        URL监控
      • Postgresql数据库
        本文主要介绍 Postgresql数据库 介绍APM采集的Postgresql数据库指标的类别、名称、含义等信息。 表 Postgresql数据库采集参数 参数名 数据类型 应用类型 默认值 Agent支持的起始版本 Agent支持的终止版本 描述 是否采集原始sql radio JAVA false 2.0.0 调用链中是否采集上报带有参数内容的原始sql。 表 Postgresql数据库指标说明 指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 ::::::: 数据库连接(connection,以数据库为维度统计sql调用详情。) db 数据库 数据库名称 ENUM LAST 数据库连接(connection,以数据库为维度统计sql调用详情。) createdCount 创建连接数 该数据库创建连接数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) currentCount 当前连接数 该数据库当前连接数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) destroyedCount 销毁连接数 该数据库销毁连接数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) errorCount 错误数 该数据库发生错误数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) invokeCount 调用次数 该数据库的调用次数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) maxTime 最大响应时间 该数据库的最大响应时间 INT MAX 数据库连接(connection,以数据库为维度统计sql调用详情。) range1 010ms 响应时间在010ms范围请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) range3 100200ms 响应时间在100200ms范围请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) range4 2001000ms 响应时间在2001000ms范围请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) range5 110s 响应时间在110s范围请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) range6 10s以上 响应时间在10s以上请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) readRowCount 读取行数 该数据库读取行数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) updatedRowCount 更新行数 该数据库更新行数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) totalTime 总响应时间 该数据库的总响应时间 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) slowestSql 最慢sql 该数据库在采集周期内的最慢sql STRING LAST 异常(exception,sql调用发送的异常统计信息。) causeType 类名 异常发生类 ENUM LAST 异常(exception,sql调用发送的异常统计信息。) exceptionType 异常类型 异常类型 ENUM LAST 异常(exception,sql调用发送的异常统计信息。) count 次数 异常次数 INT SUM 异常(exception,sql调用发送的异常统计信息。) message 消息 异常消息 STRING LAST 异常(exception,sql调用发送的异常统计信息。) sql 异常sql 发生异常的sql STRING LAST 异常(exception,sql调用发送的异常统计信息。) stackTrace 异常堆栈 异常产生的堆栈信息 CLOB LAST 版本(version,Postgresql的包版本信息。) version 版本 驱动包版本 STRING LAST sql监控(sql,以sql为维度统计sql调用详情。) sql sql唯一标识 sql对应的唯一id,用于告警配置 ENUM LAST sql监控(sql,以sql为维度统计sql调用详情。) concurrentMax 最大并发 该sql的最大并发 INT MAX sql监控(sql,以sql为维度统计sql调用详情。) errorCount 错误次数 该sql的错误次数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST sql监控(sql,以sql为维度统计sql调用详情。) invokeCount 调用次数 该sql的调用次数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) lastError 错误信息 sql发生错误产生的错误信息 STRING LAST sql监控(sql,以sql为维度统计sql调用详情。) maxTime 最大响应时间 该sql的最大响应时间 INT MAX sql监控(sql,以sql为维度统计sql调用详情。) readRowCount 读取行数 该sql的读取行数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) runningCount 正在执行数 采集时间点正在执行的sql数量 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST sql监控(sql,以sql为维度统计sql调用详情。) sqlString sql语句 sql语句 STRING LAST sql监控(sql,以sql为维度统计sql调用详情。) totalTime 总响应时间 该sql的总响应时间 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) updatedRowCount 更新行数 该sql的更新行数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) range1 010ms 响应时间在010ms范围请求数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) range3 100200ms 响应时间在100200ms范围请求数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) range4 2001000ms 响应时间在2001000ms范围请求数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) range5 110s 响应时间在110s范围请求数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) range6 10s以上 响应时间在10s以上请求数 INT SUM 汇总(total ,sql调用的汇总数据统计。) invokeCount 调用次数 总调用次数 INT SUM 汇总(total ,sql调用的汇总数据统计。) errorCount 错误次数 总错误次数 INT SUM 汇总(total ,sql调用的汇总数据统计。) readRowCount 读取行数 总读取行数 INT SUM 汇总(total ,sql调用的汇总数据统计。) totalTime 响应时间 总响应时间 INT SUM 汇总(total ,sql调用的汇总数据统计。) updatedRowCount 更新行数 总更新行数 INT SUM
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        数据库
        Postgresql数据库
      • GDS实践指南
        本章节主要介绍GDS最佳实践。 安装GDS前必需确认GDS所在服务器环境的系统参数是否和数据库集群的系统参数一致。 GDS与DWS通信要求物理网络畅通,尽量使用万兆网。因为千兆网无法承载高速的数据传输压力,极易出现断连,使用千兆网时DWS无法提供通信保障。满足万兆网的同时,要求数据磁盘组I/O性能大于GDS单核处理能力上限(约400MB/s),才能保证单文件导入速率最大化。 提前做好服务部署规划,数据服务器上,建议一个Raid只布1~2个GDS。GDS跟DN的数据比例建议在1:3至1:6之间。一台加载机的GDS进程不宜部署太多,千兆网卡部署1个GDS进程即可,万兆网卡机器建议部署不大于4个进程。 提前对GDS导入导出的数据目录做好层次划分,避免一个数据目录包含过多的文件,并及时清理过期文件。 合理规划目标数据库的字符集,强烈建议使用UTF8作为数据库的字符集,不建议使用sqlascii编码,因为极易引起混合编码问题。GDS导出时保证外表的字符集和客户端字符集一致即可,导入时保证客户端编码,数据文件内容编码和客户端一致。 如果存在无法变更数据库,客户端,外表字符集时,可以尝试使用iconv命令进行手动转换。 注意 f 表示源文件的字符集,t为目标字符集 iconv f utf8 t gbk utf8.txt o gbk.txt 关于GDS导入实践可参考“导入数据最佳实践”章节中的“使用GDS导入数据”。 GDS支持CSV、TEXT、FIXED三种格式,缺省为TEXT格式。不支持二进制格式,但是可以使用encode/decode函数处理二进制类型。例如: 对二进制表导出: 创建表。 CREATE TABLE blobtypet1 ( BTCOL BYTEA ) DISTRIBUTE BY REPLICATION; 创建外表 CREATE FOREIGN TABLE fblobtypet1( BTCOL text ) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:7789/', FORMAT 'text', DELIMITER E'x08', NULL '', EOL '0x0a' ) WRITE ONLY; INSERT INTO blobtypet1 VALUES(E'xDEADBEEF'); INSERT INTO blobtypet1 VALUES(E'xDEADBEEF'); INSERT INTO blobtypet1 VALUES(E'xDEADBEEF'); INSERT INTO blobtypet1 VALUES(E'xDEADBEEF'); INSERT INTO fblobtypet1 select encode(BTCOL,'base64') from blobtypet1; 对二进制表导入: 创建表。 CREATE TABLE blobtypet2 ( BTCOL BYTEA ) DISTRIBUTE BY REPLICATION; 创建外表 CREATE FOREIGN TABLE fblobtypet2( BTCOL text ) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:7789/fblobtypet1.dat.0', FORMAT 'text', DELIMITER E'x08', NULL '', EOL '0x0a' ); insert into blobtypet2 select decode(BTCOL,'base64') from fblobtypet2; SELECT FROM blobtypet2; btcol xdeadbeef xdeadbeef xdeadbeef xdeadbeef (4 rows) 对同一张外表重复导出会覆盖之前的文件,因此不要对同一个外表重复导出。 若不确定文件是否为标准的csv格式,推荐将quote参数设置为0x07,0x08或0x1b等不可见字符来进行GDS导入导出,避免文件格式问题导致任务失败。 CREATE FOREIGN TABLE foreignHRstaffSft1 ( MANAGERID NUMBER(6), sectionID NUMBER(4) ) SERVER gsmppserver OPTIONS (location 'file:///inputdata/', format 'csv', mode 'private', quote '0x07', delimiter ',') WITH errHRstaffSft1; GDS支持并发导入导出,gds t参数用于设置gds的工作线程池大小,控制并发场景下同时工作的工作线程数且不会加速单个sql任务。gds t缺省值为8,上限值为200。在使用管道功能进行导入导出时,t参数应不低于业务并发数。 GDS外表参数delimiter是多字符时,建议TEXT格式下字符不要完全相同,例如不建议使用delimiter ''。 GDS多表并行导入同一个文件提升导入性能(仅支持text和csv文件)。 创建目标表。 CREATE TABLE pipegdswidetb1 (city integer, telnum varchar(16), cardcode varchar(15), phonecode vcreate table pipegdswidetb3 (city integer, telnum varchar(16), cardcode varchar(15), phonecode varchar(16), regioncode varchar(6), stationid varchar(10), tmsi varchar(20), recdate integer(6), rectime integer(6), rectype numeric(2), switchid varchar(15), attachcity varchar(6), opc varchar(20), dpc varchar(20)); 创建带有filesequence字段的外表。 CREATE FOREIGN TABLE gdspipcsvr1( like pipegdswidetb1) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:8781/widetb.txt', FORMAT 'text', DELIMITER E'+', NULL '', filesequence '51'); CREATE FOREIGN TABLE gdspipcsvr2( like pipegdswidetb1) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:8781/widetb.txt', FORMAT 'text', DELIMITER E'+', NULL '', filesequence '52'); CREATE FOREIGN TABLE gdspipcsvr3( like pipegdswidetb1) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:8781/widetb.txt', FORMAT 'text', DELIMITER E'+', NULL '', filesequence '53'); CREATE FOREIGN TABLE gdspipcsvr4( like pipegdswidetb1) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:8781/widetb.txt', FORMAT 'text', DELIMITER E'+', NULL '', filesequence '54'); CREATE FOREIGN TABLE gdspipcsvr5( like pipegdswidetb1) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:8781/widetb.txt', FORMAT 'text', DELIMITER E'+', NULL '', filesequence '55'); 将widetb.txt并发导入到pipegdswidetb1。 parallel on INSERT INTO pipegdswidetb1 SELECT FROM gdspipcsvr1; INSERT INTO pipegdswidetb1 SELECT FROM gdspipcsvr2; INSERT INTO pipegdswidetb1 SELECT FROM gdspipcsvr3; INSERT INTO pipegdswidetb1 SELECT FROM gdspipcsvr4; INSERT INTO pipegdswidetb1 SELECT FROM gdspipcsvr5; parallel off filesequence参数详细内容,可参考《开发指南》中的“CREATE FOREIGN TABLE (GDS导入导出)”。
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        导入导出
        GDS实践指南
      • 步骤二:创建Kafka实例
        本文主要介绍 步骤二:创建Kafka实例。 前提条件 在创建Kafka实例前,需要保证存在可使用的虚拟私有云。创建方法,请参考《虚拟私有云 用户指南》的“创建虚拟私有云和子网”。 如果您已有虚拟私有云,可重复使用,不需要多次创建。 操作步骤 步骤 1 登录分布式消息服务Kafka控制台,单击页面右上方的“购买Kafka实例”。 步骤 2 选择计费模式。 步骤 3 在“区域”下拉列表中,选择靠近您应用程序的区域,可降低网络延时、提高访问速度。 步骤 4 在“项目”下拉列表中,选择项目。 步骤 5 在“可用区”区域,根据实际情况选择1个或者3个及以上可用区。 步骤 6 设置“实例名称”和“企业项目”。 步骤 7 设置实例信息。 1. 版本:Kafka的版本号,支持1.1.0、2.3.0和2.7,根据实际情况选择,推荐使用2.7。 Kafka实例创建后,版本号不支持修改 。 2. CPU架构:支持“x86计算”,保持默认值即可。 3. 在“代理规格”中,请根据业务需求选择相应的代理规格。在“代理数量”中,选择代理个数。 单个代理最大分区数代理个数实例分区数上限。当所有Topic的总分区数大于实例分区数上限时,创建Topic失败。 4. 在“存储空间”区域,您根据实际需要选择存储Kafka数据的磁盘类型和总磁盘大小。 Kafka实例创建后,磁盘类型不支持修改 。 存储空间包含所有副本存储空间总和,建议根据业务消息体积以及副本数量选择存储空间大小。假设业务存储数据保留天数内磁盘大小为100GB,则磁盘容量最少为100GB副本数 + 预留磁盘大小100GB。 创建实例时会进行磁盘格式化,磁盘格式化会导致实际可用磁盘为总磁盘的93%~95%。 5. 在“容量阈值策略”区域,设置磁盘使用达到容量阈值后的消息处理策略,容量阈值为95%。 自动删除:可以正常生产和消费消息,但是会删除最早的10%的消息,以保证磁盘容量充足。该场景优先保障业务不中断,数据存在丢失的风险。 生产受限:无法继续生产消息,但可以继续消费消息。该场景适用于对数据不能丢的业务场景,但是会导致生产业务失败。 图 创建Kafka实例 步骤 8 设置实例网络环境信息。 1. 在“虚拟私有云”下拉列表,选择已经创建好的虚拟私有云和子网。 说明 虚拟私有云和子网在Kafka实例创建完成后,不支持修改。 2. 在“安全组”下拉列表,可以选择已经创建好的安全组。 安全组是一组对Kafka实例的访问规则的集合。您可以单击右侧的“管理安全组”,跳转到网络控制台的“安全组”页面,查看或创建安全组。 步骤 9 设置登录Kafka Manager的用户名和密码。创建实例后,Kafka Manager用户名无法修改。 Kafka Manager是开源的Kafka集群管理工具,实例创建成功后,实例详情页面会展示Kafka Manager登录地址,您可登录Kafka Manager页面,查看Kafka集群的监控、代理等信息。 步骤 10 设置实例购买时长。 当选择了“包年/包月”付费模式时,页面才显示“购买时长”参数,您需要根据业务需要选择。 步骤 11 单击“更多配置”,设置更多相关信息。 1. 设置“公网访问”。 “公网访问”默认为关闭状态,根据业务需求选择是否开启。开启公网访问后,还需要为每个代理设置对应的IPv4弹性IP地址。 图 设置公网访问开关 2. 设置“Kafka SASLSSL”。 客户端连接Kafka实例时,是否开启SSL认证。开启Kafka SASLSSL,则数据加密传输,安全性更高。 “Kafka SASLSSL”默认为关闭状态,您可以选择是否开启。 Kafka实例创建后,Kafka SASLSSL开关不支持修改 ,请慎重选择。如果创建后需要修改,需要重新创建实例。 开启Kafka SASLSSL后,您可以选择是否开启“SASL PLAIN 机制”。未开启“SASL PLAIN 机制”时,使用SCRAMSHA512机制传输数据,开启“SASL PLAIN 机制”后,同时支持SCRAMSHA512机制和PLAIN机制,根据实际情况选择其中任意一种配置连接。Kafka实例创建后,SASL PLAIN机制开关不支持修改。 什么是SCRAMSHA512机制和PLAIN机制? SCRAMSHA512机制:采用哈希算法对用户名与密码生成凭证,进行身份校验的安全认证机制,比PLAIN机制安全性更高。 PLAIN机制:一种简单的用户名密码校验机制。 开启Kafka SASLSSL后,您需要设置连接Kafka实例的用户名和密码。 3. 设置“Kafka自动创建Topic”。 “Kafka自动创建Topic”默认为关闭状态,您可以选择是否开启。 开启“Kafka自动创建Topic”表示生产或消费一个未创建的Topic时,系统会自动创建此Topic,此Topic的默认参数值如下:分区数为3,副本数为3,老化时间为72小时,不开启同步复制和同步落盘。 如果在“配置参数”中修改“log.retention.hours”、“default.replication.factor”或“num.partitions”的参数值,此后自动创建的Topic参数值为修改后的参数值。例如:“num.partitions”修改为“5”,自动创建的Topic参数值如下:分区数为5,副本数为3,老化时间为72小时,不开启同步复制和同步落盘。 4. 设置“标签”。 标签用于标识云资源,当您拥有相同类型的许多云资源时,可以使用标签按各种维度(例如用途、所有者或环境)对云资源进行分类。 如果您已经预定义了标签,在“标签键”和“标签值”中选择已经定义的标签键值对。另外,您可以单击“查看预定义标签”,跳转到标签管理服务页面,查看已经预定义的标签,或者创建新的标签。 您也可以直接在“标签键”和“标签值”中设置标签。 当前每个Kafka实例最多支持设置20个不同标签,标签的命名规格,请参考管理实例标签。 5. 设置实例的描述信息。 步骤 12 填写完上述信息后,单击“立即购买”,进入规格确认页面。 步骤 13 确认实例信息无误后,提交请求。 步骤 14 单击“返回Kafka专享版”,查看Kafka实例是否创建成功。 创建实例大约需要3到15分钟,此时实例的“状态”为“创建中”。 当实例的“状态”变为“运行中”时,说明实例创建成功。 如果创建实例失败,在信息栏的“创建失败任务”中查看创建失败的实例。请删除创建失败的实例,然后重新创建。如果重新创建仍然失败,请联系客服。 说明 创建失败的实例,不会占用其他资源。
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        步骤二:创建Kafka实例
      • 挂载文件系统到云主机(Linux)
        本节主要介绍如何挂载文件系统到Linux云主机。 CIFS类型的文件系统不支持使用Linux操作系统的云主机进行挂载。本章节以Linux系统为例进行NFS类型的文件系统的挂载。 前提条件 确定云主机操作系统类型,不同操作系统安装NFS客户端的命令不同; 已完成创建文件系统,并获取到文件系统的共享路径; 选择与文件系统所属VPC相同的云主机进行挂载; 云主机上已配置了用于解析文件系统域名的DNS服务器的IP地址; 如果云主机需要通过IPv6地址挂载SFS Turbo文件系统,需要选择支持IPv6的云主机类型 约束与限制 说明 该约束仅针对本地挂载路径(即挂载点),不影响其他文件或目录。 暂不支持修改本地挂载路径(即挂载点)的元数据,即不支持对挂载点的元数据做如下操作: touch:更新文件的访问时间和修改时间 rm:删除文件或目录 cp:复制文件或目录 mv:移动文件或目录 rename:重命名文件或目录 chmod:修改文件或目录的权限 chown:修改文件或目录的所有者 chgrp:修改文件或目录的所属组 ln:创建硬链接 link:创建硬链接 unlink:删除硬链接 本地挂载路径(即挂载点根目录)的atime、ctime和mtime属性是当前时间,每次查询根目录属性返回的都是服务端当时时间的值。 操作步骤 1、以root用户登录弹性云主机; 2、安装NFS客户端: a) 查看系统是否安装NFS软件包; − CentOS、Red Hat、Oracle Enterprise Linux、SUSE、Euler OS、Fedora或OpenSUSE系统下,执行如下命令: rpm qagrep nfs − Debian或Ubuntu系统下,执行如下命令: dpkg l nfs 不同操作系统回显会有所不同,如果回显如下类似信息,说明已经成功安装NFS软件包,执行步骤3,如未显示,执行步骤2.2。 − CentOS、Red Hat、Euler OS、Fedora或Oracle Enterprise Linux系统下,回显如下类似信息: libnfsidmap nfsutils − SUSE或OpenSUSE系统下,回显如下类似信息: nfsidmap nfsclient − Debian或Ubuntu系统下,回显如下类似信息: nfscommon b) 如果查看到未安装,根据不同的操作系统,执行不同命令。执行以下命令前要求云主机已连接到互联网,否则安装NFS客户端失败; − CentOS、Red Hat、Euler OS、Fedora或Oracle Enterprise Linux系统下,执行如下命令: sudo yum y install nfsutils − Debian或Ubuntu系统下,执行如下命令: sudo aptget install nfscommon − SUSE或OpenSUSE系统下,执行如下命令: zypper install nfsclient 3、执行如下命令,查看是否能解析文件系统共享路径中的域名: nslookup文件系统域名 说明 文件系统域名仅为域名,如:sfsnas1.xxxx.com。文件系统域名请从文件系统的共享路径中获取,不需要输入整个共享路径。 无法使用nslookup命令时,需要先安装bindutils软件包。(可通过执行yum install bindutils命令安装) a) 解析成功,执行步骤4; b) 解析失败,请先完成DNS服务器IP地址的配置再执行挂载文件系统的操作,具体配置操作请参见《如何配置DNS》。 4、执行如下命令,创建用于挂载文件系统的本地路径。 mkdir本地路径 5、执行如下命令,将文件系统挂载到云主机上。文件系统目前仅支持NFS v3协议挂载到云主机,其中变量说明见下表: mount t nfs o vers3,timeo600,noresvport,nolock,tcp 挂载地址 本地路径 注意 1. 已挂载文件系统的云主机重启后,该云主机上的挂载信息将会丢失,您可以通过在fstab文件中配置自动挂载来保证云主机重启时自动挂载文件系统。 2. 在网络切换时,文件系统可能会发生阻塞,可能需要几分钟才会自动恢复连接,更严重时甚至需要重启ECS才能恢复。强烈建议使用noresvport参数,这可以保障网络发生故障恢复事件后文件系统服务不会中断。 参数 说明 vers 文件系统版本,目前只支持NFSv3。取值:3。 timeo NFS客户端重传请求前的等待时间(单位为0.1秒)。建议值:600。 noresvport 指定NFS客户端向NFS服务端重新发起建立连接时使用新的TCP端口。 lock/nolock 选择是否使用NLM协议在服务器上锁文件。当选择nolock选项时,锁对于同一主机的应用有效,对不同主机不受锁的影响。建议值:nolock。如不加此参数,则默认为lock,就会发生其他服务器无法对此文件系统写入的情况。 挂载地址 SFS容量型文件系统的格式为:文件系统域名:/路径,例如:example.com:/sharexxx。如图1所示。 SFS Turbo标准型、标准型增强版、性能型、性能型增强版文件系统的格式为:文件系统IP:/,例如192.168.0.0:/。如图2所示。 SFS Turbo 20MB/s/TiB、40MB/s/TiB、125MB/s/TiB、250MB/s/TiB、500MB/s/TiB、1000MB/s/TiB文件系统的格式为:域名地址:/,例如xxx.sfsturbo.internal:/。如图3所示。 x是数字或字母。 本地路径 云主机上用于挂载文件系统的本地路径,例如“/localpath”。 图1 SFS容量型文件系统挂载地址 图2 SFS Turbo文件系统(标准型)挂载地址 图3 SFS Turbo文件系统(20MB/s/TiB类型)挂载地址 6、挂载完成后,执行如下命令,查看已挂载的文件系统: mount l 如果回显包含如下类似信息,说明挂载成功。 example.com:/sharexxx on /localpath type nfs (rw,vers3,timeo600,nolock,addr) 7、挂载成功后,用户可以在云主机上访问文件系统,执行读取或写入操作。 说明 SFS容量型支持写入的单个文件最大容量为240TB。 SFS Turbo标准型和性能型文件系统支持写入的单个文件系统最大容量为32TB,SFS Turbo标准型增强版和性能型增强版文件系统支持写入的单个文件系统最大容量为320TB,SFS Turbo 20MB/s/TiB、40MB/s/TiB、125MB/s/TiB、250MB/s/TiB、500MB/s/TiB和1000MB/s/TiB等类型的文件系统支持写入的单个文件系统最大容量为1PB。 8、如果需要取消挂载,执行命令umount 本地路径。执行取消挂载命令时,请先结束所有与这个文件系统相关的读写操作,并退出本地路径目录,再执行取消命令,不然会返回失败。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        挂载文件系统到云主机(Linux)
      • 1
      • ...
      • 289
      • 290
      • 291
      • 292
      • 293
      • ...
      • 296
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      推荐文档

      网页防篡改集中管理中心安装

      常见问题

      云安备信息查看

      创建

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号