云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      翼来单_相关内容
      • 资产指纹
        此小节介绍企业主机安全资产指纹。 主机资产管理 查看主机资产信息 HSS提供资产管理功能,主动检测主机中的开放端口、系统运行中的进程、主机自启动项。通过资产管理,您能集中清点主机中的各项资产信息,及时发现主机中含有风险的各项资产。 资产管理仅提供风险检测功能,若发现有可疑资产信息,请手动处理。 约束限制 需开启企业版、旗舰版、网页防篡改版或容器版中任一版本。 检测周期 帐号、开放端口:实时检测。开放端口检测结果每6小时刷新一次统计数据。 进程、Web目录管理、软件信息管理、自启动:每日凌晨自动进行一次检测。 查看所有主机资产信息 1、登录管理控制台。 2、在页面左上角单击,选择“区域”,选择“安全>企业主机安全”,进入“企业主机安全”页面。 3、在弹窗界面单击“体验新版”,切换至主机安全服务页面。 说明切换至新版后,在总览页左上角单击“返回旧版”,可切换至主机安全(旧版)。 4、选择“资产管理>资产指纹”,进入“资产指纹”页面,查看所有主机资产。 主机资产指纹特性 功能项 功能描述 检测周期 帐号 检测主机系统中的帐号,列出当前系统的帐号信息,帮助用户进行帐户安全性管理。根据帐号的实时信息和历史变动,您可以快速排查主机中的可疑帐号。 帐号的实时信息包括帐号的“帐号名称”、“服务器数”以及具体帐号对应的“服务器名称/IP”、“登录权限”、“ROOT权限”、“用户组”、“用户目录”、“用户启动Shell”和“最近扫描时间”。 帐号的历史变动记录包括“服务器名称/IP”、“变动状态”、“登录权限”、“ROOT权限”、“用户组”、“用户目录”、“用户启动Shell”和“最近扫描时间”。 实时检测 开放端口 检测主机系统中的端口,列出当前系统开放的端口列表,帮助用户识别出其中的危险端口和未知端口。 根据“本地端口”、“协议类型”以及具体端口对应的“服务器名称/IP”、“状态”、“进程PID”、“程序文件”,您能够快速排查主机中含有风险的端口。 手动关闭风险端口 如果检测到开放了危险端口或者开放了不必要的端口,需要排查这些端口是否是正常业务使用,如果不是正常业务端口,建议关闭端口。对于危险端口建议进一步检查程序文件,如果存在风险建议删除或者隔离源文件。 建议您及时优先处理危险程度为“危险”的端口,根据业务实际情况处理危险程度为“未知”的端口。 忽略风险:如果检测出的危险端口是业务正在使用的正常端口,您可以忽略该条告警。忽略之后将不再作为危险项进行记录,也不再发送告警。 实时检测 进程 检测主机系统中运行的进程,对运行中的进程进行收集及呈现,便于自主清点合法进程发现异常进程。 根据主机中“进程路径”以及具体进程对应的“服务器名称/IP”、“启动参数”、“启动时间”、“运行用户”、“文件权限”、“进程PID”以及“文件HASH”,您能够快速排查主机中的异常进程。 进程信息管理检测的机制是30天检测不到进程后,自动清除进程信息管理列表中的进程信息。 实时检测 软件 检测并列出当前系统安装的软件信息,帮助用户清点软件资产,识别不安全的软件版本。 根据软件的实时信息和历史变动,您能够快速排查主机中含有风险的软件。 软件的实时信息包括“软件名称”、“服务器数”以及具体软件对应的安装该软件的“服务器名称/IP”和“版本”、“软件更新时间”和“最近扫描时间”。 软件的历史变动记录包括软件的“服务器名称/IP”、“变动状态”、“版本”、“软件更新时间”和“最近扫描时间”。 每日自动检测 自启动项 检测并列出当前所有主机系统中的自启动项,帮助用户及时发现异常自启动项,快速定位木马程序的问题。 自启动项的实时信息包括“名称”、“类型”(自启动服务、开机启动文件夹、预加载动态库、Run注册表键或者定时任务)、“服务器数”以及类型对应的“服务器名称/IP”、“路径”、“文件HASH”、“运行用户”、以及“最近扫描时间”。 自启动项的历史变动记录包括“服务器名称/IP”、“变动状态”、“路径”、“文件HASH”、“运行用户”和“最近扫描时间”。 实时检测 Web站点 统计、展示存放Web内容的目录及对外提供访问的站点信息,您可以查看所有目录及权限、以及和站点所关联访问路径、对外端口、证书信息(后续提供)、关键进程等信息。 1次/周(每周一凌晨06:00) Web框架 统计、展示Web内容对外呈现时所使用框架的详细信息,您可查看所有框架的版本、路径、关联进程等信息。 1次/周(每周一凌晨06:00) 中间件 统计、展示所使用到的所有软件信息,您可查看所有中间件所关联的服务器、版本号、路径、关联进程等信息。 1次/周(每周一凌晨06:00) 内核模块 统计、展示运行在内核层的全量程序模块文件,您可查看所有模块所关联的服务器、版本号、模块描述、驱动文件路径、文件权限、文件哈希等信息。 1次/周(每周一凌晨06:00) 查看单服务器的主机资产信息 1、登录管理控制台。 2、在页面左上角单击,选择“区域”,选择“安全>企业主机安全,进入“企业主机安全”页面。 3、在弹窗界面单击“体验新版”,切换至主机安全服务页面。切换至新版后,在总览页左上角单击“返回旧版”,可切换至主机安全(旧版)。 4、在左侧导航栏,选择“资产管理>主机管理”,进入“主机管理”界面,选择“云服务器”页签,进入云服务器页面。 5、单击目标服务器名称,进入目标服务器的详情页面,选择“资产指纹”页签。 6、单击指纹列表的目标指纹类型,查看对应资产信息,资产指纹类型特性如表所示。 主机资产指纹特性 功能项 功能描述 检测周期 帐号 检测主机系统中的帐号,列出当前系统的帐号信息,帮助用户进行帐户安全性管理。根据帐号的实时信息和历史变动,您可以快速排查主机中的可疑帐号。 帐号的实时信息包括帐号的“帐号名称”、“服务器数”以及具体帐号对应的“服务器名称/IP”、“登录权限”、“ROOT权限”、“用户组”、“用户目录”、“用户启动Shell”和“最近扫描时间”。 帐号的历史变动记录包括“服务器名称/IP”、“变动状态”、“登录权限”、“ROOT权限”、“用户组”、“用户目录”、“用户启动Shell”和“最近扫描时间”。 实时检测 开放端口 检测主机系统中的端口,列出当前系统开放的端口列表,帮助用户识别出其中的危险端口和未知端口。根据“本地端口”、“协议类型”以及具体端口对应的“服务器名称/IP”、“状态”、“进程PID”、“程序文件”,您能够快速排查主机中含有风险的端口。 手动关闭风险端口 如果检测到开放了危险端口或者开放了不必要的端口,需要排查这些端口是否是正常业务使用,如果不是正常业务端口,建议关闭端口。对于危险端口建议进一步检查程序文件,如果存在风险建议删除或者隔离源文件。 建议您及时优先处理危险程度为“危险”的端口,根据业务实际情况处理危险程度为“未知”的端口。 忽略风险:如果检测出的危险端口是业务正在使用的正常端口,您可以忽略该条告警。忽略之后将不再作为危险项进行记录,也不再发送告警。 实时检测 进程 检测主机系统中运行的进程,对运行中的进程进行收集及呈现,便于自主清点合法进程发现异常进程。 根据主机中“进程路径”以及具体进程对应的“服务器名称/IP”、“启动参数”、“启动时间”、“运行用户”、“文件权限”、“进程PID”以及“文件HASH”,您能够快速排查主机中的异常进程。 进程信息管理检测的机制是30天检测不到进程后,自动清除进程信息管理列表中的进程信息。 实时检测 软件 检测并列出当前系统安装的软件信息,帮助用户清点软件资产,识别不安全的软件版本。 根据软件的实时信息和历史变动,您能够快速排查主机中含有风险的软件。 软件的实时信息包括“软件名称”、“服务器数”以及具体软件对应的安装该软件的“服务器名称/IP”和“版本”、“软件更新时间”和“最近扫描时间”。 软件的历史变动记录包括软件的“服务器名称/IP”、“变动状态”、“版本”、“软件更新时间”和“最近扫描时间”。 每日自动检测 自启动项 检测并列出当前所有主机系统中的自启动项,帮助用户及时发现异常自启动项,快速定位木马程序的问题。 自启动项的实时信息包括“名称”、“类型”(自启动服务、开机启动文件夹、预加载动态库、Run注册表键或者定时任务)、“服务器数”以及类型对应的“服务器名称/IP”、“路径”、“文件HASH”、“运行用户”、以及“最近扫描时间”。 自启动项的历史变动记录包括“服务器名称/IP”、“变动状态”、“路径”、“文件HASH”、“运行用户”和“最近扫描时间”。 实时检测 Web站点 统计、展示存放Web内容的目录及对外提供访问的站点信息,您可以查看所有目录及权限、以及和站点所关联访问路径、对外端口、证书信息(后续提供)、关键进程等信息。 1次/周(每周一凌晨06:00) Web框架 统计、展示Web内容对外呈现时所使用框架的详细信息,您可查看所有框架的版本、路径、关联进程等信息。 1次/周(每周一凌晨06:00) 中间件 统计、展示所使用到的所有软件信息,您可查看所有中间件所关联的服务器、版本号、路径、关联进程等信息。 1次/周(每周一凌晨06:00) 内核模块 统计、展示运行在内核层的全量程序模块文件,您可查看所有模块所关联的服务器、版本号、模块描述、驱动文件路径、文件权限、文件哈希等信息。 1次/周(每周一凌晨06:00)
        来自:
        帮助文档
        企业主机安全
        用户指南
        资产管理
        资产指纹
      • 使用限制
        限制项 具体要求 说明 加速域名准入条件 中国内地: 1. 账号已在天翼云进行实名认证。 2. 域名已完成ICP备案且备案信息准确有效。 3. 域名接入时需要经过内容审核。 4. 域名接入时需要能通过域名归属权验证。 全球(不含中国内地): 1. 账号已在天翼云进行实名认证。 2. 域名接入时需要经过内容审核。 3. 域名接入时需要能通过域名归属权验证。 全球: 1. 账号已在天翼云进行实名认证。 2. 域名已完成ICP备案且备案信息准确有效。 3. 域名接入时需要经过内容审核。 4. 域名接入时需要能通过域名归属权验证。 1.全球(不含中国内地):包括中国香港、中国澳门、中国台湾、其他国家及地区。 2.加速范围为中国内地、全球的域名已完成ICP备案且备案信息准确有效才能接入天翼云视频直播服务,否则天翼云无法提供加速服务。 加速范围 视频直播:支持中国内地加速以及全球(不含中国内地)加速。 极速直播:仅支持中国内地加速。 全球(不含中国内地):包括中国香港、中国澳门、中国台湾、其他国家及地区。 加速域名使用限制 1. 域名类型:支持子域名(例如,abc.ctyun.cn),暂不支持泛域名(例如,.ctyun.cn)。 2. 域名长度:长度不超过128字节。 3. 支持的字符:小写英文字母(az)、数字(09)、短划线()。 4.域名数量:每个账号每个产品类型最多可以添加100个域名;如果有主子账号时,主子账号共用100个加速域名限额。如需配置超过100个加速域名,请 内容审核 不支持接入违反相关法律法规的域名,包括但不限于: 1. 涉黄、涉赌、涉毒、涉暴恐内容。 2. 盗版游戏、盗版软件、盗版视频。 3. P2P类金融、彩票类、违规医院和药品类。 4. 游戏私服类。 如果您的加速域名含有以上违规的内容,您将自行承担相关风险。如果发现加速域名有违规行为,视频直播将封禁该域名,因违规而封禁的加速域名将永久不能解禁。 直播协议 视频直播:推流支持RTMP(s),拉流支持FLV/HLS/RTMP。 极速直播:推流支持RTMP,拉流支持FLV/HLS/RTMP/WebRTC。 直播转码 1. 暂不支持窄带高清。 2.直播转码仅支持中国内地,不支持全球(不含中国内地)。 直播录制 1. 需要先开通媒体存储服务。 2. 只支持对源流进行录制,不支持对转码流进行录制。 3. 直播录制仅支持中国内地,不支持全球(不含中国内地)。 录制的文件需要存储在媒体存储中,所以使用直播录制功能前需要先开通媒体存储服务。 直播截图 1. 需要先开通媒体存储服务。 2. 截图支持jpg和png。 3. 直播截图仅支持中国内地,不支持全球(不含中国内地)。 截图的文件需要存储在媒体存储中,所以使用直播截图功能前需要先开通媒体存储服务。 直播审核 1. 需要先开通媒体存储服务。 2. 目前只支持涉黄和涉恐审核。 3. 直播审核仅支持中国内地,不支持全球(不含中国内地)。 审核的文件需要存储在媒体存储中,所以使用直播审核功能前需要先开通媒体存储服务。 HTTPS证书 目前只支持PEM格式。 单用户调用API接口频率限制 1.针对查询类API接口,单个用户一分钟限制调用10000次,并发不超过100。 2.针对操作类API接口,单个用户一分钟限制调用10次。 操作类接口,是指例如新增域名、删除/停用/启用域名等需对域名状态进行变更类的操作。
        来自:
        帮助文档
        视频直播
        产品介绍
        使用限制
      • XEN实例变更为KVM实例(Windows)
        本节介绍了XEN实例变更为KVM实例(Windows)的操作场景、约束与限制、操作流程、后续处理。 操作场景 XEN实例变更为KVM实例前,需要确保Windows弹性云主机已安装了PV driver和UVP VMTools。 本节指导您安装PV driver和UVP VMTools,将XEN实例变更为KVM实例。 说明 XEN实例:S1、C1、C2、M1型弹性云主机。 KVM实例:参考 “XEN实例”变更为“KVM实例”必须先安装对应的驱动,然后再变更规格。否则,规格变更后的弹性云主机不可用(如操作系统无法启动等问题)。 Linux操作系统的“XEN实例”变更为“KVM实例”时,优先推荐使用 约束与限制 Windows操作系统云主机如果存在跨区卷,不支持变更规格,否则可能会导致数据丢失。 对于XEN实例,当挂载的VBD磁盘超过24块时,不支持将规格变更为KVM实例。 系统支持将“XEN实例”变更为“KVM实例”,不支持将“KVM实例”变更为“XEN实例”。 操作流程 XEN实例变更为KVM实例的操作流程如下图所示。 图 Windows云主机变更流程 具体的变更操作如下表所示。 表 XEN实例变更为KVM实例 序号 任务 :: 步骤1 步骤1:制作系统盘快照 步骤2 步骤2:检查UVP VMTools版本 步骤3 步骤3:安装或升级UVP VMTools 步骤4 步骤4:变更规格 步骤5 步骤5:检查磁盘挂载状态 步骤1:制作系统盘快照 如果云主机未安装驱动就执行了变更规格的操作,云主机无法正常使用,需要重装操作系统才能恢复,可能造成您的系统盘数据丢失。因此,建议您先制作系统盘快照,防止数据丢失。创建快照参考 控制面板”。 b. 单击“卸载程序”。 c. 按照提示,卸载“GPL PV Drivers for Windows x.x.x.xx”。 d. 在控制台重启云主机。 4. 安装新版本PV driver。 a. 下载PV Driver的安装包。 b. 解压PV driver软件包。 c. 双击“pvdriverwindows.iso”。 d. 运行“Setup.exe”,根据界面提示安装PV Driver。 请耐心等待驱动安装完成,请勿重复点击“Setup.exe”。 e. 根据提示重启云主机,使PV driver生效。 5. 检查并恢复UAC配置。 a. 打开“运行”窗口,输入“regedit”,打开“注册表编辑器”。 b. 查看HKEYLOCALMACHINESOFTWAREMicrosoftWindowsCurrentVersionPoliciesSystemEnableLUA 键值,与卸载PV Driver前记录的键值比较,如果不同请将键值修改为2中记录的值。 6. 安装或升级UVP VMTools。 a. 下载UVP VMTools的安装包。 b. 解压UVP VMTools的安装包。 c. 双击“vmtoolswindows.iso”。 d. 运行“Setup.exe”,根据界面提示安装UVP VMTools。 安装程序会自动匹配当前操作系统版本,并识别新安装或升级场景。 请耐心等待驱动安装完成,请勿重复点击“Setup.exe” e. 根据提示重启云主机,使UVP VMTools驱动生效。 f. 驱动安装完成并重启云主机后,需检查驱动是否安装成功。检查方法请参考步骤2:检查UVP VMTools版本。 步骤4:变更规格 1. 登录控制台。 2. 选择“计算 > 弹性云主机”。 3. 在弹性云主机列表,查询待变更弹性云主机状态。 如果不是关机状态,单击“操作”列下的“更多 > 关机”。 4. 单击“操作”列下的“更多 > 变更规格”。 系统进入“云主机变更规格”页面。 5. 根据界面提示,选择变更后的云主机类型、vCPU和内存。 6. (可选)选择“专属主机”。 对于在专属主机上创建的弹性云主机,系统支持更换云主机所在的专属主机。 此时,您可以单击下拉列表,选择更换专属主机。如果下拉列表中无可用的专属主机,说明专属主机所剩资源不足,不能用于创建变更规格后的弹性云主机。 7. 勾选复选框“我确认已完成对弹性云主机的配置”,确认已完成步骤3:安装或升级UVP VMTools。 8. 单击“确定”。 说明 如果变更规格失败后,弹性云主机无法使用,可能会需要重装操作系统来恢复云主机,请注意重装操作系统会清除系统盘数据,但不影响数据盘的数据。 (可选)步骤5:检查磁盘挂载状态 XEN实例变更为KVM实例时,可能会发生磁盘脱机,因此,变更规格后,需检查磁盘挂载状态是否正常。如果正常,则变更成功。 Windows弹性云主机 详细操作请参考Windows弹性云主机变更规格后数据盘脱机怎么办?
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        实例
        变更规格
        XEN实例变更为KVM实例(Windows)
      • 配置OBS源端参数
        参数类型 参数名 说明 取值样例 基本参数 桶名 待迁移数据所在的桶名。 BUCKET2 基本参数 源目录或文件 “列表文件”选择为“否”时,才有该参数。 待迁移数据的目录或单个文件路径。文件路径支持输入多个文件(最多50个),默认以“l”分隔,也可以自定义文件分隔符。 该参数支持配置为时间宏变量,且一个路径名中可以有多个宏定义变量。使用时间宏变量和定时任务配合,可以实现定期同步新增数据。 FROM/example.csv 基本参数 文件格式 文件格式指CDM以哪种格式解析数据,可选择以下格式: CSV格式:以CSV格式解析源文件,用于迁移文件到数据表的场景。 二进制格式:选择“二进制格式”时不解析文件内容直接传输,不要求文件格式必须为二进制。适用于文件到文件的原样复制。 JSON格式:以JSON格式解析源文件,一般都是用于迁移文件到数据表的场景。 CSV格式 基本参数 列表文件 当“文件格式”选择为“二进制格式”时,才有该参数。 打开列表文件功能时,支持读取OBS桶中文件(如txt文件)的内容作为待迁移文件的列表。该文件中的内容应为待迁移文件的绝对路径(不支持目录),例如直接写为如下内容: /052101/DAY20211110.data /052101/DAY20211111.data 是 基本参数 列表文件源连接 当“列表文件”选择为“是”时,才有该参数。可选择列表文件所在的OBS连接。 OBStestlink 基本参数 列表文件OBS桶 当“列表文件”选择为“是”时,才有该参数。该参数表示列表文件所在的OBS桶名。 01 基本参数 列表文件或目录 当“列表文件”选择为“是”时,才有该参数。该参数表示列表文件所在的OBS桶中的绝对路径或目录。 此处建议选择为文件的绝对路径。当选择为目录时,也支持迁移子目录中的文件,但如果目录下文件量过大,可能会导致集群内存不足。 /0521/Lists.txt 基本参数 JSON类型 当“文件格式”选择为“JSON格式”时,才有该参数。JSON文件中存储的JSON对象的类型,可以选择“JSON对象”或“JSON数组”。 JSON对象 基本参数 记录节点 当“文件格式”选择为“JSON格式”并且“JSON类型”为“JSON对象”时,才有该参数。对该JSON节点下的数据进行解析,如果该节点对应的数据为JSON数组,那么系统会以同一模式从该数组中提取数据。多层嵌套的JSON节点以字符“.”分割。 data.list 高级属性 换行符 文件中的换行符,默认自动识别“n”、“r”或“rn”。当“文件格式”选择为“CSV格式”时,才有该参数。 n 高级属性 字段分隔符 文件中的字段分隔符,使用Tab键作为分隔符请输入“t”。当“文件格式”选择为“CSV格式”时,才有该参数。 , 高级属性 使用包围符 选择“是”时,包围符内的字段分隔符会被视为字符串值的一部分,目前CDM默认的包围符为:"。 否 高级属性 使用正则表达式分隔字段 选择是否使用正则表达式分隔字段,当选择“是”时,“字段分隔符”参数无效。当“文件格式”选择为“CSV格式”时,才有该参数。 是 高级属性 正则表达式 分隔字段的正则表达式。 ^(d. d) (w ) [(. )] ([w.] ) (w. ). 高级属性 首行为标题行 “文件格式”选择“CSV格式”时才有该参数。在迁移CSV文件到表时,CDM默认是全部写入,如果该参数选择“是”,CDM会将CSV文件的第一行数据作为标题行,不写入目的端的表。 否 高级属性 编码类型 文件编码类型,例如:“UTF8”或“GBK”。只有文本文件可以设置编码类型,当“文件格式”选择为“二进制格式”时,该参数值无效。 GBK 高级属性 压缩格式 当“文件格式”为“CSV格式”或“JSON格式”时该参数才显示。选择对应压缩格式的源文件: 无:表示传输所有格式的文件。 GZIP:表示只传输GZIP格式的文件。 ZIP:表示只传输ZIP格式的文件。 TAR.GZ:表示只传输TAR.GZ格式的文件。 无 高级属性 压缩文件后缀 压缩格式非无时,显示该参数。 该参数需要解压缩的文件后缀名。当一批文件中以该值为后缀时,才会执行解压缩操作,否则则保持原样传输。当输入或为空时,所有文件都会被解压。 高级属性 源文件处理方式 作业执行成功后对源端文件的处理方式: 不处理。 重命名:作业执行成功后将源文件重命名,添加用户名和时间戳的后缀。 删除:作业执行成功后将源文件删除。 不处理 高级属性 启动作业标识文件 选择是否开启作业标识文件的功能。当源端路径下存在启动作业的标识文件时才启动作业,否则会挂起等待一段时间,等待时长在下方“等待时间”中配置。 否 高级属性 标识文件名 选择开启作业标识文件的功能时,需要指定启动作业的标识文件名。指定文件后,只有在源端路径下存在该文件的情况下才会运行任务。该文件本身不会被迁移。 ok.txt 高级属性 等待时间 选择开启作业标识文件的功能时,如果源路径下不存在启动作业的标识文件,作业挂机等待的时长,当超时后任务会失败。 等待时间设置为0时,当源端路径下不存在标识文件,任务会立即失败。 单位:秒。 10 高级属性 文件分隔符 “源目录或文件”参数中如果输入的是多个文件路径,CDM使用这里配置的文件分隔符来区分各个文件,默认为 。 高级属性 过滤类型 满足过滤条件的路径或文件会被传输,该参数有“无”、“通配符”和“正则表达式”三种选择。 通配符 高级属性 目录过滤器 “过滤类型”选择“通配符”时,用通配符过滤目录,符合过滤器规则的目录,允许进行迁移。支持配置多个路径,中间使用“,”分隔。 input 高级属性 文件过滤器 “过滤类型”选择“通配符”时,用通配符过滤目录下的文件,符合过滤器规则的文件,允许进行迁移。支持配置多个文件,中间使用“,”分隔。 .csv, .txt 高级属性 时间过滤 选择“是”时,可以根据文件的修改时间,选择性的传输文件。 是 高级属性 起始时间 “过滤类型”选择“时间过滤器”时,可以指定一个时间值,当文件的修改时间大于该时间才会被传输,输入的时间格式需为“yyyyMMdd HH:mm:ss”。 该参数支持配置为时间宏变量,例如${timestamp(dateformat(yyyyMMdd HH:mm:ss,90,DAY))} 表示:只迁移最近90天内的文件。 20190601 00:00:00 高级属性 终止时间 “过滤类型”选择“时间过滤器”时,可以指定一个时间值,当文件的修改时间小于该时间才会被传输,输入的时间格式需为“yyyyMMdd HH:mm:ss”。 该参数支持配置为时间宏变量,例如${timestamp(dateformat(yyyyMMdd HH:mm:ss))} 表示:只迁移修改时间为当前时间以前的文件。 20190701 00:00:00 高级属性 加密方式 如果源端数据是被加密过的,则CDM支持解密后再导出。这里选择是否对源端数据解密,以及选择解密算法: 无:不解密,直接导出。 AES256GCM:使用长度为256byte的AES对称加密算法,目前加密算法只支持AES256GCM(NoPadding)。该参数在目的端为加密,在源端为解密。 AES256GCM 高级属性 忽略不存在原路径/文件 如果将其设为是,那么作业在源路径不存在的情况下也能成功执行。 否 高级属性 数据加密密钥 “加密方式”选择“AES256GCM”时显示该参数,密钥由长度64的十六进制数组成,且必须与加密时配置的“数据加密密钥”一致。如果不一致系统不会报异常,只是解密出来的数据会错误。 DD0AE00DFECD78BF051BCFDA25BD4E320DB0A7AC75A1F3FC3D3C56A457DCDC1B 高级属性 初始化向量 “加密方式”选择“AES256GCM”时显示该参数,初始化向量由长度32的十六进制数组成,且必须与加密时配置的“初始化向量”一致。如果不一致系统不会报异常,只是解密出来的数据会错误。 5C91687BA886EDCD12ACBC3FF19A3C3F 高级属性 MD5文件名后缀 “文件格式”选择“二进制格式”时,该参数才显示。 校验CDM抽取的文件,是否与源文件一致。 .md5
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        配置作业源端参数
        配置OBS源端参数
      • 权限管理
        本章介绍云监控的权限管理。 如果您需要对云服务平台上的云监控服务资源,给企业中的员工设置不同的访问权限,以达到不同员工之间的权限隔离,您可以使用统一身份认证服务(Identity and Access Management,简称IAM)进行精细的权限管理。该服务提供用户身份认证、权限分配、访问控制等功能,可以帮助您安全地控制云服务资源的访问。 通过IAM,您可以在账号中给员工创建IAM用户,并使用策略来控制他们对云服务资源的访问范围。例如您的员工中有负责软件开发的人员,您希望他们拥有云监控服务的使用权限,但是不希望他们拥有删除其他云服务资源等高危操作的权限,那么您可以使用IAM为开发人员创建用户,通过授予仅能使用云监控服务,但是不允许删除其他云服务资源的权限策略,控制他们对其他云服务资源的使用范围。 如果账号已经能满足您的要求,不需要创建独立的IAM用户进行权限管理,您可以跳过本章节,不影响您使用云监控服务的其它功能。 IAM是云服务平台提供权限管理的基础服务,无需付费即可使用,您只需要为您账号中的资源进行付费。关于IAM的详细介绍,请参见《统一身份认证服务》。 云监控服务权限 默认情况下,新建的IAM用户没有任何权限,需要将其加入用户组,并给用户组授予策略或角色,才能使得用户组中的用户获得对应的权限,这一过程称为授权。授权后,用户就可以基于被授予的权限对云服务进行操作。 云监控服务部署时通过物理区域划分,为项目级服务,需要在各区域对应的项目中设置策略,并且该策略仅对此项目生效,如果需要所有区域都生效,则需要在所有项目都设置策略。访问云监控服务时,需要先切换至授权区域。 权限根据授权精细程度分为角色和策略。 角色:IAM最初提供的一种根据用户的工作职能定义权限的粗粒度授权机制。该机制以服务为粒度,提供有限的服务相关角色用于授权。由于云服务平台各服务之间存在业务依赖关系,因此给用户授予角色时,可能需要一并授予依赖的其他角色,才能正确完成业务。角色并不能满足用户对精细化授权的要求,无法完全达到企业对权限最小化的安全管控要求。 策略:IAM最新提供的一种细粒度授权的能力,可以精确到具体服务的操作、资源以及请求条件等。基于策略的授权是一种更加灵活的授权方式,能够满足企业对权限最小化的安全管控要求。例如:针对云监控服务,管理员能够控制IAM用户仅能对某一类云监控资源进行指定的管理操作。 如下表所示,包括了云监控服务的所有系统权限。 表 云监控服务系统权限 系统角色/策略名称 描述 类别 依赖关系 CES FullAccessPolicy 云监控服务的全部权限,拥有该权限可以操作云监控服务的全部权限。 系统策略 云服务监控功能涉及需要查询其他云服务的实例资源,该策略中已包含部分云服务的资源查询权限,如在使用中遇到权限问题,需要配置涉及服务的细粒度授权特性,才可以正常使用,支持细粒度授权的云服务列表请参考:统一身份认证帮助中心中“使用IAM授权的云服务”章节。 告警通知:依赖SMN服务的SMN FullAccess。 配置数据转储:依赖OBS服务的OBS OperateAccess。 CES ReadOnlyAccessPolicy 云监控服务的只读权限,拥有该权限仅能查看云监控服务的数据。 系统策略 云服务监控功能涉及需要查询其他云服务的实例资源,该策略中已包含部分云服务的资源查询权限,如在使用中遇到权限问题,需要配置涉及服务的细粒度授权特性,才可以正常使用 CES AgentAccess CES Agent正常运行所需的必要权限。 系统策略 无。 CES Administrator 云监控服务的管理员权限。 系统角色 依赖Tenant Guest策略。 Tenant Guest:全局级策略,在全局项目中勾选。 CES FullAccess 云监控服务的全部权限,拥有该权限可以操作云监控服务的全部权限。 说明 CES FullAccess不满足权限最小化原则,后续不推荐使用,建议使用CES FullAccessPolicy 系统策略 云服务监控功能涉及需要查询其他云服务的实例资源,该策略中已包含部分云服务的资源查询权限,如在使用中遇到权限问题,需要配置涉及服务的细粒度授权特性,才可以正常使用统一身份认证帮助中心中“使用IAM授权的云服务”章节。 告警通知:依赖SMN服务的SMN FullAccess。 配置数据转储:依赖OBS服务的OBS OperateAccess。 CES ReadOnlyAccess 云监控服务的只读权限,拥有该权限仅能查看云监控服务的数据。 说明 CES ReadOnlyAccess不满足权限最小化原则,后续不推荐使用,建议使用CES ReadOnlyAccessPolicy 系统策略 云服务监控功能涉及需要查询其他云服务的实例资源,该策略中已包含部分云服务的资源查询权限,如在使用中遇到权限问题,需要配置涉及服务的细粒度授权特性,才可以正常使用统一身份认证帮助中心中“使用IAM授权的云服务”章节。 下表列出了云监控服务常用操作与系统权限的授权关系,您可以参照该表选择合适的系统权限。 表 常用操作与系统权限的关系 功能 操作 CES FullAccessPolicy CES ReadOnlyAccessPolicy CES Administrator (需同时添加Tenant Guest策略) Tenant Guest 监控概览 查看监控概览 √ √ √ √ 监控概览 查看监控大屏 √ √ √ √ 监控大盘 创建监控大盘 √ × √ × 监控大盘 查看监控大盘 √ √ √ √ 监控大盘 查看监控大屏 √ √ √ √ 监控大盘 添加监控视图 √ × √ × 监控大盘 查看监控视图 √ √ √ √ 监控大盘 修改监控视图 √ × √ × 监控大盘 删除监控视图 √ × √ × 监控大盘 调整监控视图位置 √ × √ × 监控大盘 删除监控大盘 √ × √ × 我的看板 创建我的看板 √ × √ × 我的看板 查看监控大屏 √ √ √ √ 我的看板 查看我的看板 √ √ √ √ 我的看板 删除我的看板 √ × √ × 我的看板 添加监控视图 √ × √ × 我的看板 查看监控视图 √ √ √ √ 我的看板 修改监控视图 √ × √ × 我的看板 删除监控视图 √ × √ × 我的看板 调整监控视图位置 √ × √ × 资源分组 创建资源分组 √ × √ × 资源分组 查看资源分组列表 √ √ √ √ 资源分组 查看资源分组(资源概览) √ √ √ √ 资源分组 查看资源分组(告警规则) √ √ √ √ 资源分组 修改资源分组 √ × √ × 资源分组 删除资源分组 √ × √ × 告警规则 创建告警规则 √ × √ × 告警规则 修改告警规则 √ × √ × 告警规则 启用告警规则 √ × √ × 告警规则 停用告警规则 √ × √ × 告警规则 删除告警规则 √ × √ × 告警规则 导出告警规则 √ √ √ × 告警规则 查看告警规则列表 √ √ √ √ 告警规则 查看告警规则详情 √ √ √ √ 告警规则 查看监控图表 √ √ √ √ 告警记录 查看告警记录 √ √ √ √ 告警记录 查看监控详情 √ √ √ √ 告警记录 屏蔽告警 √ × √ × 告警记录 手动恢复告警记录 √ × √ × 告警模板 查看默认告警模板 √ √ √ √ 告警模板 查看自定义告警模板 √ √ √ √ 告警模板 创建自定义告警模板 √ × √ × 告警模板 修改自定义告警模板 √ × √ × 告警模板 删除自定义告警模板 √ × √ × 主机监控 查看主机列表 √ √ √ √ 主机监控 查看主机监控指标 √ √ √ √ 主机监控 安装Agent √(需同时拥有ECS FullAccess权限) × √(需同时拥有ECS FullAccess权限) × 主机监控 修复插件配置 √(需同时拥有Security Administrator、ECS FullAccess权限) × √(需同时拥有Security Administrator、ECS FullAccess权限) × 主机监控 卸载Agent √(需同时拥有ECS FullAccess权限) × √(需同时拥有ECS FullAccess权限) × 主机监控 配置进程监控 √ × √ × 主机监控 配置自定义进程监控 √ × √ × 云服务监控 查看云服务列表 √(涉及云服务需要支持细粒度授权特性,参考:《统一身份认证用户指南》中“使用IAM授权的云服务”章节) √(涉及云服务需要支持细粒度授权特性,参考:《统一身份认证用户指南》中“使用IAM授权的云服务”章节) √ √ 云服务监控 查看云服务监控指标 √ √ √ √ 自定义监控 添加自定义监控数据 √ × √ × 自定义监控 查看自定义监控列表 √ √ √ √ 自定义监控 查看自定义监控数据 √ √ √ √ 事件监控 添加自定义事件 √ × √ × 事件监控 查看事件列表 √ √ √ √ 事件监控 查看事件详情 √ √ √ √ 数据转储到DMS Kafka 创建数据转储任务 √ × √ × 数据转储到DMS Kafka 查询数据转储任务列表 √ √ √ √ 数据转储到DMS Kafka 查询指定数据转储任务 √ √ √ √ 数据转储到DMS Kafka 修改数据转储任务 √ × √ × 数据转储到DMS Kafka 启动数据转储任务 √ × √ × 数据转储到DMS Kafka 停止数据转储任务 √ × √ × 数据转储到DMS Kafka 删除数据转储任务 √ × √ × 其他 配置数据转储 √(需同时拥有OBS Bucket Viewer权限) × √(需同时拥有Tenant Administrator权限) × 其他 导出监控数据 √ √ √ × 其他 发送告警通知 √ × √ ×
        来自:
        帮助文档
        云监控服务
        产品简介
        权限管理
      • 产品概述
        本文主要介绍产品概述 应用运维遇到挑战 在云时代微服务架构下应用日益丰富,纷杂的应用异常问题接踵而来。应用运维面临巨大挑战: 分布式应用关系错综复杂,应用性能问题分析定位困难,应用运维面临如何保障应用正常、快速完成问题定位、迅速找到性能瓶颈的挑战。 应用体验差导致用户流失。运维人员如果无法实时感知并追踪体验差的业务,不能及时诊断应用异常,将严重影响用户体验。 业务系统的应用多、分布广,跨系统、跨区域、跨应用的调用频繁,如何降低应用的管理和运维成本,提升应用运维的效率是迫切需要解决的问题。 APM帮您解决 应用性能管理服务(Application Performance Management,简称APM)帮助运维人员快速发现应用的性能瓶颈,以及故障根源的快速定位,为用户体验保驾护航。 您无需修改代码,只需为应用安装一个APM Agent,就能够对该应用进行全方位监控,帮助您快速定位出错接口和慢接口、重现调用参数、发现系统瓶颈,从而大幅提升线上问题诊断的效率。目前支持JAVA应用,具体的应用监控能力概览如下表。 表 APM监控能力 场景能力 说明 非侵入的应用性能数据采集 用户无需更改应用代码,只需要部署APM Agent包,修改相应的应用启动参数,就可以实现应用监控。 应用指标监控 无须配置,自动监控应用相关大量监控指标,如JVM、JavaMethod、URL、Exception、Tomcat、httpClient、Mysql、Redis、kafka等。 应用拓扑 通过对RPC调用信息进行动态分析、智能计算,自动生成分布式应用间拓扑关系。 调用链追踪 多个应用接入APM后,自动针对某一些请求进行采样,采集单个请求的服务之间调用关系以及中间调用的健康情况,实现全局调用链路的自动跟踪。 常用诊断场景的指标下钻分析 根据应用响应时间、请求数、错误率等指标下钻分析,按应用、组件、环境、数据库和中间件等多维度查看。 异常URL跟踪和慢URL跟踪捕捉 基于调用URL跟踪的超时和异常分析,并有效自动关联到对应的接口调用,如 SQL、MQ 等。 1. 接入APM:应用通过APM自身的AK/SK鉴权进行接入。 2. 数据采集:APM可以通过非侵入方式采集APM Agent提供的应用数据、基础资源数据、用户体验数据等多项指标。 3. 业务实现:APM支持应用指标监控、应用拓扑、调用链追踪和智能告警功能。 4. 业务拓展: 1. 通过APM的应用拓扑、调用链追踪等快速诊断应用性能异常,并结合AOM(应用运维管理)的应用运维指标进行综合判断。 2. 找到应用性能瓶颈后,可以通过CPTS(云性能测试服务 )关联分析生成性能报表。 3. 通过智能算法学习历史指标数据,APM多维度关联分析异常指标,提取业务正常与异常时上下文数据特征,通过聚类分析找到问题根因。
        来自:
        帮助文档
        应用性能管理
        产品介绍
        产品概述
      • 开启HBlock向Prometheus推送监控数据的配置
        A", "Value B", "Value C", "serverIp" ] } } } ], "type": "table" }, { "aliasColors": {}, "bars": false, "dashLength": 10, "dashes": false, "datasource": { "type": "prometheus", "uid": "${DS}" }, "description": "磁盘分区每秒读/写的比特数", "fieldConfig": { "defaults": { "unit": "binBps" }, "overrides": [] }, "fill": 1, "fillGradient": 0, "gridPos": { "h": 8, "w": 12, "x": 0, "y": 55 }, "hiddenSeries": false, "id": 69, "legend": { "alignAsTable": true, "avg": true, "current": true, "hideEmpty": true, "hideZero": true, "max": true, "min": false, "rightSide": false, "show": true, "sort": "max", "sortDesc": true, "total": false, "values": true }, "lines": true, "linewidth": 1, "nullPointMode": "null", "options": { "alertThreshold": true }, "percentage": false, "pluginVersion": "8.4.4", "pointradius": 2, "points": false, "renderer": "flot", "seriesOverrides": [ { "$$hashKey": "object:206", "alias": "", "transform": "negativeY" } ], "spaceLength": 10, "stack": false, "steppedLine": false, "targets": [ { "datasource": { "type": "prometheus", "uid": "${DS}" }, "exemplar": true, "expr": "rate(hblockdiskreadbytes{idc"$idc",clusterId"$clusterId",serverIp"$serverIp", job"hblock"} [5m])", "hide": false, "interval": "", "legendFormat": "{{device}} Read bytes", "refId": "A" } ], "thresholds": [], "timeRegions": [], "title": "Disk Read Data", "tooltip": { "shared": true, "sort": 0, "valuetype": "individual" }, "type": "graph", "xaxis": { "mode": "time", "show": true, "values": [] }, "yaxes": [ { "$$hashKey": "object:176", "format": "binBps", "label": "Read/Write", "logBase": 1, "show": true }, { "$$hashKey": "object:177", "format": "short", "logBase": 1, "show": true } ], "yaxis": { "align": false } }, { "aliasColors": {}, "bars": false, "dashLength": 10, "dashes": false, "datasource": { "type": "prometheus", "uid": "${DS}" }, "description": "磁盘分区每秒读/写的比特数", "fieldConfig": { "defaults": { "unit": "binBps" }, "overrides": [] }, "fill": 1, "fillGradient": 0, "gridPos": { "h": 8, "w": 12, "x": 12, "y": 55 }, "hiddenSeries": false, "id": 83, "legend": { "alignAsTable": true, "avg": true, "current": true, "hideEmpty": true, "hideZero": true, "max": true, "min": false, "rightSide": false, "show": true, "sort": "max", "sortDesc": true, "total": false, "values": true }, "lines": true, "linewidth": 1, "nullPointMode": "null", "options": { "alertThreshold": true }, "percentage": false, "pluginVersion": "8.4.4", "pointradius": 2, "points": false, "renderer": "flot", "seriesOverrides": [ { "$$hashKey": "object:206", "alias": "/.Read./", "transform": "negativeY" } ], "spaceLength": 10, "stack": false, "steppedLine": false, "targets": [ { "datasource": { "type": "prometheus", "uid": "${DS}" }, "exemplar": true, "expr": "rate(hblockdiskwrittenbytes{idc"$idc",clusterId"$clusterId",serverIp"$serverIp", job"hblock"} [5m])", "hide": false, "interval": "", "legendFormat": "{{device}} Written bytes", "refId": "B" } ], "thresholds": [], "timeRegions": [], "title": "Disk Write Data", "tooltip": { "shared": true, "sort": 0, "valuetype": "individual" }, "type": "graph", "xaxis": { "mode": "time", "show": true, "values": [] }, "yaxes": [ { "$$hashKey": "object:176", "format": "binBps", "label": "Read/Write", "logBase": 1, "show": true }, { "$$hashKey": "object:177", "format": "short", "logBase": 1, "show": true } ], "yaxis": { "align": false } }, { "aliasColors": {}, "bars": false, "dashLength": 10, "dashes": false, "datasource": { "type": "prometheus", "uid": "${DS}" }, "description": "磁盘分区输入/输出操作花费的毫秒数", "fieldConfig": { "defaults": { "unit": "ms" }, "overrides": [] }, "fill": 1, "fillGradient": 0, "gridPos": { "h": 8, "w": 12, "x": 0, "y": 63 }, "hiddenSeries": false, "id": 73, "legend": { "alignAsTable": true, "avg": true, "current": true, "hideEmpty": true, "hideZero": true, "max": true, "min": false, "rightSide": false, "show": true, "sort": "current", "sortDesc": true, "total": false, "values": true }, "lines": true, "linewidth": 1, "nullPointMode": "null", "options": { "alertThreshold": true }, "percentage": false, "pluginVersion": "8.4.4", "pointradius": 2, "points": false, "renderer": "flot", "seriesOverrides": [], "spaceLength": 10, "stack": false, "steppedLine": false, "targets": [ { "datasource": { "type": "prometheus", "uid": "${DS}" }, "exemplar": true, "expr": "rate(hblockdiskiotimeseconds{idc"$idc",clusterId"$clusterId",serverIp"$serverIp", job"hblock"} [5m])", "hide": false, "interval": "", "legendFormat": "{{device}} IO time ms", "refId": "A" } ], "thresholds": [], "timeRegions": [], "title": "Milliseconds Spent Doing I/Os", "tooltip": { "shared": true, "sort": 0, "valuetype": "individual" }, "type": "graph", "xaxis": { "mode": "time", "show": true, "values": [] }, "yaxes": [ { "$$hashKey": "object:176", "format": "ms", "label": "", "logBase": 1, "show": true }, { "$$hashKey": "object:177", "format": "short", "logBase": 1, "show": true } ], "yaxis": { "align": false } }, { "aliasColors": {}, "bars": false, "dashLength": 10, "dashes": false, "datasource": { "type": "prometheus", "uid": "${DS}" }, "description": "磁盘分区每秒读/写完成次数", "fieldConfig": { "defaults": { "unit": "iops" }, "overrides": [] }, "fill": 1, "fillGradient": 0, "gridPos": { "h": 8, "w": 12, "x": 12, "y": 63 }, "hiddenSeries": false, "id": 68, "legend": { "alignAsTable": true, "avg": true, "current": true, "hideEmpty": true, "hideZero": true, "max": true, "min": false, "rightSide": false, "show": true, "sort": "max", "sortDesc": true, "total": false, "values": true }, "lines": true, "linewidth": 1, "nullPointMode": "null", "options": { "alertThreshold": true }, "percentage": false, "pluginVersion": "8.4.4", "pointradius": 2, "points": false, "renderer": "flot", "seriesOverrides": [ { "$$hashKey": "object:206", "alias": "/.Writes./", "transform": "negativeY" } ], "spaceLength": 10, "stack": false, "steppedLine": false, "targets": [ { "datasource": { "type": "prometheus", "uid": "${DS}" }, "exemplar": true, "expr": "rate(hblockdiskreadscompleted{idc"$idc",clusterId"$clusterId",serverIp"$serverIp", job"hblock",device~'sd[az]+'} [5m])", "hide": false, "interval": "", "legendFormat": "{{device}} Reads completed", "refId": "A" }, { "datasource": { "type": "prometheus", "uid": "${DS}" }, "exemplar": true, "expr": "rate(hblockdiskwritescompleted{idc"$idc",clusterId"$clusterId",serverIp"$serverIp", job"hblock",device~'sd[az]+'} [5m])", "hide": false, "interval": "", "legendFormat": "{{device}} Writes completed", "refId": "B" } ], "thresholds": [], "timeRegions": [], "title": "Disk IOps Completed", "tooltip": { "shared": true, "sort": 0, "valuetype": "individual" }, "type": "graph", "xaxis": { "mode": "time", "show": true, "values": [] }, "yaxes": [ { "$$hashKey": "object:176", "format": "iops", "label": "Write/Read", "logBase": 1, "show": true }, { "$$hashKey": "object:177", "format": "short", "logBase": 1, "show": true } ], "yaxis": { "align": false } }, { "aliasColors": {}, "bars": false, "dashLength": 10, "dashes": false, "datasource": { "type": "prometheus", "uid": "${DS}" }, "description": "每个磁盘分区输入/输出操作花费的加权毫秒数", "fieldConfig": { "defaults": { "unit": "ms" }, "overrides": [] }, "fill": 1, "fillGradient": 0, "gridPos": { "h": 8, "w": 12, "x": 0, "y": 71 }, "hiddenSeries": false, "id": 71, "legend": { "alignAsTable": true, "avg": true, "current": true, "hideEmpty": true, "hideZero": true, "max": true, "min": false, "rightSide": false, "show": true, "total": false, "values": true }, "lines": true, "linewidth": 1, "nullPointMode": "null", "options": { "alertThreshold": true }, "percentage": false, "pluginVersion": "8.4.4", "pointradius": 2, "points": false, "renderer": "flot", "seriesOverrides": [], "spaceLength": 10, "stack": false, "steppedLine": false, "targets": [ { "datasource": { "type": "prometheus", "uid": "${DS}" }, "exemplar": true, "expr": "rate(hblockdiskiotimeweightedseconds{idc"$idc",clusterId"$clusterId",serverIp"$serverIp", job"hblock"} [5m])", "hide": false, "interval": "", "legendFormat": "{{device}} IO time weighted", "refId": "A" } ], "thresholds": [], "timeRegions": [], "title": "Disk IOs Weighted", "tooltip": { "shared": true, "sort": 0, "valuetype": "individual" }, "type": "graph", "xaxis": { "mode": "time", "show": true, "values": [] }, "yaxes": [ { "$$hashKey": "object:176", "format": "ms", "label": "", "logBase": 1, "show": true }, { "$$hashKey": "object:177", "format": "short", "logBase": 1, "show": true } ], "yaxis": { "align": false } }, { "aliasColors": {}, "bars": false, "dashLength": 10, "dashes": false, "datasource": { "type": "prometheus", "uid": "${DS}" }, "description": "磁盘分区读/写花费的毫秒数", "fieldConfig": { "defaults": { "unit": "ms" }, "overrides": [] }, "fill": 1, "fillGradient": 0, "gridPos": { "h": 8, "w": 12, "x": 12, "y": 71 }, "hiddenSeries": false, "id": 70, "legend": { "alignAsTable": true, "avg": true, "current": true, "hideEmpty": true, "hideZero": true, "max": true, "min": false, "rightSide": false, "show": true, "total": false, "values": true }, "lines": true, "linewidth": 1, "nullPointMode": "null", "options": { "alertThreshold": true }, "percentage": false, "pluginVersion": "8.4.4", "pointradius": 2, "points": false, "renderer": "flot", "seriesOverrides": [ { "$$hashKey": "object:206", "alias": "/.Read./", "transform": "negativeY" } ], "spaceLength": 10, "stack": false, "steppedLine": false, "targets": [ { "datasource": { "type": "prometheus", "uid": "${DS}" }, "exemplar": true, "expr": "rate(hblockdiskreadtimeseconds{idc"$idc",clusterId"$clusterId",serverIp"$serverIp", job"hblock"} [5m])", "hide": false, "interval": "", "legendFormat": "{{device}} Read time ms", "refId": "A" }, { "datasource": { "type": "prometheus", "uid": "${DS}" }, "exemplar": true, "expr": "rate(hblockdiskwritetimesecondstotal{idc"$idc",clusterId"$clusterId",serverIp"$serverIp", job"hblock",device~'sd[az]+'} [5m])", "hide": false, "interval": "", "legendFormat": "{{device}} Write time ms", "refId": "B" } ], "thresholds": [], "timeRegions": [], "title": "Disk R/W Time", "tooltip": { "shared": true, "sort": 0, "valuetype": "individual" }, "type": "graph", "xaxis": { "mode": "time", "show": true, "values": [] }, "yaxes": [ { "$$hashKey": "object:176", "format": "ms", "label": "Read/Write", "logBase": 1, "show": true }, { "$$hashKey": "object:177", "format": "short", "logBase": 1, "show": true } ], "yaxis": { "align": false } }, { "aliasColors": {}, "bars": false, "dashLength": 10, "dashes": false, "datasource": { "type": "prometheus", "uid": "${DS}" }, "description": "磁盘分区每秒正在处理的输入/输出请求数", "fieldConfig": { "defaults": { "unit": "iops" }, "overrides": [] }, "fill": 1, "fillGradient": 0, "gridPos": { "h": 9, "w": 24, "x": 0, "y": 79 }, "hiddenSeries": false, "id": 74, "legend": { "alignAsTable": true, "avg": true, "current": true, "hideEmpty": true, "hideZero": true, "max": true, "min": false, "rightSide": true, "show": true, "total": false, "values": true }, "lines": true, "linewidth": 1, "nullPointMode": "null", "options": { "alertThreshold": true }, "percentage": false, "pluginVersion": "8.4.4", "pointradius": 2, "points": false, "renderer": "flot", "seriesOverrides": [], "spaceLength": 10, "stack": false, "steppedLine": false, "targets": [ { "datasource": { "type": "prometheus", "uid": "${DS}" }, "exemplar": true, "expr": "irate(hblockdiskionow{idc"$idc",clusterId"$clusterId",serverIp"$serverIp", job"hblock"} [5m])", "hide": false, "interval": "", "legendFormat": "{{device}} IO now", "refId": "A" } ], "thresholds": [], "timeRegions": [], "title": "Disk IOs Current in Progress", "tooltip": { "shared": true, "sort": 0, "valuetype": "individual" }, "type": "graph", "xaxis": { "mode": "time", "show": true, "values": [] }, "yaxes": [ { "$$hashKey": "object:176", "format": "iops", "label": "", "logBase": 1, "show": true }, { "$$hashKey": "object:177", "format": "short", "logBase": 1, "show": true } ], "yaxis": { "align": false } } ], "refresh": "", "revision": 1, "schemaVersion": 35, "style": "dark", "tags": [], "templating": { "list": [ { "current": { "selected": false, "text": "", "value": "" }, "hide": 0, "includeAll": false, "label": "数据源", "multi": false, "name": "DS", "options": [], "query": "prometheus", "queryValue": "", "refresh": 1, "regex": "", "skipUrlSync": false, "type": "datasource" }, { "current": { "selected": true, "text": "neimengaz03", "value": "neimengaz03" }, "datasource": { "type": "prometheus", "uid": "${DS}" }, "definition": "labelvalues(idc)", "description": "数据源内可选的资源池名称", "error": { "config": { "headers": { "XGrafanaOrgId": 1 }, "hideFromInspector": true, "method": "GET", "retry": 0, "url": "api/datasources/proxy/9/api/v1/label/idc/values?start1718274193&end1718275993" }, "data": { "error": "Bad Gateway", "message": "Bad Gateway", "response": "" }, "message": "Bad Gateway", "status": 502, "statusText": "Bad Gateway" }, "hide": 0, "includeAll": false, "label": "资源池", "multi": false, "name": "idc", "options": [], "query": { "query": "labelvalues(idc)", "refId": "StandardVariableQuery" }, "refresh": 1, "regex": "", "skipUrlSync": false, "sort": 0, "type": "query" }, { "current": { "selected": false, "text": "testZJZClusterId", "value": "testZJZClusterId" }, "datasource": { "type": "prometheus", "uid": "${DS}" }, "definition": "labelvalues(hblockcpusecondsuser{idc~"$idc"},clusterId)", "error": { "config": { "data": { "end": "1718276000", "match[]": "hblockcpusecondsuser{idc~"neimengaz03"}", "start": "1718274200" }, "headers": { "ContentType": "application/xwwwformurlencoded", "XGrafanaOrgId": 1 }, "hideFromInspector": true, "method": "POST", "retry": 0, "url": "api/datasources/proxy/9/api/v1/series" }, "data": { "error": "Bad Gateway", "message": "Bad Gateway", "response": "" }, "message": "Bad Gateway", "status": 502, "statusText": "Bad Gateway" }, "hide": 0, "includeAll": false, "label": "集群ID", "multi": false, "name": "clusterId", "options": [], "query": { "query": "labelvalues(hblockcpusecondsuser{idc~"$idc"},clusterId)", "refId": "StandardVariableQuery" }, "refresh": 1, "regex": "", "skipUrlSync": false, "sort": 0, "type": "query" }, { "current": { "selected": false, "text": "10.8.82.10", "value": "10.8.82.10" }, "datasource": { "type": "prometheus", "uid": "${DS}" }, "definition": "labelvalues(hblockcpusecondsuser{idc~"$idc",clusterId~"$clusterId"},serverIp)", "description": "", "error": { "config": { "data": { "end": "1718276007", "match[]": "hblockcpusecondsuser{idc~"neimengaz03",clusterId~"testZJZClusterId"}", "start": "1718274207" }, "headers": { "ContentType": "application/xwwwformurlencoded", "XGrafanaOrgId": 1 }, "hideFromInspector": true, "method": "POST", "retry": 0, "url": "api/datasources/proxy/9/api/v1/series" }, "data": { "error": "Bad Gateway", "message": "Bad Gateway", "response": "" }, "message": "Bad Gateway", "status": 502, "statusText": "Bad Gateway" }, "hide": 0, "includeAll": false, "label": "服务器IP", "multi": false, "name": "serverIp", "options": [], "query": { "query": "labelvalues(hblockcpusecondsuser{idc~"$idc",clusterId~"$clusterId"},serverIp)", "refId": "StandardVariableQuery" }, "refresh": 1, "regex": "", "skipUrlSync": false, "sort": 0, "type": "query" } ] }, "time": { "from": "now30m", "to": "now" }, "timepicker": {}, "timezone": "", "title": "hblock集群单服务器视图", "uid": "mxeQ7uC4z4", "version": 1, "weekStart": "monday" } 3. 将第2步中提供的Grafana面板导入Grafana中,查看HBlock推送的监控数据。下图为,携带用户自定义标签idc:idc101的监控数据的展示效果。
        来自:
        帮助文档
        存储资源盘活系统
        最佳实践
        开启HBlock向Prometheus推送监控数据的配置
      • 昇腾 910B 物理机大EP推理方案部署指南
        三、服务起停 3.1 配置 DeepSeek 大 EP 服务 需在/home/lsepdeepseek目录下修改lsepstart.sh脚本,配置 coordinator 与 controller 的执行节点: plaintext $ cd /home/lsepdeepseek $ vim lsepstart.sh export IPCOORDINATOR[IP1] export IPCONTROLLER[IP2] 其中: [IP1]需替换为部署 coordinator 服务的服务器 IP 地址 [IP2]需替换为部署 controller 服务的服务器 IP 地址 注意 集群推理服务的 API 接口使用的 IP 为[IP1]。 coordinator 与 controller 服务需部署在不同的服务器上。 3.2 启动 DeepSeek 大 EP 服务 执行以下命令即可启动大 EP 服务(启动过程约需 5 分钟): plaintext $ cd /home/lsepdeepseek $ sh lsepstart.sh IPCOORDINATOR 192.168.0.24 IPCONTROLLER 192.168.0.42 Submitted srunp.sh, Job ID: 889 Submitted srunp.sh, Job ID: 890 Submitted srund.sh, Job ID: 891 Created symlink: ranktablep1.json > ranktable.889.json Created symlink: ranktablep2.json > ranktable.890.json Created symlink: ranktabled.json > ranktable.891.json Submitted sruncoordinator.sh, Job ID: 892 Submitted sruncontroller.sh, Job ID: 893 服务启动后,可查看logs目录下的mscoordinatorrunlog.txt文件,当出现以下信息时,说明服务启动成功: plaintext $ tail f logs/mscoordinatorrunlog.txt ... MindIEMS coordinator is ready!!! 可通过以下命令进行服务检测(向 DeepSeek 模型发送提问): plaintext $ curl i location ' header 'ContentType: application/json' data '{ "model": "DeepSeekR1", "stream": false, "messages": [ {"role": "user", "content": "你是谁"} ] }' HTTP/1.1 200 OK Server: MindIEMS ContentType: application/json; charsetutf8 ContentLength: 4939 {"id":"14721165810121334024","object":"chat.completion","created":1753083070,"model":"DeepSeekR1","choices":[{"index":0,"message":{"role":"assistant","content":" n嗯,用户问了一个非常基础但也很关键的问题——“你是谁”。这通常是用户第一次接触助手时的开场白,可能带着好奇或试探的心态。nn用户可能刚打开聊天界面,想确认自己在和什么样的AI交流。ta需要快速建立对助手的认知框架:是工具还是伙伴?专业还是亲切?甚至可能隐含“你能帮我到什么程度”的期待。nn考虑到这是初遇场景,回复要同时完成三个目标:明确身份(DeepSeekR1)、传递功能边界(知识截止2024年7月)、建立亲和力(表情符号和开放结尾)。用“小伙伴”的比喻降低距离感,但“知识丰富”又暗示专业性。nn最后那句“有什么可以帮你”的开放式提问很重要——既承接了身份介绍,又把主动权交还给用户,避免初遇时单方面输出造成的压迫感。那个笑脸表情应该能缓解新用户的紧张情绪吧?n n你好呀!我是 DeepSeekR1,由中国的「深度求索」团队研发的一款智能助手。你可以把我当作一个知识丰富、乐于助人的小伙伴~😊nn我的主要能力包括:nn 回答各种知识类问题(历史、科技、文化、生活常识等) n 帮你写作、改文案、写报告、写代码 n 阅读和分析你上传的文档(PDF、Word、Excel等) n 陪你聊天、解闷、出主意、做计划 nn目前我是纯文字助手,还不支持语音或识图,但我会尽力用文字给你最贴心的帮助! n📚 我的知识更新到 2024年7月,所以对之前的事情了解得比较多~nn有什么我可以帮你的吗?😄","toolcalls":null},"logprobs":null,"finishreason":"stop"}],"usage":{"prompttokens":4,"completiontokens":359,"totaltokens":363,"batchsize":[1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1]}
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        昇腾 910B 物理机大EP推理方案部署指南
      • Kubernetes集群内置DNS配置说明
        工作负载的DNS配置介绍 Kubernetes集群内置DNS插件KubeDNS/CoreDNS,为集群内的工作负载提供域名解析服务。业务在高并发调用场景下,如果使用到域名解析服务,可能会触及到KubeDNS/CoreDNS的性能瓶颈,导致DNS请求概率失败,影响用户业务正常运行。在Kubernetes使用的过程中,在有些场景下工作负载的域名解析存在冗余的DNS查询,使得高并发场景更容易触及DNS的性能瓶颈。根据业务使用场景,对工作负载的DNS配置进行优化,能够在一定程度上减少DNS请求概率失败的问题。 更多DNS相关信息请参见CoreDNS(系统资源插件,必装)或通过kubectl配置kubedns/CoreDNS高可用。 Linux 系统域名解析文件配置项的介绍 在Linux系统的节点或者容器里执行cat /etc/resolv.conf命令,能够查看到DNS配置,以Kubernetes集群的容器DNS配置为例: nameserver 10.247.x.x search default.svc.cluster.local svc.cluster.local cluster.local options ndots:5 配置项说明: nameserver:容器解析域名时查询的DNS服务器的IP地址列表。如果设置为10.247.x.x说明DNS对接到KubeDNS/CoreDNS,如果是其他IP地址,则表示采用DNS或者用户自建的DNS。 search:定义域名的搜索域列表,当访问的域名不能被DNS解析时,会把该域名与搜索域列表中的域依次进行组合,并重新向DNS发起请求,直到域名被正确解析或者尝试完搜索域列表为止。对于CCE集群来说,容器的搜索域列表配置3个域,当解析一个不存在的域名时,会产生8次DNS查询,因为对于每个域名需要查询两次,分别是IPv4和IPv6。 options:定义域名解析配置文件的其他选项,常见的有timeout、attempts和ndots等等。Kubernetes集群容器的域名解析文件设置为options ndots:5,该参数的含义是当域名的“.”个数小于ndots的值,会先把域名与search搜索域列表进行组合后进行DNS查询,如果均没有被正确解析,再以域名本身去进行DNS查询。当域名的“.”个数大于或者等于ndots的值,会先对域名本身进行DNS查询,如果没有被正确解析,再把域名与search搜索域列表依次进行组合后进行DNS查询。如查询www.ctyun.cn域名时,由于该域名的“.”个数为2,小于ndots的值,所以DNS查询请求的顺序依次为:www.ctyun.cn.default.svc.cluster.local、www.ctyun.cn.svc.cluster.local、 www.ctyun.cn.cluster.local和www.ctyun.cn,需要发起至少7次DNS查询请求才能解析出该域名的IP。可以看出,这种配置在访问外部域名时,存在大量冗余的DNS查询,存在优化点。 说明:完整的Linux域名解析文件配置项说明可以参考文档: Kubernetes 集群应用的DNS 相关配置项介绍 前面已经分析过,应用在某些场景下会出现冗余的DNS查询。Kubernetes为应用提供了与DNS相关的配置选项,通过对应用进行DNS配置,能够在某些场景下有效地减少冗余的DNS查询,提升业务并发量。目前应用配置中与DNS相关的字段有dnsPolicy 和dnsConfig。 dnsPolicy 字段说明: dnsPolicy字段是应用设置的DNS策略,默认值为“ClusterFirst”。基于dnsPolicy策略生成的域名解析文件会与dnsConfig设置的DNS参数进行合并,合并规则将在“dnsConfig字段说明”中说明,dnsPolicy当前支持四种参数值: − ClusterFirst:应用对接KubeDNS/CoreDNS(CCE集群的KubeDNS/CoreDNS默认级联DNS)。这种场景下,容器既能够解析service注册的集群内部域名,也能够解析发布到互联网上的外部域名。由于该配置下,域名解析文件设置了search搜索域列表和ndots: 5,因此当访问外部域名和集群内部长域名(如kubernetes.default.svc.cluster.local)时,大部分域名都会优先遍历search搜索域列表,导致至少有6次无效的DNS查询,只有访问集群内部短域名(如kubernetes)时,才不存在无效的DNS查询。 − ClusterFirstWithHostNet:对于配置主机网络的应用,默认配置kubelet的“resolvconf”参数指向的域名解析文件(CCE集群在该配置下对接DNS)。当dnsPolicy设置为“ClusterFirstWithHostNet”时,应用对接KubeDNS/CoreDNS。该配置下,容器的域名解析文件与“ClusterFirst”一致,也存在无效的DNS查询。 − Default:容器的域名解析文件使用kubelet的“resolvconf”参数指向的域名解析文件(CCE集群在该配置下对接DNS),没有配置search搜索域列表和options。该配置只能解析注册到互联网上的外部域名,无法解析集群内部域名,且不存在无效的DNS查询。 − None:Kubernetes v1.9(Beta in v1.10)中引入的新选项值。设置为None之后,必须设置dnsConfig,此时容器的域名解析文件将完全通过dnsConfig的配置来生成。 dnsConfig 字段说明: dnsConfig为应用设置DNS参数,设置的参数将合并到基于dnsPolicy策略生成的域名解析文件中。当dnsPolicy为“None”,应用的域名解析文件完全由dnsConfig指定;当dnsPolicy不为“None”时,会在基于dnsPolicy生成的域名解析文件的基础上,追加dnsConfig中配置的dns参数。 − nameservers:DNS的IP地址列表。当应用的dnsPolicy设置为“None”时,列表必须至少包含一个IP地址,否则此属性是可选的。列出的DNS的IP列表将合并到基于dnsPolicy生成的域名解析文件的nameserver字段中,并删除重复的地址。 − searches:域名查询时的DNS搜索域列表,此属性是可选的。指定后,提供的搜索域列表将合并到基于dnsPolicy生成的域名解析文件的search字段中,并删除重复的域名。Kubernetes最多允许6个搜索域。 − options:DNS的配置选项,其中每个对象可以具有name属性(必需)和value属性(可选)。该字段中的内容将合并到基于dnsPolicy生成的域名解析文件的options字段中,dnsConfig的options的某些选项如果与基于dnsPolicy生成的域名解析文件的选项冲突,则会被dnsConfig所覆盖。 工作负载的DNS配置实践 前面介绍了Linux系统域名解析文件以及Kubernetes为应用提供的DNS相关配置项,下面将举例介绍应用如何进行DNS配置。 场景1 对接kubernetes 内置的KubeDNS/CoreDNS 场景说明: 这种方式适用于应用中的域名解析只涉及集群内部域名,或者集群内部域名+外部域名两种方式,应用默认采用这种配置。 示例: apiVersion: v1 kind: Pod metadata: namespace: default name: dnsexample spec: containers: name: test image: nginx dnsPolicy: ClusterFirst 该配置下容器的域名解析文件将如下所示: nameserver 10.247.3.10 search default.svc.cluster.local svc.cluster.local cluster.local options ndots:5 场景2 直接对接DNS 场景说明: 这种方式适用于应用只访问注册到互联网的外部域名,该场景不能解析集群内部域名。 示例: apiVersion: v1 kind: Pod metadata: namespace: default name: dnsexample spec: containers: name: test image: nginx dnsPolicy: Default //使用kubelet的“resolvconf”参数指向的域名解析文件(CCE集群在该配置下对接DNS) 该配置下容器的域名解析文件将如下所示: nameserver 10.125.x.x 场景3 主机网络模式的应用对接KubeDNS/CoreDNS 场景说明: 对于配置主机网络模式的应用,默认对接DNS,如果应用需要对接KubeDNS/CoreDNS,需将dnsPolicy设置为“ClusterFirstWithHostNet”。 示例: apiVersion: extensions/v1beta1 kind: Deployment metadata: name: nginx spec: template: metadata: labels: app: nginx spec: hostNetwork: true dnsPolicy: ClusterFirstWithHostNet containers: name: nginx image: nginx:1.7.9 ports: containerPort: 80 该配置下容器的域名解析文件将如下所示: nameserver 10.247.3.10 search default.svc.cluster.local svc.cluster.local cluster.local options ndots:5 场景4 自定义应用的域名配置 场景说明: 用户可以完全自定义配置应用的域名解析文件,这种方式非常灵活,dnsPolicy和dnsConfig配合使用,几乎能够满足所有使用场景,如对接用户自建DNS的场景、串联多个DNS的场景以及优化DNS配置选项的场景等等。 示例1 :对接用户自建DNS 该配置下,dnsPolicy为“None”,应用的域名解析文件完全根据dnsConfig配置生成。 apiVersion: v1 kind: Pod metadata: namespace: default name: dnsexample spec: containers: name: test image: nginx dnsPolicy: "None" dnsConfig: nameservers: 10.2.3.4 //用户自建DNS 的IP 地址 searches: ns1.svc.cluster.local my.dns.search.suffix options: name: ndots value: "2" name: timeout value: "3" 该配置下容器的域名解析文件将如下所示: nameserver 10.2.3.4 search ns1.svc.cluster.local my.dns.search.suffix options timeout:3 ndots:2 示例2 :修改域名解析文件的ndots 选项,减少无效的DNS 查询 该配置下,dnsPolicy不为“None”,会在基于dnsPolicy生成的域名解析文件的基础上,追加dnsConfig中配置的dns参数。 apiVersion: v1 kind: Pod metadata: namespace: default name: dnsexample spec: containers: name: test image: nginx dnsPolicy: "ClusterFirst" dnsConfig: options: name: ndots value: "2" //该配置会将基于ClusterFirst 策略生成的域名解析文件的ndots:5 参数改写为ndots:2 该配置下容器的域名解析文件将如下所示: nameserver 10.247.3.10 search default.svc.cluster.local svc.cluster.local cluster.local options ndots:2
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        工作负载
        容器设置
        Kubernetes集群内置DNS配置说明
      • 自定义用户与组织
        本文将介绍如何自定义控制台创建您的用户与组织列表,用于您的企业员工登录零信任客户端进行身份认证。 背景说明 企业员工在登录客户端时需要进行身份认证,本文主要介绍服务控制台创建用户与组织信息。 注意 如果已订购零信任服务或终端管理,可使用该功能进行创建用户,适用于登录AOne客户端;如果已订购“学术加速企业版”,可使用该功能创建用户,适用于登录学术加速客户端。 功能介绍 支持通过手动创建进行用户与组织关系构建。 支持通过表格模板批量导入进行用户与组织关系构建。 用户与组织列表管理,支持对用户重置密码,禁用账号,查看用户具备的应用系统权限等。 完成企业用户与组织信息构建后 ,您可以基于用户与组织关系进行差异化的应用权限管理和零信任策略下发。 操作步骤 1. 登录边缘安全加速控制台。 2. 在AOne零信任、AOne终端管理,AOne学术加速三个工作台进行操作。 3. 在左侧导航栏身份用户与组织,查看并处理用户与组织配置。 用户配置 用户信息字段说明 注意 建议账号不与手机号、邮箱重复,若重复,则以账号为主(如账号A为手机号1 , 账号B的手机号也为手机号1,则登录时采用手机号1则以账号A进行身份认证)。 字段 字段说明 备注 姓名 非必填,可填写员工姓名用于身份标识。 账号 必填,用于登录和唯一标识的账号,不可修改,可包含数字、符号(仅支持“” 、“·”),不允许企业内账号重复。 归属组织 勾选归属组织,默认位置为您的根组织节点,组织信息来源于组织分页管理的组织列表。 若使用批量导入用户功能,则此字段需要填写组织全路径,不同级别组织之间使用“”分隔,例如xx一级组织xx二级组织。 状态 用户状态分为正常、禁用和锁定。 若被锁定,则用户账号状态显示为“锁定”,若想将用户进行解锁正常登陆,请点击更多的解锁按钮 。 用户组 非必填,勾选适合的用户组,用户组信息来源于用户组管理栏目配置的用户组列表。 手机号 非必填,默认不允许企业内员工手机号重复,手机号可设置直接登录认证,或用于开启二次认证功能后的校验码接收。 邮箱 非必填,默认不允许企业内员工邮箱重复,邮箱可设置直接登录认证,或用于开启二次认证功能后的校验码接收。 初始密码 非必填,支持自定义填写密码,也支持点击自动生成按钮随机生成密码。若未设置则默认初始化密码,设置的密码均需满足登录策略密码策略配置的要求。 出于安全考虑,首次采用初始化密码必须修改密码,建议可采用“忘记密码”直接重置密码。 若使用批量导入用户功能,则无此字段,系统会根据密码策略自动生成用户初始密码。 是否审批负责人 非必填,定义其是否为审批负责人,仅定义是审批负责人的人员,才可被其他员工选中为其审批负责人。 审批负责人 非必填,主要用于权限申请环节,若配置需要审批负责人审核,则员工对应的审批负责人将进行审批。 员工属性 非必填,可定义员工属性,如外协、正式,其他。 备注 非必填,填写用户备注的一些信息。 账号有效期 非必填,若未选择,则默认是永久有效,可选择账号到期时间,在到期时间之后,该账号将被设置为禁用状态,被禁用的账号在登录后将进行拦截,需重新设置有效期,其账号状态才变成启用。若是被手动禁用的账号,在账号有效期过期后,除重新设置有效期外,还需手动进行账号启用。 通知方式 注意 目前该能力需提交工单或联系专属运营进行操作。 批量新增用户或单用户新增时刻进行选择是否通知用户。 目前仅支持短信通知,若未配置手机号则不进行发送通知。 通知内容:出于安全考虑可以默认仅通知账号,员工可通过“忘记密码”进行重置密码后登录;若同时勾选密码,则会发送初始密码+账号,首次登录将强制要求进行修改密码。
        来自:
        帮助文档
        边缘安全加速平台
        公共服务
        身份管理
        用户与组织
        自定义用户与组织
      • 购买节点
        操作场景 节点是指纳管到容器集群的计算资源,包括虚拟机、物理机等。用户需确保所在集群的节点资源充足,若节点资源不足,会导致创建工作负载等操作失败。 前提条件 已创建至少一个集群,请参见集群管理>购买混合集群。 您需要新建一个密钥对,用于远程登录节点时的身份认证。 说明: 若使用密码登录节点,请跳过此操作。 约束与限制 仅支持创建KVM虚拟化类型的节点,非KVM虚拟化类型的节点创建后无法正常使用。 集群中的节点一旦购买后不可变更可用区。 集群中通过“按需计费”模式购买的节点,在CCE“节点管理”中进行删除操作后将会直接被删除;通过“包年/包月”模式购买的节点不能直接删除,请通过页面右上角用户名称下的“我的订单”执行资源退订操作。 操作步骤 步骤 1 登录CCE控制台,可通过如下两种方式进入“购买节点”页面: 在左侧导航栏中选择“资源管理 > 节点管理”,选择节点所在的集群后,在节点列表页面单击上方的“购买节点”。 在左侧导航栏中选择“资源管理 > 集群管理”,在集群卡片上,单击“购买节点”。 步骤 2 计费模式:支持“按需计费”和“包年/包月”类型。本章以“按需计费”类型为例进行讲解。 步骤 3 选择区域和可用区。 当前区域:节点实例所在的物理位置。 可用区:请根据业务需要进行选择。可用区是在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 如果您需要提高工作负载的高可靠性,建议您在创建集群后将云服务器部署在不同的可用区,购买集群时节点只能部署在一个可用区。 步骤 4 节点类型:选择“虚拟机节点”。配置以下参数。 节点名称:自定义节点名称。长度范围为156个字符,以小写字母开头,支持小写字母、数字、中划线(),不能以中划线()结尾。 节点规格:请根据业务需求选择相应的节点规格。 −通用型:该类型实例提供均衡的计算、存储以及网络配置,适用于大多数的使用场景。通用型实例可用于Web服务器、开发测试环境以及小型数据库工作负载等场景。 −GPU加速型:提供优秀的浮点计算能力,从容应对高实时、高并发的海量计算场景。P系列适合于深度学习,科学计算,CAE等;G系列适合于3D动画渲染,CAD等。 −高性能计算型:实例提供具有更稳定、超高性能计算性能的实例,可以用于超高性能计算能力、高吞吐量的工作负载场景,例如科学计算。 −通用计算增强型:该类型实例具有性能稳定且资源独享的特点,满足计算性能高且稳定的企业级工作负载诉求。 为确保节点稳定性,系统会自动预留部分资源,用于运行必须的系统组件。详细请参见节点预留资源计算公式。 操作系统:请直接选择节点对应的操作系统。 系统盘:设置工作节点的系统盘空间。您可以设置系统盘的规格为40GB1024GB之间的数值,缺省值为40GB。 在默认情况下,系统盘可提供高IO、超高IO两种基本的云硬盘类型。 数据盘:设置工作节点的数据盘空间。您可以设置数据盘的规格为100GB32678GB之间的数值,缺省值为100GB。数据盘可提供的云硬盘类型与上方系统盘一致。 说明:若数据盘卸载或损坏,会导致docker服务异常,最终导致节点不可用。建议不要删除该数据盘。 −数据盘空间分配:单击后方的“更改配置”,可以对数据盘中的“k8s空间”和“用户空间”占比进行自定义设置,开启LVM管理的数据盘将按照设置的比例进行统一分配。部分集群版本不支持此功能,具体以界面为准。 k8s空间:您可以自定义数据盘中Docker和Kubelet的资源占比。Docker资源包含Docker工作目录、Docker镜像数据以及镜像元数据;Kubelet资源包含Pod配置文件、密钥以及临时存储EmptyDir等挂载数据。 用户空间:定义本地盘中不分配给kubernetes使用的空间大小和用户空间挂载路径。 说明:请注意“挂载路径”不能设置为根目录“/”,否则将导致挂载失败。挂载路径一般设置为: /opt/xxxx(但不能为/opt/cloud) /mnt/xxxx(但不能为/mnt/paas) /tmp/xxx /var/xxx (但不能为/var/lib、/var/script、/var/paas等关键目录) /xxxx(但不能和系统目录冲突,例如bin、lib、home、root、boot、dev、etc、lost+found、mnt、proc、sbin、srv、tmp、var、media、opt、selinux、sys、usr等) 注意不能设置为/home/paas、/var/paas、/var/lib、/var/script、/mnt/paas、/opt/cloud,否则会导致系统或节点安装失败。 虚拟私有云:不可修改,仅用于展示当前集群所在的虚拟私有云。 所在子网:通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。可选择该集群虚拟私有云下的任意子网,集群节点支持跨子网。 该参数仅在v1.13.10r0及以上版本的集群中显示,请务必确保子网下的 DNS 服务器可以解析对象存储服务域名,否则无法创建节点。 已有集群添加节点时,如果子网对应的VPC新增了扩展网段且子网是扩展网段,要在控制节点安全组(即集群名称ccecontrol随机数)中添加如下三条安全组规则,以保证集群添加的节点功能可用(新建集群时如果VPC已经新增了扩展网段则不涉及此场景): 弹性IP : 独立申请的公网IP地址,若节点有互联网访问的需求,请选择“暂不使用”或“使用已有”。集群开启 IPv6 时,不显示该参数。 弹性公网IP提供外网访问能力,可以灵活绑定及解绑,随时修改带宽。未绑定弹性公网IP的云服务器无法直接访问外网,无法直接对外进行互相通信。 暂不使用:若新增节点未绑定弹性IP,则在该节点上运行的工作负载将不能被外网访问,仅可作为私有网络中部署业务或者集群所需云服务器进行使用。 使用已有:请选择已有的弹性IP,将为当前节点分配已有弹性IP。 说明: CCE默认不启用VPC的SNAT。若VPC启用了SNAT,可以不使用EIP去访问外网。 共享带宽: 请选择“暂不使用”或“使用已有”。仅在集群开启 IPv6 时,显示该参数。 弹性公网IP提供外网访问能力,可以灵活绑定及解绑,随时修改带宽。未绑定弹性公网IP的云服务器无法直接访问外网,无法直接对外进行互相通信。 登录方式:支持密码和密钥对。 −选择“密码”:用户名默认为“root”,请输入登录节点的密码,并确认密码。 登录节点时需要使用该密码,请妥善管理密码,系统无法获取您设置的密码内容。 −选择“密钥对”:选择用于登录本节点的密钥对,支持选择共享密钥。 密钥对用于远程登录节点时的身份认证。若没有密钥对,可单击选项框右侧的“创建密钥对”来新建。 说明: 如果子用户创建节点选择密钥对创建,这个密钥只对创建这个密钥的子用户有效,即使其他子用户在同一个组也无法选择,也无法使用。例如:A用户创建的密钥,B用户无法使用这个密钥对创建节点,并且Console也选不到。 云服务器高级设置: (可选),单击展开后可对节点进行如下高级功能配置: −安装前执行脚本:请输入脚本命令,大小限制为0~1000字符。 脚本将在Kubernetes软件安装前执行,可能导致Kubernetes软件无法正常安装,需谨慎使用。常用于格式化数据盘等场景。 −安装后执行脚本:请输入脚本命令,大小限制为0~1000字符。 脚本将在Kubernetes软件安装后执行,不影响Kubernetes软件安装。常用于修改Docker配置参数等场景。 −新增数据盘:单击“新增数据盘”,选择云硬盘类型并输入数据盘规格。 −子网IP :可选择“自动分配IP地址”和“手动分配IP地址”,推荐使用“自动分配IP地址”。 Kubernetes 高级设置: (可选),单击展开后可对集群进行如下高级功能配置: −最大实例数:节点最大允许创建的实例数(Pod),该数量包含系统默认实例,取值范围为16~128。 该设置的目的为防止节点因管理过多实例而负载过重,请根据您的业务需要进行设置。 节点购买数量: 此处设置的节点数不能超过集群管理的最大节点规模,请根据业务需求和界面提示进行选择,单击后方的可查看影响能添加节点数的因素(取决于最小值)。 步骤 5 购买时长:若选择“包年包月”的计费模式购买节点时,请设置购买时长。 步骤 6 单击“下一步:配置确认”,确认订单无误后,单击“提交”。 若计费模式为“包年包月”,在确认订单无误后,请单击“去支付”,请根据界面提示进行付款。 系统将自动跳转到节点列表页面,待节点状态为“可用”,表示节点添加成功。添加节点预计需要810分钟左右,请耐心等待。 说明: 集群创建时自动创建的安全组以及安全组规则禁止删除,否则会导致集群异常。 步骤 7 单击“返回节点列表”,待状态为可用,表示节点创建成功。 说明: 可分配资源:可分配量按照实例请求值(request)计算,表示实例在该节点上可请求的资源上限,不代表节点实际可用资源。 计算公式为: 可分配CPU CPU总量 所有实例的CPU请求值 其他资源CPU预留值 可分配内存 内存总量 所有实例的内存请求值 其他资源内存预留值
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        节点管理
        购买节点
      • 申请域名型(DV)型SSL证书
        本章节将介绍申请证书的详细操作。 成功购买证书后,您需要申请证书,即为证书绑定域名或IP、填写证书申请人的详细信息并提交审核。所有信息通过审核后,证书颁发机构才签发证书。 在申请证书时,您可以参考SSL证书申请常见问题。 前提条件 已成功购买证书并且在控制台的“证书状态”为“待申请”。如何购买证书请参考:购买SSL证书。 约束限制 如果您申请的DV证书,绑定的域名含有edu、gov、bank、live或品牌相关的敏感词,可能无法通过安全审核,建议选择OV或EV证书。 操作步骤 1. 登录“证书管理服务”控制台,在左侧导航栏选择“SSL证书管理 > SSL证书列表”,随后在顶部导航栏选择“可申请”,进入“证书管理”页面。 2. 选择“域名型 (DV) SSL”证书,单击“操作”列的“证书申请”按钮,进行SSL证书申请。 3. 在右侧弹出的窗口中填写证书申请的相关信息。 填写参数 参数说明 证书绑定域名 第一个域名将作为证书通用域名名称(不可修改)。 注意 若您在申请单域名规格证书时,填写的域名为4级及以上子域名,请加上“www”,否则不会包含主域名。例如:申请www.aaa.bbb.ctyun.cn,会包含aa.bbb.ctyun.cn这个备用域名,若直接申请aaa.bbb.ctyun.cn,则不会包含www.aaa.bbb.ctyun.cn这个备用域名。 若您的域名为中文域名,可使用Punycode编码转换工具将中文域名编码为Punycode填入域名栏。 域名验证方式 可选“文件验证”、“手工DNS验证”、“代理文件验证”、“代理DNS验证”。 “手工DNS验证”、“代理DNS验证”:不支持GlobalSign版本的证书验证。 “文件验证”、“代理文件验证”:目前仅支持绑定IP方式的OV证书验证,不支持通配符域名类型的证书验证。 说明 申请提交后,不支持更改域名验证方式,请谨慎选择。若已经提交申请,只能撤回申请后重新提交申请。 证书管理服务有效时长内包含多张SSL证书。每张张证书到期前30天,天翼云将会自动为您续期证书,此处的“域名验证方式”建议选择“代理文件验证”或“代理DNS验证”,每次续期证书将无需手动验证域名。 联系人 选择联系人,如何新建联系人请参考信息管理章节。 所在地 选择公司实际所在地区。(目前仅支持选择中国地区) 密钥算法 可选择“RSA”、“ECC”或“SM2”(根据购买证书页面所选的加密标准选择) CSR生成方式 CSR是一个包含网站、服务、国家、组织、域名、公钥和签名的编码文件,用于从可信的证书颁发机构(CA)获取SSL证书。 支持“系统生成”或“手动生成”两种方式: 系统生成:根据用户所配置的信息,系统自动生成一个CSR。为保障您的证书顺利申请,建议您使用系统生成CSR的方式,避免因内容不正确而导致的审核失败。 手动生成:在下拉框中选择已手动创建的CSR,使用已创建的CSR申请证书。 注意 请不要在证书签发完成前删除CSR。 手动生成将无法署到天翼云产品。 提醒事件管理 说明 证书过期将影响业务正常运行,因此,建议设置证书临期提醒,联系人建议填写运维人员。 联系人 建议填写运维人员。如果需要新增联系人,请参见联系人管理。 提醒方式 可选择“邮件方式”、“短信方式”。 提醒内容 支持多选: 30天到期提醒 15天到期提醒 证书验证提醒 证书下载提醒 4. 填写完后,单击“提交审核”。 提交审核后,CA颁发机构将对您提交的申请进行处理并给您填写的邮箱发送一封验证邮件。您需要按照要求进行域名验证。 5. 配置域名验证信息,配置域名信息操作可参考域名验证。配置后完成等待审核签发证书。 6. 若证书已成功签发,可返回到“已签发”页签查看签发成功的证书。
        来自:
        帮助文档
        证书管理服务
        用户指南
        SSL证书
        申请SSL证书
        申请域名型(DV)型SSL证书
      • WAF监控指标说明
        本节介绍了Web应用防火墙上报云监控服务的监控指标的命名空间,监控指标列表和维度定义。 用户可以通过云监控服务提供管理控制台或API接口来检索Web应用防火墙产生的监控指标和告警信息。 命名空间 SYS.WAF 说明 命名空间是对一组资源和对象的抽象整合。在同一个集群内可创建不同的命名空间,不同命名空间中的数据彼此隔离。使得它们既可以共享同一个集群的服务,也能够互不干扰。 防护域名监控指标 指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标) requests 请求量 该指标用于统计测量对象近5分钟内WAF返回的请求量的总数。 单位:次 采集方式:统计防护域名请求量的总数 ≥0 次 值类型:Float 防护域名 5分钟 wafhttp2xx WAF返回码(2XX) 该指标用于统计测量对象近5分钟内WAF返回的2XX状态码的数量。 单位:次 采集方式:统计WAF引擎返回的2XX系列状态响应码的数量 ≥0 次 值类型:Float 防护域名 5分钟 wafhttp3xx WAF返回码(3XX) 该指标用于统计测量对象近5分钟内WAF返回的3XX状态码的数量。 单位:次 采集方式:统计WAF引擎返回的3XX系列状态响应码的数量 ≥0 次 值类型:Float 防护域名 5分钟 wafhttp4xx WAF返回码(4XX) 该指标用于统计测量对象近5分钟内WAF返回的4XX状态码的数量。 单位:次 采集方式:统计WAF引擎返回的4XX系列状态响应码的数量 ≥0 次 值类型:Float 防护域名 5分钟 wafhttp5xx WAF返回码(5XX) 该指标用于统计测量对象近5分钟内WAF返回的5XX状态码的数量。 单位:次 采集方式:统计WAF引擎返回的5XX系列状态响应码的数量 ≥0 次 值类型:Float 防护域名 5分钟 waffusedcounts WAF熔断量 该指标用于统计测量对象近5分钟内被WAF熔断保护的请求数量。 单位:次 采集方式:统计防护域名被熔断保护的请求数量 ≥0 次 值类型:Float 防护域名 5分钟 inboundtraffic 入网总流量 该指标用于统计测量对象近5分钟内总入带宽的大小。 单位:Mbit 采集方式:统计近5分钟内总入带宽的大小 ≥0 Mbit 值类型:Float 防护域名 5分钟 outboundtraffic 出网总流量 该指标用于统计测量对象近5分钟内总出带宽的大小。 单位:Mbit 采集方式:统计近5分钟内总出带宽的大小 ≥0 Mbit 值类型:Float 防护域名 5分钟 wafprocesstime0 WAF处理时延区间[010ms) 该指标用于统计测量对象近5分钟内WAF处理时延在区间[010ms)内的总数量。 单位:次 采集方式:统计近5分钟内WAF处理时延在区间[010ms)内的总数量 ≥0 次 值类型:Float 防护域名 5分钟 wafprocesstime10 WAF处理时延区间[1020ms) 该指标用于统计测量对象近5分钟内WAF处理时延在区间[1020ms)内的总数量。 单位:次 采集方式:统计近5分钟内WAF处理时延在区间[1020ms)内的总数量 ≥0 次 值类型:Float 防护域名 5分钟 wafprocesstime20 WAF处理时延区间[2050ms) 该指标用于统计测量对象近5分钟内WAF处理时延在区间[2050ms)内的总数量。 单位:次 采集方式:统计近5分钟内WAF处理时延在区间[2050ms)内的总数量 ≥0 次 值类型:Float 防护域名 5分钟 wafprocesstime50 WAF处理时延区间[50100ms) 该指标用于统计测量对象近5分钟内WAF处理时延在区间[50100ms)内的总数量。 单位:次 采集方式:统计近5分钟内WAF处理时延在区间[50100ms)内的总数量 ≥0 次 值类型:Float 防护域名 5分钟 wafprocesstime100 WAF处理时延区间[1001000ms) 该指标用于统计测量对象近5分钟内WAF处理时延在区间[1001000ms)内的总数量。 单位:次 采集方式:统计近5分钟内WAF处理时延在区间[1001000ms)内的总数量 ≥0 次 值类型:Float 防护域名 5分钟 wafprocesstime1000 WAF处理时延区间[1000+ms) 该指标用于统计测量对象近5分钟内WAF处理时延在区间[1000+ms)内的总数量。 单位:次 采集方式:统计近5分钟内WAF处理时延在区间[1000+ms)内的总数量 ≥0 次 值类型:Float 防护域名 5分钟 qpspeak QPS峰值 该指标用于统计近5分钟内防护域名的QPS峰值。 单位:次 采集方式:统计近5分钟内防护域名的QPS峰值 ≥0 次 值类型:Float 防护域名 5分钟 qpsmean QPS均值 该指标用于统计近5分钟内防护域名的QPS均值。 单位:次 采集方式:统计近5分钟内防护域名的QPS均值 ≥0 次 值类型:Float 防护域名 5分钟 wafhttp0 无返回的WAF状态码 该指标用于统计测量对象近5分钟内WAF无返回的状态响应码的数量。 单位:次 采集方式:统计近5分钟内WAF无返回的状态响应码的数量 ≥0 次 值类型:Float 防护域名 5分钟 upstreamcode2xx 业务返回码(2XX) 该指标用于统计测量对象近5分钟内业务返回的2XX系列状态响应码的数量。 单位:次 采集方式:统计近5分钟内业务返回的2XX系列状态响应码的数量 ≥0 次 值类型:Float 防护域名 5分钟 upstreamcode3xx 业务返回码(3XX) 该指标用于统计测量对象近5分钟内业务返回的3XX系列状态响应码的数量。 单位:次 采集方式:统计近5分钟内业务返回的3XX系列状态响应码的数量 ≥0 次 值类型:Float 防护域名 5分钟 upstreamcode4xx 业务返回码(4XX) 该指标用于统计测量对象近5分钟内业务返回的4XX系列状态响应码的数量。 单位:次 采集方式:统计近5分钟内业务返回的4XX系列状态响应码的数量 ≥0 次 值类型:Float 防护域名 5分钟 upstreamcode5xx 业务返回码(5XX) 该指标用于统计近5分钟内业务返回的5XX系列状态响应码的数量。 单位:次 采集方式:统计近5分钟内业务返回的5XX系列状态响应码的数量 ≥0 次 值类型:Float 防护域名 5分钟 upstreamcode0 无返回的业务状态码 该指标用于统计测量对象近5分钟内业务无返回的状态响应码的数量。 单位:次 采集方式:统计近5分钟内业务无返回的状态响应码的数量 ≥0 次 值类型:Float 防护域名 5分钟 inboundtrafficpeak 入网流量的峰值 该指标用于统计近5分钟内防护域名入网流量的峰值。 单位:Mbit/s 采集方式:统计近5分钟内防护域名入网流量的峰值 ≥0 Mbit/s 值类型:Float 防护域名 5分钟 inboundtrafficmean 入网流量的均值 该指标用于统计近5分钟内防护域名入网流量的均值。 单位:Mbit/s 采集方式:统计近5分钟内防护域名入网流量的均值 ≥0 Mbit/s 值类型:Float 防护域名 5分钟 outboundtrafficpeak 出网流量的峰值 该指标用于统计近5分钟内防护域名出网流量的峰值。 单位:Mbit/s 采集方式:统计近5分钟内防护域名出网流量的峰值 ≥0 Mbit/s 值类型:Float 防护域名 5分钟 outboundtrafficmean 出网流量的均值 该指标用于统计近5分钟内防护域名出网流量的均值。 单位:Mbit/s 采集方式:统计近5分钟内防护域名出网流量的均值 ≥0 Mbit/s 值类型:Float 防护域名 5分钟 attacks 攻击总次数 该指标用于统计近5分钟内防护域名攻击请求量的总数。 单位:次 采集方式:统计近5分钟内防护域名攻击请求量的总数 ≥0 次 值类型:Float 防护域名 5分钟 crawlers 爬虫攻击次数 该指标用于统计近5分钟内防护域名爬虫攻击请求量的总数。 单位:次 采集方式:统计近5分钟内防护域名爬虫攻击请求量的总数 ≥0 次 值类型:Float 防护域名 5分钟 baseprotectioncounts web基础防护次数 该指标用于统计近5分钟内由Web基础防护规则防护的攻击数量。 单位:次 采集方式:统计近5分钟内由Web基础防护规则防护的攻击数量 ≥0 次 值类型:Float 防护域名 5分钟 preciseprotectioncounts 精准防护次数 该指标用于统计近5分钟内由精准防护规则防护的攻击数量。 单位:次 采集方式:统计近5分钟内由精准防护规则防护的攻击数量 ≥0 次 值类型:Float 防护域名 5分钟 ccprotectioncounts cc防护次数 该指标用于统计近5分钟内由CC防护规则防护的攻击数量。 单位:次 采集方式:统计近5分钟内由CC防护规则防护的攻击数量。 ≥0 次 值类型:Float 防护域名 5分钟
        来自:
        帮助文档
        Web应用防火墙(独享版)
        监控与审计
        监控
        WAF监控指标说明
      • 动态PVC
        参数 描述 是否必填 metadata.name StorageClass名称。 是 provisioner HBlock CSI驱动名称。 取值:HBlock CSI安装时的驱动名称。 是 storageMode 卷的存储类型,支持Local、Cache、Storage模式。 Cache、Storage模式表示上云卷。 是 fsType 卷被挂载到容器的文件系统类型,支持xfs,ext4。 说明 卷模式为filesystem时必填。 条件 readOnly 是否以只读模式进行卷挂载。 取值: "true"。 "false"。 默认值为"false"。 注意 这里需要输入字符串,即"true"或"false"。 是 cloudBucketName 已存在的OOS存储桶的名称。 注意 请勿开启Bucket的生命周期设定和合规保留。 类型:字符串。 上云卷必填 cloudPrefix 设置OOS中的前缀名称,设置前缀名称后,卷数据会存在存储桶以前缀命名的类文件夹中。如果未指定前缀,则直接存储在以卷名称命名的类文件夹中。 类型:字符串。 取值:长度范围是1~256。 否 cloudAccessKey OOS AccessKeyID。 类型:字符串。 上云卷必填 cloudSecretKey OOS SecretAccessKey。 如果配置文件csisecretdecrypt.yaml中的decryptFlag为true,需要对secretKey源码使用DecryptData配置的密钥对进行AES(ECP、paddingcs7)加密,加密后的结果进行Base64 编码,具体详见 上云卷必填 cloudEndpoint 设置OOS Endpoint。 类型:字符串。 上云卷必填 cloudObjectSize 数据存储在OOS中的大小。 取值:128、256、512、1024、2048、4096、8192,单位是KiB。默认值为1024。 否 cloudStorageClass 设置OOS的存储类型。 取值: STANDARD:标准存储; STANDARDIA:低频访问存储。 默认值为STANDARD。 否 cloudCompression 是否压缩数据上传至OOS。 取值: Enabled:是; Disabled:否。 默认值为Enabled。 否 cloudSignVersion OOS的请求签名认证方式 取值: v2:v2签名。 v4:v4签名。 默认值为v2。 否 cloudRegion 表示Endpoint资源池所在区域。 使用V4签名时,此项必填。 类型:字符串。 条件 deleteCloudData 删除卷时,是否删除云上的数据。 取值: true:删除云上的数据。 false:不删除云上的数据。 默认值为false。 否 sectorSize 扇区大小。根据客户端文件系统 I/O 操作的最小单位设定卷扇区大小。 类型:枚举。 取值:"512"、"4096",单位是bytes。默认值为"4096" 否 localStorageClass 本地存储冗余模式。单机版不能设置此参数。 取值: singlecopy:单副本。 2copy:两副本。 3copy:三副本。 EC N+M:纠删码模式。其中N、M为正整数,N>M,且N+M<128。表示将数据分割成N个片段,并生成M个校验数据。 默认值为EC 2+1。 否 minReplica 最小副本数(仅集群版支持)。 对于副本模式的卷,假设卷副本数为X,最小副本数为Y(Y必须≤X),该卷每次写入时,至少Y份数据写入成功,才视为本次写入成功。 对于EC N+M模式的卷,假设该卷最小副本数设置为Y(必须满足N≤Y≤N+M),必须满足总和至少为Y的数据块和校验块写入成功,才视为本次写入成功。 取值:整数。对于副本卷,取值范围是[1, N],N为副本模式卷的副本数,默认值为1。对于EC卷,取值范围是[N, N+M],默认值为N。 否 redundancyOverlap 卷的折叠副本数(仅集群版支持)。在数据冗余模式下,同一份数据的不同副本/分片默认分布在不同的故障域,当故障域损坏时,允许根据卷的冗余折叠原则,将多份数据副本放在同一个故障域中,但是分布在不同的path上。 注意 如果存储池故障域级别为path,此参数不生效。 取值:对副本模式,取值范围是[1,副本数],默认值为1;对于EC模式,取值范围是[1,M+N],默认值为1。 否 ECfragmentSize 纠删码模式分片大小。卷冗余模式为EC模式时,此设置才生效,否则忽略。 取值:1、2、4、8、16、32、64、128、256、512、1024、2048、4096,单位是KiB。默认值为16。 否 highAvailability 是否选择高可用模式。单机版不能设置此参数。 取值: ActiveStandby:启动主备,该卷关联对应Target下的所有IQN。 Disabled:禁用高可用模式,该卷关联对应Target下的一个IQN。 默认值为ActiveStandby。 否 writePolicy 卷的写策略。 取值: WriteBack:回写,即数据写入到内存后,立刻返回给客户端写成功,之后再异步写入磁盘。适用于对性能要求较高,稳定性要求不高的场景。 WriteThrough:透写,即数据同时写入内存和磁盘,并在两处都写成功后,再返回客户端写成功。适用于稳定性要求较高,写性能要求不高,且最近写入的数据会较快被读取的场景。 WriteAround:绕写,即数据写入磁盘后即释放相应内存,写入磁盘成功后,立刻返回客户端写成功。适用于稳定性要求较高,性能要求不高,且写多读少的场景。 默认值为WriteBack。 否 isMultipath 是否使用Multipath。 取值: "true"。 "false"。 默认值为"true"。 注意 这里需要输入字符串,即"true"或"false"。 如果HBlock集群版使用的HBlock卷没有启用高可用模式,即highAvailability为Disabled,此处需要设置为"false",否则会导致pod启动失败。 如果是HBlock单机版,此处需要设置为"false"。 条件 path 指定存储卷数据的数据目录(仅单机版支持)。 如果创建卷时不指定数据目录,使用服务器设置的默认数据目录。 否 pool 存储池名称,表示最终存储池,卷数据最终落在该存储池内(仅集群版支持)。 取值:长度范围是1~16,只能由字母、数字和短横线()、下划线()组成,字母区分大小写,且仅支持以字母和数字开头。 默认使用基础存储池。 否 cachePool 存储池名称,表示高速缓存存储池,卷数据首先写入该存储池内(仅集群版支持)。 取值:长度范围是1~16,只能由字母、数字和短横线()、下划线()组成,字母区分大小写,且仅支持以字母和数字开头。 如果不填写则代表不设置高速缓存存储池。 注意 存储池与缓存存储池不能是同一个存储池。 否 maxSessions iSCSI Target允许建立的最大会话数。 取值:整数,取值范围是[1, 1024],默认值为1。 注意 卷模式为filesystem,取值只能为1。 否 serverNumbers Target所在的服务器数量(仅集群版支持)。 整数形式,取值为[2, n],n为集群内服务器的数量。默认值为2。 否 faultDomains 卷的服务端连接位置信息。根据存储池的故障域,创建Target所在服务器的列表(仅集群版支持),以便创建LUN时,LUN关联的Target优先从该服务器列表中选择所在服务器。例如存储池为rack级别,其拓扑图涵盖rack1、rack2、rack3、rack4中的节点,且faultDomains指定rack1、rack2,那么创建LUN时,LUN关联的Target优先从rack1、rack2所包含的此存储池的服务器列表里进行选择。 注意 存储池的故障域为path级别时,不能设置该参数。 如果LUN指定了高速缓存池和最终存储池,则从高速缓存池池中选择节点列表。如果LUN只指定了最终存储池,则从最终存储池中选择节点列表。 取值:以节点的形式添加,节点的级别可以到room、rack、server。可以指定多个节点,但是节点的个数要小于等于serverNumbers。支持一个节点添加多次,但是每次只能选一个server,并且选择的server不能与前面重复。如果一个节点出现的次数过多导致节点内的全部server都被选择,则系统会忽略此节点,从后面的节点中继续选择。 否 IOPS 每秒能够进行读写操作次数的最大值。 取值:整型,取值范围为[1, 999999999],默认值为1。1表示不限制。 否 readIOPS 每秒能够进行读操作次数的最大值。 取值:整型,取值范围为[1, 999999999],默认值为1。1表示不限制。 否 writeIOPS 每秒能够进行写操作次数的最大值。 取值:整型,取值范围为[1, 999999999],默认值为1。1表示不限制。 否 Bps 每秒可传输数据量的最大值。 取值:整型,取值范围为[1, 4096000000000],默认值为1,单位是B/s。1表示不限制。 否 readBps 读带宽上限。 取值:整型,取值范围为[1, 4096000000000],默认值为1,单位是B/s。1表示不限制。 否 writeBps 写带宽上限。 取值:整型,取值范围为[1, 4096000000000],默认值为1,单位是B/s。1表示不限制。 否 IOPSBurst 使用Burst功能时,每秒能够进行读写操作次数的最大值。 取值:整型,只有当IOPS大于等于1时,此项设置为1或( IOPS , 999999999]内的正整数方可生效。默认值为1,表示不限制。 否 readIOPSBurst 使用Burst功能时,每秒能够进行读操作次数的最大值。 取值:只有当readIOPS大于等于1时,此项设置为1或( readIOPS , 999999999]内的正整数方可生效。默认值为1,表示不限制。 否 writeIOPSBurst 使用Burst功能时,每秒能够进行写操作次数的最大值。 取值:只有当writeIOPS大于等于1时,此项设置为1或( writeIOPS , 999999999]内的正整数方可生效。默认值为1,表示不限制。 否 BpsBurst 使用Burst功能时,每秒可传输的数据量最大值。 取值:只有当Bps大于等于1时,此项设置为1或( Bps , 4096000000000]内的正整数方可生效,默认值为1,单位是B/s。1表示不限制。 否 readBpsBurst 使用Burst功能时,读带宽上限。 取值:只有当readBps大于等于1时,此项设置为1或( readBps , 4096000000000]内的正整数方可生效,默认值为1,单位是B/s。1表示不限制。 否 writeBpsBurst 使用Burst功能时,写带宽上限。 取值:只有当writeBps大于等于1时,此项设置为1或( writeBps , 4096000000000]内的正整数方可生效,默认值为1,单位是B/s。1表示不限制。 否 IOPSBurstSecs 使用Burst功能时,按照Burst上限的能力进行读写操作所能持续的时间。 注意 只有在IOPS Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 readIOPSBurstSecs 使用Burst功能时,按照Burst上限的能力进行读操作所能持续的时间。 注意 只有在read IOPS Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 writeIOPSBurstSecs 使用Burst功能时,按照Burst上限的能力进行写操作所能持续的时间。 注意 只有在write IOPS Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 BpsBurstSecs 使用Burst功能时,按照Burst上限的流量能力所能持续的时间。 注意 只有在Bps Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 readBpsBurstSecs 使用Burst功能时,按照Burst上限的读流量能力所能持续的时间。 注意 只有在read Bps Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 writeBpsBurstSecs 使用Burst功能时,按照Burst上限的写流量能力所能持续的时间。 注意 只有在write Bps Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 clusterID HBlock的标识,在csiconfigMap.yaml中唯一。详见 是 chapEnable 是否使用CHAP认证,取值: "true"。 "false"。 默认值为"false"。 注意 这里需要输入字符串,即"true"或"false"。 否 chapUser CHAP认证的用户名。需要对CHAP认证的用户名源码使用DecryptData配置的密钥对进行AES(ECP、paddingcs7)加密,加密后的结果进行Base64编码,具体详见 否 chapPassword CHAP认证的密码。需要对CHAP认证的密码源码使用DecryptData配置的密钥对进行AES(ECP、paddingcs7)加密,加密后的结果进行Base64编码,具体详见 否 reclaimPolicy 持久化卷回收策略。 取值: Retain:保留。 Delete:删除。 默认值为Delete。 否 volumeBindingMode 立即绑定还是等待Pod调度时绑定。 取值: Immediate:立即绑定。 WaitForFirstConsumer:延迟绑定。 默认值为Immediate。 否 allowVolumeExpansion 允许卷扩展。 取值: true:允许卷扩展。 false:不允许卷扩展。 默认值为false。 否
        来自:
        帮助文档
        存储资源盘活系统
        常用工具
        Container Storage Interface插件
        脚本方式使用指南
        调用方式
        动态PVC
      • 配置卷类型
        本节主要介绍HBlock Cinder配置卷类型。 可以按照下列步骤进行卷类型配置。 1. 修改Cinder的配置文件/etc/cinder/cinder.conf,使用enabledbackends启用HBlock的卷,并且在配置文件中增加HBlock卷相关参数。 说明 一次可以在cinder.conf添加多个卷的类型。 单机版示例如下: plaintext [DEFAULT] enabledbackends lvmdriver1,stor1 [stor1] volumegroupstackvolumeslvmdriver2 volumedriverstordriver.driver.driverstor.StorDriver volumebackendname stor1 storprovider HBlock storapiuser storuser storapipassword storchapuser chapuser storchappassword storapiendpoint writepolicy WriteBack sectorsize 4096 maxsessions 2 storpath /mnt/stor flattenvolumefromsnapshotfalse maxclonedepth5 集群版示例如下: plaintext [DEFAULT] enabledbackends lvmdriver1,stor,stor1,stor2 [stor] volumegroupstackvolumeslvmdriver2 volumedriverstordriver.driver.driverstor.StorDriver volumebackendname stor storprovider HBlock storapiuser storuser storapipassword storchapuser chapuser storchappassword storapiendpoint storchapuser chapuser storchappassword storagemode Local localstorageclass EC 2+1 highavailability ActiveStandby writepolicy WriteBack sectorsize 512 ecfragmentsize 16 maxsessions 2 minreplica 2 flattenvolumefromsnapshotfalse maxclonedepth5 [stor1] volumegroupstackvolumeslvmdriver2 volumedriverstordriver.driver.driverstor.StorDriver volumebackendname stor1 storprovider HBlock storapiuser storuser storapipassword storchapuser chapuser storchappassword storapiendpoint storagemode Local localstorageclass singlecopy highavailability Disabled writepolicy WriteAround sectorsize 512 flattenvolumefromsnapshottrue maxclonedepth5 [stor2] volumegroupstackvolumeslvmdriver2 volumedriverstordriver.driver.driverstor.StorDriver volumebackendname stor2 storprovider HBlock storapiuser storuser storapipassword storchapuser chapuser storchappassword storapiendpoint storagemode Local localstorageclass 3copy highavailability ActiveStandby writepolicy WriteThrough sectorsize 4096 文件中的参数解释如下: 参数名称 参数说明 是否必须 enabledbackends 需要在系统生效的后端存储名称。 如果有多个需要生效的存储,名称之间用英文逗号隔开。 是 volumegroup 卷的组。 是 volumedriver HBlock驱动所在路径。 取值: 如果驱动作为独立Python包进行安装,取值为stordriver.driver.driverstor.StorDriver。 如果复制stordriver到Cinder驱动目录的方式安装驱动,取值为:cinder.volume.drivers.stordriver.driver.driverstor.StorDriver。 是 volumebackendname 卷对应的后端存储名称,存储节点的Volume Provider 命名。与enabledbackends定义的后端存储名字保持一致。 是 storprovider 产品名称。 取值:HBlock。 是 storapiuser HBlock的管理员用户名。 说明 HBlock初始化时,默认用户名为storuser。 是 storapipassword HBlock的管理员密码。 是 storagemode HBlock卷的模式。 取值: Local:本地模式,数据全部保留在本地。 Cache:缓存模式,本地保留部分热数据,全部数据异步存储到OOS中。 Storage:存储模式,本地保留全部数据,并异步存储到OOS中。 默认值为Local。 否 storchapuser CHAP验证用名称。 取值:字符串形式,长度范围是3~64,只能由字母、数字、句点( . )、短横线( )、下划线( )、冒号( : )组成,字母区分大小写,且仅支持以字母或数字开头。 否 storchappassword CHAP认证密码。 取值:字符串形式,长度范围是12~16,只能由字母、数字或下划线( )组成,字母区分大小写。 否 storapiendpoint 配置HBlock RESTful API地址和端口。 对于集群版HBlock,可以填写多对HBlock RESTful API地址和端口,以英文逗号隔开。 说明 安装HBlock时,默认API端口为1443。 是 storpath 指定HBlock存储卷数据的数据目录(仅单机版支持)。 说明 如果创建卷时不指定数据目录,使用服务器设置的默认数据目录。 否 servernumbers Target所在的服务器数量(仅集群版支持)。 整数形式,取值为[2, n],n为集群内服务器的数量。默认值为2。 否 faultdomains 卷的服务端连接位置信息。根据存储池的故障域,创建Target所在服务器的列表(仅集群版支持),以便创建LUN时,LUN关联的Target优先从该服务器列表中选择所在服务器。例如存储池为rack级别,其拓扑图涵盖rack1、rack2、rack3、rack4中的节点,且faultDomains指定rack1、rack2,那么创建LUN时,LUN关联的Target优先从rack1、rack2所包含的此存储池的服务器列表里进行选择。 注意 存储池的故障域为path级别时,不能设置该参数。 如果LUN指定了高速缓存池和最终存储池,则从高速缓存池池中选择节点列表。如果LUN只指定了最终存储池,则从最终存储池中选择节点列表。 取值:以节点的形式添加,节点的级别可以到room、rack、server。可以指定多个节点,但是节点的个数要小于等于serverNumbers。支持一个节点添加多次,但是每次只能选一个server,并且选择的server不能与前面重复。如果一个节点出现的次数过多导致节点内的全部server都被选择,则系统会忽略此节点,从后面的节点中继续选择。 否 pool 指定存储池(仅集群版支持),表示最终存储池,卷数据最终落在该存储池内。默认使用集群的基础存储池。 注意 已用该卷类型创建卷,禁止修改pool,否则将影响已创建的卷。如果需要修改pool,需要创建新的卷类型。 否 cachepool 指定缓存存储池(仅集群版支持)。如果指定了缓存存储池,卷数据首先写入缓存存储池,然后再存入存储池。 注意 存储池与缓存存储池不能是同一个存储池。 否 highavailability 选择卷的高可用类型(仅集群版支持): ActiveStandby:启用主备,该卷关联对应Target下的所有IQN。 Disabled:不启用主备,该卷关联对应Target下的1个IQN。 默认值为ActiveStandby。 否 localstorageclass 卷冗余模式(仅集群版支持)。 取值: singlecopy:单副本。 2copy:两副本。 3copy:三副本。 EC N+M:纠删码模式。其中N、M为正整数,N>M,且N+M≤128。表示将数据分割成N个片段,并生成M个校验数据。 默认值为EC 2+1。 否 minreplica 最小副本数(仅集群版支持)。 对于副本模式的卷,假设卷副本数为X,最小副本数为Y(Y必须≤X),该卷每次写入时,至少Y份数据写入成功,才视为本次写入成功。对于EC N+M模式的卷,假设该卷最小副本数设置为Y(必须满足N≤Y≤N+M),必须满足总和至少为Y的数据块和校验块写入成功,才视为本次写入成功。 取值:整数。对于副本卷,取值范围是[1, N],N为副本模式卷的副本数,默认值为1。对于EC卷,取值范围是[N, N+M],默认值为N。 否 redundancyoverlap 卷的折叠副本数(仅集群版支持)。在数据冗余模式下,同一份数据的不同副本/分片默认分布在不同的故障域,当故障域损坏时,允许根据卷的冗余折叠原则,将多份数据副本放在同一个故障域中,但是分布在不同的path上。 注意 如果存储池故障域级别为path,此参数不生效。 取值:对副本模式,取值范围是[1,副本数],默认值为1;对于EC模式,取值范围是[1,M+N],默认值为1。 否 ecfragmentsize 纠删码模式分片大小(仅集群版支持)。卷冗余模式为EC模式时,此设置才生效,否则忽略。 取值:1、2、4、8、16、32、64、128、256、512、1024、2048、4096,单位是KiB。默认值为16。 否 sectorsize 设置扇区大小。 取值:512、4096,单位是bytes。默认值为4096。 否 writepolicy 卷的写策略: WriteBack(wb):回写,指数据写入到内存后即返回客户端成功,之后再异步写入磁盘。适用于对性能要求较高,稳定性要求不高的场景。 WriteThrough(wt):透写,指数据同时写入内存和磁盘,并在都写成功后再返回客户端成功。适用于稳定性要求较高,写性能要求不高,且最近写入的数据会较快被读取的场景。 WriteAround(wa):绕写,指数据直接写到磁盘,不写入内存。适用于稳定性要求较高,性能要求不高,且写多读少的场景。 默认值为WriteBack(wb)。 否 maxsessions iSCSI Target允许建立的最大会话数。 取值:整数,取值范围是[1, 1024],默认值为1。 否 flattenvolumefromsnapshot 是否断开卷与快照的关系链: true:断开。 false:不断开。 默认值为false。 否 maxclonedepth 最大克隆卷深度,当超过设置的最大深度时,新创建的卷会自动执行断链。 取值:整数,取值范围是[0, 15],默认值为5。0表示不支持克隆卷。 否 cloudbucketname 已存在的OOS存储桶的名称。 注意 请勿开启Bucket的生命周期设定和合规保留。 上云卷必填 cloudprefix 设置OOS中的前缀名称,设置前缀名称后,卷数据会存在存储桶以前缀命名的类文件夹中。如果未指定前缀,则直接存储在以卷名称命名的类文件夹中。 取值:字符串形式,长度范围是1~256。 否 cloudaccesskey OOS AccessKeyID。 上云卷必填 cloudsecretkey OOS SecretAccessKey。 上云卷必填 cloudendpoint 设置OOS Endpoint。 上云卷必填 cloudobjectsize 数据存储在OOS中的大小。 取值:128、256、512、1024、2048、4096、8192,单位是KiB。默认值为1024。 否 cloudstorageclass 设置OOS的存储类型: STANDARD:标准存储。 STANDARDIA:低频访问存储。 默认为STANDARD。 否 cloudcompression 是否压缩数据上传至OOS: Enabled(on):压缩数据上传至OOS。 Disabled(off):不压缩数据上传至OOS。 默认值为Enabled(on)。 否 cloudsignversion 指定上云签名认证的类型: v2:V2签名认证。 v4:V4签名认证。 默认值为v2。 否 cloudregion 表示Endpoint资源池所在区域。 V4签名时,此项必填。 条件 deleteclouddata 删除卷时,是否删除云上的数据: true:删除云上数据。 false:不删除云上数据。 默认值为true。 否 2. 使用下列命令,使用配置生效: plaintext cinder typecreate volumebackendname cinder typekey volumebackendname set volumebackendnamevolumebackendname 示例1:使步骤1中单机版配置生效 plaintext cinder typecreate stor1 cinder typekey stor1 set volumebackendnamestor1 示例2:使步骤1中配置的集群版配置生效 plaintext cinder typecreate stor cinder typekey stor set volumebackendnamestor cinder typecreate stor1 cinder typekey stor1 set volumebackendnamestor1 cinder typecreate stor2 cinder typekey stor2 set volumebackendnamestor2 3. 重启Cinder服务 如果使用DevStack方式安装OpenStack,重启Cinder服务命令如下: plaintext systemctl restart devstack@c 如果使用Packstack安装OpenStack,重启Cinder服务命令如下: plaintext systemctl restart openstackcinder 4. 配置Multipath(集群版) 1)参考客户端配置章节中的“配置 MPIO”,确保MPIO正确配置。 2)启用Nova的multipath功能(如果是多节点部署,需要到对应的计算节点修改配置):如果使用DevStack方式安装OpenStack,修改/etc/novacpu.conf;如果使用Packstack安装OpenStack,修改/etc/nova/nova.conf。 plaintext [libvirt] iscsiusemultipath true 5. 重启Nova服务(集群版) 如果使用DevStack方式安装OpenStack,重启Nova服务命令如下: plaintext systemctl restart devstack@n 如果使用Packstack安装OpenStack,重启Nova服务命令如下: plaintext systemctl restart openstacknova 说明 如果是多节点部署,需要到对应的计算节点重启Nova服务。 6. 验证卷是否配置正确 plaintext cinder typelist cinder typeshow ID
        来自:
        帮助文档
        存储资源盘活系统
        常用工具
        OpenStack Cinder驱动插件
        配置卷类型
      • 功能清单
        功能名称 功能描述 发布区域 当前云硬盘提供了三类API,分别为云硬盘API、云硬盘快照API、云硬盘自动快照API。 详细的提供了API的描述、语法、参数说明及示例等内容。 云硬盘API:全部 云硬盘快照API:华东1/华北2 云硬盘自动快照API:华东1/华北2 云硬盘支持多种配置规格,可挂载至云主机用作数据盘和系统盘,根据性能将其分为XSSD3、XSSD2、XSSD1、XSSD0、极速型SSD、超高IO、通用型SSD、高IO、普通IO几种规格。 您可以在实际使用中可以选择符合业务需求与成本预算的规格进行购买。 不同地域支持的磁盘类型不同,您可以通过 云硬盘的磁盘模式分为三种,分别是: VBD(Virtual Block Device):虚拟块存储设备。 SCSI (Small Computer System Interface):小型计算机系统接口。 FCSAN(Fibre Channel SAN):光纤通道协议的SAN网络。 VBD:全部 SCSI: HDD类型:拉萨3/北京9/西宁2/庆阳2/呼和浩特3 SSD类型:华北2/郑州5/上海36/西南1/西宁2/庆阳2/呼和浩特3/沈阳8/华东1 FCSAN:上海7 系统盘在创建云主机或物理机时自动添加,无需单独创建。数据盘可以在创建云主机或物理机时创建,由系统自动挂载给云主机或物理机,也可以在创建了云主机或物理机之后,单独创建云硬盘并挂载给云主机或物理机。 全部 创建云硬盘后,需要将云硬盘挂载给云主机或物理机,供云主机或物理机作为数据盘使用。 挂载云硬盘通常分为两种,一种是挂载非共享云硬盘,另一种为挂载共享云硬盘。 全部 当卸载数据盘时,支持离线卸载或在线卸载,即可在挂载该数据盘的云主机处于“运行中”或“关机”状态时进行卸载。 只有数据盘支持卸载操作,系统盘不支持卸载。 全部 一块新创建的数据盘在挂载至云主机后,还不能直接存储数据,您需要为这块数据盘创建分区、格式化等初始化操作后才可以正常使用。 全部 当云硬盘空间不足时,您可以扩大云硬盘的容量,也就是云硬盘扩容。云硬盘扩容可以有如下两种处理方式: 申请一块新的云硬盘,并挂载给云主机。 扩容原有云硬盘空间。系统盘和数据盘均支持扩容。 全部 当您不再使用包年/包月的云硬盘时,可以退订云硬盘以释放存储空间资源。退订云硬盘后,将停止对云硬盘收取费用。 当云硬盘被退订后,云硬盘的数据将无法被访问。同时,该云硬盘对应的物理存储空间会被回收,对应的数据会被覆盖。在数据被覆盖之前,该存储空间不会被再次分配。 全部 当您不再使用按量付费的云硬盘时,可以删除云硬盘以释放存储空间资源。 删除云硬盘后,将停止对云硬盘收取费用。当云硬盘被删除后,云硬盘的数据将无法被访问。同时,该云硬盘对应的物理存储空间会被回收,对应的数据会被覆盖。在数据被覆盖之前,该存储空间不会被再次分配。 全部 云硬盘快照是云硬盘数据在特定时间点的完整副本或镜像。作为一种主要的灾难恢复方法,您可以使用快照将数据完全恢复到创建快照时的时间点。 您可以通过管理控制台或者API接口创建云硬盘快照。 华东1/华北2 天翼云云硬盘支持自动快照功能,您可以通过自动快照策略周期性地为云硬盘创建快照,可同时适用于系统盘和数据盘。 自动快照服务便于您灵活设置快照创建任务,提高数据安全和操作容错率。 华东1/华北2 天翼云云硬盘回收站支持将删除的云硬盘资源保存至回收站中,是一种数据保护的方式。在一定时间内,您可以在回收站内恢复云硬盘数据,以防止误删除导致的云硬盘数据丢失。 回收站功能默认为关闭状态,如需使用,需要您手动开启,保留时间最多为7天。 华东1/南宁23/上海36/青岛20/武汉41/华北2/长沙42/西南1/南昌5/西安7/太原4/郑州5/西南2贵州/华南2/杭州7/庆阳2/呼和浩特3/佛山7 云硬盘备份是指将云硬盘中的数据备份到其他存储介质或位置的操作。 云硬盘备份是一种数据保护措施,旨在应对数据损坏、误删除、恶意操作或主存储系统故障等风险,以确保数据的可靠性和可恢复性。 芜湖4/合肥2/芜湖2/北京5/重庆2/厦门3/福州3/福州4/福州25/兰州2/庆阳2/佛山3/广州6/南宁23/南宁2/贵州3/海口2/石家庄20/郑州5/华北2/华东1/华南2/武汉3/武汉4/武汉41/郴州2/长沙3/长沙42/南京2/南京4/南京3/南京5/九江/南昌5/沈阳8/辽阳1/呼和浩特3/内蒙6/中卫5/中卫2/西宁2/西安7/西安4/西安5/西安3/青岛20/上海15/上海7/上海36/太原4/晋中/成都4/西南1/西南2贵州/乌鲁木齐7/乌鲁木齐27/拉萨3/昆明2/杭州7/杭州2 当您的业务因为等保合规或安全要求等原因,需要对存储在云硬盘上的数据进行加密保护时,您可以在创建云硬盘时勾选加密选项,即可对新创建的云硬盘进行加密。 南宁23/华东1/南昌5/华南2/西安7/太原4/华北2/郑州5/西南2贵州/杭州7/庆阳2/呼和浩特3/长沙42/芜湖4/西南1/上海36/上海15/北京9/上海17/佛山7/长春3/宁波2 共享云硬盘允许多个云主机并发访问同一个云硬盘,实现多个实例之间的数据共享和协作。对云硬盘的共享访问通常应用于数据集群应用系统、分布式文件系统和高可用性架构等场景。 一块共享云硬盘支持同时挂载到最多16台云主机,其中云主机包括弹性云主机和物理机两种,目前共享云硬盘只支持共享数据盘,不支持共享系统盘。 重庆2/南宁2/成都4/芜湖2/九江/西宁2/拉萨3/海口2/佛山3/贵州3/福州3/上海7/杭州2/北京5/南京3/南京4/西安4/内蒙6/晋中/郴州2/武汉4/福州4/昆明2/西安5/南京5/华东1/南宁23/上海36/石家庄20/辽阳1/青岛20/武汉41/福州25/乌鲁木齐27/华北2/西南1/长沙42/中卫5/南昌5/华南2/西安7/太原4/郑州5/西南2贵州/杭州7/西安3/庆阳2/乌鲁木齐7/中卫2/厦门3/乌鲁木齐4/上海15/芜湖4/北京9/上海17/呼和浩特3/沈阳8/上海20/佛山7/广州9/长春3/宁波2 当您开通云硬盘服务后,即可通过云监控来查看云硬盘的性能指标。 云硬盘支持的监控指标包括:磁盘读速率、磁盘写速率、磁盘读请求速率、磁盘写请求速率、平均写操作大小、平均读操作大小、平均写操作耗时、平均读操作耗时 。 全部 包年包月采用包周期预付费的计费模式,按订单的购买周期计费,适用于可预估资源使用周期的场景。 如果您需要更灵活的计费方式,按照云硬盘的实际使用时长计费,您可以将云硬盘的计费方式转为按需付费。 全部 天翼云提供多种云硬盘类型,满足不同场景的存储性能和价格需求,您可以根据业务需求变更云硬盘的类型。 例如,创建云硬盘时选择了通用型SSD,但后期需要更高的IOPS,则可以将该盘变配为超高IO型云硬盘。 普通IO、高IO、通用型SSD、超高IO:南宁23/上海36/青岛20/武汉41/华北2/西南1/南昌5/西安7/太原4/华南2/郑州5/西南2贵州/杭州7/庆阳2/呼和浩特3/长沙42/乌鲁木齐7/华东1/上海15/佛山7 X系列:已上线的地域, 除华北2均支持修改磁盘类型,已上线区域请参见 针对按需计费云硬盘,您可以手动释放云硬盘,也可以设置随实例释放云硬盘(如果云硬盘开启了随实例释放,则在释放云主机实例时云硬盘会自动一起释放)。 云硬盘的快照默认不随云硬盘自动释放,如果您不再需要某些云硬盘快照,可以将其手动释放。您还可以通过设置云硬盘释放策略,选择在释放云硬盘的同时释放该盘的全部快照。 随实例释放按需计费云硬盘:华东1/华北2 随云硬盘释放快照:华东1/华北2
        来自:
        帮助文档
        云硬盘 EVS
        产品介绍
        功能清单
      • 将Oracle迁移到TeleDB
        DTS CONTAINERALL; GRANT EXECUTE ON DBMSLOGMNRD TO C DTS CONTAINERALL; oracle 12c关闭CDB模式 如果仅作测试用可直接赋予最高权限,用SYS用户登录Oracle,如下创建DTS迁移用户: CREATE USER DTS IDENTIFIED BY " " DEFAULT TABLESPACE USERS QUOTA UNLIMITED ON USERS; GRANT DBA TO DTS; GRANT SELECT ON SYS.OBJ$ TO DTS; GRANT SELECT ON SYS.COL$ TO DTS; 如果需要授予数据迁移用户的精准权限,用SYS用户登录Oracle,如下创建DTS迁移用户: 要求该用户必须是CDB下的用户,且授权的权限必须在所有容器内都具备 CREATE USER DTS IDENTIFIED BY " " DEFAULT TABLESPACE USERS QUOTA UNLIMITED ON USERS; GRANT CREATE SESSION TO DTS; GRANT SET CONTAINER TO DTS; GRANT FLASHBACK ANY TABLE TO DTS; GRANT SELECT ANY TABLE TO DTS; GRANT INSET ANY TABLE TO DTS; GRANT UPDATE ANY TABLE TO DTS; GRANT DELETE ANY TABLE TO DTS; GRANT CREATE ANY TABLE TO DTS; GRANT DROP ANY TABLE TO DTS; GRANT COMMENT ANY TABLE TO DTS; GRANT LOCK ANY TABLE TO DTS; GRANT CREATE SEQUENCE TO DTS; GRANT SELECT ANY SEQUENCE TO DTS; GRANT SELECT ANY TRANSACTION TO DTS; GRANT SELECT ANY DICTIONARY TO DTS; GRANT SELECT ON SYS.OBJ$ TO DTS; GRANT SELECT ON SYS.COL$ TO DTS; GRANT SELECTCATALOGROLE TO DTS; GRANT EXECUTECATALOGROLE TO DTS; GRANT LOGMINING TO DTS; GRANT EXECUTE ON DBMSLOGMNR TO DTS; GRANT EXECUTE ON DBMSLOGMNRD TO DTS; 2. 创建目标库DTS用户 如果仅作测试,可直接使用TeleDB最高权限的用户root。 如果需要使用精准权限的用户,用root用户登录TeleDB,如下创建DTS迁移用户: CREATE USER dts WITH ENCRYPTED PASSWORD ' '; GRANT CREATE, TEMPORARY, CONNECT ON DATABASE TO dts; 如果要做增量迁移且迁移的表包含外键,那么除了上述权限外,还要保证该用户具有在会话级别执行SET sessionreplicationrole 'replica'的权限。可登录TeleDB控制台,将该参数设置并重启。 3. 如果有增量迁移,需按照如下方法开启Oracle的归档日志 非RAC模式: SELECT name,logmode from V$DATABASE; 如果没有开启,使用sqlplus且用SYS用户以sysdba方式登录后,依次执行以下命令: SHUTDOWN IMMEDIATE; STARTUP MOUNT; ALTER DATABASE ARCHIVELOG; ALTER DATABASE OPEN; RAC模式: 在RAC ORACLE 的某一个节点的 shell 中,关闭、启动、挂载某一个数据库: srvctl stop database d srvctl start database d o mount 使用DBA 权限账号登陆该数据库,并开启归档日志: alter database archivelog; 在RAC ORACLE 的某一个节点的 shell 中, 重启数据库: srvctl stop database d srvctl start database d 4. 如果有增量迁移,需开启Oracle的详细补充日志 使用以下命令,确认supplemental logging 是否开启: SELECT supplementallogdatamin, supplementallogdatapk, supplementallogdataall FROM V$DATABASE; 如果三列存在NO,那么先开启补充最小日志supplementallogdatamin: ALTER DATABASE ADD SUPPLEMENTAL LOG DATA; 开启全补充日志,增加ALL、主键、Unique Index: ALTER DATABASE ADD SUPPLEMENTAL LOG DATA(ALL, PRIMARY KEY, UNIQUE) COLUMNS; 5. 确保所有容器处于打开状态 如果有增量迁移,且CDB模式开启,且有多个容器数据库,则要保证这写可插拔的容器数据库处于打开状态,不然无法启动增量迁移。 注意必须用SYS用户执行 SELECT conid, name, openmode, restricted FROM v$pdbs; 以上查询结果中,除了SEED容器外,OPENMODE字段的值必须为READ WRITE。 6. 确认迁移对象中是否存在无主键表 如果勾选增量迁移,迁移对象中不能包含无主键表: 替换 YOURSCHEMANAME 为你的模式名 SELECT t.tablename FROM alltables t LEFT JOIN allconstraints c ON t.owner c.owner AND t.tablename c.tablename AND c.constrainttype 'P'WHERE t.owner ' 使用以上查询语句可以筛选出某个schema下的所有无主键表,将这些表排除于增量迁移之外。 7. 确认归档日志保留时间 如果勾选增量迁移,为了避免增量迁移过程中由于一些故障导致同步中断的情况,需要至少保留37天的归档日志来确保处理这些情况的窗口期。否则,可能导致无法将同步从故障中恢复。 RMAN> SHOW RETENTION POLICY; 8. 确认待迁移对象中是否包含触发器 如果将触发器作为结构的一部分,在DTS的调度逻辑上,触发器会先于全量迁移被迁移到TeleDB。这样可能会影响到全量迁移,导致数据不一致。 建议将触发器放到全量迁移之后,再新建一个迁移任务进行迁移。 9. 数据及业务信息统计 如果为非测试任务,需要在迁移之前统计业务以及迁移信息,方便进行迁移任务规划。 资源信息: 源库规格信息,例如4C8G + 500G + SSD 目标库磁盘信息,例如4C8G + 500G + SSD 网络情况,例:为测试环境纯内网传输,无复杂的网络拓补结构 数据信息: 总数据量,例如30GB 总库表数量,例:40个库,8000张表,2000个视图,5个触发器 每日新增数据量级,例如:一天的归档日志新增大概100GB 是否所有表都有主键,建议迁移前完善主键,提高性能,方便运维。如果存在无主键的表,则增量阶段源端对应表的增、删、改操作不会同步至目标端,可能导致数据不一致,请谨慎评估。 业务类: 数据迁移是否可停业务,例:能/不能 增量迁移情况,例:开启增量迁移,持续时间5天 可停业务时间长度,例:服务停机时间预计48小时 业务中是否存在百万级别的大事务,例:存在,涉及对表CLOUD.LOGS进行大事务操作,存在一个存储过程用不带where条件的delete语句定期清理该表。 操作步骤 1. 订购DTS数据迁移实例。 2. 进入实例配置页面。DTS实例创建成功后,进入【数据迁移】实例列表页面,上一步骤购买成功的实例在实例列表中显示状态为“待配置”,进入实例配置页面进行配置: 3. 配置源库及目标库信息。 1. 进入实例配置第一个步骤的【配置源库及目标库信息】页面,填入源库与目标库的相关配置信息,包括数据库类型、IP地址端口、数据库账号、数据库密码等信息。 2. 完成上述信息的填写后,单击源数据库和目标数据库的测试连接按钮进行数据库连接测试,检查数据库能否正常连接。 3. 注意 ORACLE如果要进行增量同步,不能使用SYS/SYSTEM系统用户。 4. 配置迁移对象及高级配置。 源库和目标库连通性测试成功后,点下一步按钮,进入实例配置第二个步骤的【配置迁移对象及高级配置】页面,在“源库对象”中选择要迁移的源库对象,选中后单击“>”按钮,将待迁移对象移动到“已选择对象”中。 5. 预检查和启动迁移。 完成迁移对象和高级配置后,单击“下一步预检查”,进入实例配置第三个步骤的【预检查】页面。预检查会检查如下列表信息,并给出检查结果,用户可以依据检查结果进行下一步操作。 检查内容 检查点 检查源库连通性 源库网络能够连通 检查目标库连通性 目标库网络能够连通 检查源库用户权限 若不包含增量,检查提供的源库账号是否具有以下权限: CREATE SESSION;CATALOGROLE、ANY DICTIONARY、待迁移表的select权限若包含增量,还需要检查以下权限:SET CONTAINER,FLASHBACK ANY TABLE,SELECT ANY TABLE,SELECTCATALOGROLE,EXECUTECATALOGROLE,SELECT ANY TRANSACTION,LOGMINING,CREATE TABLE,LOCK ANY TABLE,CREATE SEQUENCE,EXECUTE ON DBMSLOGMNR,EXECUTE ON DBMSLOGMNRD,SELECT ANY DICTIONARY,SELECT ON SYS.OBJ,SELECT ON SYS.COL,CREATE ANY TABLE,COMMENT ANY TABLE,DROP ANY TABLE 检查目标库用户权限 检查提供的目标库账号是否具有登录信息database下创建schema的权限。 检查目标库PostgreSql版本 目标库的PostgreSql版本是否不低于9.2 检查待迁移表是否存在主键 检查待迁移表是否都存在主键,只有全量迁移时,如果发现存在没有主键的表,将提出警告(无主键的表可能会导致数据不一致);勾选了增量迁移,如果发现存在没有主键的表,预检查将不通过(增量迁移功能依赖主键) 检查待迁移表约束完整性 检查待迁移表依赖的表对象是否包含在待迁移对象中,若存在依赖的对象未被选择,检查不通过 检查源库最大连接数 检查源库最大连接数是否不小于300,若最大连接数小于300,给出告警 检查目标库最大连接数 检查目标库最大连接数是否不小于300,若最大连接数小于300,给出告警 检查同名对象存在性 检查目标库中是否存在和待迁移库同名的库(映射后),若存在,检查该库下面是否存在同名的表(映射后)。如果有,将提出警告。 检查源数据库Oracle的表字段的数据类型能否都迁移到目标库 待迁移表中不能存在Oracle的独有的字段类型,ROWID、UROWID、XMLTYPE、BFILE、SDOGEOMETRY等类型 检查源库对象是否仅大小写不同 迁移对象中是否包含仅大小写不同的对象时,预检查不通过 检查待迁移库名合法性 若待迁移库名中包含非法字符,检查不通过 检查待迁移表名合法性 若待迁移表名中包含非法字符,检查不通过 检查源库字符集是否为支持的字符集 源库字符集支持以下字符集:ZHS16GBK,AL32UTF8,UTF8,US7ASCII,WE8MSWIN1252若源库字符集不属于以上字符集,预检查将不通过 检查当前登录账号是否个人账号 勾选增量时,检查源库的迁移用户是否为个人账号,若账号为系统用户,检查不通过 检查源库是否开启归档日志 勾选增量时,检查源库是否开启归档日志,若未开启,检查不通过 检查源库是否开启补充日志 勾选增量时,检查源库是否开启补充日志,若未开启,检查不通过 如果预检查通过,可单击【预检查】页面底部的“启动迁移”按钮,开始迁移任务。或者直接单击”数据迁移“列表,返回数据迁移主界面,任务将显示为”未启动“状态。 勾选任务,单击 开始任务 ,任务将变为 运行中 ,直到全量迁移完成,或者进入增量迁移状态。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据传输服务操作指南
        迁移指南
        迁移配置
        将Oracle迁移到TeleDB
      • 支持的监控指标
        说明:本章节会介绍关系型数据库支持哪些监控指标 功能说明 本节定义了关系型数据库上报云监控的监控指标的命名空间,监控指标列表和维度定义,用户可以通过云监控提供的API接口来检索关系型数据库产生的监控指标和告警信息。 命名空间 SYS.RDS 实例监控指标 MySQL数据库性能监控指标,如表54所示。 数据库性能监控列表 指标 指标名称 含义 取值范围 测量对象和监控对象 监控周期(原始指标) rds001cpuutil CPU使用率 该指标用于统计测量对象的CPU使用率,以比率为单位。 0100% 测量对象:弹性云服务器 监控实例类型:MySQL实例 1分钟 rds002memutil 内存使用率 该指标用于统计测量对象的内存使用率,以比率为单位。 0100% 测量对象:弹性云服务器 监控实例类型:MySQL实例 1分钟 rds003iops IOPS 该指标用于统计当前实例,单位时间内系统处理的I/O请求数量(平均值)。 ≥ 0 counts/s 测量对象:弹性云服务器 监控实例类型:MySQL实例 1分钟 rds004bytesin 网络输入吞吐量 该指标用于统计平均每秒从测量对象的所有网络适配器输入的流量,以字节/秒为单位。 ≥ 0 bytes/s 测量对象:弹性云服务器 监控实例类型:MySQL实例 1分钟 rds005bytesout 网络输出吞吐量 该指标用于统计平均每秒从测量对象的所有网络适配器输出的流量,以字节/秒为单位。 ≥ 0 bytes/s 测量对象:弹性云服务器 监控实例类型:MySQL实例 1分钟 rds006conncount 数据库总连接数 该指标用于统计试图连接到MySQL服务器的总连接数,以个为单位。 ≥ 0 counts 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds007connactivecount 当前活跃连接数 该指标用于统计当前打开的连接的数量,以个为单位。 ≥ 0 counts 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds008qps QPS 该指标用于统计SQL语句查询次数,含存储过程,以次/秒为单位。 ≥ 0 queries/s 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds009tps TPS 该指标用于统计事务执行次数,含提交的和回退的,以次/秒为单位。 ≥ 0 transactions/s 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds010innodbbufusage 缓冲池利用率 该指标用于统计InnoDB缓存中脏数据与数据比例,以比率为单位。 01 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds011innodbbufhit 缓冲池命中率 该指标用于统计读命中与读请求数比例,以比率为单位。 01 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds012innodbbufdirty 缓冲池脏块率 该指标用于统计使用的页与InnoDB缓存中数据总数比例,以比率为单位。 01 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds013innodbreads InnoDB读取吞吐量 该指标用于统计Innodb平均每秒读字节数,以字节/秒为单位。 ≥ 0 bytes/s 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds014innodbwrites InnoDB写入吞吐量 该指标用于统计Innodb平均每秒写字节数,以字节/秒为单位。 ≥ 0 bytes/s 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds015innodbreadcount InnoDB文件读取频率 该指标用于统计Innodb平均每秒从文件中读的次数,以次/秒为单位。 ≥ 0 counts/s 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds016innodbwritecount InnoDB文件写入频率 该指标用于统计Innodb平均每秒向文件中写的次数,以次/秒为单位。 ≥ 0 counts/s 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds017innodblogwritereqcount InnoDB日志写请求频率 该指标用于统计平均每秒的日志写请求数,以次/秒为单位。 ≥ 0 counts/s 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds018innodblogwritecount InnoDB日志物理写频率 该指标用于统计平均每秒向日志文件的物理写次数,以次/秒为单位。 ≥ 0 counts/s 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds019innodblogfsynccount InnoDB日志fsync()写频率 该指标用于统计平均每秒向日志文件完成的fsync()写数量,以次/秒为单位。 ≥ 0 counts/s 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds020temptblcount 临时表数量 该指标用于统计MySQL执行语句时在硬盘上自动创建的临时表的数量,以个为单位。 ≥ 0 tables 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds021myisambufusage Key Buffer利用率 该指标用于统计MyISAM Key buffer的利用率,以比率为单位。 01 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds022myisambufwritehit Key Buffer写命中率 该指标用于统计MyISAM Key buffer写命中率,以比率为单位。 01 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds023myisambufreadhit Key Buffer读命中率 该指标用于统计MyISAM Key buffer读命中率,以比率为单位。 01 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds024myisamdiskwritecount MyISAM硬盘写入频率 该指标用于统计向磁盘写入索引的次数,以次/秒为单位。 ≥ 0 counts/s 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds025myisamdiskreadcount MyISAM硬盘读取频率 该指标用于统计从磁盘读取索引的次数,以次/秒为单位。 ≥ 0 counts/s 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds026myisambufwritecount MyISAM缓冲池写入频率 该指标用于统计向缓冲池写入索引的请求次数,以次/秒为单位。 ≥ 0 counts/s 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds027myisambufreadcount MyISAM缓冲池读取频率 该指标用于统计从缓冲池读取索引的请求次数,以次/秒为单位。 ≥ 0 counts/s 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds028comdmldelcount Delete语句执行频率 该指标用于统计平均每秒Delete语句执行次数,以次/秒为单位。 ≥ 0 queries/s 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds029comdmlinscount Insert语句执行频率 该指标用于统计平均每秒Insert语句执行次数,以次/秒为单位。 ≥ 0 queries/s 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds030comdmlinsselcount InsertSelect语句执行频率 该指标用于统计平均每秒InsertSelect语句执行次数,以次/秒为单位。 ≥ 0 queries/s 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds031comdmlrepcount Replace语句执行频率 该指标用于统计平均每秒Replace语句执行次数,以次/秒为单位。 ≥ 0 queries/s 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds032comdmlrepselcount ReplaceSelection语句执行频率 该指标用于统计平均每秒ReplaceSelection语句执行次数,以次/秒为单位。 ≥ 0 queries/s 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds033comdmlselcount Select语句执行频率 该指标用于统计平均每秒Select语句执行次数。 ≥ 0 queries/s 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds034comdmlupdcount Update语句执行频率 该指标用于统计平均每秒Update语句执行次数,以次/秒为单位。 ≥ 0 queries/s 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds035innodbdelrowcount 行删除速率 该指标用于统计平均每秒从InnoDB表删除的行数,以行/秒为单位。 ≥ 0 rows/s 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds036innodbinsrowcount 行插入速率 该指标用于统计平均每秒向InnoDB表插入的行数,以行/秒为单位。 ≥ 0 rows/s 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds037innodbreadrowcount 行读取速率 该指标用于统计平均每秒从InnoDB表读取的行数,以行/秒为单位。 ≥ 0 rows/s 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds038innodbupdrowcount 行更新速率 该指标用于统计平均每秒向InnoDB表更新的行数,以行/秒为单位。 ≥ 0 rows/s 测量对象:数据库 监控实例类型:MySQL实例 1分钟 rds039diskutil 磁盘利用率 该指标用于统计测量对象的磁盘利用率,以比率为单位。 0100% 测量对象:弹性云服务器 监控实例类型:MySQL实例 1分钟 rds047disktotalsize 磁盘总大小 该指标用于统计测量对象的磁盘总大小。 40GB~4000GB 测量对象:弹性云服务器 监控实例类型:MySQL实例 1分钟 rds048diskusedsize 磁盘使用量 该指标用于统计测量对象的磁盘使用大小。 0GB~4000GB 测量对象:弹性云服务器 监控实例类型:MySQL实例 1分钟 rds049diskreadthroughput 硬盘读吞吐量 该指标用于统计每秒从硬盘读取的字节数。 ≥ 0 bytes/s 测量对象:弹性云服务器 监控实例类型:MySQL实例 1分钟 rds050diskwritethroughput 硬盘写吞吐量 该指标用于统计每秒写入硬盘的字节数。 ≥ 0 bytes/s 测量对象:弹性云服务器 监控实例类型:MySQL实例 1分钟 rds051avgdisksecperread 硬盘读耗时(待废弃) 该指标用于统计某段时间平均每次读取硬盘所耗时间。 > 0ms 测量对象:弹性云服务器 监控实例类型:MySQL实例 1分钟 rds052avgdisksecperwrite 硬盘写耗时(待废弃) 该指标用于统计某段时间平均写入硬盘所耗时间。 > 0s 测量对象:弹性云服务器 监控实例类型:MySQL实例 1分钟 rds072connusage 连接数使用率 该指标用于统计当前已用的MySQL连接数占总连接数的百分比。 01 测量对象:弹性云服务器 监控实例类型:MySQL实例 1分钟 维度 Key Value rdsinstanceid MySQL实例ID
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        用户指南
        监控与告警
        支持的监控指标
      • 动态PV(静态PVC)
        HBlock CSI安装时的驱动名称。 parameters: storageMode: Local HBlock 卷的存储类型 readOnly: "false" 是否以只读方式挂载卷 sectorSize: "4096" HBlock 中卷的扇区大小,支持512,4096,单位是bytes localStorageClass: "EC 2+1" HBlock卷冗余模式 minReplica: "2" 最小副本数(仅HBlock集群版支持)。 highAvailability: "ActiveStandby" HBlock卷高可用模式。 writePolicy: "WriteBack" HBlock卷写策略 isMultipath: "true" 是否启动多控 maxSessions: "1" iSCSI Target允许建立的最大会话数。 ECfragmentSize: "16" 纠删码模式分片大小。卷冗余模式为EC模式时,此设置才生效,否则忽略。 serverNumbers: "2" HBlock Target所在的服务器数量(仅集群版支持)。 clusterID: "stor1" HBlock标识 reclaimPolicy: Delete PV的回收策略,支持Retain和Delete volumeBindingMode: Immediate allowVolumeExpansion: true 是否允许扩展卷 StorageClass的YAML配置文件参数描述 参数 描述 是否必填 metadata.name StorageClass的名称。 是 provisioner HBlock CSI驱动名称。 取值:HBlock CSI安装时的驱动名称。 是 storageMode 卷的存储类型,支持Local、Cache、Storage模式。 Cache、Storage模式表示上云卷。 是 fsType 卷被挂载到容器的文件系统类型,支持xfs,ext4。 说明 卷模式为filesystem时必填。 条件 readOnly 是否以只读模式进行卷挂载。 取值: "true"。 "false"。 默认值为"false"。 注意 这里需要输入字符串,即"true"或"false"。 是 cloudBucketName 已存在的OOS存储桶的名称。 注意 请勿开启Bucket的生命周期设定和合规保留。 类型:字符串。 上云卷必填 cloudPrefix 设置OOS中的前缀名称,设置前缀名称后,卷数据会存在存储桶以前缀命名的类文件夹中。如果未指定前缀,则直接存储在以卷名称命名的类文件夹中。 类型:字符串。 取值:长度范围是1~256。 否 cloudAccessKey OOS AccessKeyID。 类型:字符串。 上云卷必填 cloudSecretKey OOS SecretAccessKey。 如果配置文件csisecretdecrypt.yaml中的decryptFlag为true,需要对secretKey源码使用DecryptData配置的密钥对进行AES(ECP、paddingcs7)加密,加密后的结果进行Base64编码,具体详见配置加密模式。 类型:字符串。 上云卷必填 cloudEndpoint 设置OOS Endpoint。 类型:字符串。 上云卷必填 cloudObjectSize 数据存储在OOS中的大小。 取值:128、256、512、1024、2048、4096、8192,单位是KiB。默认值为1024。 否 cloudStorageClass 设置OOS的存储类型。 取值: STANDARD:标准存储。 STANDARDIA:低频访问存储。 默认值为STANDARD。 否 cloudCompression 是否压缩数据上传至OOS。 取值: Enabled:是。 Disabled:否。 默认值为Enabled。 否 cloudSignVersion OOS的请求签名认证方式 取值: v2:v2签名。 v4:v4签名。 默认值为v2。 否 cloudRegion 表示Endpoint资源池所在区域。 V4签名时,此项必填。 类型:字符串。 条件 deleteCloudData 删除卷时,是否删除云上的数据。 取值: true:删除云上的数据。 false:不删除云上的数据。 默认值为false。 否 sectorSize 扇区大小。根据客户端文件系统 I/O 操作的最小单位设定卷扇区大小。 类型:枚举。 取值:"512"、"4096",单位是bytes。默认值为"4096"。 否 localStorageClass 本地存储冗余模式。单机版不能设置此参数。 取值: singlecopy:单副本。 2copy:两副本。 3copy:三副本。 EC N+M:纠删码模式。其中N、M为正整数,N>M,且N+M<128。表示将数据分割成N个片段,并生成M个校验数据。 默认值为EC 2+1。 否 minReplica 最小副本数(仅集群版支持)。 对于副本模式的卷,假设卷副本数为X,最小副本数为Y(Y必须≤X),该卷每次写入时,至少Y份数据写入成功,才视为本次写入成功。 对于EC N+M模式的卷,假设该卷最小副本数设置为Y(必须满足N≤Y≤N+M),必须满足总和至少为Y的数据块和校验块写入成功,才视为本次写入成功。 取值:整数。对于副本卷,取值范围是[1, N],N为副本模式卷的副本数,默认值为1。对于EC卷,取值范围是[N, N+M],默认值为N。 否 redundancyOverlap 卷的折叠副本数(仅集群版支持)。在数据冗余模式下,同一份数据的不同副本/分片默认分布在不同的故障域,当故障域损坏时,允许根据卷的冗余折叠原则,将多份数据副本放在同一个故障域中,但是分布在不同的path上。 注意 如果存储池故障域级别为path,此参数不生效。 取值:对副本模式,取值范围是[1,副本数],默认值为1;对于EC模式,取值范围是[1,M+N],默认值为1。 否 ECfragmentSize 纠删码模式分片大小。卷冗余模式为EC模式时,此设置才生效,否则忽略。 取值:1、2、4、8、16、32、64、128、256、512、1024、2048、4096,单位是KiB。默认值为16。 否 highAvailability 是否选择高可用模式。单机版不能设置此参数。 取值: ActiveStandby:启动主备,该卷关联对应Target下的所有IQN。 Disabled:禁用高可用模式,该卷关联对应Target下的一个IQN。 默认值为ActiveStandby。 否 writePolicy 卷的写策略。 取值: WriteBack:回写,即数据写入到内存后,立刻返回给客户端写成功,之后再异步写入磁盘。适用于对性能要求较高,稳定性要求不高的场景。 WriteThrough:透写,即数据同时写入内存和磁盘,并在两处都写成功后,再返回客户端写成功。适用于稳定性要求较高,写性能要求不高,且最近写入的数据会较快被读取的场景。 WriteAround:绕写,即数据写入磁盘后即释放相应内存,写入磁盘成功后,立刻返回客户端写成功。适用于稳定性要求较高,性能要求不高,且写多读少的场景。 默认值为WriteBack。 否 isMultipath 是否使用multipath。 取值: "true"。 "false"。 默认值为"true"。 注意 这里需要输入字符串,即"true"或"false"。 如果HBlock集群版使用的HBlock卷没有启用高可用模式,即highAvailability为Disabled,此处需要设置为"false",否则会导致pod启动失败。 如果是HBlock单机版,此处需要设置为"false"。 条件 path 指定存储卷数据的数据目录(仅单机版支持)。 如果创建卷时不指定数据目录,使用服务器设置的默认数据目录。 否 pool 存储池名称,表示最终存储池,卷数据最终落在该存储池内(仅集群版支持)。 取值:长度范围是1~16,只能由字母、数字和短横线()、下划线()组成,字母区分大小写,且仅支持以字母和数字开头。 默认使用基础存储池。 否 cachePool 存储池名称,表示高速缓存存储池,卷数据首先写入该存储池内(仅集群版支持)。 取值:长度范围是1~16,只能由字母、数字和短横线()、下划线()组成,字母区分大小写,且仅支持以字母和数字开头。 如果不填写则代表不设置高速缓存存储池。 注意 存储池与缓存存储池不能是同一个存储池。 否 maxSessions iSCSI Target允许建立的最大会话数。 取值:整数,取值范围是[1, 1024],默认值为1。 注意 卷模式为filesystem,取值只能为1。 否 serverNumbers Target所在的服务器数量(仅集群版支持)。 整数形式,取值为[2, n],n为集群内服务器的数量。默认值为2。 否 faultDomains 卷的服务端连接位置信息。根据存储池的故障域,创建Target所在服务器的列表(仅集群版支持),以便创建LUN时,LUN关联的Target优先从该服务器列表中选择所在服务器。例如存储池为rack级别,其拓扑图涵盖rack1、rack2、rack3、rack4中的节点,且faultDomains指定rack1、rack2,那么创建LUN时,LUN关联的Target优先从rack1、rack2所包含的此存储池的服务器列表里进行选择。 注意 存储池的故障域为path级别时,不能设置该参数。 如果LUN指定了高速缓存池和最终存储池,则从高速缓存池池中选择节点列表。如果LUN只指定了最终存储池,则从最终存储池中选择节点列表。 取值:以节点的形式添加,节点的级别可以到room、rack、server。可以指定多个节点,但是节点的个数要小于等于serverNumbers。支持一个节点添加多次,但是每次只能选一个server,并且选择的server不能与前面重复。如果一个节点出现的次数过多导致节点内的全部server都被选择,则系统会忽略此节点,从后面的节点中继续选择。 否 chapEnable 是否使用CHAP认证,取值: "true"。 "false"。 默认值为"false"。 注意 这里需要输入字符串,即"true"或"false"。 否 chapUser CHAP认证的用户名。需要对CHAP认证的用户名源码使用DecryptData配置的密钥对进行AES(ECP、paddingcs7)加密,加密后的结果进行Base64编码,具体详见配置加密模式。 源码:字符串形式,长度范围是3~64,只能由字母、数字、句点( . )、短横线( )、下划线( )、冒号( : )组成,字母区分大小写,且仅支持以字母或数字开头。 否 chapPassword CHAP认证的密码。需要对CHAP认证的密码源码使用DecryptData配置的密钥对进行AES(ECP、paddingcs7)加密,加密后的结果进行Base64编码,具体详见配置加密模式。 源码:字符串形式,长度范围是12~16,只能由字母、数字或下划线( )组成,字母区分大小写。 否 IOPS 每秒能够进行读写操作次数的最大值。 取值:整型,取值范围为[1, 999999999],默认值为1。1表示不限制。 否 readIOPS 每秒能够进行读操作次数的最大值。 取值:整型,取值范围为[1, 999999999],默认值为1。1表示不限制。 否 writeIOPS 每秒能够进行写操作次数的最大值。 取值:整型,取值范围为[1, 999999999],默认值为1。1表示不限制。 否 Bps 每秒可传输数据量的最大值。 取值:整型,取值范围为[1, 4096000000000],默认值为1,单位是B/s。1表示不限制。 否 readBps 读带宽上限。 取值:整型,取值范围为[1, 4096000000000],默认值为1,单位是B/s。1表示不限制。 否 writeBps 写带宽上限。 取值:整型,取值范围为[1, 4096000000000],默认值为1,单位是B/s。1表示不限制。 否 IOPSBurst 使用Burst功能时,每秒能够进行读写操作次数的最大值。 取值:整型,只有当IOPS大于等于1时,此项设置为1或(IOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 否 readIOPSBurst 使用Burst功能时,每秒能够进行读操作次数的最大值。 取值:只有当readIOPS大于等于1时,此项设置为1或(readIOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 否 writeIOPSBurst 使用Burst功能时,每秒能够进行写操作次数的最大值。 取值:只有当writeIOPS大于等于1时,此项设置为1或(writeIOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 否 BpsBurst 使用Burst功能时,每秒可传输的数据量最大值。 取值:只有当Bps大于等于1时,此项设置为1或(Bps, 4096000000000]内的正整数方可生效,默认值为1,单位是B/s。1表示不限制。 否 readBpsBurst 使用Burst功能时,读带宽上限。 取值:只有当readBps大于等于1时,此项设置为1或(readBps, 4096000000000]内的正整数方可生效,默认值为1,单位是B/s。1表示不限制。 否 writeBpsBurst 使用Burst功能时,写带宽上限。 取值:只有当writeBps大于等于1时,此项设置为1或(writeBps, 4096000000000]内的正整数方可生效,默认值为1,单位是B/s。1表示不限制。 否 IOPSBurstSecs 使用Burst功能时,按照Burst上限的能力进行读写操作所能持续的时间。 注意 只有在IOPS Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 readIOPSBurstSecs 使用Burst功能时,按照Burst上限的能力进行读操作所能持续的时间。 注意 只有在read IOPS Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 writeIOPSBurstSecs 使用Burst功能时,按照Burst上限的能力进行写操作所能持续的时间。 注意 只有在write IOPS Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 BpsBurstSecs 使用Burst功能时,按照Burst上限的流量能力所能持续的时间。 注意 只有在Bps Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 readBpsBurstSecs 使用Burst功能时,按照Burst上限的读流量能力所能持续的时间。 注意 只有在read Bps Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 writeBpsBurstSecs 使用Burst功能时,按照Burst上限的写流量能力所能持续的时间。 注意 只有在write Bps Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 clusterID HBlock的标识,在csiconfigMap.yaml中唯一。详见配置HBlock访问地址。 是 reclaimPolicy 持久化卷回收策略。 取值: Retain:保留。 Delete:删除。 默认值为Delete。 否 volumeBindingMode 立即绑定还是等待Pod调度时绑定。 取值: Immediate:立即绑定。 WaitForFirstConsumer:延迟绑定。 默认值为Immediate。 否 allowVolumeExpansion 允许卷扩展。 取值: true:允许卷扩展。 false:不允许卷扩展。 默认值为false。 否
        来自:
        帮助文档
        存储资源盘活系统
        常用工具
        Container Storage Interface插件
        脚本方式使用指南
        调用方式
        动态PV(静态PVC)
      • 通过快照创建克隆卷
        本节主要介绍通过快照创建克隆卷的步骤。 前提条件 CSI中已经存在快照。 操作步骤 1. 创建克隆卷的StorageClass配置文件(可选)。 说明 如果下列参数在克隆卷的StorageClass和源卷StorageClass都存在,但是取值不同,则以克隆卷StorageClass中的取值为准。 plaintext apiVersion: storage.k8s.io/v1 kind: StorageClass metadata: name: csistorsclocal provisioner: stor.csi.k8s.io parameters: clusterID: clusterID storageMode: Local sectorSize: sectorSize localStorageClass: localStorageClass minReplica: minReplica redundancyOverlap: redundancyOverlap ECfragmentSize: ECfragmentSize highAvailability: highAvailability writePolicy: writePolicy isMultipath: isMultipath pool: pool cachePool: cachePool flattenVolumeFromSnapshot: "false" maxCloneDepth: maxCloneDepth maxSessions: maxSessions serverNumbers: serverNumbers faultDomains: faultDomains chapEnable: "false" chapUser: username chapPassword: password reclaimPolicy: Delete volumeBindingMode: Immediate allowVolumeExpansion: true 克隆卷的StorageClass配置文件参数: 参数 描述 是否必填 metadata.name StorageClass的名称。 是 provisioner HBlock CSI驱动名称。 取值:HBlock CSI安装时的驱动名称。 是 parameters.clusterID csiconfigMap.yaml中配置的HBlock的标识。 是 parameters.storageMode 卷的存储类型。 取值:Local。默认与源卷保持一致。 否 parameters.sectorSize 扇区大小。根据客户端文件系统 I/O 操作的最小单位设定卷扇区大小。 取值:"512"、"4096",单位是bytes。默认值为源卷的扇区大小。 否 parameters.localStorageClass 本地存储冗余模式。单机版不能设置此参数。 注意 如果设置了克隆卷的minReplica或redundancyOverlap,则必须同时指定该参数。 取值: singlecopy:单副本; 2copy:两副本; 3copy:三副本; EC N+M:纠删码模式。其中N、M为正整数,N>M,且N+M<128。表示将数据分割成N个片段,并生成M个校验数据。 默认值为源卷的卷冗余模式。 否 parameters.minReplica 最小副本数(仅集群版支持)。 注意 如果指定该参数,则必须指定克隆卷的localStorageClass。 对于副本模式的卷,假设卷副本数为X,最小副本数为Y(Y必须≤X),该卷每次写入时,至少Y份数据写入成功,才视为本次写入成功。对于EC N+M模式的卷,假设该卷最小副本数设置为Y(必须满足N≤Y≤N+M),必须满足总和至少为Y的数据块和校验块写入成功,才视为本次写入成功。 取值:整数。 如果没有指定克隆卷的localStorageClass:默认值为源卷的最小副本数。 如果指定了克隆卷的localStorageClass:对于副本卷,取值范围是[1, N],N为副本模式卷的副本数,默认值为1;对于EC卷,取值范围是[N, N+M],默认值为N。 否 parameters.redundancyOverlap 卷的折叠副本数(仅集群版支持)。在数据冗余模式下,同一份数据的不同副本/分片默认分布在不同的故障域,当故障域损坏时,允许根据卷的冗余折叠原则,将多份数据副本放在同一个故障域中,但是分布在不同的path上。 注意 如果存储池故障域级别为path,此参数不生效。如果指定该参数,则必须指定克隆卷的localStorageClass。 取值:整数。 如果没有指定克隆卷的localStorageClass:默认值为源卷的折叠副本数。 如果指定了克隆卷的localStorageClass:对副本模式,取值范围是[1,副本数];对于EC卷,取值范围是[1, N+M]。默认值为1。 否 parameters.ECfragmentSize 纠删码模式分片大小。卷冗余模式为EC模式时,此设置才生效,否则忽略。 取值:1、2、4、8、16、32、64、128、256、512、1024、2048、4096,单位是KiB。默认值为源卷的纠删码模式分片大小。 否 parameters.highAvailability 是否选择高可用模式。单机版不能设置此参数。 取值: ActiveStandby:启动主备,该卷关联对应Target下的所有IQN。 Disabled:禁用高可用模式,该卷关联对应Target下的一个IQN。 默认值为源卷的高可用类型。 否 parameters.writePolicy 卷的写策略。 取值: WriteBack:回写,即数据写入到内存后,立刻返回给客户端写成功,之后再异步写入磁盘。适用于对性能要求较高,稳定性要求不高的场景。 WriteThrough:透写,即数据同时写入内存和磁盘,并在两处都写成功后,再返回客户端写成功。适用于稳定性要求较高,写性能要求不高,且最近写入的数据会较快被读取的场景。 WriteAround:绕写,即数据写入磁盘后即释放相应内存,写入磁盘成功后,立刻返回客户端写成功。适用于稳定性要求较高,性能要求不高,且写多读少的场景。 默认值为源卷的写策略。 否 parameters.isMultipath 是否使用Multipath。 取值: "true"。 "false"。 默认值为"true"。 注意 这里需要输入字符串,即"true"或"false"。 如果HBlock集群版使用的HBlock卷没有启用高可用模式,即highAvailability为Disabled,此处需要设置为"false",否则会导致pod启动失败。 如果是HBlock单机版,此处需要设置为"false"。 条件 parameters.path 指定存储卷数据的数据目录(仅单机版支持)。 如果创建卷时不指定数据目录,默认与源卷配置保持一致。 否 parameters.pool 存储池名称,表示最终存储池,卷数据最终落在该存储池内(仅集群版支持)。 取值:长度范围是1~16,只能由字母、数字和短横线()、下划线()组成,字母区分大小写,且仅支持以字母和数字开头。默认值与源卷的配置一致。 注意 注意: pool与cachePool不能设置为同一个存储池。 当克隆卷的pool和cachePool配置与源卷一致,无需额外设置。若单独设置了克隆卷的pool或cachePool,则不再沿用源卷的pool和cachePool,而是采用所设参数值。例如,源卷同时有cachePool和pool,若克隆卷仅重新设置了pool而未设置cachePool,则克隆卷使用新设置的pool,无cachePool;反之,若克隆卷设置了cachePool,则必须同时设置pool,或者让pool使用基础存储池。 否 parameters.cachePool 存储池名称,表示高速缓存存储池,卷数据首先写入该存储池内(仅集群版支持)。 取值:长度范围是1~16,只能由字母、数字和短横线()、下划线()组成,字母区分大小写,且仅支持以字母和数字开头。默认值与源卷的配置一致。 注意 pool与cachePool不能设置为同一个存储池。 当克隆卷的pool和cachePool配置与源卷一致,无需额外设置。若单独设置了克隆卷的pool或cachePool,则不再沿用源卷的pool和cachePool,而是采用所设参数值。例如,源卷同时有cachePool和pool,若克隆卷仅重新设置了pool而未设置cachePool,则克隆卷使用新设置的pool,无cachePool;反之,若克隆卷设置了cachePool,则必须同时设置pool,或者让pool使用基础存储池。 否 parameters.flattenVolumeFromSnapshot 是否断开克隆卷与快照的关系链。 取值: "true"。 "false"。 默认值为"false"。 注意 这里需要输入字符串,即"true"或"false"。 否 parameters.maxCloneDepth 最大克隆卷深度,当超过设置的最大深度时,新创建的克隆卷会自动执行断链。 取值:整数,取值范围是[0, 15],默认值为5。 否 parameters.maxSessions iSCSI Target允许建立的最大会话数。 取值:整数,取值范围是[1, 1024],默认值为1。 注意 卷模式为filesystem,取值只能为1。 否 parameters.serverNumbers Target所在的服务器数量(仅集群版支持)。 整数形式,取值为[2, n],n为集群内服务器的数量。默认值为2。 否 parameters.faultDomains 卷的服务端连接位置信息。根据存储池的故障域,创建Target所在服务器的列表(仅集群版支持),以便创建LUN时,LUN关联的Target优先从该服务器列表中选择所在服务器。例如存储池为rack级别,其拓扑图涵盖rack1、rack2、rack3、rack4中的节点,且faultDomains指定rack1、rack2,那么创建LUN时,LUN关联的Target优先从rack1、rack2所包含的此存储池的服务器列表里进行选择。 注意 存储池的故障域为path级别时,不能设置该参数。 如果LUN指定了高速缓存池和最终存储池,则从高速缓存池池中选择节点列表。如果LUN只指定了最终存储池,则从最终存储池中选择节点列表。 取值:以节点的形式添加,节点的级别可以到room、rack、server。可以指定多个节点,但是节点的个数要小于等于serverNumbers。支持一个节点添加多次,但是每次只能选一个server,并且选择的server不能与前面重复。如果一个节点出现的次数过多导致节点内的全部server都被选择,则系统会忽略此节点,从后面的节点中继续选择。 否 parameters.chapEnable 是否使用CHAP认证,取值: "true"。 "false"。 默认值为"false"。 注意 这里需要输入字符串,即"true"或"false"。 否 parameters.chapUser CHAP认证的用户名。如果配置文件csisecretdecrypt.yaml中的decryptFlag为true,需要对CHAP认证的用户名使用DecryptData配置的密钥对进行AES(ECP、paddingcs7)加密,加密后的结果进行Base64编码,具体详见配置加密模式。 加密前取值:字符串形式,长度范围是3~64,只能由字母、数字、句点( . )、短横线( )、下划线( )、冒号( : )组成,字母区分大小写,且仅支持以字母或数字开头。 否 parameters.chapPassword CHAP认证的密码。如果配置文件csisecretdecrypt.yaml中的decryptFlag为true,需要对CHAP认证的密码使用DecryptData配置的密钥对进行AES(ECP、paddingcs7)加密,加密后的结果进行Base64编码,具体详见配置加密模式。 加密前取值:字符串形式,长度范围是12~16,必须包含大写字母、小写字母、数字、下划线()中的至少两种字符,字母区分大小写。 否 parameters.IOPS 每秒能够进行读写操作次数的最大值。 取值:整型,取值范围为[1, 999999999],默认值为1。1表示不限制。 否 parameters.readIOPS 每秒能够进行读操作次数的最大值。 取值:整型,取值范围为[1, 999999999],默认值为1。1表示不限制。 否 parameters.writeIOPS 每秒能够进行写操作次数的最大值。 取值:整型,取值范围为[1, 999999999],默认值为1。1表示不限制。 否 parameters.Bps 每秒可传输数据量的最大值。 取值:整型,取值范围为[1, 4096000000000],默认值为1,单位是B/s。1表示不限制。 否 parameters.readBps 读带宽上限。 取值:整型,取值范围为[1, 4096000000000],默认值为1,单位是B/s。1表示不限制。 否 parameters.writeBps 写带宽上限。 取值:整型,取值范围为[1, 4096000000000],默认值为1,单位是B/s。1表示不限制。 否 parameters.IOPSBurst 使用Burst功能时,每秒能够进行读写操作次数的最大值。 取值:只有当IOPS大于等于1时,此项设置为1或(IOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 否 parameters.readIOPSBurst 使用Burst功能时,每秒能够进行读操作次数的最大值。 取值:只有当readIOPS大于等于1时,此项设置为1或(readIOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 否 parameters.writeIOPSBurst 使用Burst功能时,每秒能够进行写操作次数的最大值。 取值:只有当writeIOPS大于等于1时,此项设置为1或(writeIOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 否 parameters.BpsBurst 使用Burst功能时,每秒可传输的数据量最大值。 取值:只有当Bps大于等于1时,此项设置为1或(Bps, 4096000000000]内的正整数方可生效,默认值为1,单位是B/s。1表示不限制。 否 parameters.readBpsBurst 使用Burst功能时,读带宽上限。 取值:只有当readBps大于等于1时,此项设置为1或(readBps, 4096000000000]内的正整数方可生效,默认值为1,单位是B/s。1表示不限制。 否 parameters.writeBpsBurst 使用Burst功能时,写带宽上限。 取值:只有当writeBps大于等于1时,此项设置为1或(writeBps, 4096000000000]内的正整数方可生效,默认值为1,单位是B/s。1表示不限制。 否 parameters.IOPSBurstSecs 使用Burst功能时,按照Burst上限的能力进行读写操作所能持续的时间。 注意 只有在IOPS Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 parameters.readIOPSBurstSecs 使用Burst功能时,按照Burst上限的能力进行读操作所能持续的时间。 注意 只有在read IOPS Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 parameters.writeIOPSBurstSecs 使用Burst功能时,按照Burst上限的能力进行写操作所能持续的时间。 注意 只有在write IOPS Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 parameters.BpsBurstSecs 使用Burst功能时,按照Burst上限的流量能力所能持续的时间。 注意 只有在Bps Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 parameters.readBpsBurstSecs 使用Burst功能时,按照Burst上限的读流量能力所能持续的时间。 注意 只有在read Bps Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 parameters.writeBpsBurstSecs 使用Burst功能时,按照Burst上限的写流量能力所能持续的时间。 注意 只有在write Bps Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 2. 创建克隆卷的配置文件。 plaintext apiVersion: v1 kind: PersistentVolumeClaim metadata: name: clonepvcfromsnapshot
        来自:
        帮助文档
        存储资源盘活系统
        常用工具
        Container Storage Interface插件
        创建克隆卷
        通过快照创建克隆卷
        通过快照创建克隆卷
      • 零信任网络服务计费概述
        本文介绍零信任网络服务计费。 零信任网络服务适用场景 零信任网络服务由电信云公司自主研发,依托中国电信优质的网络资源,是旨在为企业提供安全、高效、智能的网络连接和加速服务,满足移动办公、海外访问国内应用、跨境加速、多云互联等多种场景。 计费模式: 包周期 计费区域: 中国内地、香港、亚太、美洲、欧洲、中东非 计费周期: 按月结算 折扣规则:不享受包年折扣 网络服务、远程办公、办公组网的关系: 网络服务提供区域带宽给远程办公和办公组网使用,支持订购后分配两个场景的带宽值。 远程办公包括零信任主套餐、扩展服务、按需订购项,带宽计费模式下可以叠加网络服务的区域带宽。 办公组网连接模式通过平台授权服务费来订购,加速模式通过网络服务的区域带宽进行订购。 注意 网络服务远程办公/办公组网不支持官网自助开通,请联系您的客户经理或者提交工单进行咨询。 网络服务区域带宽支持给远程办公和办公组网使用,并支持订购范围内按照场景分配带宽,请联系您的客户经理进行咨询。 计费项 计费类型 区域 阶梯区间 标准价格(元/Mbps/月) 备注 网络服务远程办公/办公组网带宽 包周期 中国内地 (0Mbps,100Mbps] 40 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 中国内地 (100Mbps,+] 35 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 香港 (0Mbps,10Mbps] 230 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 香港 (10Mbps,20Mbps] 220 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 香港 (20Mbps,50Mbps] 210 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 香港 (50Mbps,100Mbps] 200 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 香港 (100Mbps,200Mbps] 190 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 香港 (200Mbps,500Mbps] 150 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 香港 (500Mbps,1Gbps] 140 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 香港 (1Gbps,+] 135 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 亚太 (0Mbps,10Mbps] 700 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 亚太 (10Mbps,20Mbps] 690 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 亚太 (20Mbps,50Mbps] 650 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 亚太 (50Mbps,100Mbps] 620 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 亚太 (100Mbps,200Mbps] 540 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 亚太 (200Mbps,500Mbps] 520 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 亚太 (500Mbps,1Gbps] 500 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 亚太 (1Gbps,+] 490 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 美洲 (0Mbps,10Mbps] 700 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 美洲 (10Mbps,20Mbps] 690 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 美洲 (20Mbps,50Mbps] 675 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 美洲 (50Mbps,100Mbps] 650 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 美洲 (100Mbps,200Mbps] 560 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 美洲 (200Mbps,500Mbps] 540 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 美洲 (500Mbps,1Gbps] 520 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 美洲 (1Gbps,+] 510 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 欧洲 (0Mbps,10Mbps] 720 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 欧洲 (10Mbps,20Mbps] 710 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 欧洲 (20Mbps,50Mbps] 700 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 欧洲 (50Mbps,100Mbps] 670 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 欧洲 (100Mbps,200Mbps] 580 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 欧洲 (200Mbps,500Mbps] 555 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 欧洲 (500Mbps,1Gbps] 535 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 欧洲 (1Gbps,+] 520 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 中东非 (0Mbps,10Mbps] 1375 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 中东非 (10Mbps,20Mbps] 1330 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 中东非 (20Mbps,50Mbps] 1200 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 中东非 (50Mbps,100Mbps] 1110 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 中东非 (100Mbps,200Mbps] 1090 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 中东非 (200Mbps,500Mbps] 940 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 中东非 (500Mbps,1Gbps] 690 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 网络服务远程办公/办公组网带宽 包周期 中东非 (1Gbps,+] 680 每个区域2M起订 包周期:满足预付费场景,按月峰值带宽阶梯到达计费,超过带宽上限,触发限速 计费项 计费类型 标准价格(元/实例/月) 备注 平台授权服务费 包周期 100 用于办公组网连接模式,按照连接器个数收费 按照连接器实例带宽扣费: (0,100Mbps]占用1个平台授权服务 (100,300Mbps]占用2个平台授权服务 (300,500Mbps]占用3个平台授权服务 500Mbps以上带宽占用5个平台授权服务 说明 远程办公/办公组网/全球加速服务,非中国内地带宽可进行叠加共享。如订购远程办公香港带宽10Mbps,办公组网香港带宽5Mbps,全球加速香港带宽1Mbps,则该客户在香港区域可共享16Mbps带宽。 远程办公的中国内地带宽用于限制中国内地客户端接入的带宽,远程办公连接器中国内地带宽为免费赠送。 当远程办公中国内地连接器复用办公组网/全球加速已有的稳定隧道时,属于网络能力升级。为保障整条隧道链路的稳定性与公平性,同时满足统一计费与带宽管控要求,当远程办公连接器与办公组网/全球加速共用时,需按照已订购的带宽规格统一限速与计费。
        来自:
        帮助文档
        边缘安全加速平台
        计费说明
        零信任服务计费模式
        零信任网络服务计费概述
      • 通过PVC创建克隆卷
        本节主要介绍通过PVC创建克隆卷的步骤。 前提条件 CSI中已经存在HBlock相关的PVC,且对应的HBlock卷为Local模式。 在执行此操作之前,请确保源卷(PVC)的所有数据已持久化,即如果源卷已被客户端挂载,需确保客户端的数据都已经同步到卷上。创建克隆卷前: 如果是block模式的卷:在客户端执行sync命令。 如果是filesystem模式的卷:如果客户端支持sync f(可以通过sync help命令查看是否支持),在客户端执行sync f命令;否则在客户端执行sync命令。 操作步骤 1. 创建克隆卷的StorageClass配置文件(可选)。 说明 如果下列参数在克隆卷的StorageClass和源卷StorageClass都存在,但是取值不同,则以克隆卷StorageClass中的取值为准。 plaintext apiVersion: storage.k8s.io/v1 kind: StorageClass metadata: name: csistorsclocal provisioner: stor.csi.k8s.io parameters: clusterID: clusterID storageMode: Local sectorSize: sectorSize localStorageClass: localStorageClass minReplica: minReplica redundancyOverlap: redundancyOverlap ECfragmentSize: ECfragmentSize highAvailability: highAvailability writePolicy: writePolicy isMultipath: isMultipath pool: pool cachePool: cachePool flattenVolumeFromSnapshot: "false" maxCloneDepth: maxCloneDepth maxSessions: maxSessions serverNumbers: serverNumbers faultDomains: faultDomains chapEnable: "false" chapUser: username chapPassword: password reclaimPolicy: Delete volumeBindingMode: Immediate allowVolumeExpansion: true 克隆卷的StorageClass配置文件参数: 参数 描述 是否必填 metadata.name StorageClass的名称。 是 provisioner HBlock CSI驱动名称。 取值:HBlock CSI安装时的驱动名称。 是 parameters.clusterID csiconfigMap.yaml中配置的HBlock的标识。需要与源卷的clusterID保持一致。 是 parameters.storageMode 卷的存储类型。 取值:Local。默认与源卷保持一致。 否 parameters.sectorSize 扇区大小。根据客户端文件系统 I/O 操作的最小单位设定卷扇区大小。 取值:"512"、"4096",单位是bytes。默认值为源卷的扇区大小。 否 parameters.localStorageClass 本地存储冗余模式。单机版不能设置此参数。 注意 如果设置了克隆卷的minReplica或redundancyOverlap,则必须同时指定该参数。 取值: singlecopy:单副本; 2copy:两副本; 3copy:三副本; EC N+M:纠删码模式。其中N、M为正整数,N>M,且N+M<128。表示将数据分割成N个片段,并生成M个校验数据。 默认值为源卷的卷冗余模式。 否 parameters.minReplica 最小副本数(仅集群版支持)。 注意 如果指定该参数,则必须指定克隆卷的localStorageClass。 对于副本模式的卷,假设卷副本数为X,最小副本数为Y(Y必须≤X),该卷每次写入时,至少Y份数据写入成功,才视为本次写入成功。对于EC N+M模式的卷,假设该卷最小副本数设置为Y(必须满足N≤Y≤N+M),必须满足总和至少为Y的数据块和校验块写入成功,才视为本次写入成功。 取值:整数。 如果没有指定克隆卷的localStorageClass:默认值为源卷的最小副本数。 如果指定了克隆卷的localStorageClass:对于副本卷,取值范围是[1, N],N为副本模式卷的副本数,默认值为1;对于EC卷,取值范围是[N, N+M],默认值为N。 否 parameters.redundancyOverlap 卷的折叠副本数(仅集群版支持)。在数据冗余模式下,同一份数据的不同副本/分片默认分布在不同的故障域,当故障域损坏时,允许根据卷的冗余折叠原则,将多份数据副本放在同一个故障域中,但是分布在不同的path上。 注意 如果存储池故障域级别为path,此参数不生效。如果指定该参数,则必须指定克隆卷的localStorageClass。 取值:整数。 如果没有指定克隆卷的localStorageClass:默认值为源卷的折叠副本数。 如果指定了克隆卷的localStorageClass:对副本模式,取值范围是[1,副本数];对于EC卷,取值范围是[1, N+M]。默认值为1。 否 parameters.ECfragmentSize 纠删码模式分片大小。卷冗余模式为EC模式时,此设置才生效,否则忽略。 取值:1、2、4、8、16、32、64、128、256、512、1024、2048、4096,单位是KiB。默认值为源卷的纠删码模式分片大小。 否 parameters.highAvailability 是否选择高可用模式。单机版不能设置此参数。 取值: ActiveStandby:启动主备,该卷关联对应Target下的所有IQN。 Disabled:禁用高可用模式,该卷关联对应Target下的一个IQN。 默认值为源卷的高可用类型。 否 parameters.writePolicy 卷的写策略。 取值: WriteBack:回写,即数据写入到内存后,立刻返回给客户端写成功,之后再异步写入磁盘。适用于对性能要求较高,稳定性要求不高的场景。 WriteThrough:透写,即数据同时写入内存和磁盘,并在两处都写成功后,再返回客户端写成功。适用于稳定性要求较高,写性能要求不高,且最近写入的数据会较快被读取的场景。 WriteAround:绕写,即数据写入磁盘后即释放相应内存,写入磁盘成功后,立刻返回客户端写成功。适用于稳定性要求较高,性能要求不高,且写多读少的场景。 默认值为源卷的写策略。 否 parameters.isMultipath 是否使用Multipath。 取值: "true"。 "false"。 默认值为"true"。 注意 这里需要输入字符串,即"true"或"false"。 如果HBlock集群版使用的HBlock卷没有启用高可用模式,即highAvailability为Disabled,此处需要设置为"false",否则会导致pod启动失败。 如果是HBlock单机版,此处需要设置为"false"。 条件 parameters.path 指定存储卷数据的数据目录(仅单机版支持)。 如果创建卷时不指定数据目录,默认与源卷配置保持一致。 否 parameters.pool 存储池名称,表示最终存储池,卷数据最终落在该存储池内(仅集群版支持)。 取值:长度范围是1~16,只能由字母、数字和短横线()、下划线()组成,字母区分大小写,且仅支持以字母和数字开头。默认值与源卷的配置一致。 注意 pool与cachePool不能设置为同一个存储池。 当克隆卷的pool和cachePool配置与源卷一致,无需额外设置。若单独设置了克隆卷的pool或cachePool,则不再沿用源卷的pool和cachePool,而是采用所设参数值。例如,源卷同时有cachePool和pool,若克隆卷仅重新设置了pool而未设置cachePool,则克隆卷使用新设置的pool,无cachePool;反之,若克隆卷设置了cachePool,则必须同时设置pool,或者让pool使用基础存储池。 否 parameters.cachePool 存储池名称,表示高速缓存存储池,卷数据首先写入该存储池内(仅集群版支持)。 取值:长度范围是1~16,只能由字母、数字和短横线()、下划线()组成,字母区分大小写,且仅支持以字母和数字开头。默认值与源卷的配置一致。 注意 pool与cachePool不能设置为同一个存储池。 当克隆卷的pool和cachePool配置与源卷一致,无需额外设置。若单独设置了克隆卷的pool或cachePool,则不再沿用源卷的pool和cachePool,而是采用所设参数值。例如,源卷同时有cachePool和pool,若克隆卷仅重新设置了pool而未设置cachePool,则克隆卷使用新设置的pool,无cachePool;反之,若克隆卷设置了cachePool,则必须同时设置pool,或者让pool使用基础存储池。 否 parameters.flattenVolumeFromSnapshot 是否断开克隆卷与快照的关系链。 取值: "true"。 "false"。 默认值为"false"。 注意 这里需要输入字符串,即"true"或"false"。 否 parameters.maxCloneDepth 最大克隆卷深度,当超过设置的最大深度时,新创建的克隆卷会自动执行断链。 取值:整数,取值范围是[0, 15],默认值为5。 否 parameters.maxSessions iSCSI Target允许建立的最大会话数。 取值:整数,取值范围是[1, 1024],默认值为1。 注意 卷模式为filesystem,取值只能为1。 否 parameters.serverNumbers Target所在的服务器数量(仅集群版支持)。 整数形式,取值为[2, n],n为集群内服务器的数量。默认值为2。 否 parameters.faultDomains 卷的服务端连接位置信息。根据存储池的故障域,创建Target所在服务器的列表(仅集群版支持),以便创建LUN时,LUN关联的Target优先从该服务器列表中选择所在服务器。例如存储池为rack级别,其拓扑图涵盖rack1、rack2、rack3、rack4中的节点,且faultDomains指定rack1、rack2,那么创建LUN时,LUN关联的Target优先从rack1、rack2所包含的此存储池的服务器列表里进行选择。 注意 存储池的故障域为path级别时,不能设置该参数。 如果LUN指定了高速缓存池和最终存储池,则从高速缓存池池中选择节点列表。如果LUN只指定了最终存储池,则从最终存储池中选择节点列表。 取值:以节点的形式添加,节点的级别可以到room、rack、server。可以指定多个节点,但是节点的个数要小于等于serverNumbers。支持一个节点添加多次,但是每次只能选一个server,并且选择的server不能与前面重复。如果一个节点出现的次数过多导致节点内的全部server都被选择,则系统会忽略此节点,从后面的节点中继续选择。 否 parameters.chapEnable 是否使用CHAP认证,取值: "true"。 "false"。 默认值为"false"。 注意 这里需要输入字符串,即"true"或"false"。 否 parameters.chapUser CHAP认证的用户名。如果配置文件csisecretdecrypt.yaml中的decryptFlag为true,需要对CHAP认证的用户名使用DecryptData配置的密钥对进行AES(ECP、paddingcs7)加密,加密后的结果进行Base64编码,具体详见配置加密模式。 加密前取值:字符串形式,长度范围是3~64,只能由字母、数字、句点( . )、短横线( )、下划线( )、冒号( : )组成,字母区分大小写,且仅支持以字母或数字开头。 否 parameters.chapPassword CHAP认证的密码。如果配置文件csisecretdecrypt.yaml中的decryptFlag为true,需要对CHAP认证的密码使用DecryptData配置的密钥对进行AES(ECP、paddingcs7)加密,加密后的结果进行Base64编码,具体详见配置加密模式。 加密前取值:字符串形式,长度范围是12~16,必须包含大写字母、小写字母、数字、下划线()中的至少两种字符,字母区分大小写。 否 parameters.IOPS 每秒能够进行读写操作次数的最大值。 取值:整型,取值范围为[1, 999999999],默认值为1。1表示不限制。 否 parameters.readIOPS 每秒能够进行读操作次数的最大值。 取值:整型,取值范围为[1, 999999999],默认值为1。1表示不限制。 否 parameters.writeIOPS 每秒能够进行写操作次数的最大值。 取值:整型,取值范围为[1, 999999999],默认值为1。1表示不限制。 否 parameters.Bps 每秒可传输数据量的最大值。 取值:整型,取值范围为[1, 4096000000000],默认值为1,单位是B/s。1表示不限制。 否 parameters.readBps 读带宽上限。 取值:整型,取值范围为[1, 4096000000000],默认值为1,单位是B/s。1表示不限制。 否 parameters.writeBps 写带宽上限。 取值:整型,取值范围为[1, 4096000000000],默认值为1,单位是B/s。1表示不限制。 否 parameters.IOPSBurst 使用Burst功能时,每秒能够进行读写操作次数的最大值。 取值:只有当IOPS大于等于1时,此项设置为1或(IOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 否 parameters.readIOPSBurst 使用Burst功能时,每秒能够进行读操作次数的最大值。 取值:只有当readIOPS大于等于1时,此项设置为1或(readIOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 否 parameters.writeIOPSBurst 使用Burst功能时,每秒能够进行写操作次数的最大值。 取值:只有当writeIOPS大于等于1时,此项设置为1或(writeIOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 否 parameters.BpsBurst 使用Burst功能时,每秒可传输的数据量最大值。 取值:只有当Bps大于等于1时,此项设置为1或(Bps, 4096000000000]内的正整数方可生效,默认值为1,单位是B/s。1表示不限制。 否 parameters.readBpsBurst 使用Burst功能时,读带宽上限。 取值:只有当readBps大于等于1时,此项设置为1或(readBps, 4096000000000]内的正整数方可生效,默认值为1,单位是B/s。1表示不限制。 否 parameters.writeBpsBurst 使用Burst功能时,写带宽上限。 取值:只有当writeBps大于等于1时,此项设置为1或(writeBps, 4096000000000]内的正整数方可生效,默认值为1,单位是B/s。1表示不限制。 否 parameters.IOPSBurstSecs 使用Burst功能时,按照Burst上限的能力进行读写操作所能持续的时间。 注意 只有在IOPS Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 parameters.readIOPSBurstSecs 使用Burst功能时,按照Burst上限的能力进行读操作所能持续的时间。 注意 只有在read IOPS Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 parameters.writeIOPSBurstSecs 使用Burst功能时,按照Burst上限的能力进行写操作所能持续的时间。 注意 只有在write IOPS Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 parameters.BpsBurstSecs 使用Burst功能时,按照Burst上限的流量能力所能持续的时间。 注意 只有在Bps Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 parameters.readBpsBurstSecs 使用Burst功能时,按照Burst上限的读流量能力所能持续的时间。 注意 只有在read Bps Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 parameters.writeBpsBurstSecs 使用Burst功能时,按照Burst上限的写流量能力所能持续的时间。 注意 只有在write Bps Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 2. 创建克隆卷的配置文件。 plaintext apiVersion: v1 kind: PersistentVolumeClaim metadata: name: clonepvcfrompvcblock
        来自:
        帮助文档
        存储资源盘活系统
        常用工具
        Container Storage Interface插件
        创建克隆卷
        通过PVC创建克隆卷
        通过PVC创建克隆卷
      • 支持的监控指标
        本页介绍了天翼云关系数据库MySQL版支持的监控指标。 关系数据库MySQL版支持的监控指标如下。 注意 关系数据库MySQL版实例中的Agent只用于监控实例运行的指标、状态,不会收集除监控指标外的其它数据。 功能说明 本文定义了关系数据库MySQL版上报云监控的监控指标的命名空间,监控指标列表和维度定义。用户可以通过云监控提供的API接口来检索关系型数据库产生的监控指标和告警信息。 监控指标频率目前支持15秒、60秒、300秒,默认监控频率为30秒。 注意 部分监控指标支持设置为10秒,详细信息,请参见设置监控频率 实例监控指标 关系数据库MySQL版实例性能监控指标,如下表所示。 指标名称 指标含义 取值范围 CPU使用率(系统空间) 该指标用于统计测量对象的CPU使用率(系统空间占用),以比率为单位。 0100% CPU使用率(用户空间) 该指标用于统计测量对象的CPU使用率(用户空间占用),以比率为单位。 0100% CPU使用率(等待I/O) 该指标用于统计CPU在等待磁盘I/O请求完成时处于空闲状态的时间百分比。 0100% CPU总使用率 该指标用于统计测量对象的CPU总使用率,以比率为单位。 0100% MySQL CPU使用率 该指标用于统计MySQL进程的CPU使用率。 0100% 内存使用率 该指标用于统计测量对象的内存使用率,以比率为单位。 0100% MySQL服务进程占用的内存使用率 该指标用于统计MySQL服务进程占用的内存使用率。以比率为单位。 0100% 实例总空间使用量 该指标用于统计实例的空间占用情况,以GB为单位。 ≥ 0 GB 备份空间使用量 该指标用于统计云硬盘实例备份空间的使用情况,以GB为单位。 ≥ 0 GB 磁盘读速率(数据盘) 该指标用于统计当前实例数据盘,单位时间内系统处理的磁盘读速率(平均值)。 ≥ 0 kb/s 磁盘写速率(数据盘) 该指标用于统计当前实例数据盘,单位时间内系统处理的磁盘写速率(平均值)。 ≥ 0 kb/s 磁盘读速率(系统盘) 该指标用于统计当前实例系统盘,单位时间内系统处理的磁盘读速率(平均值)。 ≥ 0 kb/s 磁盘写速率(系统盘) 该指标用于统计当前实例系统盘,单位时间内系统处理的磁盘写速率(平均值)。 ≥ 0 kb/s 数据盘读次数 该指标用于统计数据盘,单位时间内系统处理的I/O读扇区请求数量(平均值)。 ≥ 0 counts 数据盘写次数 该指标用于统计数据盘,单位时间内系统处理的I/O写扇区请求数量(平均值)。 ≥ 0 counts 系统盘读次数 该指标用于统计系统盘,单位时间内系统处理的I/O读扇区请求数量(平均值)。 ≥ 0 counts 系统盘写次数 该指标用于统计系统盘,单位时间内系统处理的I/O写扇区请求数量(平均值)。 ≥ 0 counts 磁盘使用率(数据盘) 该指标用于统计数据盘的磁盘使用率,以比率为单位。 0100% 磁盘使用率(系统盘) 该指标用于统计系统盘的磁盘使用率,以比率为单位。 0100% 磁盘平均队列长度(数据盘) 该指标用于统计数据盘平均队列长度。以s为单位。 ≥0s 磁盘平均队列长度(系统盘) 该指标用于统计系统盘平均队列长度。以s为单位。 ≥0s IO操作等待时间(数据盘) 该指标用于统计数据盘IO操作等待时间。 ≥0 ms IO操作等待时间(系统盘) 该指标用于统计系统盘IO操作等待时间。 ≥0 ms 网络接收字节数 该指标用于统计平均每秒从测量对象的所有网络适配器输入的流量,以千字节为单位。 ≥ 0 kb/s 网络发送字节数 该指标用于统计平均每秒从测量对象的所有网络适配器输出的流量,以千字节为单位。 ≥ 0 kb/s 数据库总连接数 该指标用于统计试图连接到MySQL服务器的总连接数,以个为单位。 ≥ 0 counts 当前活跃连接数 该指标用于统计当前打开的连接的数量,以个为单位。 ≥ 0 counts 执行次数(select) 该指标用于统计平均每秒select语句执行次数 ≥ 0 counts 执行次数(insert) 该指标用于统计平均每秒insert语句执行次数 ≥ 0 counts 执行次数(update) 该指标用于统计平均每秒update语句执行次数 ≥ 0 counts 执行次数(delete) 该指标用于统计平均每秒delete语句执行次数 ≥ 0 counts QPS 该指标用于统计SQL语句查询次数,含存储过程,以次/秒为单位。 ≥ 0 queries/s TPS 该指标用于统计事务执行次数,含提交的和回退的,以次/秒为单位。 ≥ 0 transactions/s 缓冲池利用率 该指标用于统计空闲的页与InnoDB缓存中缓冲池页面总数的比例,以比率为单位。 0100% 缓冲池命中率 该指标用于统计读命中与读请求数比例,以比率为单位。 0100% 缓冲池脏块率 该指标用于统计InnoDB缓存中脏数据与InnoDB缓存中使用的页比例,以比率为单位。 0100% InnoDB读取吞吐量 该指标用于统计Innodb平均每秒读字节数,以字节/秒为单位。 ≥ 0 bytes/s InnoDB写入吞吐量 该指标用于统计Innodb平均每秒写字节数,以字节/秒为单位。 ≥ 0 bytes/s InnoDB文件读取频率 该指标用于统计Innodb平均每秒从文件中读的次数,以次/秒为单位。 ≥ 0 counts/s InnoDB文件写入频率 该指标用于统计Innodb平均每秒向文件中写的次数,以次/秒为单位。 ≥ 0 counts/s InnoDB日志写请求频率 该指标用于统计平均每秒的日志写请求数,以次/秒为单位。 ≥ 0 counts/s InnoDB日志物理写频率 该指标用于统计平均每秒向日志文件的物理写次数,以次/秒为单位。 ≥ 0 counts/s InnoDB日志fsync()写频率 该指标用于统计平均每秒向日志文件完成的fsync()写数量,以次/秒为单位。 ≥ 0 counts/s 临时表创建数量 该指标用于统计在硬盘上创建的临时表数量,以个为单位。 ≥ 0 counts Insert语句执行频率 该指标用于统计平均每秒Insert语句执行次数,以次/秒为单位。 ≥ 0 queries/s Delete语句执行频率 该指标用于统计平均每秒Delete语句执行次数,以次/秒为单位。 ≥ 0 queries/s Select语句执行频率 该指标用于统计平均每秒Select语句执行次数。 ≥ 0 queries/s Update语句执行频率 该指标用于统计平均每秒Update语句执行次数,以次/秒为单位。 ≥ 0 queries/s 行删除速率 该指标用于统计平均每秒从InnoDB表删除的行数,以行/秒为单位。 ≥ 0 rows/s 行插入速率 该指标用于统计平均每秒向InnoDB表插入的行数,以行/秒为单位。 ≥ 0 rows/s 行读取速率 该指标用于统计平均每秒从InnoDB表读取的行数,以行/秒为单位。 ≥ 0 rows/s 行更新速率 该指标用于统计平均每秒向InnoDB表更新的行数,以行/秒为单位。 ≥ 0 rows/s 历史行锁平均等待时间 该指标用于统计innodb历史行锁平均等待时间。 > 0ms 当前行锁等待数 该指标用于统计innodb当前行锁等待数,以个为单位。表示当前正在等待行锁的事务个数。 ≥ 0 counts 长事务个数统计 该指标用于统计长事务的个数 ≥ 0 counts 连接使用率 该指标用于统计当前已用的MySQL连接数占总连接数的百分比。 0100% 主从复制延迟 该指标用于统计多节点实例,主从复制延迟时间,以s为单位。 ≥0 s 每秒DDL次数 该指标用于统计对象每秒钟ddl次数 ≥ 0 counts 平均每秒InsertSelect语句执行次数 该指标用于统计对象平均每秒InsertSelect语句执行次数 ≥ 0 counts 平均每秒ReplaceSelect语句执行次数 该指标用于统计对象平均每秒ReplaceSelect语句执行次数 ≥ 0 counts 平均每秒replace语句执行次数 该指标用于统计对象平均每秒replace语句执行次数 ≥ 0 counts Innodb打开文件数 该指标用于统计对象Innodb打开文件数 ≥ 0 counts 打开表数 该指标用于统计对象打开表数 ≥ 0 counts 打开的文件数 该指标用于统计对象打开的文件数 ≥ 0 counts 执行全表搜索查询的数量 该指标用于统计对象执行全表搜索查询的数量 ≥ 0 counts InnoDB 平均每秒fsync操作次数 该指标用于统计对象InnoDB 平均每秒fsync操作次数 ≥ 0 counts InnoDB每秒写入redo log日志量(B) 该指标用于统计对象InnoDB每秒写入redo log日志量(B) ≥0 B mdl锁阻塞的连接数 该指标用于统计对象mdl锁阻塞的连接数 ≥ 0 counts relay log使用量 该指标用于统计对象relay log使用量 ≥0 MB redo log使用量 该指标用于统计对象redo log使用量 ≥0 MB 系统数据库数据量 该指标用于统计系统数据库数据量 ≥0 MB 用户数据库数据量 该指标用于统计对象用户数据库数据量 ≥0 MB 临时文件数据量 该指标用于统计对象临时文件数据量 ≥0 MB undo log使用量 该指标用于统计对象undo log使用量 ≥0 MB binlog使用量 该指标用于统计对象binlog使用量 ≥0 MB slow log使用量 该指标用于统计对象slow log使用量 ≥0 MB 平均每秒从所有客户端接收到的字节数 该指标用于统计对象平均每秒从所有客户端接收到的字节数 ≥0 KB 平均每秒发送给所有客户端的字节数 该指标用于统计对象平均每秒发送给所有客户端的字节数 ≥0 KB 当前全部会话 该指标用于统计当前全部会话 ≥ 0 counts 当前活跃会话 该指标用于统计当前活跃会话 ≥ 0 counts InnoDB Buffer Pool 刷Page请求数量 该指标用于统计对象InnoDB Buffer Pool 刷Page请求数量 ≥ 0 counts InnoDB 表总等待row locks次数 该指标用于统计对象InnoDB 表总等待row locks次数 ≥ 0 counts 从系统启动到现在锁定的总时间 该指标用于统计对象从系统启动到现在锁定的总时间 ≥0 ms InnoDB 表每秒等待row locks时间 该指标用于统计对象InnoDB 表每秒等待row locks时间 ≥0 ms InnoDB 表每秒等待row locks次数 该指标用于统计对象InnoDB 表每秒等待row locks次数 ≥ 0 counts InnoDB 表平均等待row locks时间 该指标用于统计对象InnoDB 表平均等待row locks时间 ≥0 ms 监控行锁个数 该指标用于统计对象监控行锁个数 ≥ 0 counts 读取源二进制日志的I/O线程是否正在运行 该指标用于统计对象读取源二进制日志的I/O线程是否正在运行 ≥ 0 counts 执行中继日志中事件的SQL线程是否正在运行 该指标用于统计对象执行中继日志中事件的SQL线程是否正在运行 ≥ 0 counts MySQL读写次数 该指标用于统计对象MySQL读写次数 ≥ 0 counts IOPS使用率 该指标用于统计对象IOPS使用率 0100% 慢查询 该指标用于统计对象的慢查询数量 ≥ 0 counts 等待表锁次数 该指标用于统计对象的等待表锁次数(dml级) ≥ 0 counts
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        监控与告警
        支持的监控指标
      • 天翼云AOne SDK儿童个人信息保护政策及监护人须知
        本文提供天翼云AOne SDK儿童个人信息保护政策及监护人须知 天翼云AOne SDK 儿童个人信息保护政策及监护人须知 儿童个人信息保护政策及监护人须知发布日期:【2025年5月13日】 本须知仅适用于由天翼云科技有限公司提供的天翼云边缘安全加速平台零信任服务天翼云AOne SDK服务。 版本生效日期:【2025年5月13日】 如果您有任何疑问、意见或建议,请通过以下联系方式与我们联系: 电子邮件:service@chinatelecom.cn;ctpip.ctyun@chinatelecom.cn 电话:4008109889 天翼云门户:管理中心新建工单;智能客服 为了更好地在您使用我们服务的过程中保障您的个人信息,我们对《 天翼云AOne SDK儿童个人信息保护政策及监护人须知 》进行了更新,此版本主要更新内容包括: 1、更新天翼云AOne SDK儿童个人信息保护政策及监护人须知 天翼云AOne SDK儿童个人信息保护政策及监护人须知 天翼云AOne SDK产品由天翼云科技有限公司(“天翼云”)运营,是一款为移动应用开发者(以下简称“开发者”)提供调用零信任内网连接等能力服务的软件开发工具包(SDK)。我们致力于保护儿童个人信息,本须知中的“儿童”,是指满14周岁的未成年人。为此,我们专门制定了《天翼云AOne SDK儿童个人信息保护政策及监护人须知》(简称“本须知”),向您说明我们处理儿童个人信息的规则。您作为儿童的父母或其他监护人(统称“监护人”),请在您或您所监护的儿童(简称“被监护人”)使用本应用前务必仔细阅读并充分理解本须知,特别是以粗体标识的条款应重点阅读,在确认充分理解并同意全部条款后再开始使用或允许您的孩子使用。 本须知为在《天翼云AOne SDK隐私和信息处理规则》基础上制定的特别规则,除另有约定外,本须知所用术语和缩略词与《天翼云AOne SDK隐私和信息处理规则》中的术语和缩略词具有相同的涵义;与《天翼云AOne SDK隐私和信息处理规则》如有不一致之处,以本须知为准;本须知未载明之处,适用《天翼云AOne SDK隐私和信息处理规则》。为了维护儿童的合法权益,儿童应当在其监护人的指导下使用我们的服务。 《天翼云AOne SDK隐私和信息处理规则》详见天翼云AOne SDK隐私和信息处理规则 监护人特别说明: 您的理解和配合对我们保护被监护人的个人信息和隐私安全非常必要,为了维护被监护人的合法权益,我们希望您可以协助我们,确保被监护人在您的同意和指导下使用本应用和向我们提交个人信息。我们将根据本须知采取特殊措施保护我们获得的被监护人的个人信息。请您仔细阅读和选择是否同意本声明。如果您不同意本须知的内容,请您要求被监护人立即停止访问/使用我们的产品及服务。 儿童特别说明: 任何儿童参加网上活动都应事先取得监护人的同意。如果您是儿童,请务必通知您的监护人共同阅读本须知,并在您使用我们的产品及服务、提交个人信息之前,寻求您的监护人的同意和指导。 我们严格按照《中华人民共和国个人信息保护法》《中华人民共和国数据安全法》 《 电信和互联网用户个人信息保护规定》(工业和信息化部令第 24 号)《儿童个人信息网络保护规定》等法律法规的相关要求,在业务活动中处理儿童的个人信息。 本部分向您告知以下内容: 一、我们如何收集和使用儿童的个人信息 二、我们如何共享、转让和公开披露儿童的个人信息 三、我们如何存储儿童的个人信息 四、我们如何保护儿童的个人信息 五、我们如何管理儿童的个人信息 六、本须知的适用 七、本须知的修订 八、如何联系我们 一、我们如何收集和使用儿童的个人信息 1.1 在儿童使用我们的产品及服务过程中,我们会严格履行法律法规规定的儿童个人信息保护义务与责任,遵循正当必要、知情同意、目的明确、安全保障、依法利用的原则,在征得监护人的同意后收集和使用儿童个人信息。具体请查阅《天翼云AOne SDK隐私和信息处理规则》“各业务功能中的用户信息收集使用规则”章节,详细了解我们收集和使用的儿童个人信息。 1.2 此外,我们也会通过Cookie等同类技术自动收集您或被监护人的个人信息,具体请您查阅《天翼云AOne SDK隐私和信息处理规则》“我们如何使用 Cookie和同类技术”章节进行详细了解。 1.3 我们提供的与儿童有关的服务是不断发展的。如我们需要超出上述收集范围收集您或被监护人的个人信息,我们将再次告知您,并征得您的同意。 1.4 根据相关法律法规规定,以下情形中收集儿童的信息无需征得儿童监护人的授权同意: (1)与我们履行法律法规规定的义务相关的; (2)与国家安全、国防安全、公共安全、公共卫生、重大公共利益有关的; (3)与犯罪侦查、起诉、审判和判决执行等有关的; (4)出于维护儿童的生命、财产等重大合法权益但又很难得到监护人同意的; (5)所收集的信息是儿童或监护人自行向社会公众公开的; (6)从合法公开披露的信息中收集信息的,如合法的新闻报道、政府信息公开等渠道; (7)根据与您或被监护人签订和履行相关协议或其他书面文件所必需的; (8)法律法规规定的其他情形。 请您理解,您可以选择是否填写或向我们提供特定的信息,但您如果不填写或提供某些特定的信息,将可能导致我们的产品及服务无法正常运行,或者无法达到我们拟达到的服务效果,您和被监护人可能无法正常使用我们的产品、服务或相关的具体业务功能。 二、我们如何共享、转让和公开披露儿童的个人信息 我们承诺对儿童个人信息进行严格保密,我们遵照法律法规的规定,严格限制共享、转让、披露儿童个人信息的情形,仅在《天翼云AOne SDK隐私和信息处理规则》约定和您明确授权同意的情况下对外提供儿童信息。 除了《天翼云AOne SDK隐私和信息处理规则》“我们如何共享、转让、公开披露您的个人信息”章节部分所述的内容外,对于儿童个人信息,我们还将会采取如下措施来保护儿童个人信息在共享、转让和公开披露过程中的安全: 2.1 如果为了本须知所述目的而需要将儿童信息共享至第三方,我们将评估该第三方收集儿童个人信息的合法性、正当性、必要性,并采用加密、匿名化、去标识化处理等手段保障您和被监护人的信息安全。 2.2 我们将要求第三方对儿童个人信息采取保护措施,并且严格遵守相关法律法规与监管要求。我们会要求接收儿童个人信息的第三方遵守严格的保密义务及采取有效的保密措施,禁止其将这些儿童个人信息用于未经儿童及其监护人授权的用途,并要求受托公司依法履行以下义务: (1)按照法律、行政法规的规定和我们的要求处理儿童个人信息; (2)协助我们回应儿童监护人提出的申请; (3)采取措施保障信息安全,并在发生儿童个人信息泄露安全事件时,及时向我们反馈; (4)委托关系解除时及时删除儿童个人信息; (5)不得转委托; (6)其他依法应当履行的儿童个人信息保护义务。 2.3 另外,我们会按照法律法规的要求征得您的同意,或确认第三方已经征得您同意。 三、我们如何储存儿童的个人信息 3.1 我们在中华人民共和国境内运营中收集和产生的儿童个人信息,将存储在中国境内(为本须知之目的,不含香港、澳门、台湾地区)。 3.2 我们会采取合理可行的措施,尽力避免收集和处理无关的儿童的个人信息。我们只会在达成本须知所述目的所需的期限内保留儿童的个人信息,除非法律有强制的留存要求。关于我们如何确定儿童个人信息存储期限请参见《天翼云AOne SDK隐私和信息处理规则》“我们如何保存您的个人信息或关联组织信息”章节。如我们终止服务或运营,我们将及时停止继续收集儿童个人信息的活动,同时会遵守相关法律法规要求提前向您通知,并在终止服务或运营后对儿童的个人信息进行删除或匿名化处理,但法律法规或监管部门另有规定的除外。 四、我们如何保护儿童的个人信息 我们非常重视儿童的隐私安全,并采取一切合理可行的措施保护儿童个人信息: 4.1 我们会严格控制儿童个人信息的访问权限,对可能接触到儿童个人信息的工作人员采取最小够用授权原则,并采取技术措施对处理儿童个人信息的行为进行记录和管控,避免违法复制、下载儿童个人信息。 4.2 我们会定期组织内部相关人员进行培训,使其掌握岗位职责和应急处置策略和规程。在不幸发生儿童个人信息安全事件后,我们将按照法律法规的要求,及时向您告知:安全事件的基本情况和可能的影响、我们已采取或将要采取的处置措施、您及被监护人可自主防范和降低风险的建议、对您及被监护人的补救措施等。我们将及时将事件相关情况以APP推送通知、发送邮件/短消息等方式告知您。难以逐一告知时,我们会采取合理、有效的方式发布相关警示信息。同时,我们还将按照监管部门要求,主动上报儿童个人信息安全事件的处置情况。若被监护人的合法权益受损,我们将承担相应的法律责任。 4.3 如您希望了解更多,请查阅《天翼云AOne SDK隐私和信息处理规则》“我们如何保护您的个人信息或关联组织信息”章节,详细了解上述措施外,我们还采取了哪些措施保护儿童个人信息。 五、我们如何管理儿童的个人信息 5.1 为了您或被监护人在使用我们的产品及服务期间可以更加便捷地访问和管理被监护人的个人信息,同时保障注销账户的权利,我们在产品及服务中为您和被监护人提供了相应的操作设置,您和被监护人可以按照《天翼云AOne SDK隐私和信息处理规则》中的“您的权利及如何管理您的个人信息”章节指引进行操作。 5.2 如存在以下情况,您和被监护人可以请求我们删除收集、使用和处理的儿童个人信息。我们会在完成身份验证后,及时采取措施予以删除。 (1)若我们违反法律、行政法规的规定或者本须知的约定收集、存储、使用、转让、披露儿童个人信息; (2)若我们超出本须知目的范围或者必要期限收集、存储、使用、转让、披露儿童个人信息; (3)您撤回同意; (4)您或被监护人通过注销等方式终止使用产品或者服务的。 但请注意,若您和被监护人要求我们删除特定儿童个人信息,可能导致被监护人无法继续使用我们的产品和服务或产品和服务中的某些具体业务功能。 如您发现在未事先征得您同意的情况下收集了被监护人的个人信息,请及时联系我们,我们会设法尽快删除相关数据。 六、本须知的适用 绝大多数情形下我们无法识别且不会判断收集和处理的个人信息是否属于儿童个人信息,我们将按照《天翼云AOne SDK隐私和信息处理规则》收集和处理用户的个人信息。 七、本须知的修订 我们可能会根据我们的产品及服务的更新情况及法律法规的相关要求适时修改本须知的条款,该等修改构成本须知的一部分,我们会在专门页面上展示最新修改版本。当本须知的条款发生变更时,我们会以APP弹窗方式进行提示并再次取得您的同意,详见《天翼云AOne SDK隐私和信息处理规则》“本隐私和信息处理规则如何更新”章节的规定。 八、如何联系我们 8.1 如您对本隐私和信息处理规则或您信息的相关事宜有任何问题、意见、建议或申诉,您可以通过天翼云提交工单、联系智能客服、或拨打我们的客服电话4008109889与我们取得联系,您还可通过发送邮件至service@chinatelecom.cn或ctpip.ctyun@chinatelecom.cn,与天翼云边缘安全加速平台零信任服务的个人信息保护负责人进一步沟通。 8.2 一般情况下,我们将会在3个工作日内回复,特殊情形下,最长将在不超过15个工作日做出答复。 8.3 如果您对我们的回复不满意,特别是我们的信息处理行为损害了您的合法权益,您还可以通过以下外部途径寻求解决方案:向被告所在地有管辖权的人民法院提起诉讼。
        来自:
        帮助文档
        边缘安全加速平台
        相关协议
        天翼云AOne SDK儿童个人信息保护政策及监护人须知
      • 国密HTTPS
        本文简述天翼云边缘安全加速平台安全与加速服务支持的国密算法套件、适用场景、注意事项及配置方法。 背景介绍 随着近年来外部的国际贸易冲突和技术封锁,内部互联网的快速发展,IOT领域的崛起,以及金融领域的变革愈演愈烈,安全高度不断上升。摆脱对国外技术和产品的过度依赖,建设行业网络安全环境,增强我国行业信息系统的安全可信显得尤为必要和迫切。密码算法是保障信息安全的核心技术,尤其是最关键的银行业核心领域长期以来都是沿用3DES、SHA1、RSA等国际通用的密码算法体系及相关标准,存在安全隐患,天翼云积极响应国家政策,支持国密标准,为金融等政企客户提供更加安全的加密算法。 天翼云边缘安全加速平台安全与加速服务,支持自主部署域名证书,证书算法支持国际和国密标准,并允许同个域名双证书并行。即网关支持双算法证书应用,智能识别和匹配适用算法。在客户端环境支持国密算法时,自动选择国密算法证书,在客户端环境仅支持国际算法时,自动选择国际算法证书,自动建立匹配算法加密通道。 国密介绍 国密算法,即国家商用密码算法。是由国家密码管理局认定和公布的密码算法标准及其应用规范,其中部分密码算法已经成为国际标准。如SM系列密码,SM代表商密,即商业密码,是指用于商业的、不涉及国家秘密的密码技术。 商用密码有很多,以下列举了常用的国际跟国产商用密码: 密码分类 国产商用密码 国际商用密码 对称加密 分组加密/块加密 SM1/SCB2、SM4/SMS4、SM7 DES、IDEA、AES、RC5、RC6 对称加密 分组加密/块加密 ZUC(祖冲之算法)、SSF46 RC4 非对称/公钥加密 大数分解 / RSA、DSA、ECDSA、Rabin 非对称/公钥加密 离散对数 SM2、SM9 DH、DSA、ECC、ECDH 密码杂凑/散列 SM3 MD5、SHA1、SHA2 SM1是一种分组加密算法 对称加密算法中的分组加密算法,其分组长度、秘钥长度都是128bit,算法安全保密强度跟 AES 相当,但是算法不公开,仅以IP核的形式存在于芯片中,需要通过加密芯片的接口进行调用。采用该算法已经研制了系列芯片、智能IC卡、智能密码钥匙、加密卡、加密机等安全产品,广泛应用于电子政务、电子商务及国民经济的各个应用领域(包括国家政务通、警务通等重要领域)。 SM2是非对称加密算法 它是基于椭圆曲线密码的公钥密码算法标准,其秘钥长度256bit,包含数字签名、密钥交换和公钥加密,用于替换RSA/DH/ECDSA/ECDH等国际算法。可以满足电子认证服务系统等应用需求,由国家密码管理局于2010年12月17号发布。SM2采用的是ECC 256位的一种,其安全强度比RSA 2048位高,且运算速度快于RSA。 SM3是一种密码杂凑算法 用于替代MD5/SHA1/SHA2等国际算法,适用于数字签名和验证、消息认证码的生成与验证以及随机数的生成,可以满足电子认证服务系统等应用需求,于2010年12月17日发布。它是在SHA256基础上改进实现的一种算法,采用MerkleDamgard结构,消息分组长度为512bit,输出的摘要值长度为256bit。 SM4是分组加密算法 跟SM1类似,是我国自主设计的分组对称密码算法,用于替代DES/AES等国际算法。SM4算法与AES算法具有相同的密钥长度、分组长度,都是128bit。于2012年3月21日发布,适用于密码应用中使用分组密码的需求。 SM7也是一种分组加密算法 该算法没有公开。SM7适用于非接IC卡应用包括身份识别类应用(门禁卡、工作证、参赛证),票务类应用(大型赛事门票、展会门票),支付与通卡类应用(积分消费卡、校园一卡通、企业一卡通、公交一卡通)。 SM9是基于标识的非对称密码算法 用椭圆曲线对实现的基于标识的数字签名算法、密钥交换协议、密钥封装机制和公钥加密与解密算法,包括数字签名生成算法和验证算法,并给出了数字签名与验证算法及其相应的流程。并提供了相应的流程。可以替代基于数字证书的PKI/CA体系。SM9主要用于用户的身份认证。据新华网公开报道,SM9的加密强度等同于3072位密钥的RSA加密算法,于2016年3月28日发布。 相关标准: 2014年:国家密码管理局发布标准《GMT 00242014》规范了国密算法套件:ECCSM4SM3、ECDHESM4SM3。 2020年:国家标准化管理委员会发布标准《GBT386362020》,将国密套件重新规范命名为:ECCSM4CBCSM3、ECDHESM4CBCSM3,并且新增了GCM模式下的算法套件:ECCSM4GCMSM3、ECDHESM4GCMSM3以及基于RSA证书的算法套件:RSASM4CBCSM3、RSASM4GCMSM3、RSASM4CBCSHA256、RSASM4GCMSHA256。 2021年:IETF工作组正式发布国际标准《rfc8998》,该标准在TLS1.3上定义了使用国密算法的套件:TLSSM4GCMSM3、TLSSM4CCMSM3,使用ECDHESM2密钥协商算法,取消了 Client 证书的要求和server 双证书要求。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        基础配置
        HTTPS相关配置
        国密HTTPS
      • 国密HTTPS
        本文简述全站加速支持的国密算法套件、适用场景、注意事项及配置方法。 背景介绍 随着近年来外部的国际贸易冲突和技术封锁,内部互联网的快速发展,IOT领域的崛起,以及金融领域的变革愈演愈烈,安全高度不断上升。摆脱对国外技术和产品的过度依赖,建设行业网络安全环境,增强我国行业信息系统的安全可信显得尤为必要和迫切。密码算法是保障信息安全的核心技术,尤其是最关键的银行业核心领域长期以来都是沿用3DES、SHA1、RSA等国际通用的密码算法体系及相关标准,存在安全隐患,天翼云积极响应国家政策,支持国密标准,为金融等政企客户提供更加安全的加密算法。 天翼云全站加速,支持自主部署域名证书,证书算法支持国际和国密标准,并允许同个域名双证书并行。即网关支持双算法证书应用,智能识别和匹配适用算法。在客户端环境支持国密算法时,自动选择国密算法证书,在客户端环境仅支持国际算法时,自动选择国际算法证书,自动建立匹配算法加密通道。 国密介绍 国密算法,即国家商用密码算法。是由国家密码管理局认定和公布的密码算法标准及其应用规范,其中部分密码算法已经成为国际标准。如SM系列密码,SM代表商密,即商业密码,是指用于商业的、不涉及国家秘密的密码技术。 商用密码有很多,以下列举了常用的国际跟国产商用密码: 密码分类 国产商用密码 国际商用密码 对称加密 分组加密/块加密 SM1/SCB2、SM4/SMS4、SM7 DES、IDEA、AES、RC5、RC6 对称加密 序列加密/流加密 ZUC(祖冲之算法)、SSF46 RC4 非对称/公钥加密 大数分解 RSA、DSA、ECDSA、Rabin 非对称/公钥加密 离散对数 SM2、SM9 DH、DSA、ECC、ECDH 密码杂凑/散列 SM3 MD5、SHA1、SHA2 SM1是一种分组加密算法 对称加密算法中的分组加密算法,其分组长度、秘钥长度都是128bit,算法安全保密强度跟 AES 相当,但是算法不公开,仅以IP核的形式存在于芯片中,需要通过加密芯片的接口进行调用。采用该算法已经研制了系列芯片、智能IC卡、智能密码钥匙、加密卡、加密机等安全产品,广泛应用于电子政务、电子商务及国民经济的各个应用领域(包括国家政务通、警务通等重要领域)。 SM2是非对称加密算法 它是基于椭圆曲线密码的公钥密码算法标准,其秘钥长度256bit,包含数字签名、密钥交换和公钥加密,用于替换RSA/DH/ECDSA/ECDH等国际算法。可以满足电子认证服务系统等应用需求,由国家密码管理局于2010年12月17号发布。SM2采用的是ECC 256位的一种,其安全强度比RSA 2048位高,且运算速度快于RSA。 SM3是一种密码杂凑算法 用于替代MD5/SHA1/SHA2等国际算法,适用于数字签名和验证、消息认证码的生成与验证以及随机数的生成,可以满足电子认证服务系统等应用需求,于2010年12月17日发布。它是在SHA256基础上改进实现的一种算法,采用MerkleDamgard结构,消息分组长度为512bit,输出的摘要值长度为256bit。 SM4是分组加密算法 跟SM1类似,是我国自主设计的分组对称密码算法,用于替代DES/AES等国际算法。SM4算法与AES算法具有相同的密钥长度、分组长度,都是128bit。于2012年3月21日发布,适用于密码应用中使用分组密码的需求。 SM7也是一种分组加密算法 该算法没有公开。SM7适用于非接IC卡应用包括身份识别类应用(门禁卡、工作证、参赛证),票务类应用(大型赛事门票、展会门票),支付与通卡类应用(积分消费卡、校园一卡通、企业一卡通、公交一卡通)。 SM9是基于标识的非对称密码算法 用椭圆曲线对实现的基于标识的数字签名算法、密钥交换协议、密钥封装机制和公钥加密与解密算法,包括数字签名生成算法和验证算法,并给出了数字签名与验证算法及其相应的流程。并提供了相应的流程。可以替代基于数字证书的PKI/CA体系。SM9主要用于用户的身份认证。据新华网公开报道,SM9的加密强度等同于3072位密钥的RSA加密算法,于2016年3月28日发布。 相关标准: 2014年:国家密码管理局发布标准《GMT 00242014》规范了国密算法套件:ECCSM4SM3、ECDHESM4SM3。 2020年:国家标准化管理委员会发布标准《GBT386362020》,将国密套件重新规范命名为:ECCSM4CBCSM3、ECDHESM4CBCSM3,并且新增了GCM模式下的算法套件:ECCSM4GCMSM3、ECDHESM4GCMSM3以及基于RSA证书的算法套件:RSASM4CBCSM3、RSASM4GCMSM3、RSASM4CBCSHA256、RSASM4GCMSHA256。 2021年:IETF工作组正式发布国际标准《rfc8998》,该标准在TLS1.3上定义了使用国密算法的套件:TLSSM4GCMSM3、TLSSM4CCMSM3,使用ECDHESM2密钥协商算法,取消了 Client 证书的要求和server 双证书要求。
        来自:
        帮助文档
        全站加速
        用户指南
        域名管理
        HTTPS相关配置
        国密HTTPS
      • API列表
        模型 模型简介 模型ID DoubaoSeed2.0pro DoubaoSeed2.0Pro 是字节跳动推出的最新一代旗舰级通用Agent大模型,隶属于豆包大模型2.0系列,专为应对大规模生产环境下的深度推理与长链路任务执行场景而设计,全面对标GPT 5.2与Gemini 3 Pro。该模型围绕真实世界复杂任务需求进行系统性优化,强化了多模态理解、复杂指令执行与长尾领域知识储备,在数学推理、视觉感知、长上下文处理等多个基准测试中达到业界顶尖水平。其token定价较同级海外模型降低约一个数量级,在保证卓越性能的同时大幅降低部署与使用成本,进一步缩小了与前沿闭源模型的差距,目前已在豆包App、电脑端、网页版及火山引擎API服务同步上线。 d4432662ebed421890bf8fe60e400439 Qwen3Max 千问3系列Max模型,相较preview版本在智能体编程与工具调用方向进行了专项升级。本次发布的正式版模型达到领域SOTA水平,适配场景更加复杂的智能体需求。 3d1c69eb6e1d40f186124b98141e64fd DoubaoSeed1.8 DoubaoSeed1.8是字节跳动自主研发的最新一代旗舰级多模态通用智能体(General Agent)大模型,于2025年12月18日在FORCE原动力大会上正式发布,专为应对真实场景中的复杂工作流、多模态交互及智能体执行任务而设计。该模型突破传统单一语言模型局限,实现从“回答问题”到“执行任务”的质变,融合视觉、语言、推理和行动能力于一体,优化了图片编码token数量与推理效率,在多模态理解、智能体操作、代码编写等领域表现卓越,跻身全球大模型第一梯队,其日均token使用量已突破50万亿,进一步缩小了与前沿闭源模型的差距,成为面向实际应用场景的高效实干型AI助手superscript:3。 87f80d930d3e4c478e50f7a121dfbb97 DoubaoSeed1.60615 DoubaoSeed1.60615是全新多模态深度思考模型,同时支持minimal/low/medium/high 四种reasoning effort。 更强模型效果,服务复杂任务和有挑战场景。 651c9b454b58458f9b604e67c03ab73f Doubao1.5pro32k Doubao1.5pro32k 是字节跳动自主研发的新一代旗舰级大模型,专为长文本处理、多场景适配及高精度任务需求而设计,是豆包1.5系列产品线的核心成员之一。该模型坚持高质量训练路线,在14.8万亿高质量tokens上完成预训练,并通过监督微调和强化学习进一步优化,相较于前代模型实现了知识、代码、推理等核心能力的全面跃升。Doubao1.5pro32k集成了稀疏MoE架构与高效上下文管理技术,坚持不使用任何其他模型生成的数据,凭借极低的幻觉率和优异的综合表现,在多项公开评测基准中达到全球领先水平,显著缩小了与前沿闭源模型(如GPT4 Turbo)的差距,可广泛适配个人、企业及专业领域的多样化需求。 3b4f6505923d48beb3d779a28c704a4e Qwen3CoderPlus Qwen3CoderPlus 是阿里通义千问团队研发的顶级代码专用大模型,在 Qwen3 通用模型基座上进行了大规模的代码专项继续预训练与指令微调。该模型熟练掌握 92 种编程语言,在代码生成、Bug 修复、代码解释及跨语言翻译等任务上表现卓越。Qwen3CoderPlus 引入了“仓库级(Repositorylevel)”代码理解技术,能够处理复杂的项目依赖关系,是程序员、数据科学家及自动化运维人员的理想开发助手。 f9089c3c29b24ac7a0148efad6c0650d Qwen3VLPlus Qwen3VLPlus 是阿里通义千问 Qwen3 家族中的增强型视觉语言模型(VisionLanguage Model),专为处理高难度的图像与视频理解任务而设计。相较于开源版本,Plus 版在视觉感知的清晰度、长视频时序分析及视觉智能体(Visual Agent)交互能力上进行了大幅强化。它采用了先进的“原生动态分辨率”技术,支持任意长宽比的图像输入,能够像人类一样精准识别密集文本、复杂图表及长达数小时的视频内容,是构建多模态应用的理想基座。 b0d79f4a19bb4fa8a71745fff38325a4 Qwen3.5397BA17B Qwen3.5397BA17B 是阿里通义千问团队研发的新一代旗舰级开源多模态 MoE(Mixture of Experts)模型。该模型拥有 3970 亿总参数,但在推理时仅激活 170 亿参数(A17B),实现了极致的性能与效率平衡。Qwen3.5 采用了创新的“门控 DeltaNet + MoE”混合架构,实现了视觉与语言的早期融合训练。它不仅在推理、编码和多语言理解上跨代际超越了前代 Qwen3,更在智能体(Agent)和视觉理解任务上表现卓越,原生支持“思考模式”,具备强大的现实世界适应能力。 06b788a9218d4a5b905e5681c2f4e721 GLM5 GLM5 是智谱 AI 推出的最新一代旗舰级开源大模型,专为应对复杂系统工程和长周期智能体(Agent)任务而设计。该模型坚持扩展(Scaling)路线,参数量从前代的 355B(激活 32B)扩展至 744B(激活 40B),预训练数据量提升至 28.5T tokens。GLM5 集成了 DeepSeek 稀疏注意力(DSA)机制,并引入了全新的异步强化学习基础设施“slime”,在推理、编程和智能体任务上表现卓越,是目前全球开源模型中的佼佼者,进一步缩小了与前沿闭源模型(如 GPT5.2)的差距。 6d3a57c3a6fb465e968b604783b89eda DeepSeekV3.2(正式版) DeepSeekV3.2是深度求索(DeepSeek)开源的最新一代旗舰级通用大模型。该模型是一个在高计算效率与卓越推理和代理性能之间取得平衡的模型。实现了顶尖性能与超高推理效率的完美平衡,该模型在编程、数学、推理及多语言理解等核心任务上展现出卓越能力,是面向开发者与企业的高级智能助手。 64badd7229504be5a44123367666a51f DeepSeekV3.2(体验版) DeepSeekV3.2是深度求索(DeepSeek)开源的最新一代旗舰级通用大模型。该模型是一个在高计算效率与卓越推理和代理性能之间取得平衡的模型。实现了顶尖性能与超高推理效率的完美平衡,该模型在编程、数学、推理及多语言理解等核心任务上展现出卓越能力,是面向开发者与企业的高级智能助手。 2656053fa69c4c2d89c5a691d9d737c3 Qwen3Coder480BA35BInstruct Qwen3Coder480BA35BInstruct是阿里通义千问开源的顶尖代码大模型,采用混合专家(MoE)架构,总参 4800 亿、激活 350 亿参数,实现性能与成本的平衡,能处理仓库级代码与跨文件依赖。 e8ffc9d7e2b34a7487b30d6682207376 Qwen3235BA22BInstruct2507 Qwen3235BA22BInstruct2507是阿里通义千问发布的开源 MoE 架构大模型,总参 2350 亿、激活 220 亿参数,在指令遵循、推理、编码等多领域性能突出,覆盖 100 多种语言与长尾知识。 aab61a64c8504336848e1720bd379ed4 KimiK2Instruct Kimi K2 是一款先进的混合专家(MoE)语言模型,激活参数为 320 亿,总参数为 1 万亿。通过 Muon 优化器进行训练,Kimi K2 在前沿知识、推理和编码任务上表现出色,同时精心优化了代理能力。 38a6a77904264b3dac4644aedb0e5ced Qwen330BA3B Qwen3是Qwen 系列最新一代大型语言模型,提供了一系列密集型和专家混合(MoE)模型。基于广泛的训练,Qwen3 在推理、指令执行、代理能力和多语言支持方面实现了突破性进展 4efd64f3736d41a08f89db919dbe9c6b BGERerankerLarge BGERerankerLarge是北京智源人工智能研究院(BAAI)发布的一款基于深度学习的重排序模型,能够在中英文两种语言环境下,对检索结果进行优化,提高检索的准确性和相关性。与嵌入模型不同,Reranker使用question和document作为输入,直接输出相似度而不是嵌入。 0cb4c1ed8f374eadbe8bffe30bd039dc BaichuanM232B BaichuanM232B是百川 AI 的医疗增强推理模型,是百川发布的第二个医疗模型。该模型专为现实世界的医疗推理任务设计,在 Qwen2.532B的基础上引入了创新的大型验证系统。通过对真实医疗问题的领域特定微调,它在保持强大通用能力的同时实现了突破性的医疗性能。 9488c08cf627421aacdeb44bd9c2f95c DeepSeekV3.1 DeepSeekV3.1是一个支持思考模式和非思考模式的混合模型。是在 DeepSeekV3.1Base 的基础上进行后训练得到的,后者是通过两阶段长上下文扩展方法在原始 V3 基础检查点上构建的,遵循了原始 DeepSeekV3 报告中概述的方法。通过收集额外的长文档并大幅扩展两个训练阶段来扩大的数据集。 37d1d0f4183b4800a44a69abf9102dfa DeepSeekV30324 DeepSeekV30324是DeepSeek团队于2025年3月24日发布的DeepSeekV3语言模型的新版本。是一个专家混合(MoE)语言模型,总参数为6710亿个,每个Token激活了370亿个参数。0324版本开创了一种用于负载均衡的辅助无损策略,并设定了多令牌预测训练目标以提高性能。该模型版本在几个关键方面比其前身DeepSeekV3有了显著改进。 11bd888a35434486bf209066c7dad0ee DeepSeekR10528 DeepSeekR10528是DeepSeek团队推出的最新版模型。模型基于 DeepSeekV30324 训练,参数量达660B。该模型通过利用增加的计算资源并在后训练期间引入算法优化机制,显著提高了其推理和推理能力的深度。该模型在各种基准测试评估中表现出出色的性能,包括数学、编程和一般逻辑。它的整体性能现在接近 O3 和 Gemini 2.5 Pro 等领先机型。 ff3f5c450f3b459cbe5d04a5ea9b2511 DeepSeekR1 DeepSeekR1 是一款具有创新性的大语言模型,由杭州深度求索人工智能基础技术研究有限公司开发。该模型基于 transformer 架构,通过对海量语料数据进行预训练,结合注意力机制,能够理解和生成自然语言。它经过监督微调、人类反馈的强化学习等技术进行对齐,具备语义分析、计算推理、问答对话、篇章生成、代码编写等多种能力。R1 模型在多个 NLP 基准测试中表现出色,具备较强的泛化能力和适应性。 4bd107bff85941239e27b1509eccfe98 DeepSeekV3 DeepSeekV3是DeepSeek团队开发的新一代专家混合(MoE)语言模型,共有671B参数,在14.8万亿个Tokens上进行预训练。该模型采用多头潜在注意力(MLA)和DeepSeekMoE架构,继承了DeepSeekV2模型的优势,并在性能、效率和功能上进行了显著提升。 9dc913a037774fc0b248376905c85da5 DeepSeekR1DistillLlama70B DeepSeekR1DistillLlama70B是基于Llama架构并经过强化学习和蒸馏优化开发的高性能语言模型。该模型融合了DeepSeekR1的先进知识蒸馏技术与Llama70B模型的架构优势。通过知识蒸馏,在保持较小参数规模的同时,具备强大的语言理解和生成能力。 515fdba33cc84aa799bbd44b6e00660d DeepSeekR1DistillQwen32B DeepSeekR1DistillQwen32B是通过知识蒸馏技术从DeepSeekR1模型中提炼出来的小型语言模型。它继承了DeepSeekR1的推理能力,专注于数学和逻辑推理任务,但体积更小,适合资源受限的环境。 b383c1eecf2c4b30b4bcca7f019cf90d Baichuan2Turbo BaichuanTurbo系列模型是百川智能推出的大语言模型,采用搜索增强技术实现大模型与领域知识、全网知识的全面链接。 43ac83747cb34730a00b7cfe590c89ac Qwen272BInstruct Qwen2 是 Qwen 大型语言模型的新系列。Qwen2发布了5个尺寸的预训练和指令微调模型,包括Qwen20.5B、Qwen21.5B、Qwen27B、Qwen257BA14B以及Qwen272B。这是指令调整的 72B Qwen2 模型,使用了大量数据对模型进行了预训练,并使用监督微调和直接偏好优化对模型进行了后训练。 2f05789705a64606a552fc2b30326bba ChatGLM36B ChatGLM36B 是 ChatGLM 系列最新一代的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM36B 引入了更强大的基础模型、更完整的功能支持、更全面的开源序列几大特性。 7450fa195778420393542c7fa13c6640 TeleChat12B 星辰语义大模型TeleChat是由中电信人工智能科技有限公司研发训练的大语言模型,TeleChat12B模型基座采用3万亿 Tokens中英文高质量语料进行训练。TeleChat12Bbot在模型结构、训练数据、训练方法等方面进行了改进,在通用问答和知识类、代码类、数学类榜单上相比TeleChat7Bbot均有大幅提升。 fdc31b36028043c48b15131885b148ce Llama38BInstruct Meta 开发并发布了 Meta Llama 3 系列大型语言模型 (LLM),包含 8B 和 70B 两种参数大小,Llama38BInstruct 是经过指令微调的版本,针对对话用例进行了优化,在常见的行业基准测试中优于许多可用的开源聊天模型。 bda59c34e4424598bbd5930eba713fbf Llama370BInstruct Meta 开发并发布了 Meta Llama 3 系列大型语言模型 (LLM),包含 8B 和 70B 两种参数大小,Llama370BInstruct 是经过指令微调的版本,针对对话用例进行了优化,在常见的行业基准测试中优于许多可用的开源聊天模型。 6192ed0cb6334302a2c32735dbbb6ce3 QwenVLChat QwenVLChat模型是在阿里云研发的大规模视觉语言模型 QwenVL 系列的基础上,使用对齐机制打造的视觉AI助手,该模型有更优秀的中文指令跟随,支持更灵活的交互方式,包括多图、多轮问答、创作等能力。 e8c39004ff804ca699d47b9254039db8 StableDiffusionV2.1 StableDiffusionV2.1是由 Stability AI 公司推出的基于深度学习的文生图模型,它能够根据文本描述生成详细的图像,同时也可以应用于其他任务,例如图生图,生成简短视频等。 40f9ae16e840417289ad2951f5b2c88f DeepseekV2LiteChat DeepseekV2LiteChat是一款强大的开源专家混合(MoE)语言聊天模型,具有16B参数,2.4B活动参数,使用5.7T令牌从头开始训练,其特点是同时具备经济的训练和高效的推理。 0855b510473e4ec3a029569853f64974 Qwen2.572BInstruct Qwen2.5系列发布了许多基本语言模型和指令调整语言模型,参数范围从0.5到720亿个参数不等。Qwen2.572BInstruct模型是Qwen2.5系列大型语言模型指令调整版本。 d9df728b30a346afb74d2099b6c209aa Gemma29BIT Gemma29BIT是Google最新发布的具有90亿参数的开源大型语言模型的指令调优版本。模型在大量文本数据上进行预训练,并且在性能上相较于前一代有了显著提升。该版本的性能在同类产品中也处于领先地位,超过了Llama38B和其他同规模的开源模型。 4dae2b9727db46b7b86e84e8ae6530a9 Llama3.23BInstruct Meta Llama3.2多语言大型语言模型(LLMs)系列是一系列预训练及指令微调的生成模型,包含1B和3B参数规模。Llama3.2指令微调的纯文本模型专门针对多语言对话应用场景进行了优化,包括代理检索和摘要任务。它们在通用行业基准测试中超越了许多可用的开源和闭源聊天模型。这是Llama3.23BInstruct版本。 f7d0baa95fd2480280214bfe505b0e2e ChatGLM36B32K ChatGLM36B32K模型在ChatGLM36B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。具体对位置编码进行了更新,并设计了更有针对性的长文本训练方法,在对话阶段使用 32K 的上下文长度训练。 98b6d84f6b15421886d64350f2832782 CodeGemma7BIT CodeGemma是构建在Gemma之上的轻量级开放代码模型的集合。CodeGemma7BIT模型是CodeGemma系列模型之一,是一种文本到文本和文本到代码的解码器模型的指令调整变体,具有70亿参数,可用于代码聊天和指令跟随。 fa8b78d2db034b6798c894e30fba1173 Qwen2.5Math7BInstruct Qwen2.5Math系列是数学专项大语言模型Qwen2Math的升级版。系列包括1.5B、7B、72B三种参数的基础模型和指令微调模型以及数学奖励模型Qwen2.5MathRM72B,Qwen2.5Math7BInstruct的性能与Qwen2Math72BInstruct相当。 ea056b1eedfc479198b49e2ef156e2aa DeepSeekCoderV2LiteInstruct DeepSeekCoderV2LiteInstruct是一款强大的开源专家混合(MoE)语言聊天模型,具有16B参数,2.4B活动参数。该模型基于DeepSeekV2进一步预训练,增加了6T Tokens,可在特定的代码任务中实现与GPT4Turbo相当的性能。 f23651e4a8904ea589a6372e0e860b10 BGEm3 BGEm3是智源发布的通用语义向量模型BGE家族新成员,支持超过100种语言,具备领先的多语言、跨语言检索能力,全面且高质量地支撑“句子”、“段落”、“篇章”、“文档”等不同粒度的输入文本,最大输入长度为8192,并且一站式集成了稠密检索、稀疏检索、多向量检索三种检索功能,在多个评测基准中达到最优水平。 46c1326f63044fbe80443af579466fe3 Qwen27BInstruct Qwen27BInstruct是 Qwen2大型语言模型系列中覆盖70亿参数的指令调优语言模型,支持高达 131,072 个令牌的上下文长度,能够处理大量输入。 0e97efbf3aa042ebbaf0b2d358403b94 Qwen3235BA22B Qwen3235BA22B是Qwen3系列大型语言模型的旗舰模型。拥有2350多亿总参数和220多亿激活参数。在代码、数学、通用能力等基准测试中,与DeepSeekR1、o1、o3mini、Grok3和Gemini2.5Pro等顶级模型相比,表现出极具竞争力的结果。 35af69e0d4af492ca366cf2df03c3172 Qwen332B Qwen3是Qwen系列中最新一代的大型语言模型,提供一整套密集(Dense)模型和混合专家(MoE)模型。Qwen3基于广泛的培训而构建,在推理、指令遵循、代理功能和多语言支持方面取得了突破性的进步。Qwen332B是参数量为32.8B的密集(Dense)模型。 3836b8d2ec5d46fc94cc7891064940aa Qwen314B Qwen3是Qwen系列中最新一代的大型语言模型,提供一整套密集(Dense)模型和混合专家(MoE)模型。Qwen3基于广泛的培训而构建,在推理、指令遵循、代理功能和多语言支持方面取得了突破性的进步。Qwen314B是参数量为14.8B的密集(Dense)模型。 5873b698960f45c8ae36e72566f7f141 Qwen38B Qwen3是Qwen系列中最新一代的大型语言模型,提供一整套密集(Dense)模型和混合专家(MoE)模型。Qwen3基于广泛的培训而构建,在推理、指令遵循、代理功能和多语言支持方面取得了突破性的进步。Qwen38B是参数量为82亿的密集(Dense)模型。 dceefe3233794dd385e3c2ab500dc6c8 Qwen34B Qwen3是Qwen 系列最新一代大型语言模型,提供了一系列密集型和专家混合(MoE)模型。基于广泛的训练,Qwen3 在推理、指令执行、代理能力和多语言支持方面实现了突破性进展 8606056bfe0c49448d92587452d1f2fc QwQ32B QwQ32B是一款拥有 320 亿参数的推理模型,其性能可与具备 6710 亿参数(其中 370 亿被激活)的 DeepSeekR1 媲美。该模型集成了与Agent相关的能力,使其能够在使用工具的同时进行批判性思考,并根据环境反馈调整推理过程。 b9293363bfbf4db2bccb839ff4300d17 Qwen2.5VL72BInstruct Qwen2.5VL72BInstruct模型是阿里云通义千问开源的全新视觉模型,具有720亿参数规模,以满足高性能计算场景的需求。目前共推出3B、7B、32B和72B四个尺寸的版本。这是旗舰版Qwen2.5VL72B的指令微调模型,在13项权威评测中夺得视觉理解冠军,全面超越GPT40与Claude3.5。 88003ac1ca7a4e4e8efa7caee648323b
        来自:
        帮助文档
        模型推理服务
        API参考
        推理服务API
        API列表
      • 将PostgreSQL迁移到TeleDB
        解码插件配置 > REPLICATION > wallevel logical minimal, archive, hotstandby, > or logical (change requires restart) > maxwalsenders 100 max number of walsender > processes (change requires restart) > walkeepsegments 4 in logfile segments, 16MB each; > 0 disables > walsendertimeout 60s in milliseconds; 0 disables > maxreplicationslots 100 max number of replication > slots (change requires restart) ③ 重启PostgreSQL。 ④ 验证配置是否生效。 > > 创建逻辑复制,使用逻辑复制插件decoderbufs > select from > pgcreatelogicalreplicationslot('decoderbufsdemo', 'decoderbufs'); > 对相关表进行数据操作 > 使用decoderbufs调试模式 > SELECT data FROM > pglogicalslotpeekchanges('decoderbufsdemo', NULL, NULL, 'debugmode', '1'); > 使用decoderbufs获取wal变更,更新wal位置 > SELECT data FROM pglogicalslotgetchanges('decoderbufsdemo', NULL, NULL, 'debugmode', '1'); > 查看逻辑复制的wal位置 > SELECT FROM pgreplicationslots WHERE slottype 'logical'; > 删除逻辑复制 > select pgdropreplicationslot("decoderbufsdemo"); 5. 创建源库DTS用户 > 如果仅做测试用,可以直接使用PostgreSQL的超级用户作为迁移用户,一般用户名为postgres。 > 如果需要授予精准的操作权限,则按照以下操作进行授权: > > CREATE USER和GRANT语法。 > 创建同步用户 (dts) > CREATE USER dts WITH PASSWORD 'xxx'; > 授权同步用户 (dts) 需要同步的 SCHEMA (public) 权限 > GRANT SELECT,REFERENCES,TRIGGER ON ALL TABLES IN SCHEMA public TO dts; > grant SELECT on ALL SEQUENCES IN SCHEMA public to dts; > grant usage on schema public to dts; > 开启同步用户 (dts) 的 REPLICATION > ALTER USER dts REPLICATION; > grant pgreadallsettings to dts; 6. 创建目标库DTS用户 > 如果仅做测试用,可以直接使用TeleDB的root用户作为迁移用户。 > 如果需要TeleDB的精准迁移权限,可按照如下配置操作: > > CREATE USER dts WITH PASSWORD 'xxx'; > grant usage on schema public to dts; > grant ALL PRIVILEGES ON ALL TABLES IN SCHEMA public TO dts; > grant CREATE on DATABASE public to dts; > grant CREATE on schema public to dts; > > 如果要做增量迁移且迁移的表包含外键,那么除了上述权限外,还要保证该用户具有在会话级别执行SET sessionreplicationrole 'replica'的权限。可登录TeleDB控制台,将该参数设置并重启。 7. 如果需要做增量DDL,则需要手动在源库创建用于增量DDL的元数据结构 > 执行如下语句,创建存储DDL信息的表。勾选增量DDL时,迁移对象中必须包含这张表以及它的序列。 > > DROPTABLE IF EXISTS public.dtsddlinfo; > DROP SEQUENCE IF EXISTS public.dtsddlinfoidseq; > CREATETABLE public.dtsddlinfo( > id bigserial primary key, > ddl text, > username varchar(64) default currentuser, > txid varchar(16) default txidcurrent()::varchar(16), > tag varchar(64), > database varchar(64) default currentdatabase(), > schema varchar(64) default currentschema, > clientaddress varchar(64) default inetclientaddr(), > clientport integer default inetclientport(), > eventtime timestamp default currenttimestamp > ); 8. 执行如下语句,创建函数。 > CREATEOR REPLACE FUNCTION public.dtscaptureddl() > RETURNS eventtrigger > LANGUAGE plpgsql > SECURITY INVOKER > AS $BODY$ > declare ddl text; > declare realnum int; > declare maxnum int:50000; > begin > if (tgtag in('CREATE TABLE','ALTER TABLE','DROP TABLE','CREATE > SEQUENCE','ALTER SEQUENCE','DROP SEQUENCE','CREATE VIEW','ALTER VIEW','DROP VIEW','CREATE INDEX','ALTER INDEX','DROP INDEX')) then > select currentquery()into ddl; > insertinto public.dtsddlinfo(ddl, username, txid, tag, database, schema, clientaddress, clientport, eventtime) > values(ddl, currentuser, cast(txidcurrent()asvarchar(16)), tgtag, > currentdatabase(), currentschema, inetclientaddr(), > inetclientport(), currenttimestamp); > selectcount(id)into realnum from public.dtsddlinfo; > if realnum > maxnum then > if currentsetting('serverversionnum')::int deletefrom public.dtsddlinfo where id public.dtsddlinfo)andnot exists (select0from pglocks l join > pgdatabase d on l.databased.oid where d.datnamecurrentcatalog and pid<>pgbackendpid()and > locktype'relation'and relationtoregclass('public.dtsddlinfopkey')::oid > and mode'RowExclusiveLock'); > else > deletefrom public.dtsddlinfo where id public.dtsddlinfo)and(xmax0or > coalesce(txidstatus(xmax::text::bigint),'')<>'in progress'); > end if; > end if; > end if; > end; > $BODY$; > 将刚创建的函数的所有者修改为DTS连接源库的账号,以postgresql为例。 > > ALTER FUNCTION public.dtscaptureddl() OWNER TO postgres; > 执行下述命令,创建全局事件触发器。 > > CREATE EVENT TRIGGER dtsddlevent ON ddlcommandend EXECUTE PROCEDURE public.dtscaptureddl(); > 执行以下语句,将创建的事件触发器设置为enable。 > > ALTER EVENT TRIGGER dtsddlevent ENABLE ALWAYS; 9. 确认待迁移对象中是否包含触发器 > 如果将触发器作为结构的一部分,在DTS的调度逻辑上,触发器会先于全量迁移被迁移到TeleDB。这样可能会影响到全量迁移,导致数据不一致。 > 建议将触发器放到全量迁移之后,再新建一个迁移任务进行迁移。 10. 数据及业务信息统计 > 如果为非测试任务,需要在迁移之前统计业务以及迁移信息,方便进行迁移任务规划。 资源信息 源库规格信息 例:4C8G + 500G + SSD 目标库磁盘信息 例:4C8G + 500G + SSD 网络情况 例:为测试环境纯内网传输,无复杂的网络拓补结构 数据信息 总数据量 例:30GB 总库表数量 例:40个库,8000张表,2000个视图,5个触发器 每日新增数据量级 例:一天的WAL日志新增大概100GB 是否所有表都有主键 建议迁移前完善主键,提高性能,方便运维。如果存在无主键的表,则增量阶段源端对应表的增、删、改操作不会同步至目标端,可能导致数据不一致,请谨慎评估。 业务类 规划迁移批次 例:规划分3次进行迁移,迁移时间每天晚上20:0006:00,日期为20230918至20230920。实际迁移操作请与数据库全量备份操作错开,以免交叉影响,否则可能会导致备份失败,同时影响迁移效率。 数据迁移是否可停业务 例:能/不能 增量迁移情况 例:开启增量迁移,持续时间5天 可停业务时间长度 例:服务停机时间预计48小时 业务中是否存在百万级别的大事务 例:存在,涉及对表CLOUD.LOGS进行大事务操作,存在一个存储过程用不带where条件的delete语句定期清理该表。 操作步骤 1. 订购DTS数据迁移实例。 2. 进入实例配置页面。 1. DTS实例创建成功后,进入【数据迁移】实例列表页面,上一步骤购买成功的实例在实例列表中显示状态为“待配置”,进入实例配置页面进行配置: 3. 配置源库及目标库信息。 1. 进入实例配置第一个步骤的【配置源库及目标库信息】页面,填入源库与目标库的相关配置信息,包括数据库类型、IP地址端口、数据库账号、数据库密码等信息。 2. 完成上述信息的填写后,单击源数据库和目标数据库的“测试连接”按钮进行数据库连接测试,检查数据库能否正常连接。 4. 配置迁移对象及高级配置。 1. 源库和目标库连通性测试成功后,点下一步按钮,进入实例配置第二个步骤的【配置迁移对象及高级配置】页面,在“源库对象”中选择要迁移的源库对象,包含:库、TABLE、VIEW、FUNCTION等,选中后单击“>”按钮,将待迁移对象移动到“已选择对象”中。 2. 迁移对象配置说明: 配置 说明 任务步骤 如果只需要进行全量迁移,请同时勾选库表结构迁移和全量迁移。 如果需要进行不停机迁移,请同时勾选库表结构迁移、全量迁移和增量迁移。 注意:如果未选择增量迁移,为保障数据一致性,数据迁移期间请勿在源实例中执行DML和DDL操作。 迁移对象 源库为PostgreSQL的情况下,支持表、视图、函数、存储过程、物化视图、规则、触发器,域、自定义类型等对象的迁移。 在迁移对象框中单击待迁移的对象,然后单击将其移动到已选择对象框;已选择对象可以通过单击将对象回退。 选择迁移对象时,如不展开库的详细信息,则表示整库迁移,后续在增量任务过程中,可在源库创建新表,其他类型暂不支持。 映射名称更改 支持库表列三级名称映射,如需更改单个迁移对象在目标实例中的库名、表名和列名,选择对象,然后单击编辑按钮。 如需批量更改迁移对象在目标实例中的库名、表名,请单击已选择对象方框右上方的“批量编辑”。 若迁移任务仅包含结构迁移和全量迁移,支持列映射名称更改,若迁移任务包含增量迁移,不允许列映射名称更改。 库表名仅支持字母、数字和下划线,长度不超过64个字符。 注意:整库迁移时不建议做库表名映射。 过滤待迁移数据 支持设置where条件过滤数据,过滤条件不允许;和字符,如需使用引号,请使用单引号('),只有满足where条件的数据才会迁移到目标库。 增量迁移的DML 选择增量迁移DML操作,选中迁移对象,单击“编辑”,在弹跳框中选择所需增量迁移的DML操作。若在数据库级别和表级别都指定了DML操作,则表级别的设置会覆盖库级别的。 增量迁移的DDL 增量任务可选择是否迁移增量DDL。 是否定时开始任务 可选择任务开始的时间,默认单击开始任务后立即启动迁移任务。 注意 任务中存在整库迁移的情况下,则必须勾选增量DDL同步。 非整库迁移的情况下,若选择DDL同步,则只迁移待迁移对象的DDL语句。 非整库迁移的情况下,若未选择增量DDL同步,则增量阶段不会同步任何DDL语句。 5. 预检查和启动迁移。 完成迁移对象和高级配置后,单击“下一步预检查”,进入实例配置第三个步骤的【预检查】页面。预检查会检查如下列表信息,并给出检查结果,用户可以依据检查结果进行下一步操作。 检查项 检查内容 lcmonetary参数配置一致性检查 检查源库与目标库的lcmonetary参数配置是否一致。 pg版本检查 检查源库和目标库的pg版本是不是符合要求。 同名对象存在性检查 检查目标库中是否存在和待迁移库同名的待迁移对象。 扩展插件兼容性检查 检查源库中安装的扩展插件,在目标库是否存在。 约束完整性检查 检查待迁移对象中子表依赖的父表是否被选中。 检查hotstandbyfeedback参数配置 全量迁移源库pg为备节点时,hotstandbyfeedback参数需配置为ON。 源库用户权限检查 检查源库用于DTS任务的用户是否具有相应的权限。 源库连通性检查 检查数据传输服务器能否连通源数据库。 源数据库的模式名表名是否合法 检查源数据库的模式名表名是否合法,名称不可以包含+"%'<>,.字符。 源库参数wallevel是否为logical 勾选增量迁移时,检查源库wallevel参数值是否为logical。 目标库用户权限检查 检查目标库用于DTS任务的用户是否具有相应的权限。 目标库连通性检查 检查数据传输服务器能否连通目标数据库。 源库参数maxreplicationslots校验 勾选增量迁移时,检查源库maxreplicationslots参数值是否大于当前已使用的复制槽数量。 源库参数maxwalsenders校验 勾选增量迁移时,检查源库maxwalsenders参数值是否大于当前已使用的复制槽数量。 逻辑解码插件安装校验 勾选增量迁移时,检查源库是否安装逻辑解码插件decoderbufs。 待迁移表是否存在主键检查 勾选增量迁移时,检查待迁移表中是否存在无主键的表。 无日志表存在性检查 勾选增量迁移时,检查当前选择的待同步对象中的表是否存在无日志表。 源库主备状态检查 勾选增量迁移时,检查源库是否为集群中的主库。 ddl同步元数据检查 勾选ddl同步时,检查源库是否有ddl同步所需的元数据对象。 如果预检查通过,可单击【预检查】页面底部的启动迁移 按钮,开始迁移任务。或者单击数据迁移 按钮,返回任务列表,列表中的任务将会显示为 未启动 。 9. 勾选该任务,单击 开始任务 ,任务将显示为 运行中 ,直到该任务全量迁移完成,或者处于增量迁移状态。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据传输服务操作指南
        迁移指南
        迁移配置
        将PostgreSQL迁移到TeleDB
      • 文档数据库服务支持的监控指标
        本文主要介绍文档数据库服务支持的监控指标 本节定义了文档数据库服务上报云监控的监控指标的命名空间,监控指标列表和维度定义,用户可以通过云监控提供的API接口来检索文档数据库服务产生的监控指标和告警信息。 命名空间 SYS.DDS 监控指标 DDS推荐的监控指标 指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标) mongo007connectionsusage 当前活动连接数百分比 该指标用于统计试图连接到实例节点的连接数占可用连接数百分比,以百分比为单位。 0~100% 文档数据库集群实例下的mongos节点l 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟5秒 mongo032memusage 内存使用率 该指标用于统计测量对象的内存利用率,以百分比为单位。 0~1 文档数据库集群实例下的mongos节点l 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟5秒 mongo031cpuusage CPU使用率 该指标用于统计测量对象的CPU利用率,以百分比为单位。 0~1 文档数据库集群实例下的mongos节点l 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟5秒 mongo035diskusage 磁盘利用率 该指标用于统计测量对象的磁盘利用率,以百分比为单位。 0~1 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 表 DDS支持的监控指标 指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标) mongo001commandps command执行频率 该指标用于统计平均每秒command语句在节点上执行次数,以次数/秒为单位。 ≥ 0 Executions/s 文档数据库实例 文档数据库集群实例下的mongos节点 文档数据库副本集实例下的只读节点 文档数据库实例下的主节点 文档数据库实例下的备节点 文档数据库实例下的隐藏节点 1分钟5秒 mongo002deleteps delete语句执行频率 该指标用于统计平均每秒delete语句在节点上执行次数,以次数/秒为单位。 ≥ 0 Executions/s 文档数据库实例 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟5秒 mongo003insertps insert语句执行频率 该指标用于统计平均每秒insert语句在节点上执行次数,以次数/秒为单位。 ≥ 0 Executions/s 文档数据库实例 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟5秒 mongo004queryps query语句执行频率 该指标用于统计平均每秒query语句在节点上执行次数,以次数/秒为单位。 ≥ 0 Executions/s 文档数据库实例 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟5秒 mongo005updateps update语句执行频率 该指标用于统计平均每秒update语句在节点上执行次数,以次数/秒为单位。 ≥ 0 Executions/s 文档数据库实例 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟5秒 mongo006getmoreps getmore语句执行频率 该指标用于统计平均每秒getmore语句在节点上执行次数,以次数/秒为单位。 ≥ 0 Executions/s 文档数据库实例 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟5秒 mongo007chunknum1 分片一的chunk数 该指标用于统计分片一的chunk个数,以个数为单位。 0~64 Counts 文档数据库实例 1分钟 mongo007chunknum2 分片二的chunk数 该指标用于统计分片二的chunk个数,以个数为单位。 0~64 Counts 文档数据库实例 1分钟 mongo007chunknum3 分片三的chunk数 该指标用于统计分片三的chunk个数,以个数为单位。 0~64 Counts 文档数据库实例 1分钟 mongo007chunknum4 分片四的chunk数 该指标用于统计分片四的chunk个数,以个数为单位。 0~64 Counts 文档数据库实例 1分钟 mongo007chunknum5 分片五的chunk数 该指标用于统计分片五的chunk个数,以个数为单位。 0~64 Counts 文档数据库实例 1分钟 mongo007chunknum6 分片六的chunk数 该指标用于统计分片六的chunk个数,以个数为单位。 0~64 Counts 文档数据库实例 1分钟 mongo007chunknum7 分片七的chunk数 该指标用于统计分片七的chunk个数,以个数为单位。 0~64 Counts 文档数据库实例 1分钟 mongo007chunknum8 分片八的chunk数 该指标用于统计分片八的chunk个数,以个数为单位。 0~64 Counts 文档数据库实例 1分钟 mongo007chunknum9 分片九的chunk数 该指标用于统计分片九的chunk个数,以个数为单位。 0~64 Counts 文档数据库实例 1分钟 mongo007chunknum10 分片十的chunk数 该指标用于统计分片十的chunk个数,以个数为单位。 0~64 Counts 文档数据库实例 1分钟 mongo007chunknum11 分片十一的chunk数 该指标用于统计分片十一的chunk个数,以个数为单位。 0~64 Counts 文档数据库实例 1分钟 mongo007chunknum12 分片十二的chunk数 该指标用于统计分片十二的chunk个数,以个数为单位。 0~64 Counts 文档数据库实例 1分钟 mongo008connections 实例当前活动连接数 该指标用于统计试图连接到DDS实例的总连接数,以个数为单位。 0~200 Counts 文档数据库实例 1分钟 mongo009migFailnum 过去一天块迁移的失败次数 该指标用于统计过去一天中块迁移失败的次数,以次数为单位。 ≥ 0 Counts 文档数据库实例 1分钟 mongo007connections 当前活动连接数 该指标用于统计试图连接到DDS实例节点的总连接数,以个数为单位。 0~200 Counts 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟5秒 mongo007connectionsusage 当前活动连接数百分比 该指标用于统计试图连接到实例节点的连接数占可用连接数百分比,以百分比为单位。 0~100% 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟5秒 mongo008memresident 驻留内存 该指标用于统计当前驻留内存的大小,以兆字节为单位。 ≥ 0 MB 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo009memvirtual 虚拟内存 该指标用于统计当前虚拟内存的大小,以兆字节为单位。 ≥ 0 MB 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo010regularassertsps 常规断言频率 该指标用于统计常规断言频率,以次数/秒为单位。 ≥ 0 Executions/s 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo011warningassertsps 警告频率 该指标用于统计警告频率,以次数/秒为单位。 ≥ 0 Executions/s 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo012msgassertsps 消息断言频率 该指标用于统计消息断言频率,以次数/秒为单位。 ≥ 0 Executions/s 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo013userassertsps 用户断言频率 该指标用于统计用户断言频率,以次数/秒为单位。 ≥ 0 Executions/s 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo014queuestotal 等待锁的操作数 该指标用于统计当前等待锁的操作数,以个数为单位。 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo015queuesreaders 等待读锁的操作数 该指标用于统计当前等待读锁的操作数,以个数为单位。 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo016queueswriters 等待写锁的操作数 该指标用于统计当前等待写锁的操作数,以个数为单位。 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo017pagefaults 缺页错误数 该指标用于统计当前节点上的缺页错误数,以个数为单位。 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo018porflingnum 慢查询数 该指标用于统计当前节点上的慢查询数,以个数为单位。 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 5分钟 mongo019cursorsopen 当前维护游标数 该指标用于统计当前节点上的维护游标数,以个数为单位。 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo020cursorstimeOut 服务超时游标数 该指标用于统计当前节点上的服务超时游标数,以个数为单位。 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo021wtcaheusage 内存中数据量(WiredTiger引擎) 该指标用于统计当前内存中数据量(WiredTiger引擎),以兆字节为单位。 ≥ 0 MB 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo022wtcahedirty 内存中脏数据量(WiredTiger引擎) 该指标用于统计当前内存中脏数据量(WiredTiger引擎),以兆字节为单位。 ≥ 0 MB 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo023wIntowtCache 写入WiredTiger内存的频率 该指标用于统计当前内存中写入频率(WiredTiger引擎),字节/秒为单位。 ≥ 0 Bytes/s 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo024wFromwtCache 从WiredTiger内存写入磁盘频率 该指标用于统计当前内存写入磁盘频率(WiredTiger引擎),字节/秒为单位。 ≥ 0 Bytes/s 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo025reploplogwin 主节点的Oplog中可用时间 该指标用于统计当前实例下的主节点的Oplog中可用时间,以小时为单位。 ≥ 0 Hours 文档数据库实例下的主节点 1分钟 mongo026oplogsizeph 主节点生成Oplog的速率 该指标用于统计当前实例下的主节点生成Oplog的速率,以兆字节/小时为单位。 ≥ 0 MB/Hour 文档数据库实例下的主节点 1分钟 mongo025replheadroom 主备Oplog重叠时长 该指标用于统计实例下的主节点和Secondary节点之间Oplog重叠时长,以秒为单位。 ≥ 0 Seconds 文档数据库实例下的备节点 1分钟 mongo026repllag 主备延时 该指标用于统计实例下的主节点和Secondary节点之间的复制延时,以秒为单位。 ≥ 0 Seconds 文档数据库实例下的备节点 1分钟 mongo027replcommandps 备节点复制的command执行频率 该指标用于统计平均每秒Secondary节点复制的command语句执行次数,以次/秒为单位。 ≥ 0 Executions/s 文档数据库实例下的备节点 1分钟 mongo028replupdateps 备节点复制的update语句执行频率 该指标用于统计平均每秒Secondary节点复制的update语句执行次数,以次/秒为单位。 ≥ 0 Executions/s 文档数据库实例下的备节点 1分钟 mongo029repldeleteps 备节点复制的delete语句执行频率 该指标用于统计平均每秒Secondary节点复制的delete语句执行次数,以次/秒为单位。 ≥ 0 Executions/s 文档数据库实例下的备节点 1分钟 mongo030replinsertps 备节点复制的insert语句执行频率 该指标用于统计平均每秒Secondary节点复制的insert语句执行次数,以次/秒为单位。 ≥ 0 Executions/s 文档数据库实例下的备节点 1分钟 mongo031cpuusage CPU使用率 该指标用于统计测量对象的CPU利用率,以百分比为单位。 0~1 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟5秒 mongo032memusage 内存使用率 该指标用于统计测量对象的内存利用率,以百分比为单位。 0~1 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟5秒 mongo033bytesout 网络输出吞吐量 该指标用于统计平均每秒从测量对象的所有网络适配器输出的流量,以字节/秒为单位。 ≥ 0 Bytes/s 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟5秒 mongo034bytesin 网络输入吞吐量 该指标用于统计平均每秒从测量对象的所有网络适配器输入的流量,以字节/秒为单位。 ≥ 0 Bytes/s 文档数据库集群实例下的mongos节点 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟5秒 mongo035diskusage 磁盘利用率 该指标用于统计测量对象的磁盘利用率,以百分比为单位。 0~1 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo036iops IOPS 该指标用于统计当前实例节点,单位时间内系统处理的I/O请求数量(平均值),以请求/秒为单位。 ≥ 0 Counts/s 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo037readthroughput 硬盘读吞吐量 硬盘平均每秒读字节数,以字节/秒为单位。 ≥ 0 Bytes/s 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo038writethroughput 硬盘写吞吐量 硬盘平均每秒写字节数,以字节/秒为单位。 ≥ 0 bytes/s 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo039avgdisksecperread 硬盘读耗时 该指标用于统计某段时间平均每次读取硬盘所耗时间,以秒为单位。 ≥ 0 Seconds 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo040avgdisksecperwrite 硬盘写耗时 该指标用于统计某段时间平均每次写入硬盘所耗时间,以秒为单位。 ≥ 0 Seconds 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo042disktotalsize 磁盘总大小 该指标用于统计测量对象的磁盘总大小,以吉字节为单位。 0~1000 GB 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo043diskusedsize 磁盘使用量 该指标用于统计测量对象的磁盘已使用总大小,以吉字节为单位。 0~1000 GB 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo044swapusage SWAP利用率 交换内存SWAP使用率百分数,以百分比为单位。 0~1 文档数据库集群实例下的mongos节点 文档数据库实例下的备节点 1分钟 mongo050toptotaltime 集合花费的总时间 Mongotoptotal time指标,集合操作花费的时间总和,以毫秒为单位。 ≥ 0 Milliseconds 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo051topreadtime 集合读花费的总时间 Mongotopread time指标,集合读操作花费的时间总和,以毫秒为单位。 ≥ 0 Milliseconds 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo052topwritetime 集合写花费的总时间 Mongotopwrite time指标,集合写操作花费的时间总和,以毫秒为单位。 ≥ 0 Milliseconds 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo053wtflushesstatus 周期Checkpoint的触发次数 WiredTiger一个轮询间隔期间checkpoint的触发次数,记录周期内发生的次数单位。 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo054wtcacheusedpercent Wiredtiger使用中的缓存百分比 Wiredtiger使用中的缓存大小百分数,以百分比为单位。 0~1 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo055wtcachedirtypercent Wiredtiger脏数据的缓存百分比 Wiredtiger脏数据的缓存大小百分数,以百分比为单位。 0~1 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo070rocksactivememtable memtable中的数据大小 采集当前活动memtable中的数据大小 0~100 GB 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo071rocksoplogcfactivememtable oplogcf上memtable中的数据大小 采集当前用于oplogcf上活动memtable中的数据大小 0~100 GB 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo072rocksallmemtable memtable和immutablemem中的总数据大小 采集当前memtable和immutablemem中的总数据大小 0~100 GB 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo073rocksoplogcfallmemtable oplogcf上memtable和immutablemem中的总数据大小 采集当前用于oplogcf上memtable和immutablemem中的总数据大小 0~100 GB 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo074rockssnapshots 未释放的snapshot的数量 采集当前未释放的snapshot的数量 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo075rocksoplogcfsnapshots oplogcf上未释放的snapshot的数量 采集当前oplogcf上未释放的snapshot的数量 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo076rocksliveversions 活动的版本数量 采集当前活动的版本数量 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo077rocksoplogcfliveversions oplogcf上活动的版本数量 采集当前oplogcf上活动的版本数量 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo078rocksblockcache 驻留在blockcache中的数据大小 采集当前驻留在blockcache中的数据大小 0~100 GB 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo079rocksbackgrounderrors 后台累积错误数量 采集记录后台累积错误数量 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo080rocksoplogcfbackgrounderrors oplogcf上后台累积错误数量 采集记录oplogcf上后台累积错误数量 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo081rocksconflictbytesusage 事务写写冲突处理缓冲区使用率 采集事务写中写冲突处理缓冲区使用率 0~1 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo082rocksuncommittedkeys 未提交的key的数量 采集当前未提交的key的数量 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo083rockscommittedkeys 提交的key的数量 采集当前已提交的key的数量 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo084rocksalivetxn 活跃事务链表的长度 采集记录活跃事务链表的长度 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo085rocksreadqueue 读队列的长度 采集当前读队列的长度 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo086rockscommitqueue 提交队列的长度 采集当前提交队列的长度 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo087rocksctwriteout 已使用并发写事务数 采集当前已使用并发写事务数 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo088rocksctwriteavailable 剩余可用并发写事务数 采集当前剩余可用并发写事务数 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo089rocksctreadout 已使用并发读事务数 采集当前已使用并发读事务数 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo090rocksctreadavailable 剩余可用并发读事务数 采集当前剩余可用并发读事务数 ≥ 0 Counts 文档数据库实例下的主节点 文档数据库实例下的备节点 1分钟 mongo091activesessioncount 周期活跃会话数 该指标用于统计自上次刷新周期以来Mongo实例在内存中缓存的所有活跃本地会话的数目 ≥ 0 Counts 文档数据库实例l 文档数据库副本集实例下的只读节点 文档数据库实例下的主节点 文档数据库实例下的备节点 文档数据库实例下的隐藏节点 1分钟 说明 指标ID中含有“rocks”的监控指标均用于监测4.2版本的实例或实例节点。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        监控与告警
        文档数据库服务支持的监控指标
      • 合理配置写入参数来提升数据安全
        本页介绍了 WriteConcern 的概念以及如何使用 WriteConcern 提升数据安全。 文档数据库服务实例采用多副本存储数据,其中一个副本的角色是 primary 接受数据写入,其他节点通过 oplog 同步数据变更。 如果 primary 节点在成功写入数据后就宕机了,但是数据还没有被其他 secondary 节点同步。此时后台会重新选举一个正常的 secondary节点为新 primary 节点,但是这个新 primary 节点不包含最新写入的数据。而原 primary 节点在修复完成并重新加入到副本集之后会成为 secondary 节点,之前最新写入的数据会进行 rollback。 为了避免 primary 节点意外宕机导致部分数据被回滚的情况,用户可以指定 write concern 设置写入级别,指定数据成功复制到多少个节点之后再返回。 Write concern 指定的格式如下: { w: , j: , wtimeout: } 其中 w 指定了数据成功复制到多少个 mongod 节点之后再返回结果给客户端(包含 primary 节点自己),常用的配置包括: 数字。比如 0、1 等。 "majority"。服务端会根据副本集当前有投票权的节点个数自动计算大多数节点的个数,比如 3 个 mongod 节点的副本集,每个 mongod 节点默认都有投票权限,则 "majority" 个数为 2。 参数 j 表示是否后台写完 journal 再返回成功,可以指定为 true 或者 false。如果 w 指定了 “majority”,则默认 j 为 true。 wtimeout 表示操作的执行超时,以毫秒为单位,在 w 大于 1 时生效。 对于 3 副本的节点,建议 w 指定为 "majority",并根据业务的实际需求指定 wtimeout。这样可以避免主节点在意外宕机后出现的部分数据丢失,通过能兼顾较好的可用性。使用示例如下: db.coll.insert({a:1}, {writeConcern: {w: "majority", wtimeout: 1000}})
        来自:
        帮助文档
        文档数据库服务
        最佳实践
        合理配置写入参数来提升数据安全
      • 使用Nginx实现公网访问Redis 4.0/5.0的单机主备Proxy集群实例
        本章节主要介绍通过跳板机访问VPC内Redis 4.0/5.0单机、主备、Proxy集群实例的操作,Redis 4.0/5.0 Cluster集群实例暂不支持使用该方案进行公网访问。 方案正文 当前,天翼云DCS的Redis 4.0以及Redis 5.0版本不支持绑定弹性IP,无法通过公网访问。 下图中安装了Nginx代理工具的ECS就是一台跳板机,它与DCS Redis实例在相同VPC,可通过子网IP访问Redis实例;为ECS绑定弹性IP后,公网可以访问ECS;Nginx支持监听多个端口,并将请求内容转发到不同的后端Redis实例。 图 通过Nginx访问VPC内DCS Redis 购买一台ECS 1.确认Redis实例所在的虚拟私有云。 如下图所示,已购买一个虚拟私有云在“vpcdemo”内的Redis 4.0/Redis 5.0主备实例。 图 Redis缓存实例信息 2.购买一台同在“vpcdemo”的ECS,并为其绑定一个弹性公网IP,按需选择带宽,够用就好。 图 ECS信息 安装Nginx 1.购买ECS后,需要在ECS上安装Nginx,本文以ECS操作系统为Centos7.x为例进行安装,不同操作系统命令稍有不同。 2.执行以下命令,添加Nginx到yum源。 sudo rpm Uvh 3.添加完之后,执行以下命令,查看是否已经添加成功。 yum search nginx 4.添加成功之后,执行以下命令,安装Nginx。 sudo yum install y nginx 5.执行以下命令安装stream模块。 yum install nginxmodstream 6.启动Nginx并设置为开机自动运行。 sudo systemctl start nginx.service sudo systemctl enable nginx.service 7.在本地浏览器中输入服务器地址(ECS公网IP地址),查看安装是否成功。 如果出现下面页面,则表示安装成功。
        来自:
        帮助文档
        分布式缓存服务Redis版
        最佳实践
        使用Nginx实现公网访问Redis 4.0/5.0的单机主备Proxy集群实例
      • 中国电信天翼云对象存储服务协议
        本节主要介绍OBS服务协议。 自2021年11月11日起,新版对象存储服务协议生效,详情请参见这里。 中国电信天翼对象存储系统服务协议 历史版本(2012年11月10日)
        来自:
        帮助文档
        对象存储 OBS
        相关协议
        中国电信天翼云对象存储服务协议
      • 1
      • ...
      • 183
      • 184
      • 185
      • 186
      • 187
      • ...
      • 197
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      镜像服务 IMS

      天翼云CTyunOS系统

      AI Store

      公共算力服务

      应用托管

      人脸检测

      人脸实名认证

      推荐文档

      复制

      常见问题

      首页

      全面了解天翼云④:redis 修改端口及设置密码

      删除手动备份

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号