云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      新域名服务_相关内容
      • 弹性伸缩概述
        弹性伸缩是根据业务需求和策略,经济地自动调整弹性计算资源的管理服务。 背景介绍 随着Kubernetes已经成为云原生应用编排、管理的事实标准,越来越多的应用选择向Kubernetes迁移,用户也越来越关心在Kubernetes上应用如何快速扩容面对业务高峰,以及如何在业务低谷时快速缩容节约资源与成本。 在Kubernetes的集群中,“弹性伸缩”一般涉及到扩缩容Pod个数以及Node个数。Pod代表应用的实例数(每个Pod包含一个或多个容器),当业务高峰的时候需要扩容应用的实例个数。所有的Pod都是运行在某一个节点(虚拟机)上,当集群中没有足够多的节点来调度新扩容的Pod,那么就需要为集群增加节点,从而保证业务能够正常提供服务。 弹性伸缩在CCE上的使用场景非常广泛,典型的场景包含在线业务弹性、大规模计算训练、深度学习GPU或共享GPU的训练与推理、定时周期性负载变化等。 弹性伸缩分为如下两个维度: 工作负载弹性伸缩:即调度层弹性,主要是负责修改负载的调度容量变化。例如,HPA是典型的调度层弹性组件,通过HPA可以调整应用的副本数,调整的副本数会改变当前负载占用的调度容量,从而实现调度层的伸缩。 集群/节点弹性伸缩:即资源层弹性,主要是集群的容量规划不能满足集群调度容量时,会通过弹出ECS等资源的方式进行调度容量的补充。 两个维度的弹性组件与能力可以分开使用,也可以结合在一起使用,并且两者之间可以通过调度层面的容量状态进行解耦。 CCE弹性伸缩组件介绍 CCE支持的两种弹性伸缩对比 表CCE支持的两种弹性伸缩对比 弹性伸缩 基于Kubernetes插件实现(推荐) 基于AOM服务实现 实现方式 基于CCE提供的插件ccehpacontroller实现工作负载弹性伸缩 基于CCE提供的插件autoscaler实现节点弹性伸缩 基于AOM服务实现弹性伸缩,伸缩指标和触发伸缩均由AOM服务提供 使用入口 工作负载伸缩 1. 在CCE左侧导航栏中选择“弹性伸缩”,进入“工作负载伸缩”。 2. 在左侧导航栏中选择“工作负载 > 无状态负载 Deployment/有状态负载 StatefulSet”,进入工作负载详情页,在“伸缩”页签下“弹性伸缩 HPA”。 节点伸缩 在CCE左侧导航栏中选择“弹性伸缩”,进入“节点伸缩”。 工作负载伸缩 在CCE左侧导航栏中选择“工作负载 > 无状态负载 Deployment/有状态负载 StatefulSet”,单击工作负载名称进入工作负载详情页,在“伸缩”页签下选择“弹性伸缩 AOM”。详情请参见弹性伸缩AOM。 节点扩容 在CCE左侧导航栏中选择“资源管理 > 集群管理”,进入集群详情页,选择“弹性扩容”页签。详情请参见集群弹性扩容。 约束与限制 请在使用的集群中安装对应的插件,详情请参见“创建工作负载弹性伸缩(HPA)”、“创建节点伸缩策略”。 节点伸缩仅针对节点池下的节点,使用弹性伸缩的节点池需开启弹性扩缩容功能(在创建/编辑节点池时指定)。 当前区域的AOM服务支持伸缩功能,并且CCE集群版本低于v1.17。 使用须知 支持监控指标伸缩和定时伸缩两种策略的负载伸缩。 支持调度扩容(在负载实例无法调度时自动从节点池中扩容节点)、监控指标扩容、定时扩容三种节点扩容策略。 节点缩容仅支持资源分配率缩容机制,当集群下CPU和内存分配率低于用户设置的门限(在安装/编辑autoscaler时设置)时将对节点池下节点启动缩容(该功能可以关闭)。 defaultpool仅用于兼容非节点池创建的节点。 支持监控指标伸缩和定时伸缩两种策略的负载伸缩。 支持监控指标和定时两种策略的节点扩容,不支持节点缩容。 节点仅支持设置一个节点配置(在集群详情页的“弹性扩容”页签下进行设置),且节点模板支持的节点可配参数较少。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        弹性伸缩
        弹性伸缩概述
      • 入门实践
        实践 描述 漏洞修复 2020年4月15日,Git发布安全通告公布了一个导致Git用户凭证泄露的漏洞(CVE20205260)。Git使用凭证助手(credential helper)来帮助用户存储和检索凭证。当URL中包含经过编码的换行符(%0a)时,可能将非预期的值注入到credential helper的协议流中。受影响Git版本对恶意URL执行git clone命令时,会触发此漏洞,攻击者可利用恶意URL欺骗Git客户端发送主机凭据。 本实践介绍通过HSS检测与修复该漏洞的建议。 漏洞修复 Saltstack是基于python开发的一套C/S自动化运维工具,国外安全研究人员披露其中存在身份验证绕过漏洞(CVE202011651)和目录遍历漏洞(CVE202011652)漏洞,攻击者利用这些漏洞可实现远程命令执行、读取服务器上任意文件、获取敏感信息等。 本实践介绍通过HSS检测与修复这些漏洞的建议。 漏洞修复 OpenSSL安全公告称存在一个影响OpenSSL 1.1.1d、OpenSSL 1.1.1e、OpenSSL 1.1.1f的高危漏洞(CVE20201967),该漏洞可被用于发起DDoS攻击。 本实践介绍通过HSS检测与修复该漏洞的建议。 漏洞修复 当Windows Adobe Type Manager库未正确处理经特殊设计的多主机Adobe Type 1 PostScript格式字体时,Microsoft Windows中存在远程代码执行漏洞。对于除Windows 10之外的所有系统,成功利用此漏洞的攻击者可以远程执行代码。对于运行Windows 10的系统,成功利用此漏洞的攻击者可以利用受限的特权和功能在AppContainer沙盒上下文中执行代码。攻击者可随后安装程序;查看、更改或删除数据;或者创建拥有完全用户权限的新帐户。 本实践介绍通过HSS检测与修复该漏洞的建议。 漏洞修复 Windows内核处理内存中对象的方式中存在特权提升漏洞,成功利用此漏洞的攻击者可能会利用提升的特权执行代码。 本实践介绍通过HSS检测与修复该漏洞的建议。 漏洞修复 Windows CryptoAPI欺骗漏洞(CVE20200601)影响CryptoAPI椭圆曲线密码(ECC)证书检测机制,致使攻击者可以破坏Windows验证加密信任的过程,并可以导致远程代码执行。 本实践介绍通过HSS检测与修复该漏洞的建议。 勒索病毒防护 勒索病毒攻击已成为当今企业面临的最大安全挑战之一。攻击者利用勒索病毒加密锁定受害者的数据或资产设备,并要求受害者支付赎金后才解锁数据,也存在即使受害者支付赎金也无法赎回数据情况。 为了预防勒索病毒攻击,避免被勒索面临巨大的经济损失风险,您可以使用“HSS+CBR”组合为服务器做好“事前、事中、事后”的勒索病毒防护。
        来自:
        帮助文档
        企业主机安全
        快速入门
        入门实践
      • 导入对称密钥材料
        限制条件 AES256类型的CMK需导入256位对称密钥作为密钥材料。 从KMS获取到的导入令牌与加密密钥材料的公钥具有绑定关系,一个令牌只能为其生成时指定的主密钥导入密钥材料。导入令牌的有效期为24小时,在有效期内可以重复使用,失效以后需要获取新的导入令牌和加密公钥。 操作步骤导入密钥材料 1. 创建用户主密钥,其中密钥材料来源 选择“外部”并勾选“我了解使用外部密钥材料的方法和意义”。 2. 获取导入密钥材料参数。 1. 在密钥列表,单击“密钥ID”,进入“密钥详情”,在密钥材料区域,单击获取导入密钥材料参数。 2. 在获取导入密钥材料参数对话框,选择“公钥类型”、“加密算法”,单击“确定”。 配置项说明: 配置项 说明 公钥类型 取值:RSA2048(默认) 加密算法 取值: RSAESPKCS1V15 RSAESOAEPSHA1 RSAESOAEPSHA256 3. 在获取导入密钥材料参数对话框,下载“加密公钥”和“导入令牌”,然后单击“确定”。 注意 导入令牌存在过期时间,请关注过期时间,及时进行导入。 3. 使用OPENSSL加密密钥材料。 加密公钥是一个2048比特的RSA公钥,使用的加密算法需要与获取导入密钥材料参数时指定的一致。由于加密公钥经过Base64编码,因此在使用时需要先进行Base64解码。 您可以通过OPENSSL加密公钥,您可通过以下步骤获取加密的密钥材料。 1. 创建一个密钥材料,使用OPENSSL产生一个32字节的随机数。 2. 将加密公钥进行Base64解码。 3. 根据指定的加密算法(以RSAESOAEPSHA1为例)加密密钥材料。 4. 将加密后的密钥材料进行Base64编码,保存为文本文件。 代码示例: plaintext openssl rand out KeyMaterial.bin 32 openssl enc d base64 A in PublicKeybase64.txt out PublicKey.bin openssl rsautl encrypt in KeyMaterial.bin oaep inkey PublicKey.bin  keyform DER  pubin out EncryptedKeyMaterial.bin openssl enc e base64 A in EncryptedKeyMaterial.bin out EncryptedKeyMaterialbase64.txt 采用OpenSSL加密密钥材料,支持RSAESOAEPSH A256、RSAESPKCS1V1 5 和RSAESOAEPSH A1 三种密钥算法。 命令代码示例如下表所示: 密钥算法 OpenSSL加密生成密钥材料命令代码示例 RSAESOAEPSHA256 plaintext openssl pkeyutl in PlaintextKeyMaterial.bin inkey PublicKey.bin out EncryptedKeyMaterial.bin keyform der pubin –encrypt pkeyopt rsapaddingmode:oaep pkeyopt rsaoaepmd:sha256 RSAESPKCS1V15 plaintext openssl rsautl –encrypt in PlaintextKeyMaterial.bin –pkcs inkey PublicKey.bin keyform der –pubin out EncryptedKeyMaterial.bin RSAESOAEPSHA1 plaintext openssl rsautl encrypt in KeyMaterial.bin oaep inkey PublicKey.bin keyform DER pubin out EncryptedKeyMaterial.bin 4. 导入密钥材料。 1. 在密钥列表,在密钥列表,单击“密钥ID” ,进入“密钥详情”,在“密钥管理材料区域”,单击导入密钥材料。 2. 在导入密钥材料对话框,上传加密密钥材料 和导入令牌, 单击确定 。 3. 设置密钥材料过期时间,单击“确定”。导入密钥材料成功后,密钥状态从待导入更新为“启用中”。
        来自:
        帮助文档
        密钥管理
        用户指南
        密钥管理
        导入对称密钥材料
      • 功能清单
        功能名称 功能描述 发布区域 存储库为用户保存备份数据,使用云主机备份时需要先购买存储库。存储库管理介绍了存储库的基本操作,包括支持查看存储库详情、筛选和搜索存储库、扩容存储库、存储库绑定备份策略、存储库解绑备份策略、删除/退订存储库。 上海7/上海36/杭州2/合肥2/南京3/华东1/南昌5/杭州7/福州3/福州4/福州25/佛山3/广州6/南宁23/郴州2/长沙3/海口2/武汉41/长沙42/华南2/西安4/西安5/中卫2(仅省内可见)/乌鲁木齐27/中卫5/西安7/庆阳2/乌鲁木齐7/重庆2/成都4/昆明2/拉萨3/西南1/西南2贵州/青岛20/北京5/晋中/石家庄20/内蒙6/华北2/辽阳1/郑州5/太原4/呼和浩特3 备份管理支持查看、删除备份。 上海7/上海36/杭州2/合肥2/南京3/华东1/南昌5/杭州7/福州3/福州4/福州25/佛山3/广州6/南宁23/郴州2/长沙3/海口2/武汉41/长沙42/华南2/西安4/西安5/中卫2(仅省内可见)/乌鲁木齐27/中卫5/西安7/庆阳2/乌鲁木齐7/重庆2/成都4/昆明2/拉萨3/西南1/西南2贵州/青岛20/北京5/晋中/石家庄20/内蒙6/华北2/辽阳1/郑州5/太原4/呼和浩特3 策略管理介绍了云主机通过绑定策略,支持自定义定时完成云主机备份任务。策略管理支持绑定存储库、启用、停用、绑定云主机和设置保留策略等功能。 上海7/上海36/杭州2/合肥2/南京3/华东1/南昌5/杭州7/福州3/福州4/福州25/佛山3/广州6/南宁23/郴州2/长沙3/海口2/武汉41/长沙42/华南2/西安4/西安5/中卫2(仅省内可见)/乌鲁木齐27/中卫5/西安7/庆阳2/乌鲁木齐7/重庆2/成都4/昆明2/拉萨3/西南1/西南2贵州/青岛20/北京5/晋中/石家庄20/内蒙6/华北2/辽阳1/郑州5/太原4/呼和浩特3 数据恢复介绍了云主机备份支持恢复数据到原备份云主机和通过备份申请新的云主机。 上海7/上海36/杭州2/合肥2/南京3/华东1/南昌5/杭州7/福州3/福州4/福州25/佛山3/广州6/南宁23/郴州2/长沙3/海口2/武汉41/长沙42/华南2/西安4/西安5/中卫2(仅省内可见)/乌鲁木齐27/中卫5/西安7/庆阳2/乌鲁木齐7/重庆2/成都4/昆明2/拉萨3/西南1/西南2贵州/青岛20/北京5/晋中/石家庄20/内蒙6/华北2/辽阳1/郑州5/太原4/呼和浩特3 云主机备份支持的监控指标,包括存储库使用量、存储库使用率。不仅可以对存储库的指标进行监控,还提供了事件监控供您使用。 长沙3/郴州2/福州3/福州25/重庆2/上海7/内蒙6/拉萨3/福州4/北京5/杭州2/南京3/海口2/西安4/西安5/西安7/成都4/晋中/昆明2/合肥2/广州6/石家庄20/辽阳1/武汉41/乌鲁木齐4/乌鲁木齐7/乌鲁木齐27/中卫5/南宁23/佛山3/华东1/华北2/长沙42/南昌5/华南2/郑州5/庆阳2/呼和浩特3/上海36/西南1/西南2贵州/太原4/杭州7
        来自:
        帮助文档
        云主机备份 CSBS
        产品简介
        功能清单
      • 图片裁剪
        本文介绍图片裁剪具体使用参数及示例。 开通图片处理后,客户可通过URL请求中携带图片裁剪参数,裁剪原图中指定位置的内容并生成新的图片。 注意 图片处理为付费服务,目前处于公测期间,暂不收取费用,收费时间另行通知。 居中裁剪:从图片居中部分裁剪指定宽和高的图片内容。宽的起点(图片总宽w)/2,高的起点(图片总高h)/2,找到该原点,然后裁剪宽×高大小的图片内容。 指定X、Y轴裁剪:按指定x、y、宽和高裁剪,以x和y为起点,裁剪宽×高大小的图片内容。 九宫格裁剪:设置原点位置,原点按九宫格分布,横向以w指示的宽度向右裁剪,纵向以h指示的高度向下裁剪,裁剪宽×高大小的图片内容。 参数说明及示例 参数名称:cut。 支持的参数值说明如下: 参数类型 参数 说明 取值范围 :::: 裁剪类型 mid 居中裁剪参数,需与参数w、h一起使用。 无。 裁剪类型 x 指定X、Y轴裁剪参数,指定裁剪起点横坐标,需与参数y、w、h一起使用,必填。 不能超出原图宽度,如x超出原图宽,将会返回原图。 裁剪类型 y 指定X、Y轴裁剪参数,指定裁剪起点纵坐标,需与参数x、w、h一起使用,必填。 不能超出原图高度,如y超出原图高,将会返回原图。 裁剪类型 g 九宫格裁剪参数,设置裁剪的原点位置。原点按照九宫格的形式分布,一共有九个位置可以设置,为每个九宫格的左上角顶点。 需与参数w、h一起使用。 NW:左上。 N:中上。 NE:右上。 W:左中。 M:中部。 E:右中。 SW:左下。 S:中下。 SE:右下。 超出上述值,裁剪不生效,将会返回原图。 裁剪宽和高 w 指定从原点开始向右的裁剪宽度。与居中裁剪、指定X、Y轴裁剪、九宫格裁剪参数一起使用。 不能超出原图宽度,如w超出原图宽,将会按照对应的宽最大值处理。 裁剪宽和高 h 指定从原点开始向下的裁剪高度。与居中裁剪、指定X、Y轴裁剪、九宫格裁剪参数一起使用。 不能超出原图高度,如h超出原图高,将会按照对应的高最大值处理。 操作方式说明及示例如下: 裁剪类型 说明 参数示例 居中裁剪 参数为mid、w、h,从图片居中部分裁剪指定宽和高的图片内容。宽的起点(图片总宽w)/2,高的起点(图片总高h)/2,找到该原点,然后裁剪宽(w)×高(h)大小的图片内容。 从图片居中部分裁剪指定宽和高的图片内容。宽的起点(图片总宽w)/2,高的起点(图片总高h)/2,找到该原点,然后向右向下裁剪400×200大小的图片内容。 指定X、Y轴裁剪 参数为x、y、w、h,按指定x、y、宽(w)和高(h)裁剪,以x和y为起点,裁剪宽(w)×高(h)大小的图片内容。注意:x、y值必填,否则会返回原图。 指定X、Y轴剪切:按x为10,y为10的位置为指定原点,向右向下裁剪400×200的图片内容。 九宫格裁剪 参数为g、w、h,设置原点位置,原点按九宫格分布,横向以w指示的宽度向右裁剪,纵向以h指示的高度向下裁剪,裁剪宽×高大小的图片内容。 九宫格切:设置原点位置为九宫格左上位置,横向向右以w指示的400宽度裁切,纵向向下以h指示的高度200裁切,裁剪400×200大小的图片内容。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        文件处理
        图片处理
        图片裁剪
      • 翼MapReduce MRS支持的事件列表
        翼MapReduce(翼MR)是一种基于云计算平台的数据处理分析服务,打造了高可靠、高安全、易使用的运行维护平台,对外提供大容量数据的存储和分析能力,可解决用户实时性要求不高的海量数据存储和处理需求,可以独立申请和使用托管Hadoop、Spark、HBase和Hive组件。 支持的事件列表如下: 事件名称 事件ID 事件级别 事件说明 处理建议 事件影响 DBServer主备倒换 dbServerSwitchover 次要 DBServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致。 连续触发主备倒换可能影响Hive服务正常使用,导致Hive服务不可用。 Flume Channel溢出 flumeChannelOverflow 次要 Flume Channel溢出 确认flume的channel配置是否合理,业务量是否有突增。 Flume任务无法正常写入数据到后端。 NameNode主备倒换 namenodeSwitchover 次要 NameNode主备倒换 主备倒换需要和运维人员确认是否为正常操作导致。 连续触发主备倒换可能影响HDFS服务正常使用,读写HDFS文件可能失败。 ResourceManager主备倒换 resourceManagerSwitchover 次要 ResourceManager主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Yarn服务正常使用,导致任务出现异常甚至失败 JobHistoryServer主备倒换 jobHistoryServerSwitchover 次要 JobHistoryServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响MapReduce服务正常使用,导致任务日志读取异常 HMaster主备倒换 hmasterFailover 次要 HMaster主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响HBase服务正常使用 Hue发生主备切换 hueFailover 次要 Hue发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 主备倒换可能影响HUE服务正常使用,导致页面无法使用等问题 Impala HaProxy服务发生主备切换 impalaHaProxyFailover 次要 Impala HaProxy服务发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Impala服务正常使用 Impala StateStoreCatalog服务发生主备切换 impalaStateStoreCatalogFailover 次要 Impala StateStoreCatalog服务发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Impala服务正常使用 LdapServer主备倒换 ldapServerFailover 次要 LdapServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响LdapServer服务正常使用 Loader主备倒换 loaderSwitchover 次要 Loader主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 主备倒换可能影响Loader服务正常使用 Manager主备倒换 managerSwitchover 提示 Manager主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 Manager主备倒换可能导致Manager页面无法正常访问,部分监控可能出现异常数值 作业执行失败 jobRunningFailed 提示 作业执行失败 查看作业管理页面,确认失败任务是否有异常 作业执行过程出现失败 作业被终止 jobkilled 提示 作业被终止 确认任务是否人为下发终止命令 作业执行过程被终止 Oozie工作流执行失败 oozieWorkflowExecutionFailure 次要 Oozie工作流执行失败 查看Oozie日志,确认任务失败原因 Oozie工作流执行失败 Oozie定时任务执行失败 oozieScheduledJobExecutionFailure 次要 Oozie定时任务执行失败 查看Oozie日志,确认任务失败原因 Oozie定时任务执行失败 ClickHouse服务不可用 clickHouseServiceUnavailable 紧急 ClickHouse服务不可用 请参考《MapReduce服务用户指南》的“ALM45425 ClickHouse服务不可用”章节。 ClickHouse服务异常,无法通过FusionInsight Manager对ClickHouse进行集群操作,无法使用ClickHouse服务功能。 DBService服务不可用 dbServiceServiceUnavailable 紧急 DBService服务不可用 请参考《MapReduce服务用户指南》的“ALM27001 DBService服务不可用”章节。 数据库服务不可用,无法对上层服务提供数据入库、查询等功能,使部分服务异常。 DBService主备节点间心跳中断 dbServiceHeartbeatInterruption BetweentheActiveAndStandbyNodes 重要 DBService主备节点间心跳中断 请参考《MapReduce服务用户指南》的“ALM27003 DBService主备节点间心跳中断”章节。 DBService主备间心跳中断时只有一个节点提供服务,一旦该节点故障,再无法切换到备节点,就会服务不可用。 DBService主备数据不同步 dataInconsistencyBetween ActiveAndStandbyDBServices 紧急 DBService主备数据不同步 请参考《MapReduce服务用户指南》的“ALM27004 DBService主备数据不同步”章节。 主备DBServer数据不同步,如果此时主实例异常,则会出现数据丢失或者数据异常的情况。 数据库进入只读模式 databaseEnterstheReadOnlyMode 紧急 数据库进入只读模式 请参考《MapReduce服务用户指南》的“ALM27007 数据库进入只读模式”章节。 数据库进入只读模式,业务数据丢失。 Flume服务不可用 flumeServiceUnavailable 紧急 Flume服务不可用 请参考《MapReduce服务用户指南》的“ALM24000 Flume服务不可用”章节。 当Flume服务不可用时,Flume不能正常工作,数据传输业务中断。 Flume Agent异常 flumeAgentException 重要 Flume Agent异常 请参考《MapReduce服务用户指南》的“ALM24001 Flume Agent异常”章节。 产生告警的Flume Agent实例无法正常启动,定义在该实例下的数据传输任务暂时中断,对于实时数据传输,会丢失实时数据。 Flume Client连接中断 flumeClientDisconnected 重要 Flume Client连接中断 请参考《MapReduce服务用户指南》的“ALM24003 Flume Client连接中断”章节。 产生告警的Flume Client无法与Flume Server端进行通信,Flume Client端的数据无法传输到Flume Server端。 Flume读取数据异常 exceptionOccursWhenFlumeReadsData 重要 Flume读取数据异常 请参考《MapReduce服务用户指南》的“ALM24004 Flume读取数据异常”章节。 如果数据源有数据,Flume Source持续读取不到数据,数据采集会停止。 Flume传输数据异常 exceptionOccursWhenFlumeTransmitsData 重要 Flume传输数据异常 请参考《MapReduce服务用户指南》的“ALM24005 Flume传输数据异常”章节。 Flume Channel的磁盘空间使用量有继续增长的趋势,将会使数据导入到指定目的地的时间增长,当Flume Channel的磁盘空间使用量达到100%时会导致Flume Agent进程暂停工作。 Flume 证书文件非法或已损坏 flumeCertificateFileIsinvalid 重要 Flume 证书文件非法或已损坏 请参考《MapReduce服务用户指南》的“ALM24010 Flume证书文件非法或已损坏”章节。 Flume证书文件已经非法或损坏,功能受限,Flume客户端将无法访问Flume服务端。 Flume 证书文件即将过期 flumeCertificateFileIsAboutToExpire 重要 Flume 证书文件即将过期 请参考《MapReduce服务用户指南》的“ALM24011 Flume证书文件即将过期”章节。 Flume证书文件即将失效,对系统目前运行无影响。 Flume 证书文件已过期 flumeCertificateFileIsExpired 重要 Flume 证书文件已过期 请参考《MapReduce服务用户指南》的“ALM24012 Flume证书文件已过期”章节。 Flume证书文件已过期,功能受限,Flume客户端将无法访问Flume服务端。 Flume MonitorServer证书文件失效 flumeMonitorServerCertificateFileIsInvalid 重要 Flume MonitorServer证书文件失效 请参考《MapReduce服务用户指南》的“ALM24013 Flume MonitorServer证书文件非法或已损坏”章节。 MonitorServer证书文件已经非法或损坏,功能受限,Flume客户端将无法访问Flume服务端。 Flume MonitorServer证书文件即将过期 flumeMonitorServerCertificate FileIsAboutToExpire 重要 Flume MonitorServer证书文件即将过期 请参考《MapReduce服务用户指南》的“ALM24014 Flume MonitorServer证书文件即将过期”章节。 MonitorServer证书文件即将失效,对系统目前运行无影响。 Flume MonitorServer证书文件已过期 flumeMonitorServerCertificateFileIsExpired 重要 Flume MonitorServer证书文件已过期 请参考《MapReduce服务用户指南》的“ALM24015 Flume MonitorServer证书文件已过期”章节。 MonitorServer证书文件已过期,功能受限,Flume客户端将无法访问Flume服务端。 HDFS服务不可用 hdfsServiceUnavailable 紧急 HDFS服务不可用 请参考《MapReduce服务用户指南》的“ALM14000 HDFS服务不可用”章节。 无法为基于HDFS服务的HBase和MapReduce等上层部件提供服务。用户无法读写文件。 NameService服务异常 nameServiceServiceUnavailable 重要 NameService服务异常 请参考《MapReduce服务用户指南》的“ALM14010 NameService服务异常”章节。 无法为基于该NameService服务的HBase和MapReduce等上层部件提供服务。用户无法读写文件。 DataNode数据目录配置不合理 datanodeDataDirectoryIsNotConfiguredProperly 重要 DataNode数据目录配置不合理 请参考《MapReduce服务用户指南》的“ALM14011 DataNode数据目录配置不合理”章节。 如果将DataNode数据目录挂载在根目录等系统关键目录,长时间运行后会将根目录写满,导致系统故障。不合理的DataNode数据目录配置,会造成HDFS的性能下降。 Journalnode数据不同步 journalnodeIsOutOfSynchronization 重要 Journalnode数据不同步 请参考《MapReduce服务用户指南》的“ALM14012 Journalnode数据不同步”章节。 当一个JournalNode节点工作状态异常时,其数据就会与其他JournalNode节点的数据不同步。如 果超过一半的JournalNode节点的数据不同步时,NameNode将无法工作,导致HDFS服务不可用。 NameNode FsImage文件更新失败 failedToUpdateTheNameNodeFsImageFile 重要 NameNode FsImage文件更新失败 请参考《MapReduce服务用户指南》的“ALM14013 NameNode FsImage文件更新失败”章节。 如果主NameNode数据目录的FsImage没有更新,则说明HDFS元数据合并功能异常,需要修复。 如不修复,HDFS在运行一段时间后,Editlog会一直增长。此时如果重启HDFS,由于要加载非常多的Editlog,会导致启动非常耗时。另外,该告警的产生也说明备NameNode功能异常,导致NameNode的HA机制失效。一旦主NameNode故障,则整个HDFS服务将不可用。 DataNode磁盘故障 datanodeDiskFault 重要 DataNode磁盘故障 请参考《MapReduce服务用户指南》的“ALM14027 DataNode磁盘故障”章节。 上报DataNode磁盘故障告警时,表示该DataNode节点上存在故障的磁盘分区,可能会导致已写入的文件丢失。 Yarn服务不可用 yarnServiceUnavailable 紧急 Yarn服务不可用 请参考《MapReduce服务用户指南》的“ALM18000 Yarn服务不可用”章节。 集群无法提供Yarn服务。用户无法执行新的application。已提交的application无法执行。 NodeManager心跳丢失 nodemanagerHeartbeatLost 重要 NodeManager心跳丢失 请参考《MapReduce服务用户指南》的“ALM18002 NodeManager心跳丢失”章节。 丢失的NodeManager节点无法提供Yarn服务。容器减少,集群性能下降。 NodeManager不健康 nodemanagerUnhealthy 重要 NodeManager不健康 请参考《MapReduce服务用户指南》的“ALM18003 NodeManager不健康”章节。 故障的NodeManager节点无法提供Yarn服务。容器减少,集群性能下降。 Yarn 任务执行超时 yarnApplicationTimeout 次要 Yarn 任务执行超时 请参考《MapReduce服务用户指南》的“ALM18020 Yarn任务执行超时”章节。 任务执行超时后的运行时间内,该告警一直存在,但任务仍继续正常执行,没有任何影响。 Mapreduce服务不可用 mapreduceServiceUnavailable 紧急 Mapreduce服务不可用 请参考《MapReduce服务用户指南》的“ALM18021 Mapreduce服务不可用”章节。 集群无法提供Mapreduce服务,如无法通过Mapreduce查看任务日志,无法提供Mapreduce服务的日志归档功能等。 Yarn队列资源不足 insufficientYarnQueueResources 次要 Yarn队列资源不足 请参考《MapReduce服务用户指南》的“ALM18022 Yarn队列资源不足”章节。 应用任务结束时间变长。新应用提交后长时间无法运行。 HBase服务不可用 hbaseServiceUnavailable 紧急 HBase服务不可用 请参考《MapReduce服务用户指南》的“ALM19000 HBase服务不可用”章节。 无法进行数据读写和创建表等操作。 HBase系统表目录或文件丢失 systemTablePathOrFileOfHBaseIsMissing 紧急 HBase系统表目录或文件丢失 请参考《MapReduce服务用户指南》的“ALM19012 HBase系统表目录或文件丢失”章节。 HBase服务重启/启动失败。 Hive服务不可用 hiveServiceUnavailable 紧急 Hive服务不可用 请参考《MapReduce服务用户指南》的“ALM16004 Hive服务不可用”章节。 Hive无法提供数据加载,查询,提取服务。 Hive数据仓库被删除 hiveDataWarehouseIsDeleted 紧急 Hive数据仓库被删除 请参考《MapReduce服务用户指南》的“ALM16045 Hive数据仓库被删除”章节。 Hive默认数据仓库被删除,会导致在默认数据仓库中创建库、创建表失败,影响业务正常使用。 Hive数据仓库权限被修改 hiveDataWarehousePermissionIsModified 紧急 Hive数据仓库权限被修改 请参考《MapReduce服务用户指南》的“ALM16046 Hive数据仓库权限被修改”章节。 Hive默认数据仓库的权限被修改,会影响当前用户,用户组,其他用户在默认数据仓库中创建库、创建表等操作的操作权限范围。会扩大或缩小权限。 HiveServer已从Zookeeper注销 hiveServerHasBeenDeregisteredFromZookeeper 重要 HiveServer已从Zookeeper注销 请参考《MapReduce服务用户指南》的“ALM16047 HiveServer已从Zookeeper注销”章节。 当无法在Zookeeper上读取到Hive的配置,将会导致HiveServer不可用。 tez或者spark库路径不存在 tezlibOrSparklibIsNotExist 重要 tez或者spark库路径不存在 请参考《MapReduce服务用户指南》的“ALM16048 Tez或者Spark库路径不存在”章节。 Tez或者Spark库路径不存在,会影响Hive on Tez,Hive on Spark的功能。 Hue服务不可用 hueServiceUnavailable 紧急 Hue服务不可用 请参考《MapReduce服务用户指南》的“ALM20002 Hue服务不可用”章节。 系统无法提供数据加载,查询,提取服务。 Impala服务不可用 impalaServiceUnavailable 紧急 Impala服务不可用 请参考《MapReduce服务用户指南》的“ALM29000 Impala服务不可用”章节。 Impala服务异常,无法通过FusionInsight Manager对Impala进行集群操作,无法使用Impala服务功能。 Kafka服务不可用 kafkaServiceUnavailable 紧急 Kafka服务不可用 请参考《MapReduce服务用户指南》的“ALM38000 Kafka服务不可用”章节。 集群无法对外提供Kafka服务,用户无法执行新的Kafka任务。 Kafka默认用户状态异常 statusOfKafkaDefaultUserIsAbnormal 紧急 Kafka默认用户状态异常 请参考《MapReduce服务用户指南》的“ALM38007 Kafka默认用户状态异常”章节。 Kafka默认用户状态异常,会影响Broker之间的元数据同步,以及Kafka与ZooKeeper之间的交互,进而影响业务生产、消费和Topic的创建、删除等操作。 Kafka数据目录状态异常 abnormalKafkaDataDirectoryStatus 重要 Kafka数据目录状态异常 请参考《MapReduce服务用户指南》的“ALM38008 Kafka数据目录状态异常”章节。 Kafka数据目录状态异常,会导致该数据目录上所有Partition的当前副本下线,多个节点同时出现数据目录状态异常,可能会导致部分Partition不可用。 存在单副本的Topic topicsWithSingleReplica 警告 存在单副本的Topic 请参考《MapReduce服务用户指南》的“ALM38010 存在单副本的Topic”章节。 单副本的Topic存在单点故障风险,当副本所在节点异常时,会直接导致Partition没有leader,影响该Topic上的业务。 KrbServer服务不可用 krbServerServiceUnavailable 紧急 KrbServer服务不可用 请参考《MapReduce服务用户指南》的“ALM25500 KrbServer服务不可用”章节。 告警发生时,不能对集群中的组件KrbServer进行任何操作。其它组件的KrbServer认证将受影响。集群中依赖KrbServer的组件运行状态将为故障。 Kudu服务不可用 kuduServiceUnavailable 紧急 Kudu服务不可用 请参考《MapReduce服务用户指南》的“ALM29100 Kudu服务不可用”章节。 用户无法使用Kudu服务。 LdapServer服务不可用 ldapServerServiceUnavailable 紧急 LdapServer服务不可用 请参考《MapReduce服务用户指南》的“ALM25000 LdapServer服务不可用”章节。 告警发生时,不能对集群中的KrbServer和LdapServer用户进行任何操作。 例如,无法在FusionInsight Manager页面添加、删除或修改任何用户、用户组或角色,也无法修改用户密码。集群中原有的用户验证不受影响。 LdapServer数据同步异常 abnormalLdapServerDataSynchronization 紧急 LdapServer数据同步异常 请参考《MapReduce服务用户指南》的“ALM25004 LdapServer数据同步异常”章节。 LdapServer数据不一致时,有可能是Manager上的LdapServer数据损坏,也有可能是集群上的LdapServer数据损坏,此时数据损坏的LdapServer进程将无法对外提供服务,影响Manager和集群的认证功能。 Nscd服务异常 nscdServiceIsAbnormal 重要 Nscd服务异常 请参考《MapReduce服务用户指南》的“ALM25005 Nscd服务异常”章节。 nscd服务异常时,可能会影响该节点从LdapServer上同步数据,此时,使用id命令可能会获取不到Ldap中的数据,影响上层业务。 Sssd服务异常 sssdServiceIsAbnormal 重要 Sssd服务异常 请参考《MapReduce服务用户指南》的“ALM25006 Sssd服务异常”章节。 sssd服务异常时,可能会影响该节点从LdapServer上同步数据,此时,使用id命令可能会获取不到ldap中的数据,影响上层业务。 Loader服务不可用 loaderServiceUnavailable 紧急 Loader服务不可用 请参考《MapReduce服务用户指南》的“ALM23001 Loader服务不可用”章节。 如果Loader服务不可用,数据加载,导入,转换的功能也不可用。 Oozie服务不可用 oozieServiceUnavailable 紧急 Oozie服务不可用 请参考《MapReduce服务用户指南》的“ALM17003 Oozie服务不可用”章节。 无法使用Oozie服务提交作业。 Ranger服务不可用 rangerServiceUnavailable 紧急 Ranger服务不可用 请参考《MapReduce服务用户指南》的“ALM45275 Ranger服务不可用”章节。 当Ranger服务不可用时,Ranger无法正常工作,Ranger原生UI无法访问。 RangerAdmin状态异常 abnormalRangerAdminStatus 重要 RangerAdmin状态异常 请参考《MapReduce服务用户指南》的“ALM45276 RangerAdmin状态异常”章节。 当存在单个RangerAdmin状态异常时,不影响Ranger原生UI访问;当两个RangerAdmin状态异常时,Ranger原生UI无法访问,无法执行创建、修改、删除策略等操作。 Spark2x服务不可用 spark2xServiceUnavailable 紧急 Spark2x服务不可用 请参考《MapReduce服务用户指南》的“ALM43001 Spark2x服务不可用”章节。 用户提交的Spark任务执行失败。 Storm服务不可用 stormServiceUnavailable 紧急 Storm服务不可用 请参考《MapReduce服务用户指南》的“ALM26051 Storm服务不可用”章节。 集群无法对外提供Storm服务,用户无法执行新的Storm任务。 ZooKeeper服务不可用 zooKeeperServiceUnavailable 紧急 ZooKeeper服务不可用 请参考《MapReduce服务用户指南》的“ALM13000 ZooKeeper服务不可用”章节。 ZooKeeper无法为上层组件提供协调服务,依赖ZooKeeper的组件可能无法正常运行。 ZooKeeper中组件顶层目录的配额设置失败 failedToSetTheQuotaOfTopDirectoriesOf ZooKeeperComponent 次要 ZooKeeper中组件顶层目录的配额设置失败 请参考《MapReduce服务用户指南》的“ALM13005 ZooKeeper中组件顶层目录的配额设置失败”章节。 组件可以向对应的ZooKeeper顶层目录中写入大量数据,导致Zookeeper服务不可用。
        来自:
        帮助文档
        云监控服务
        用户指南
        事件监控
        事件监控支持的事件说明
        翼MapReduce MRS支持的事件列表
      • 教育资源导航
        在线教育&公开课 小类 网站信息 在线教育 Udacity Udemy instructure教育平台 Springboard Desmos课 公开课 edX 哈佛公开课 约翰霍普金斯公开课 Coursera ClassCentral 留学考试 雅思 Prep4SAT CollegeBoard TopUniversities Niche 热门学校及专业 小类 网站信息 北美洲 佐治亚理工学院 约克大学北美 约翰斯霍普金斯大学 犹他大学 印第安纳大学伯明顿分校 伊利诺伊理工大学 伊利诺伊大学芝加哥分校 亚利桑那州立大学 亚利桑那大学 夏威夷大学马诺阿分校 西蒙菲莎大学 渥太华大学 维克森林大学 韦仕敦大学 塔夫茨大学 斯坦陵布什大学 圣路易斯华盛顿大学 萨斯喀彻温大学 乔治敦大学 乔治华盛顿大学 普林斯顿大学 普渡大学 匹兹堡大学 纽约州立大学石溪分校 纽约州立大学布法罗分校 墨西哥国立自治大学大学城的核心校区 明尼苏达大学双城分校 麦考瑞大学 迈阿密大学 马萨诸塞大学阿默斯特分校 马里兰大学帕克分校 罗格斯大学新布朗斯维克分校 拉瓦尔大学 科罗拉多州立大学 科罗拉多大学丹佛分校 科罗拉多大学博尔德分校 坎皮纳斯州立大学 加利福尼亚大学洛杉矶分校 加利福尼亚大学河滨分校 加利福尼亚大学伯克利分校 怀卡托大学 范德比尔特大学 俄亥俄州立大学 东北大学 得克萨斯农工大学 戴尔豪斯大学 达特茅斯学院 查理大学 布朗大学 布兰迪斯大学 不列颠哥伦比亚大学 波士顿大学 宾夕法尼亚州立大学 宾夕法尼亚大学 北卡罗莱纳州立大学 爱荷华州立大学 阿拉斯加大学费尔班克斯分校 阿尔伯塔大学 南美洲 智利天主教大学 乌拉圭大学 圣保罗大学 安第斯大学 阿根廷天主教大学 欧洲 真纳大学 于默奥大学 因斯布鲁克大学 伊拉斯姆斯大学 耶拿大学 亚琛工业大学 雅典国家技术大学 谢菲尔德大学 于韦斯屈莱大学 乌尔姆大学 乌得勒支大学 维也纳工业大学 维尔纽斯大学 瓦格宁根大学 天主教鲁汶大学 特文特大学 特罗姆瑟大学 泰莱大学 塔尔图大学 苏黎世联邦理工学院 叶史瓦大学 斯特拉斯堡大学 斯德哥尔摩大学 思特雅大学 圣彼得堡国立大学 圣彼得堡国家信息技术大学 圣安德鲁斯大学 萨里大学 萨尔大学 日内瓦大学 诺丁汉大学 挪威科技大学 纽卡斯尔大学 牛津大学 牛津布鲁克斯大学 南安普顿大学 纳瓦拉大学 慕尼黑工业大学 慕尼黑大学 莫斯科国际关系学院 明斯特大学 米兰大学 美茵茨大学 梅西大学 洛桑联邦理工学院 罗马第二大学 伦敦国王学院 伦敦大学学院 伦敦大学皇家霍洛威学院 隆德大学 林茨大学 利兹大学 里斯本大学 里昂国立应用科学学院 里昂高等师范学院 雷丁大学 兰卡斯特大学 莱斯大学 莱顿大学 莱比锡大学 拉彭兰塔拉赫蒂工业大学 乐卓博大学 肯特大学 科英布拉大学 科廷大学 卡尔斯鲁厄理工学院 卡迪夫大学 捷克技术大学 剑桥大学 加泰罗尼亚理工大学 吉森大学 华沙大学 赫瑞瓦特大学 赫尔辛基大学 荷语布鲁塞尔自由大学 汉堡大学 格勒诺布尔阿尔卑斯大学 格拉纳达大学 哥廷根大学 哥德堡大学 佛罗伦萨大学 俄罗斯国家研究型高等经济大学 都灵大学 都柏林城市大学 蒂尔堡大学 皇家理工学院 丹麦技术大学 代尔夫特理工大学 查尔姆斯理工大学 布鲁内尔大学 布里斯托大学 伯明翰大学 波鸿鲁尔大学 波尔图大学 比萨大学 柏林自由大学 柏林洪堡大学 巴塞尔大学 巴黎政治学院 巴黎文理研究大学 巴黎第一大学 奥斯陆大学 爱丁堡大学 艾克斯马赛大学 埃塞克斯大学 埃克塞特大学 埃尔朗根纽伦堡大学 阿姆斯特丹自由大学 阿姆斯特丹大学 阿尔托大学 阿伯丁大学 亚洲 筑波大学 朱拉隆功大学 中央大学 早稻田大学 远东联邦大学 印度理工学院印多尔分校 印度理工学院马德拉斯分校 印度理工学院鲁基分校 印度理工学院坎普尔分校 印度理工学院古瓦哈提分校 印度理工学院德里分校 印度科学学院 延世大学 亚洲大学 新西伯利亚国立大学 新加坡国立大学 香港中文大学 香港理工大学 香港科技大学 香港浸会大学 香港大学 香港城市大学 西江大学 文莱理工大学 文莱大学 万隆工学院 托木斯克国立大学 特拉维夫大学 台湾师范大学 台湾清华大学 台湾科技大学 台湾成功大学 台湾大学 台北科技大学 沙迦美国大学 庆熙大学 千叶大学 浦项科技大学 南洋理工大学 茂物农业大学 马来西亚博特拉大学 梨花女子大学 京都大学 汉阳大学 韩国外国语大学 韩国科学技术院 韩国加图立大学 国立欧亚大学 广岛大学 光州科学技术院 菲律宾大学 东京大学 北海道大学 大洋洲 詹姆斯库克大学 新南威尔士大学 塔斯马尼亚大学 蒙纳士大学 坎特伯雷大学 惠灵顿维多利亚大学 皇家墨尔本理工大学 格里菲斯大学 奥克兰大学 阿德莱德大学 非洲 约翰内斯堡大学 开罗美国大学 哈里发大学
        来自:
        帮助文档
        边缘安全加速平台
        学术加速
        教育资源导航
      • 部署规划
        您需要在部署天翼云TeleDB数据库之前,规划相关的硬件、网络及基础环境。 1. 先准备好介质独立部署,为方便快速部署,TelePG从1.5.3版本开始支持独立部署功能。前期准备好介质,部署好zk,部署好mysql,借助TelePG控制台进行部署。 2. 通过集团云翼平台直接订购开通部署。 3. 流复制是 PostgreSQL 9.0 之后提供的新的传递 WAL 日志的方法。通过流复制,备库不断的从主库同步相应的数据,并在备库应用每个 WAL 文件 。主备模式推荐采用同步及潜在同步至少三节点的方式。 4. 暂不支持自动建立database,需用户手动建立database;支持自动建schema,用户可不用手动建立schema。 内存分配 shared buffer pool,共享内存区域:供 PostgreSQL 服务器的所有进程使用。查看 sharedbuffers 参数可以得到其设置值,建议设为内存的四分之一。 WAL buffer,预写日志缓冲区:WAL 数据在写入持久存储之前的缓冲区,实例初始化时自动计算。 commit log,提交日志:所有事务的状态日志,每个事务占用 2bit,最大512MB。 tempbuffers,临时表缓冲区。 workmem,工作内存:执行器在执行 sort、distinct 使用该区域对元组做排序,以及存储 merge join、hash join 多表连接的数据,受最大连接数 maxconnections 参数影响,建议用户 session 级别进行设置,不要全局设置。 maintenanceworkmem,维护内存:某些类型的维护操作使用该区域(如vacuum、reindex)。 注意 按照小系统上云oltp应用保守设置,如果是大数据、数据仓库,需要再此基础按照测试重新优化调整较大参数值。 最大内存估算可参考如下表: 项目 值(MB) 备注 maxconnections 100 默认值为100 workmem 4 默认值为4,最小值64KB tempbuffers 8 默认值为8,最小值800KB sharedbuffers 128 默认值为8,最小值128KB autovacuummaxworkers 3 默认值为3 maintenanceworkmem 64 默认值为64MB,最小值为1MB。 commit log 48 每个事务2bits,autovacuumfreezemaxage,默认为2亿。 maxconnectionsworkmem+maxconnectionstempbuffers+sharedbuffers+(autovacuummaxworkersmaintenanceworkmem)+clog 1568 wal buffers1 autovacuumworkmem1 操作系统配置规范: 关闭CPU 的节能模式。 关闭NUMA。 建议使用UTF8。 设置时间时区,建议主机工程师设置时间同步服务。 关闭其他服务: systemctl stop tuned.service ktune.service systemctl stop firewalld.service systemctl stop postfix.service systemctl stop avahidaemon.socket systemctl stop avahidaemon.service systemctl stop atd.service systemctl stop bluetooth.service systemctl stop wpasupplicant.service systemctl stop accountsdaemon.service systemctl stop atd.service cups.service systemctl stop postfix.service systemctl stop ModemManager.service systemctl stop debugshell.service systemctl stop rtkitdaemon.service systemctl stop rpcbind.service systemctl stop rngd.service systemctl stop upower.service systemctl stop rhsmcertd.service systemctl stop rtkitdaemon.service systemctl stop ModemManager.service systemctl stop mcelog.service systemctl stop colord.service systemctl stop gdm.service systemctl stop libstoragemgmt.service systemctl stop ksmtuned.service systemctl stop brltty.service systemctl stop avahidnsconfd.service 数据库高可用telePG 数据库高可用telePG组件服务器,bios层需要关闭numa,关闭电源保护模式设置CPU为最大性能模式,让其不降频,cat /proc/cpuinfo grep E "model nameMHz"CPU型号、频率一致。 参数类型 配置项 说明 操作系统内核参数配置 sysctl vm.swappiness5 5~10可选,但不可能阻止使用swap空间 操作系统内核参数配置 vm.minfreekbytes1024000 保证系统空闲内存维持在一定水平,同时保障内存管理low和min水位之间有足够间隔 操作系统内核参数配置 fs.aiomaxnr40960000 aiomaxnr no of process per DB no of databases 4096 操作系统内核参数配置 vm.dirtyratio20 vm.dirtybackgroundratio5 vm.dirtywritebackcentisecs100 vm.dirtyexpirecentisecs500 可选,这个参数指定了当文件系统缓存脏页数量达到系统内存百分之多少时(如5%)就会触发pdflush/flush/kdmflush等后台回写进程运行,将一定缓存的脏页异步地刷入外存 操作系统内核参数配置 vm.vfscachepressure150 vm.swappiness10 vm.minfreekbytes524288">> /etc/sysctl.d/99sysctl.conf && sysctl system 可选,该参数表示内核回收用于directory和inode cache内存的倾向。缺省值100表示内核将根据pagecache和swapcache,把directory和inode cache保持在一个合理的百分比;降低该值低于100,将导致内核倾向于保留directory和inode cache;增加该值超过100,将导致内核倾向于回收directory和inode cache 操作系统内核参数配置 fs.filemax 76724200 该参数表示文件句柄的最大数量。文件句柄设置表示在linux系统中可以打开的文件数量 操作系统内核参数配置 net.core.rmemmax 4194304 最大的TCP数据接收缓冲 操作系统内核参数配置 net.core.wmemmax 2097152 最大的TCP数据发送缓冲 操作系统内核参数配置 net.core.wmemdefault 262144 表示接收套接字缓冲区大小的缺省值(以字节为单位) 操作系统内核参数配置 net.core.rmemdefault 262144 表示发送套接字缓冲区大小的缺省值(以字节为单位) 操作系统内核参数配置 net.ipv4.tcpsyncookies 1 当出现SYN等待队列溢出时,启用cookies来处理,可防范少量SYN攻击,默认为0,表示关闭。 操作系统内核参数配置 net.ipv4.tcptwreuse 1 允许将TIMEWAIT sockets重新用于新的TCP连接,默认为0,表示关闭 操作系统内核参数配置 net.ipv4.tcptwrecycle 1 TCP连接中TIMEWAIT sockets的快速回收,默认为0,表示关闭,注意如果是natnat网络,并与net.ipv4.tcptimestamps 1组合使用,则会出现时断时续的情况 操作系统内核参数配置 net.ipv4.tcpfintimeout 30 修改系統默认的TIMEOUT 时间,避免服务器被大量的TIMEWAIT拖死 操作系统内核参数配置 net.ipv4.iplocalportrange 9000 65000 如果连接数本身就很多,可以再优化一下TCP的可使用端口范围,进一步提升服务器的并发能力,默认值是32768到61000 操作系统内核参数配置 net.ipv4.tcpmaxsynbacklog 8192 SYN队列的长度,默认为1024,加大队列长度为8192,可以容纳更多等待连接的网络连接数 操作系统内核参数配置 net.ipv4.tcpmaxtwbuckets 5000 系统同时保持TIMEWAIT的最大数量,如果超过这个数字,TIMEWAIT将立刻被清除并打印警告信息,默认为180000 操作系统内核参数配置 net.ipv4.conf.all.rpfilter 0 net.ipv4.conf.all.arpfilter 0 net.ipv4.conf.default.rpfilter 0 net.ipv4.conf.default.arpfilter 0 net.ipv4.conf.lo.rpfilter 0 net.ipv4.conf.lo.arpfilter 0 net.ipv4.conf.em1.rpfilter 0 net.ipv4.conf.em1.arpfilter 0 net.ipv4.conf.em2.rpfilter 0 net.ipv4.conf.em2.arpfilter 0 网卡的设置 操作系统内核参数配置 kernel.shmmni 4096 这个内核参数用于设置系统范围内共享内存段的最大数量。该参数的默认值是4096 。通常不需要更改kernel.sem 250 32000 100 142 操作系统内核参数配置 kernel.shmall 1073741824 该参数表示系统一次可以使用的共享内存总量(以页为单位)。缺省值是2097152,可根据kernel.shmmax大小进行调整(kernel.shmmax/41024或者kernel.shmmax/81024) 操作系统内核参数配置 kernel.shmmax 4398046511104 该参数定义了共享内存段的最大尺寸(以字节为单位),此值默认为物理内存的一半 操作系统内核参数配置 kernel.sysrq 0 如无需调试系统排查问题,这个必须为0 telepg的 limits.conf配置 telepg soft nofile1048576 telepg的 limits.conf配置 telepg soft memlock 1 telepg的 limits.conf配置 telepg hard memlock 1 telepg的 limits.conf配置 telepg hard memlock 128849018880 telepg的 limits.conf配置 telepg soft memlock 128849018880 telepg的 limits.conf配置 telepg soft core6291456 telepg的 limits.conf配置 telepg hard core6291456 telepg的 limits.conf配置 telepg hard nproc131072 telepg的 limits.conf配置 telepg soft nproc131072 telepg的 limits.conf配置 telepg hard nofile 1048576 telepg的 limits.conf配置 telepg hard stack 32768 telepg的 limits.conf配置 telepg soft stack 10240 禁用透明大页 echo never> /sys/kernel/mm/transparenthugepage/enabled 禁用透明大页 echo never> /sys/kernel/mm/transparenthugepage/defrag 网络连通性 确保组件和集群内的网络联通。 确保与相关联组件的网络连通。 确保防火墙关闭。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V1.1.0版本产品文档
        安装部署手册
        安装前准备
        部署规划
      • 构造请求
        请求方法 方法 说明 GET 请求服务器返回指定资源 PUT 请求服务器更新指定资源 POST 请求服务器新增资源或执行特殊操作 DELETE 请求服务器删除指定资源,如删除对象等 HEAD 请求服务器资源头部 PATCH 请求服务器更新资源的部分内容 当资源不存在的时候,PATCH可能会去创建一个新的资源。 在"根据regionID查询用户资源"的URI部分,您可以看到其请求方法为“POST”,则其请求为: POST 请求消息头 名称 描述 是否必选 示例 ContentType 消息体的类型 是 application/json ctyuneoprequestid 流水号 是 0ffb9b07d5a84e19b3ce12dfb9705a1d EopAuthorization 签名认证信息 是 4a4bdc57e06542199b5f98d4cd107be2 Headersctyuneoprequestid;eopdate Signatureb2WEo4nh9ewn6SWOP0ii5g8L0z9CT5gprpDWntlCX9I Eopdate 时间,15分钟有效期(实际传时间为北京东八区UTC+8时间。TZ仅为格式,非UTC时间。) 是 20221107T093029Z EopAuthorization签名认证信息: 步骤一:构造代签字符串sigture sigture需要进行签名的Header排序后的组合列表+"n "+encode的query+"n"+toHex(sha256(原封的body)) 名称 描述 需要进行签名的Header排序后的组合列表 将ctyuneoprequestid、eopdate以 “headername:headervalue”的形式、以“n”作为每个header的结尾符、以英文字母表作为headername的排序依据将它们拼接起来。注意:EOP强制要求ctyuneoprequestid、eopdate必须进行签名。其他字段是否需要签名看自身需求。例子(假设你需要将ctyuneoprequestid、eopdate、host都要签名):ctyuneoprequestid:123456789neopdate:20210531T100101Zn encode的query uery以&作为拼接,key和value以连接,值需要encode,Query参数全部都需要进行签名 toHex(sha256(原封的body)) 传进来的body参数进行sha256摘要,对摘要出来的结果转十六进制 sigture示例1(假设query为空 、需要进行签名的Header排序后的组合列表为“ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680neopdate:20220525T160752Z n”、body参数做sha256摘要后转十六进制为e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855): ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680neopdate:20220525T160752Znnne3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855 sigture示例2(假设query不为空 、需要进行签名的Header排序后的组合列表为“ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680neopdate:20220525T160752Z n”、body参数做sha256摘要后转十六进制为e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855): ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680neopdate:20220525T160930Znnaa1&bb2ne3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855 步骤二:构造动态秘钥kdate 1.使用eopdate作为数据,sk作为密钥,算出ktime。 2.使用ak作为数据,ktime作为密钥,算出kAk。 3.使用eopdate的年月日值作为数据,kAk作为密钥,算出kdate。 名称 描述 eopdate yyyyMMdd'T'HHmmss'Z'(20211221T163614Z)(年月日T时分秒Z)(实际传时间为北京东八区UTC+8时间,TZ仅为格式,非UTC时间) ktime 使用eopdate作为数据,sk作为密钥,算出ktime。ktimehmacSHA256(eopdate,sk) kAk 使用ak作为数据,ktime作为密钥,算出kAk。kAkhmacSHA256(ak,ktime) kdate 使用eopdate的年月日值作为数据,kAk作为密钥,算出kdate 步骤三:构造signature 使用kdate作为密钥、sigture作为数据,将其得到的结果进行base64编码得出signature 名称 描述 Signature hmacSHA256(sigture,kdate)将上一步的结果进行base64加密得出signature 步骤四:构造EopAuthorization 1.构造Headers。 2.得到EopAuthorization。 EopAuthorization:ak Headersxxx Signaturexxx。 名称 描述 Headers 将需要进行签名的请求头字段以 “headername”的形式、以“;”作为间隔符、以英文字母表作为headername的排序依据将它们拼接起来。例子(假设你需要将ctyuneoprequestid、eopdate都要签名):Headersctyuneoprequestid;eopdate EopAuthorization EopAuthorization:ak Headersxxx Signaturexxx。注意,ak、Headers、Signature之间以空格隔开。例如:EopAuthorization:ak Headersctyuneoprequestid;eopdate SignatureNlMHOhk5bVfZ9MwDSSJydcZjjENmDtpNYigJGVb。注意:如果你需要进行签名的Header不止默认的ctyuneoprequestid和eopdate,那么你需要在httpclient的请求头部中加上,并且EopAuthorization中也需要增加
        来自:
        帮助文档
        云容灾 CDR
        API参考
        如何调用API
        构造请求
      • XEN实例停止售卖说明及常见问题
        本节介绍了弹性云主机XEN实例停止售卖说明及常见问题。 1、XEN实例为什么要停止售卖? 由于天翼云使用的XEN虚拟化平台所有版本都已经停止更新,天翼云无法获取补丁更新和社区支持,发现新的安全风险后,无法继续向用户提供补丁修复和技术支持,会导致用户业务出现安全风险。 2、继续使用XEN实例会有哪些影响? XEN虚拟化平台停止服务后,天翼云将无法对新发现的安全风险提供补丁更新修复和技术支持,这会导致用户的业务出现安全风险。 无法使用XEN实例的备份创建新的XEN实例,使用XEN实例的备份创建KVM实例无法正常启动。 无法对XEN实例进行规格变更,只能XEN实例变更为KVM实例。 除上述影响外,基础能力不变(包括:重置密码、开关机、切换操作系统、重装操作系统等等常规操作) 3、KVM与XEN虚拟化平台的区别? 相对于XEN,KVM可以提供更多的功能、较高的稳定性,并能显著提高性能。KVM实例相较于XEN实例,有如下优点: 具备一定的故障预测能力 支持热迁移能力 支持异地HA(High Availability)能力,更高的可靠性 总体而言,KVM可以更好地满足云计算的诉求。 4、当前使用的XEN实例怎么办? 当前对于存量客户(已购买XEN实例客户)可结合自身业务需求进行规格变更,即使用控制台提供的“变更规格”将XEN实例变更为KVM实例,将XEN实例迁移至KVM实例。 5、变更规格前后费用一致吗? 变更规格会引起费用的变化,费用变化主要源自于实例类型和规格的变更。 变更规格过程中,如果您遇到需要补齐差价等费用问题,可提交工单或咨询服务热线(4008109889)。 6、XEN主机包括哪些实例? 天翼云XEN虚拟化实例主要为c1、c2、m1、s1。 7、XEN主机涉及哪些资源池? 深圳、苏州、广州4、上海4、杭州、咸阳(西安2)、福州、芜湖、贵州1、青岛、南宁、郑州、成都3、南昌、海口、长沙2、乌鲁木齐、昆明、重庆、北京2、武汉2、兰州、太原、西宁 8、XEN迁移KVM推荐表 若客户有XEN迁移KVM的需求,现推荐XEN实例规格变更后的KVM实例规格请参考下表。考虑到不同资源池内可售弹性云主机规格不一,具体变更后规格实例选择,以您所在区域的具体实例为准。 XEN规格 KVM规格(推荐1) KVM规格(推荐2) c1.small s7n.small.1 s6.small.1 c1.large s7n.large.2 s6.large.2 c1.xlarge s7n.xlarge.2 s6.xlarge.2 c1.2xlarge s7n.2xlarge.2 s6.2xlarge.2 c1.4xlarge s7n.4xlarge.2 s6.4xlarge.2 c2.medium s7n.medium.2 s6.medium.2 c2.large s7n.large.2 s6.large.2 c2.xlarge s7n.xlarge.2 s6.xlarge.2 c2.2xlarge s7n.2xlarge.2 s6.2xlarge.2 c2.4xlarge s7n.4xlarge.2 s6.4xlarge.2 c2.8xlarge c7n.8xlarge.2 c6.8xlarge.2 m1.medium s7n.large.4 s6.large.4 m1.large m7n.large.8 s6.xlarge.4 m1.xlarge m7n.xlarge.8 s6.2xlarge.4 m1.2xlarge m7n.2xlarge.8 s6.4xlarge.4 m1.4xlarge m7n.4xlarge.8 m6.6xlarge.8 s1.medium s7n.medium.4 s6.medium.4 s1.large s7n.large.4 s6.large.4 s1.xlarge s7n.xlarge.4 s6.xlarge.4 s1.2xlarge s7n.2xlarge.4 s6.2xlarge.4 s1.4xlarge s7n.4xlarge.4 s6.4xlarge.4 s1.8xlarge c7n.8xlarge.4 c6.8xlarge.4 9、XEN实例变更为KVM实例的过程对业务有什么影响? 变更前,需要您确保Windows弹性云主机已安装了PV driver和UVP VMTools以及Linux弹性云主机安装xenpv驱动、virtio驱动。 变更时,需要您暂时将ECS关机,暂停业务,待切换完成后重新开机恢复业务正常运行。 变更后,仅仅是底层虚拟化平台由XEN移到KVM,对业务没有影响。 10、怎样将XEN实例变更为KVM实例? XEN迁移KVM操作,具体操作步骤参见规格变更(XEN实例变更为KVM实例)
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        产品咨询类
        XEN实例停止售卖说明及常见问题
      • GeminiDB Redis与开源Redis对比优势
        对比项 GeminiDB Redis 开源Redis 成本 成本降低75%~90% GeminiDB Redis支持全量数据落盘,采用GaussDB基础组件服务,拥有极大价格优势。 硬件成本极高 开源Redis的全部数据保存在纯内存介质中,且自身Fork机制导致内存使用率低。 最大容量 PB级数据量 GeminiDB Redis采用存算分离架构,使得存储资源自由扩容的同时计算层资源也可以同步弹性伸缩,性能有保障。 百GB级数据量 如果开源Redis集群持续增加数据量,一方面会导致硬件成本突增,另一方面其内部Gossip集群管理效率也将变得极低。 容量利用率 100% GeminiDB Redis采用纯自研架构,不受Fork问题影响,用户购买的持久化存储空间几乎全部可用。 <50% 开源Redis受独Fork机制影响,在快照、主从复制、AOF重写期间,如遇业务高峰,理论上内存可增长一倍。因此,内存使用率控制在50%以内,才能确保安全。 规格选型 1GB细粒度,随时按需调整。 档位不连续(...32GB、48GB、64GB) 假设业务数据量约30GB。如果选用云缓存Redis,考虑到安全有效容量<50%,只能选64GB的规格,造成“买多”浪费。 数据压缩 逻辑压缩和物理压缩结合,比开源Redis更省空间 逻辑压缩:对value进行初步压缩。 物理压缩:对存储介质中的数据块整体进行二次压缩。 根据实际业务测试,String、Hash等常用结构在GeminiDB Redis实例中,存储空间占用仅为开源Redis的70%~85%。 只使用逻辑压缩 时延 平均时延差距不大,p9999表现有一定差距。 平均时延较低,p9999时延较低。 扛写能力 强 GeminiDB Redis支持多节点同时写入,且采用多线程架构,吞吐轻松翻倍。 弱 开源Redis集群中仅主节点可写,且属于单线程架构,业务高峰有OOM宕机风险。 数据可靠性 高 逐条命令实时落盘,底层三副本冗余存储,无数据丢失风险。 低 内存数据秒级落盘,且主从异步复制不及时,存在数据丢失风险。 数据一致性 强一致性 GeminiDB Redis实现了三副本强一致,多点访问无脏读风险。 弱一致性 开源Redis采用主从异步复制,多点访问存在数据不一致问题。 可用性 强 即使N1个节点同时故障,GeminiDB Redis实例依然可用。 中等 如果有一半的主节点发生故障,开源Redis集群将不可用。任意一对主从节点故障,开源Redis集群将不可用。 故障恢复 分钟级恢复,数据恢复时长与数据量无关 在全量数据下沉存储的Shared Everthting架构下,数据只需被可用节点接管即可,几乎不需耗时加载。 数据量越大,恢复耗时越久 数据物理分散在多个独立节点上,故障恢复需要将RDB快照从磁盘加载进内存,耗时久。 负载均衡 支持 细粒度数据分片,节点间实现动态负载均衡。 不支持 开源Redis需要依赖第三方组件。 扩容 平滑扩容 节点扩容:分钟级完成,业务秒级感知。 容量扩容:秒级完成,业务0感知。 Shared Everthting架构下,底层数据可被任一节点访问,扩容过程不发生数据拷贝搬迁,速度极快。 耗时长,对业务影响大 各节点本地内存装载数据分片,迁移意味着新节点的加入以及数据的拷贝搬迁,耗时长。 安全 高 GeminiDB Redis采用纯自研架构,不存在开源Redis安全漏洞问题。提供虚拟私有云、子网、安全组、DDoS防护以及SSL安全访问等多层安全防护体系,实现租户隔离和访问控制。 低 开源Redis内核不定期会爆出安全漏洞问题,如CVE202132761等。如版本升级不及时,随时有被恶意利用风险。网络环境安全级别取决于所使用的云服务质量。 运维 一站式服务 GeminiDB Redis提供成熟的迁移方案、实时监控、故障预警和数据库专家团队724小时支撑。 取决于所使用的云服务质量
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        产品介绍
        GeminiDB Redis与开源Redis对比优势
      • 管理工作负载伸缩策略
        操作场景 HPA或CustomedHPA策略创建完成后,可对创建的策略进行更新、克隆、编辑YAML以及删除等操作。 操作场景 您可以查看HPA策略的规则、状态和事件,参照界面中的报错提示有针对性的解决异常事件。 步骤 1 登录CCE控制台,在左侧导航栏中单击“弹性伸缩”,在“工作负载伸缩”页签下,单击要查看的HPA策略前方的。 步骤 2 在展开的区域中,可以看到规则、状态和事件页签,若策略异常,请参照界面中的报错提示进行定位处理。 说明:您还可以在工作负载详情页中查看已创建的HPA策略,登录CCE控制台,在左侧导航栏中单击“工作负载 > 无状态负载 Deployment”,单击工作负载后方“操作”中的“更多 > 伸缩”,在该工作负载详情页的“伸缩”页签下可以看到“弹性伸缩 HPA / CustomedHPA”,您在“弹性伸缩”页面配置的HPA策略也会在这里显示。 表事件类型及名称 事件类型 事件名称 描述 正常 SuccessfulRescale 扩缩容成功 异常 InvalidTargetRange 无效的TargetRange 异常 InvalidSelector 无效选择器 异常 FailedGetObjectMetric 获取对象失败数 异常 FailedGetPodsMetric 获取Pod列表失败指标 异常 FailedGetResourceMetric 获取资源失败数 异常 FailedGetExternalMetric 获取外部指标失败 异常 InvalidMetricSourceType 无效的指标来源类型 异常 FailedConvertHPA 转换HPA失败 异常 FailedGetScale 获取比例尺失败 异常 FailedComputeMetricsReplicas 计算指标副本数失败 异常 FailedGetScaleWindow 获取ScaleWindow失败 异常 FailedRescale 扩缩容失败 查看CustomedHPA策略 您可以查看CustomedHPA策略的规则和最新状态,参照界面中的报错提示有针对性的解决异常事件。 步骤 1 登录CCE控制台,在左侧导航栏中单击“弹性伸缩”,在“工作负载伸缩”页签下,单击要查看的CustomedHPA策略前方的。 步骤 2 在展开的区域中,可以看到规则页签,若策略异常,请单击“最新状态”栏中的“详情”,参照展开的详细信息进行定位处理。 说明:您还可以在工作负载详情页中查看已创建的CustomedHPA策略,登录CCE控制台,在左侧导航栏中单击“工作负载 > 无状态负载 Deployment”,单击工作负载后方“操作”中的“更多 > 伸缩”,在该工作负载详情页的“伸缩”页签下可以看到“弹性伸缩 HPA / CustomedHPA”,您在“弹性伸缩”页面配置的CustomedHPA策略也会在这里显示。 更新HPA或CustomedHPA策略 以HPA策略为例。 步骤 1 登录CCE控制台,在左侧导航栏中单击“弹性伸缩”,在“工作负载伸缩”页签下,单击策略后方“操作”栏中的“更新”。 步骤 2 在打开的“更新工作负载HPA策略”页面中,更新策略参数。 步骤 3 单击“更新”完成策略更新。 克隆HPA或CustomedHPA策略 步骤 1 登录CCE控制台,在左侧导航栏中单击“弹性伸缩”,在“工作负载伸缩”页签下,单击策略后方“操作”栏中的“克隆”。 步骤 2 在打开的“创建工作负载HPA策略”页面中,可以看到部分参数(如实例范围、冷却时间和策略规则)已经克隆过来,请按照业务需求补充或修改其他策略参数。 步骤 3 单击“创建”完成策略克隆,在“工作负载伸缩”页签下的策略列表中可以看到新克隆的策略。 编辑YAML(HPA策略) 步骤 1 登录CCE控制台,在左侧导航栏中单击“弹性伸缩”,在“工作负载伸缩”页签下,单击HPA策略后方“操作”栏中的“更多 > 编辑YAML”。 步骤 2 在弹出的“编辑YAML”窗口中,可以对YAML进行修改和下载。 步骤 3 在右上角关闭窗口完成操作。 查看YAML(CustomedHPA策略) 步骤 1 登录CCE控制台,在左侧导航栏中单击“弹性伸缩”,在“工作负载伸缩”页签下,单击CustomedHPA策略后方“操作”栏中的“更多 > 查看YAML”。 步骤 2 在弹出的“查看YAML”窗口中,可以对YAML进行复制和下载,不能对其修改。 步骤 3 在右上角关闭窗口完成操作。 删除HPA或CustomedHPA策略 步骤 1 登录CCE控制台,在左侧导航栏中单击“弹性伸缩”,在“工作负载伸缩”页签下,单击策略后方“操作”栏中的“更多 > 删除”。 步骤 2 在弹出的“删除HPA策略”窗口中,确认是否删除。 步骤 3 单击“是”完成删除操作。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        弹性伸缩
        工作负载弹性伸缩
        管理工作负载伸缩策略
      • 对比同步项
        本节主要介绍对比同步项 对比实时同步项可以清晰反馈出源数据库和目标数据库的数据是否存在差异。为了尽可能减少业务的影响和业务中断时间,实时同步场景提供了对象级对比和数据级对比功能,帮助您确定合适的业务割接时机。 对象级对比:支持对数据库、索引、表、视图、表的排序规则等对象进行对比。 数据级对比:支持对表的行数和内容进行对比。 说明 全量同步中的任务无法进行数据级对比。 如果单独对目标库进行数据修改操作,有可能数据检验不准确。 如果源库进行DDL操作,为保证对比结果的准确性,需重新进行内容对比。 行对比的多对一场景,是将源库中的表与映射到目标库中的聚合表中对应的那部分数据做行数比对。 PostgreSQL为源的链路,在表映射场景下,索引和约束名称也会被修改,导致索引和约束的对比不一致。 为避免占用资源,DRS对行对比的时长进行限制,超过限制时长,行对比任务自动停止。源库是关系型数据库时,行对比限制时长为60分钟;源库为非关系型数据库时,行对比限制时长为30分钟。 前提条件 已登录数据复制服务控制台。 操作步骤 步骤 1 在“实时同步管理”界面,选中指定同步任务,单击任务名称,进入“基本信息”页签。 步骤 2 单击“同步对比”页签,进入“同步对比”信息页面。 步骤 3 对比同步项。 创建对象级对比:选择“对象级对比”页签,观察源数据库和目标数据库的各个对比项结果是否一致。若需要查看结果详情,可单击指定对比项操作列的“详情”按钮。 创建数据级对比:选择“数据级对比”页签,单击“创建对比任务”,选择“对比类型”、“对比时间”和“对象选择”,单击“是”提交对比任务。 对比类型:分为行数对比和内容对比。 行数对比:用于对比源和目标端的表的行数是否相等。 任务进入增量阶段后,用户可以创建行对比任务。 内容对比:用于对比源和目标端的表的数据是否一致。 任务进入增量阶段后,用户可以创建内容对比任务。全量同步完成后,源库数据不能发生变更,否则内容对比结果会不一致。 由于内容对比功能目前只支持带有单字段主键或单字段唯一索引的表,不支持内容对比的表可以使用行数对比功能。所以数据级对比功能需要结合业务场景,选用行数对比或者内容对比。 对比策略:分为普通对比和多对一对比两种。 普通比对策略:源库中的一张表跟映射到目标库中的那张表做整表的行数比对。 多对一比对策略:源库中的一张表跟映射到目标库中的聚合表中对应的那部分数据做行数比对。 说明 对比类型为行数对比时,支持对比策略选择。 对比时间:可设置为“立即启动”和“稍后启动”。由于同步具有轻微的时差,在数据持续操作过程中进行对比任务,可能会出现符合实际情况的少量数据不一致对比结果,推荐结合对比定时功能,选择在业务低峰期进行对比,得到更为具有参考性的对比结果。 对象选择:可根据具体的业务场景选择需要进行对比的对象。 步骤 4 对比任务提交成功后,返回“数据级对比”页签,单击刷新列表,可以查看到所选对比类型的对比结果。 由于内容对比功能目前只支持带有单字段主键或单字段唯一索引的表,不支持内容对比的表可以使用行数对比功能。所以数据级对比功能需要结合业务场景,选用行数对比或者内容对比。 若需要查看行数对比或者内容对比详情,可单击指定对比类型操作列的“查看对比报表”,页面将跳转至新的窗口,可观察对比结果的详细情况。 若需要下载行数对比或者内容对比结果,可单击指定对比类型操作列的“导出报告”。 说明 已取消的对比任务也支持查看对比报表。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        任务管理
        对比同步项
      • 创建子网
        参数 说明 取值样例 区域 子网必须归属于某个VPC,请选择目标VPC所在的区域。 广州4 虚拟私有云 请选择待创建子网的VPC。 vpctest 子网名称 输入子网的名称。要求如下: 长度范围为164位。 名称由中文、英文字母、数字、下划线()、中划线()、点(.)组成。 subnet01 子网IPv4网段 设置子网的IPv4网段范围,子网是VPC内的IP地址块,可以将VPC的网段分成若干块。 10.0.0.0/24 子网IPv6网段 开启IPv6功能后,将自动为子网分配IPv6网段,暂不支持自定义设置IPv6网段。该功能一旦开启,将不能关闭。 关联路由表 路由表由一系列路由规则组成,用于控制VPC内出入子网的流量走向。创建VPC时会创建一个默认路由表,子网自动关联至默认路由表。默认路由表可以确保VPC内子网之间网络互通。 高级配置 网关 单击“展开”按钮,展开折叠的高级配置区域,可以设置该参数。 子网的网关,如果没有特殊需求,建议保持系统默认设置。 高级配置 DNS服务器地址 单击“展开”按钮,展开折叠的高级配置区域,可以设置该参数。 此处默认填写天翼云的DNS服务器地址,可实现云主机在VPC内直接通过内网域名互相访问。同时,还支持不经公网,直接通过内网DNS访问云上服务。 若您由于业务原因需要指定其他DNS服务器地址,您可以修改默认的DNS服务器地址。如果您删除默认的DNS服务器地址,可能会导致您无法访问云上其他服务,请谨慎操作。 您也可以通过“DNS服务器地址”右侧的“重置”将DNS服务器地址恢复为默认值。 DNS服务器地址最多支持2个IP,请以英文逗号隔开。 高级配置 域名 单击“展开”按钮,展开折叠的高级配置区域,可以设置该参数。 此处填写DNS域名后缀,支持填写多个域名,不同的域名之间以空格分隔,单个域名长度不超过63个字符,并且域名总长度不超过254个字符。 访问某个域名时,只需要输入域名前缀,子网内的云主机会自动匹配设置的域名后缀。 域名设置完成后,子网内新创建的云主机会自动同步该配置。 子网内的存量云主机,需要更新DHCP配置使域名生效,您可以重启云主机、重启DHCP Client服务或者重启网络服务。 test.com 高级配置 NTP服务器地址 单击“展开”按钮,展开折叠的高级配置区域,可以设置该参数。 如果您需要为当前子网新增NTP服务器地址,则需要填写该地址。此处填写的地址不会影响默认NTP服务器地址。 新增或修改原有子网的NTP服务器地址后,需要子网内的ECS重新获取一次DHCP租约,或者重启ECS,才能生效。 清空NTP服务器地址时,需要子网内的ECS重新获取一次DHCP租约,重启ECS无法生效。 192.168.2.1 高级配置 IPv4 DHCP租约时间 单击“展开”按钮,展开折叠的高级配置区域,可以设置该参数。 您可以设置IPv4地址的DHCP租约时间。 DHCP租约时间是指DHCP服务器自动分配给客户端的IP地址的使用期限。超过租约时间,IP地址将被收回,需要重新分配。 期限租约:设置DHCP租约期限,单位为天或者小时。 无限租约:设置DHCP不过期。 DHCP租约时间修改后,对于子网内的实例(比如ECS)来说,当实例下一次续租时,新的租约时间将会生效。实例续租分为自动更新租约和手动更新租约两种,续租不会改变实例当前的IP地址。如果需要DHCP租约立即生效,请在实例中手动更新租约或者重启实例。 高级配置 标签 单击“展开”按钮,展开折叠的高级配置区域,可以设置该参数。 您可以在创建子网的时候为子网绑定标签,标签用于标识云资源,可通过标签实现对云资源的分类和搜索。 键:subnetkey1 值:subnet01 高级配置 描述 单击“展开”按钮,展开折叠的高级配置区域,可以设置该参数。 您可以根据需要在文本框中输入对该子网的描述信息。描述信息内容不能超过255个字符,且不能包含“<”和“>”。
        来自:
        帮助文档
        虚拟私有云 VPC
        用户指南
        虚拟私有云和子网
        子网
        创建子网
      • 容量大于2TB,初始化Windows数据盘(Windows 2012)
        操作场景 本示例以“Windows Server 2012标准版64位中文版”操作系统为例,介绍数据盘容量大于2TB时在Windows中的数据盘初始化操作,当容量大于2TB时,需要使用GPT分区进行磁盘划分。 说明 物理机的不同操作系统的格式化操作可能不同,本文仅供参考,具体操作步骤和差异请参考对应操作系统的产品文档。 前提条件 挂载至物理机的云盘数据盘或者物理机的本地数据盘还没有被初始化。 操作步骤 当数据盘的容量大于2TB,初始化Windows数据盘的操作共分为两步,具体步骤如下: 登录物理机。 初始化磁盘:根据界面提示完成磁盘初始化,当数据盘的容量大于2TB时,分区形式请选择GPT(GUID分区表)。 登录物理机 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域,此处我们选择内蒙6。 3. 单击选择“计算>物理机服务”,进入物理机列表页面。 4. 单击需要初始化数据盘的物理机所在列的“操作>远程登录”,登录此台物理机,具体操作可参见登录Windows物理机。 初始化磁盘(GPT分区) 1. 登录成功之后,单击开始图标,在弹出菜单中选择 “服务器管理器”。跳转至“服务器管理器>仪表板”窗口。 2. 在此页面中,单击右上角的“工具”,在下拉菜单栏中选择“计算机管理”。 3. 在“计算机管理”页面左侧导航栏中,选择“存储>磁盘管理”,进入“磁盘管理”页面。 在磁盘区域,当前有两个磁盘,一个为磁盘0,一个为磁盘1,磁盘1的容量为3000GB,大于2TB,且磁盘1的状态为脱机状态,用户可以右键单击后在菜单列表中选择“联机”,进行联机,联机后,磁盘的状态就由 “脱机”变为“没有初始化”。 4. 右键单击磁盘1区域,在弹出来的菜单列表中选择“初始化磁盘”直接开始磁盘的初始化。 5. 在“初始化磁盘”对话框中会有已挂载好需要初始化的磁盘,即磁盘1,勾选 “GPT(GUID分区表)”,单击“确定”,如下图所示。 6. 在磁盘1的未分配区域右键单击,选择“新建简单卷”,如图: 7. 在弹出的“新建简单卷向导”窗口,根据界面提示,点击“下一步”。 8. 用户根据需要指定卷大小(建议用户在初始化之前就计算好磁盘分区的容量),默认为最大值,单击“下一步”。 9. 进入“分配驱动器号和路径”页面,勾选分配驱动器号,单击“下一步”。 10. 进入“格式化分区”窗口,勾选“按下列设置格式化这个卷”,并根据实际情况设置参数,格式化新分区,这里保持默认值,单击“下一步”窗口跳转至完成页面。 11. 单击“完成”,等待片刻让系统完成初始化操作,当卷状态为“状态良好”时,表示初始化磁盘成功。 12. 验证初始化,可以回到桌面,点击下方任务栏中文件管理器的图标打开文件资源管理器查看“E卷”是否创建成功,如图所示,当有E卷时,证明初始化磁盘已成功。
        来自:
        帮助文档
        物理机 DPS
        用户指南
        磁盘
        初始化数据盘
        容量大于2TB,初始化Windows数据盘(Windows 2012)
      • 修改QoS策略
        参数 类型 描述 是否必须 qosName String 指定要修改的QoS策略名称。 是 newName String 指定QoS策略的新名称。 取值:长度范围1~64,只能由字母、数字和短横线()组成,区分大小写,且仅支持以字母或数字开头。 否 description String QoS策略的描述信息。 取值:1~256位字符串。 否 IOPS Long 每秒能够进行读写操作次数的最大值。 取值:取值范围为[1, 999999999]。1表示不限制。 否 readIOPS Long 每秒能够进行读操作次数的最大值。 取值:取值范围为[1, 999999999]。1表示不限制。 否 writeIOPS Long 每秒能够进行写操作次数的最大值。 取值:取值范围为[1, 999999999]。1表示不限制。 否 Bps Long 每秒可传输数据量的最大值。 取值:取值范围为[1, 4096000000000],单位是B/s。1表示不限制。 否 readBps Long 读带宽上限。 取值:取值范围为[1, 4096000000000],单位是B/s。1表示不限制。 否 writeBps Long 写带宽上限。 取值:取值范围为[1, 4096000000000],单位是B/s。1表示不限制。 否 IOPSBurst Long 使用Burst功能时,每秒能够进行读写操作次数的最大值。 取值:只有当IOPS大于等于1时,此项设置为1或( IOPS , 999999999]内的正整数方可生效。1表示不限制。 否 readIOPSBurst Long 使用Burst功能时,每秒能够进行读操作次数的最大值。 取值:只有当readIOPS大于等于1时,此项设置为1或( readIOPS , 999999999]内的正整数方可生效。1表示不限制。 否 writeIOPSBurst Long 使用Burst功能时,每秒能够进行写操作次数的最大值。 取值:只有当writeIOPS大于等于1时,此项设置为1或( writeIOPS , 999999999]内的正整数方可生效。1表示不限制。 否 BpsBurst Long 使用Burst功能时,每秒可传输的数据量最大值。 取值:只有当Bps大于等于1时,此项设置为1或( Bps , 4096000000000]内的正整数方可生效,单位是B/s。1表示不限制。 否 readBpsBurst Long 使用Burst功能时,读带宽上限。 取值:只有当readBps大于等于1时,此项设置为1或( readBps , 4096000000000]内的正整数方可生效,单位是B/s。1表示不限制。 否 writeBpsBurst Long 使用Burst功能时,写带宽上限。 取值:只有当writeBps大于等于1时,此项设置为1或( writeBps , 4096000000000]内的正整数方可生效,单位是B/s。1表示不限制。 否 IOPSBurstSecs Long 使用Burst功能时,按照Burst上限的能力进行读写操作所能持续的时间。 注意 只有在IOPS Burst功能启用时,此配置才生效。 取值:取值范围为[1, 999999999],单位是秒。 否 readIOPSBurstSecs Long 使用Burst功能时,按照Burst上限的能力进行读操作所能持续的时间。 注意 只有在read IOPS Burst功能启用时,此配置才生效。 取值:取值范围为[1, 999999999],单位是秒。 否 writeIOPSBurstSecs Long 使用Burst功能时,按照Burst上限的能力进行写操作所能持续的时间。 注意 只有在write IOPS Burst功能启用时,此配置才生效。 取值:取值范围为[1, 999999999],单位是秒。 否 BpsBurstSecs Long 使用Burst功能时,按照Burst上限的流量能力所能持续的时间。 注意 只有在Bps Burst功能启用时,此配置才生效。 取值:取值范围为[1, 999999999],单位是秒。 否 readBpsBurstSecs Long 使用Burst功能时,按照Burst上限的读流量能力所能持续的时间,单位是秒。 注意 只有在read Bps Burst功能启用时,此配置才生效。 取值:取值范围为[1, 999999999],单位是秒。 否 writeBpsBurstSecs Long 使用Burst功能时,按照Burst上限的写流量能力所能持续的时间。 注意 只有在write Bps Burst功能启用时,此配置才生效。 取值:取值范围为[1, 999999999],单位是秒。 否 reclaimPolicy String QoS策略的回收策略。 取值: Delete:解除QoS策略关联的所有对象或者删除QoS策略关联的所有对象,系统会触发删除QoS策略。 Retain:解除QoS策略关联的所有对象或者删除QoS策略关联的所有对象,QoS策略仍保留。 否
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        QoS策略
        修改QoS策略
      • 功能特性
        功能集 功能 功能描述 应用生命周期管理 创建/部署/更新/查看/启动/停止/删除应用 创建/部署/更新/查看/启动/停止/删除应用。 高级设置 设置启动命令 CAE 会根据预设的启动参数来启动容器 高级设置 设置环境变量 应用在系统中运行更需要配置特定的环境变量 高级设置 设置 Hosts 绑定 CAE 支持应用级别的实例,通过绑定 Hosts 对主机名进行解析,方便应用实例通过主机名进行访问 高级设置 设置持久化日志 CAE 集成了云日志服务的日志收集功能,支持将业务文件日志(容器内日志文件)、容器标准输出日志(stdio)无限制行数地收集至 ALS,便于您聚合分析。 高级设置 设置 NAS 存储 将 NAS 挂载至 CAE 应用实例,可以有效解决应用数据地持久化存储需求,并实现应用实例之间地数据共享 高级设置 设置 OSS 存储 OSS 适用于读多写少地场景,例如挂载配置文件或者前端静态文件等 高级设置 设置应用生命周期管理 如果您精通 K8s,且需要在应用容器启动前或者关闭前执行相关操作,例如运行前部署资源或者停止前优雅下线应用,可以设置应用生命周期管理 高级设置 设置配置项 配置项能够将环境配置信息和容器镜像解耦,方便您修改应用配置 配置管理 配置项(ConfigMap) 配置项是一种存储应用所需配置信息地资源类型,它可以作为容器运行环境中的环境变量,便于应用部署后灵活变更容器配置,也可以通过挂载配置文件的方式向容器中注入配置信息 配置管理 保密字典(Secret) 保密字典是一种用于存储和管理密钥、证书等敏感信息的资源类型。为避免敏感数据暴露到镜像或应用与任务部署参数中,推荐您使用 CAE 命名空间级别的保密字典 弹性管理 手动扩缩 在应用的实例负载过高时以手动方式添加新应用实例,在应用闲置时减少应用实例,能够高效利用应用资源、降低成本 弹性管理 自动扩缩 在分布式应用管理中,弹性伸缩能够感知应用内各个实例的状态,并根据实例状态自动增加或减少实例数量,即扩容或缩容 版本管理 版本回退 应用修改配置并部署后,会自动生成一个基于时间点的应用版本,您可以查看对应时间点应用版本的配置,也可以操作版本回退到指定时间点的应用版本 应用访问 基于 ELB 实现应用公网及私网访问 在 CAE 中部署应用后,可以通过添加公网 ELB 实现公网访问应用,也可以添加私网 ELB 实现同 VPC 内私网访问应用 注册中心 CAE 内置注册中心 CAE 为用户提供免费的内置 Nacos 注册中心,在无需购买或自建注册中心的情况下即可部署微服务应用到 CAE 平台 注册中心 自建 Nacos 注册中心 CAE 支持使用自建 Nacos 注册中心实现服务的注册与发现功能 微服务治理 无损上线 在应用启动过程中,无损上线为应用提供服务延迟注册、服务就绪检查和服务小流量预热的保护能力 微服务治理 无损下线 在应用执行部署、停止、回滚、缩容和重置时,通过无损下线来保证应用正常关闭 微服务治理 金丝雀灰度 对于部署在 CAE 的 Spring Cloud 或 Dubbo 微服务应用,为了确保升级操作的安全性,您可以通过启用灰度发布(即金丝雀发布)的灰度规则进行小规模验证,验证通过后再全量升级 微服务治理 限流降级 CAE 支持使用微服务引擎 MSE 实现应用的限流降级,全面保障应用的可用性 运维管理 基础监控 CAE 对应用所运行设备的 CPU、负载、内存、网络和磁盘进行数据采集与分析,并以动态图的方式展示,方便实时、直观地了解应用所运行设备地状态 运维管理 应用监控 CAE 为多种语言和框架提供无侵入的应用监控能力 运维管理 一键启停 CAE 为应用提供了一键启停按钮,方便用户进行运维操作,同时还支持批量启停操作
        来自:
        帮助文档
        云应用引擎
        产品介绍
        功能特性
      • 构造请求
        请求方法 方法 说明 GET 请求服务器返回指定资源 PUT 请求服务器更新指定资源 POST 请求服务器新增资源或执行特殊操作 DELETE 请求服务器删除指定资源,如删除对象等 HEAD 请求服务器资源头部 PATCH 请求服务器更新资源的部分内容 当资源不存在的时候,PATCH可能会去创建一个新的资源。 在"根据regionID查询用户资源"的URI部分,您可以看到其请求方法为“POST”,则其请求为: POST < 请求消息头 名称 描述 是否必选 示例 ContentType 消息体的类型 是 application/json ctyuneoprequestid 流水号 是 0ffb9b07d5a84e19b3ce12dfb9705a1d EopAuthorization 签名认证信息 是 4a4bdc57e06542199b5f98d4cd107be2 Headersctyuneoprequestid;eopdate Signatureb2WEo4nh9ewn6SWOP0ii5g8L0z9CT5gprpDWntlCX9I Eopdate 时间,15分钟有效期(实际传时间为北京东八区UTC+8时间。TZ仅为格式,非UTC时间。) 是 20221107T093029Z EopAuthorization签名认证信息: 步骤一:构造代签字符串sigture sigture需要进行签名的Header排序后的组合列表+"n"+encode的query+"n"+toHex(sha256(原封的body)) 名称 描述 需要进行签名的Header排序后的组合列表 将ctyuneoprequestid、eopdate以 “headername:headervalue”的形式、以“n”作为每个header的结尾符、以英文字母表作为headername的排序依据将它们拼接起来。注意:EOP强制要求ctyuneoprequestid、eopdate必须进行签名。其他字段是否需要签名看自身需求。例子(假设你需要将ctyuneoprequestid、eopdate、host都要签名):ctyuneoprequestid:123456789neopdate:20210531T100101Zn encode的query query以&作为拼接,key和value以连接,值需要encode,Query参数全部都需要进行签名 toHex(sha256(原封的body)) 传进来的body参数进行sha256摘要,对摘要出来的结果转十六进制 sigture示例1(假设query为空、需要进行签名的Header排序后的组合列表为“ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680neopdate:20220525T160752Zn”、body参数做sha256摘要后转十六进制为e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855): ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680neopdate:20220525T160752Znnne3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855 sigture示例2(假设query不为空、需要进行签名的Header排序后的组合列表为“ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680neopdate:20220525T160752Zn”、body参数做sha256摘要后转十六进制为e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855): ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680neopdate:20220525T160930Znnaa1&bb2ne3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855 步骤二:构造动态秘钥kdate 1.使用eopdate作为数据,sk作为密钥,算出ktime。 2.使用ak作为数据,ktime作为密钥,算出kAk。 3.使用eopdate的年月日值作为数据,kAk作为密钥,算出kdate。 名称 描述 eopdate yyyyMMdd'T'HHmmss'Z'(20211221T163614Z)(年月日T时分秒Z)(实际传时间为北京东八区UTC+8时间,TZ仅为格式,非UTC时间) ktime 使用eopdate作为数据,sk作为密钥,算出ktime。ktimehmacSHA256(eopdate,sk) kAk 使用ak作为数据,ktime作为密钥,算出kAk。kAkhmacSHA256(ak,ktime) kdate 使用eopdate的年月日值作为数据,kAk作为密钥,算出kdate 步骤三:构造signature 使用kdate作为密钥、sigture作为数据,将其得到的结果进行base64编码得出signature 名称 描述 Signature hmacSHA256(sigture,kdate)将上一步的结果进行base64加密得出signature 步骤四:构造EopAuthorization 1.构造Headers。 2.得到EopAuthorization。 EopAuthorization:ak Headersxxx Signaturexxx。 名称 描述 Headers 将需要进行签名的请求头字段以 “headername”的形式、以“;”作为间隔符、以英文字母表作为headername的排序依据将它们拼接起来。例子(假设你需要将ctyuneoprequestid、eopdate都要签名):Headersctyuneoprequestid;eopdate EopAuthorization EopAuthorization:ak Headersxxx Signaturexxx。注意,ak、Headers、Signature之间以空格隔开。例如:EopAuthorization:ak Headersctyuneoprequestid;eopdate SignatureNlMHOhk5bVfZ9MwDSSJydcZjjENmDtpNYigJGVb。注意:如果你需要进行签名的Header不止默认的ctyuneoprequestid和eopdate,那么你需要在httpclient的请求头部中加上,并且EopAuthorization中也需要增加
        来自:
      • 构造请求
        请求方法 方法 说明 GET 请求服务器返回指定资源 PUT 请求服务器更新指定资源 POST 请求服务器新增资源或执行特殊操作 DELETE 请求服务器删除指定资源,如删除对象等 HEAD 请求服务器资源头部 PATCH 请求服务器更新资源的部分内容 当资源不存在的时候,PATCH可能会去创建一个新的资源。 在"根据regionID查询用户资源"的URI部分,您可以看到其请求方法为“POST”,则其请求为: POST < 请求消息头 名称 描述 是否必选 示例 ContentType 消息体的类型 是 application/json ctyuneoprequestid 流水号 是 0ffb9b07d5a84e19b3ce12dfb9705a1d EopAuthorization 签名认证信息 是 4a4bdc57e06542199b5f98d4cd107be2 Headersctyuneoprequestid;eopdate Signatureb2WEo4nh9ewn6SWOP0ii5g8L0z9CT5gprpDWntlCX9I Eopdate 时间,15分钟有效期(实际传时间为北京东八区UTC+8时间。TZ仅为格式,非UTC时间。) 是 20221107T093029Z EopAuthorization签名认证信息: 步骤一:构造代签字符串sigture sigture需要进行签名的Header排序后的组合列表+"n"+encode的query+"n"+toHex(sha256(原封的body)) 名称 描述 需要进行签名的Header排序后的组合列表 将ctyuneoprequestid、eopdate以 “headername:headervalue”的形式、以“n”作为每个header的结尾符、以英文字母表作为headername的排序依据将它们拼接起来。注意:EOP强制要求ctyuneoprequestid、eopdate必须进行签名。其他字段是否需要签名看自身需求。例子(假设你需要将ctyuneoprequestid、eopdate、host都要签名):ctyuneoprequestid:123456789neopdate:20210531T100101Zn encode的query uery以&作为拼接,key和value以连接,值需要encode,Query参数全部都需要进行签名 toHex(sha256(原封的body)) 传进来的body参数进行sha256摘要,对摘要出来的结果转十六进制 sigture示例1(假设query为空、需要进行签名的Header排序后的组合列表为“ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680neopdate:20220525T160752Zn”、body参数做sha256摘要后转十六进制为e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855): ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680neopdate:20220525T160752Znnne3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855 sigture示例2(假设query不为空、需要进行签名的Header排序后的组合列表为“ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680neopdate:20220525T160752Zn”、body参数做sha256摘要后转十六进制为e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855): ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680neopdate:20220525T160930Znnaa1&bb2ne3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855 步骤二:构造动态秘钥kdate 1.使用eopdate作为数据,sk作为密钥,算出ktime。 2.使用ak作为数据,ktime作为密钥,算出kAk。 3.使用eopdate的年月日值作为数据,kAk作为密钥,算出kdate。 名称 描述 eopdate yyyyMMdd'T'HHmmss'Z'(20211221T163614Z)(年月日T时分秒Z)(实际传时间为北京东八区UTC+8时间,TZ仅为格式,非UTC时间) ktime 使用eopdate作为数据,sk作为密钥,算出ktime。ktimehmacSHA256(eopdate,sk) kAk 使用ak作为数据,ktime作为密钥,算出kAk。kAkhmacSHA256(ak,ktime) kdate 使用eopdate的年月日值作为数据,kAk作为密钥,算出kdate 步骤三:构造signature 使用kdate作为密钥、sigture作为数据,将其得到的结果进行base64编码得出signature 名称 描述 Signature hmacSHA256(sigture,kdate)将上一步的结果进行base64加密得出signature 步骤四:构造EopAuthorization 1.构造Headers。 2.得到EopAuthorization。 EopAuthorization:ak Headersxxx Signaturexxx。 名称 描述 Headers 将需要进行签名的请求头字段以 “headername”的形式、以“;”作为间隔符、以英文字母表作为headername的排序依据将它们拼接起来。例子(假设你需要将ctyuneoprequestid、eopdate都要签名):Headersctyuneoprequestid;eopdate EopAuthorization EopAuthorization:ak Headersxxx Signaturexxx。注意,ak、Headers、Signature之间以空格隔开。例如:EopAuthorization:ak Headersctyuneoprequestid;eopdate SignatureNlMHOhk5bVfZ9MwDSSJydcZjjENmDtpNYigJGVb。注意:如果你需要进行签名的Header不止默认的ctyuneoprequestid和eopdate,那么你需要在httpclient的请求头部中加上,并且EopAuthorization中也需要增加
        来自:
        帮助文档
        天翼云电脑(政企版)
        API参考
        如何调用API
        构造请求
      • 构造请求
        请求方法 方法 说明 GET 请求服务器返回指定资源 PUT 请求服务器更新指定资源 POST 请求服务器新增资源或执行特殊操作 DELETE 请求服务器删除指定资源,如删除对象等 HEAD 请求服务器资源头部 PATCH 请求服务器更新资源的部分内容 当资源不存在的时候,PATCH可能会去创建一个新的资源。 在"根据regionID查询用户资源"的URI部分,您可以看到其请求方法为“POST”,则其请求为: POST < 请求消息头 名称 描述 是否必选 示例 ContentType 消息体的类型 是 application/json ctyuneoprequestid 流水号 是 0ffb9b07d5a84e19b3ce12dfb9705a1d EopAuthorization 签名认证信息 是 4a4bdc57e06542199b5f98d4cd107be2 Headersctyuneoprequestid;eopdate Signatureb2WEo4nh9ewn6SWOP0ii5g8L0z9CT5gprpDWntlCX9I Eopdate 时间,15分钟有效期(实际传时间为北京东八区UTC+8时间。TZ仅为格式,非UTC时间。) 是 20221107T093029Z EopAuthorization签名认证信息: 步骤一:构造代签字符串sigture sigture需要进行签名的Header排序后的组合列表+"n"+encode的query+"n"+toHex(sha256(原封的body)) 名称 描述 需要进行签名的Header排序后的组合列表 将ctyuneoprequestid、eopdate以 “headername:headervalue”的形式、以“n”作为每个header的结尾符、以英文字母表作为headername的排序依据将它们拼接起来。注意:EOP强制要求ctyuneoprequestid、eopdate必须进行签名。其他字段是否需要签名看自身需求。例子(假设你需要将ctyuneoprequestid、eopdate、host都要签名):ctyuneoprequestid:123456789neopdate:20210531T100101Zn encode的query query以&作为拼接,key和value以连接,值需要encode,Query参数全部都需要进行签名 toHex(sha256(原封的body)) 传进来的body参数进行sha256摘要,对摘要出来的结果转十六进制 sigture示例1(假设query为空、需要进行签名的Header排序后的组合列表为“ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680neopdate:20220525T160752Zn”、body参数做sha256摘要后转十六进制为e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855): ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680neopdate:20220525T160752Znnne3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855 sigture示例2(假设query不为空、需要进行签名的Header排序后的组合列表为“ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680neopdate:20220525T160752Zn”、body参数做sha256摘要后转十六进制为e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855): ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680neopdate:20220525T160930Znnaa1&bb2ne3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855 步骤二:构造动态秘钥kdate 1.使用eopdate作为数据,sk作为密钥,算出ktime。 2.使用ak作为数据,ktime作为密钥,算出kAk。 3.使用eopdate的年月日值作为数据,kAk作为密钥,算出kdate。 名称 描述 eopdate yyyyMMdd'T'HHmmss'Z'(20211221T163614Z)(年月日T时分秒Z)(实际传时间为北京东八区UTC+8时间,TZ仅为格式,非UTC时间) ktime 使用eopdate作为数据,sk作为密钥,算出ktime。ktimehmacSHA256(eopdate,sk) kAk 使用ak作为数据,ktime作为密钥,算出kAk。kAkhmacSHA256(ak,ktime) kdate 使用eopdate的年月日值作为数据,kAk作为密钥,算出kdate 步骤三:构造signature 使用kdate作为密钥、sigture作为数据,将其得到的结果进行base64编码得出signature 名称 描述 Signature hmacSHA256(sigture,kdate)将上一步的结果进行base64加密得出signature 步骤四:构造EopAuthorization 1.构造Headers。 2.得到EopAuthorization。 EopAuthorization:ak Headersxxx Signaturexxx。 名称 描述 Headers 将需要进行签名的请求头字段以 “headername”的形式、以“;”作为间隔符、以英文字母表作为headername的排序依据将它们拼接起来。例子(假设你需要将ctyuneoprequestid、eopdate都要签名):Headersctyuneoprequestid;eopdate EopAuthorization EopAuthorization:ak Headersxxx Signaturexxx。注意,ak、Headers、Signature之间以空格隔开。例如:EopAuthorization:ak Headersctyuneoprequestid;eopdate SignatureNlMHOhk5bVfZ9MwDSSJydcZjjENmDtpNYigJGVb。注意:如果你需要进行签名的Header不止默认的ctyuneoprequestid和eopdate,那么你需要在httpclient的请求头部中加上,并且EopAuthorization中也需要增加
        来自:
        帮助文档
        服务器安全卫士(原生版)
        API参考
        如何调用API
        构造请求
      • 基本概念
        本文介绍天翼云AOne会议基本概念。 AOne会议基本概念如下: 名称 概念说明 会议创建者 指通过AOne会议客户端发起快速会议或者预定会议的用户,通常是会议的组织者。会议创建者自动拥有主持人权限,可设置会议时间、会议主题、入会规则等。 主持人 拥有会议管理权限的用户,可以执行如全体静音、移除参会者、锁定会议、开启/关闭云录制等操作。会议创建者默认为主持人,也可将主持人转让给其他人。 联席主持人 主持人可指定一位或多位参会者为联席主持人,用于协助管理会议秩序。联席主持人可执行部分主持人权限(如全体静音、移除参会者、锁定会议、开启/关闭云录制等),但不可设置他人为联席主持人或结束会议。 参会者 被邀请加入会议的普通用户,默认无会议控制权限,仅可进行语音、视频、聊天、屏幕共享等操作(取决于会议安全模块设置)。 快速会议 指无需预约,可立即发起的即时会议,适合快速讨论和临时沟通场景。可通过客户端首页“快速会议”按钮快速创建。 预定会议 指设置好会议时间、会议主题、入会密码等信息后提前创建的会议,支持发送邀请、设置周期性等。适合有计划的正式会议。 周期会议 支持设置为按天、按周、按月、自定义重复的会议形式,用于固定时间召开例会、周会等,会议号和链接不变。 会议号 每个会议对应的唯一数字编号,可用于参会者通过AOne会议客户端“加入会议”按钮输入会议号的方式快速加入会议。 入会密码 用于限制参会权限的安全设置,需手动输入密码才可入会,保障会议安全性。 会议链接 会议系统生成的可点击入会的链接,便于通过微信、邮件等方式邀请他人参会。 锁定会议 主持人/联席主持人可在会议中进行安全设置“锁定会议”,防止后续用户进入,保障会议安全性与秩序。 云录制 支持将会议全过程录制保存至云端,用于会后查看、归档或信息留存。云录制开启与结束需由主持人或联席主持人操作。 屏幕共享 用户可将电脑/手机屏幕内容共享至会议中,支持共享全屏、指定窗口或应用。 共享电脑声音 当进行屏幕共享时,可选择“共享电脑声音”,使参会者能同时听到您设备播放的系统声音(如视频音频)。适用于共享视频演示、播放语音材料等场景。该功能通常仅在PC客户端可用。 开启/关闭麦克风 用户可根据需要自主开启或关闭麦克风进行发言或静音。主持人可设置参会者是否可自行解除静音,或在入会时默认静音。 全体静音 主持人/联席主持人可一键将所有参会者静音,适用于大型会议控制发言秩序。可设置是否允许参会者自行解除静音。 移出会议 主持人/联席主持人可将不符合参会要求的人员从当前会议中移除,移除后该用户需重新使用会议号或链接加入。 结束会议 主持人可点击“结束会议”按钮,强制结束本场会议,所有参会者将立即断开连接。如主持人选择“离开会议”但不结束,会议将自动选举会议中最先入会的人为主持人。 允许成员自我解除静音 主持人/联席主持人可设置是否允许参会者自己开启麦克风。如关闭该选项,参会者必须获得主持人允许后才能发言。 会议水印 主持人/联席主持人可在会议开始前或会议进行中启用“会议水印”功能,启用后,所有参会者的会议界面及其本地录制的会议文件上,将动态叠加显示该参会者的登录账号信息。 等候室 主持人/联席主持人可在会议开始前或会议进行中开启或关闭等候室,开启后,新加入的参会者将进入等候室,需经主持人批准后方可进入主会场。 移至等候室 主持人/联席主持人可将会中成员移至等候室,成员将离开主会场进入等候室。 虚拟背景 用户可设置系统提供的虚拟背景,或上传自定义图片,隐藏真实背景,适用于提升画面专业性或保护隐私。
        来自:
        帮助文档
        AOne会议
        产品介绍
        基本概念
      • 构造请求
        请求方法 方法 说明 GET 请求服务器返回指定资源 PUT 请求服务器更新指定资源 POST 请求服务器新增资源或执行特殊操作 DELETE 请求服务器删除指定资源,如删除对象等 HEAD 请求服务器资源头部 PATCH 请求服务器更新资源的部分内容 当资源不存在的时候,PATCH可能会去创建一个新的资源。 在"根据regionID查询用户资源"的URI部分,您可以看到其请求方法为“POST”,则其请求为: POST < 请求消息头 名称 描述 是否必选 示例 ContentType 消息体的类型 是 application/json ctyuneoprequestid 流水号 是 0ffb9b07d5a84e19b3ce12dfb9705a1d EopAuthorization 签名认证信息 是 4a4bdc57e06542199b5f98d4cd107be2 Headersctyuneoprequestid;eopdate Signatureb2WEo4nh9ewn6SWOP0ii5g8L0z9CT5gprpDWntlCX9I Eopdate 时间,15分钟有效期(实际传时间为北京东八区UTC+8时间。TZ仅为格式,非UTC时间。) 是 20221107T093029Z EopAuthorization签名认证信息: 步骤一:构造代签字符串sigture sigture需要进行签名的Header排序后的组合列表+"n"+encode的query+"n"+toHex(sha256(原封的body)) 名称 描述 需要进行签名的Header排序后的组合列表 将ctyuneoprequestid、eopdate以 “headername:headervalue”的形式、以“n”作为每个header的结尾符、以英文字母表作为headername的排序依据将它们拼接起来。注意:EOP强制要求ctyuneoprequestid、eopdate必须进行签名。其他字段是否需要签名看自身需求。例子(假设你需要将ctyuneoprequestid、eopdate、host都要签名):ctyuneoprequestid:123456789neopdate:20210531T100101Zn encode的query query以&作为拼接,key和value以连接,值需要encode,Query参数全部都需要进行签名 toHex(sha256(原封的body)) 传进来的body参数进行sha256摘要,对摘要出来的结果转十六进制 sigture示例1(假设query为空、需要进行签名的Header排序后的组合列表为“ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680neopdate:20220525T160752Zn”、body参数做sha256摘要后转十六进制为e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855): ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680neopdate:20220525T160752Znnne3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855 sigture示例2(假设query不为空、需要进行签名的Header排序后的组合列表为“ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680neopdate:20220525T160752Zn”、body参数做sha256摘要后转十六进制为e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855): ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680neopdate:20220525T160930Znnaa1&bb2ne3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855 步骤二:构造动态秘钥kdate 1.使用eopdate作为数据,sk作为密钥,算出ktime。 2.使用ak作为数据,ktime作为密钥,算出kAk。 3.使用eopdate的年月日值作为数据,kAk作为密钥,算出kdate。 名称 描述 eopdate yyyyMMdd'T'HHmmss'Z'(20211221T163614Z)(年月日T时分秒Z)(实际传时间为北京东八区UTC+8时间,TZ仅为格式,非UTC时间) ktime 使用eopdate作为数据,sk作为密钥,算出ktime。ktimehmacSHA256(eopdate,sk) kAk 使用ak作为数据,ktime作为密钥,算出kAk。kAkhmacSHA256(ak,ktime) kdate 使用eopdate的年月日值作为数据,kAk作为密钥,算出kdate 步骤三:构造signature 使用kdate作为密钥、sigture作为数据,将其得到的结果进行base64编码得出signature 名称 描述 Signature hmacSHA256(sigture,kdate)将上一步的结果进行base64加密得出signature 步骤四:构造EopAuthorization 1.构造Headers。 2.得到EopAuthorization。 EopAuthorization:ak Headersxxx Signaturexxx。 名称 描述 Headers 将需要进行签名的请求头字段以 “headername”的形式、以“;”作为间隔符、以英文字母表作为headername的排序依据将它们拼接起来。例子(假设你需要将ctyuneoprequestid、eopdate都要签名):Headersctyuneoprequestid;eopdate EopAuthorization EopAuthorization:ak Headersxxx Signaturexxx。注意,ak、Headers、Signature之间以空格隔开。例如:EopAuthorization:ak Headersctyuneoprequestid;eopdate SignatureNlMHOhk5bVfZ9MwDSSJydcZjjENmDtpNYigJGVb。注意:如果你需要进行签名的Header不止默认的ctyuneoprequestid和eopdate,那么你需要在httpclient的请求头部中加上,并且EopAuthorization中也需要增加
        来自:
        帮助文档
        证书管理服务
        API参考
        如何调用API
        构造请求
      • 数据架构使用流程
        本章节主要介绍数据架构使用流程。 DataArts Studio数据架构的流程如下: 1.准备工作 : −添加审核人 :在数据架构中,业务流程中的步骤都需要经过审批,因此,需要先添加审核人。只有工作空间管理员角色的用户才具有添加审核人的权限。 −管理配置中心 :数据架构中提供了丰富的自定义选项,统一通过配置中心提供,您需要根据自己的业务需要进行自定义配置。 2.数据调研 :基于现有业务数据、行业现状进行数据调查、需求梳理、业务调研,输出企业业务流程以及数据主题划分。 −主题设计 :通过分层架构表达对数据的分类和定义,帮助厘清数据资产,明确业务领域和业务对象的关联关系。 主题域分组 :基于业务场景对主题域进行分组。 主题域 :互不重叠数据的高层面的数据分类,用于管理其下一级的业务对象。 业务对象 :指企业运作和管理中不可缺少的重要人、事、物信息。 −流程设计 :针对流程的一个结构化的整体框架,描述了企业流程的分类、层级以及边界、范围、输入/输出关系等,反映了企业的商业模式及业务特点。 3.标准设计 :新建码表&数据标准。 −新建码表 :通常只包括一系列允许的值和附加文本描述,与数据标准关联用于生成值域校验质量监控。 −新建数据标准 :用于描述公司层面需共同遵守的属性层数据含义和业务规则。其描述了公司层面对某个数据的共同理解,这些理解一旦确定下来,就应作为企业层面的标准在企业内被共同遵守。 4.模型设计: 应用关系建模和维度建模的方法,进行分层建模。 −关系建模 :基于关系建模,新建SDI层和DWI层两个模型。 SDI :Source Data Integration,又称贴源数据层。SDI是源系统数据的简单落地。 DWI :Data Warehouse Integration,又称数据整合层。DWI整合多个源系统数据,对源系统进来的数据进行整合、清洗,并基于三范式进行关系建模。 −维度建模 :基于维度建模,新建DWR层模型并发布维度和事实表。 DWR :Data Warehouse Report,又称数据报告层。DWR基于多维模型,和DWI层数据粒度保持一致。 维度 :维度是用于观察和分析业务数据的视角,支撑对数据进行汇聚、钻取、切片分析,用于SQL中的GROUP BY条件。 事实表 :归属于某个业务过程的事实逻辑表,可以丰富具体业务过程所对应事务的详细信息。 5.指标设计 :新建业务指标和技术指标,技术指标又分为原子指标、衍生指标和复合指标。 −指标 :指标一般由指标名称和指标数值两部分组成,指标名称及其涵义体现了指标质的规定性和量的规定性两个方面的特点,指标数值反映了指标在具体时间、地点、条件下的数量表现。 业务指标用于指导技术指标,而技术指标是对业务指标的具体实现。 −原子指标 :原子指标中的度量和属性来源于多维模型中的维度表和事实表,与多维模型所属的业务对象保持一致,与多维模型中的最细数据粒度保持一致。 原子指标中仅含有唯一度量,所含其它所有与该度量、该业务对象相关的属性,旨在用于支撑指标的敏捷自助消费。 −衍生指标 :是原子指标通过添加限定、维度卷积而成,限定、维度均来源于原子指标关联表的属性。 −复合指标 :由一个或多个衍生指标叠加计算而成,其中的维度、限定均继承于衍生指标。 注意,不能脱离衍生指标、维度和限定的范围,去产生新的维度和限定。 6.数据集市建设 :新建DM层并发布汇总表。 −DM (Data Mart) :又称数据集市。DM面向展现层,数据有多级汇总。 −汇总表 :汇总表是由一个特定的分析对象(如会员)及其相关的统计指标组成的。组成一个汇总逻辑表的统计指标都具有相同的统计粒度(如会员),汇总逻辑表面向用户提供了以统计粒度(如会员)为主题的所有统计数据(如会员主题集市)。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        数据架构使用流程
      • 功能特性
        集群管理 一个DWS 集群由多个在相同子网中的相同规格的节点组成,共同提供服务。DWS 为用户提供了简单易用的Web管理控制台,让用户可以快速申请集群,轻松执行数据仓库管理任务,专注于数据和业务。 集群管理的主要功能如下: 创建集群 如果用户需要在云上环境中使用数据仓库服务,首先应创建一个DWS集群。用户可根据业务需求选择相应的产品规格和节点规格快速创建集群。 管理快照 快照是DWS 集群在某一时间点的完整备份,记录了这一时刻指定集群的所有配置数据和业务数据,快照可用于还原某一时刻的集群。用户可以为集群手动创建快照,也可以开启定时创建自动快照。自动快照有保留天数限制,用户可以对自动快照进行复制,生成手工快照以便长期保留。 当您从快照恢复集群时,系统将为您创建一个与原始集群规格相同、节点数也相同的新集群,并导入快照数据。 对于不再需要的快照,可以选择删除快照,以释放存储空间。 管理节点 用户可查看所创集群的节点列表,在节点管理页面可以清晰的查询各节点的状态、节点规格、是否已使用等信息。若用户需要进行大规模扩容操作时,可通过节点管理功能提前分批次添加准备好用于扩容的节点。例如需要新扩容180个BMS节点,可分3批各添加60个,如果其中有一部分添加失败,可再次添加失败数量的节点,等180个节点添加成功后,再使用这些添加好的节点进行扩容;添加节点过程中不影响集群业务。 扩容集群 随着业务的增长,现有集群规模可能无法满足业务需要,此时,用户可以扩容集群,为集群增加计算节点。扩容时业务不中断。进行扩容操作时,用户可根据需求选择是否在线扩容和自动重分布。 管理重分布 默认情况下,在扩容之后将自动调起重分布任务,为了增强扩容重分布整个流程的可靠性,可以选择在扩容时关闭自动重分布功能,在扩容成功之后再手动使用重分布功能执行重分布任务,数据重分布后将大大提升业务响应速率。当前重分布支持离线重分布、在线重分布两种模式,默认情况下,提交重分布任务时将选择离线重分布模式。 工作负载管理 当您有多个数据库用户同时查询作业时,一些复杂查询可能会长时间占用集群资源,从而影响其他查询的性能。例如一组数据库用户不断提交复杂、耗时的查询,而另一组用户经常提交短查询。在这种情况下,短时查询可能不得不在队列中等待耗时查询完成。为了提高效率,DWS提供了工作负载管理功能,DWS工作负载管理以工作负载队列为资源承载,对于不同的业务类型可以创建不同的工作负载队列,为这些队列配置不同的资源占比,然后将数据库用户添加至对应的队列中,以此来限制这些数据库用户的资源使用。 逻辑集群 逻辑集群是基于Node Group机制来划分物理节点的一种集群模式,从节点层次将大集群进行划分,和数据库形成交叉。一个数据库中的表可以按逻辑集群来分配到不同的物理节点,而一个逻辑集群也可以包含多个数据库的表。 重启集群 重启集群将有可能会导致正在运行中的业务数据丢失,如果需要执行重启操作,请确定不存在正在运行的业务,所有数据都已经保存。 删除集群 当用户不再需要集群时,可选择删除集群。此操作为高危操作,删除集群可能导致数据丢失,请谨慎操作。 DWS 为用户提供了以下两种方式管理集群和快照: 管理控制台方式 使用管理控制台方式访问DWS集群。用户在注册后,可直接登录管理控制台,选择“数据仓库服务”。 REST API方式 支持使用DWS 提供的REST API接口以编程的方式管理集群。如果用户需要将DWS 集成到第三方系统,用于二次开发,请使用API方式访问。
        来自:
        帮助文档
        数据仓库服务
        产品简介
        功能特性
      • 云数据库GaussDB支持的事件列表
        事件名称 事件ID 事件级别 事件说明 处理建议 事件影响 进程状态告警 ProcessStatusAlarm 重要 GaussDB关键进程退出,包括:CMS/CMA、ETCD、GTM、CN、DN。 等待进程自动恢复或者自动主备切换,观察业务是否恢复。 如果业务未恢复,联系SRE。 主机进程故障,在主机上进行的业务将中断回滚。 备机进程故障不影响业务。 组件状态告警 ComponentStatusAlarm 重要 GaussDB关键组件无响应,包括:CMA、ETCD、GTM、CN、DN。 等待进程自动恢复或者自动主备切换,观察业务是否恢复。 如果业务未恢复,联系SRE。 主机进程无响应,在主机上进行的业务将无响应。 备机进程故障不影响业务。 集群状态告警 ClusterStatusAlarm 重要 集群状态异常,包括:集群只读、ETCD多数派故障、集群分布不均衡。 联系SRE。 集群只读:业务只读。 ETCD多数派故障:集群不可用。集群分布不均衡:集群性能/可靠性降低。 硬件资源告警 HardwareResourceAlarm 重要 集群中出现严重的硬件故障,包括:磁盘损坏、GTM网络通信故障。 联系SRE。 业务部分/全部受损。 状态转换告警 StateTransitionAlarm 重要 集群出现如下重要事件: DN build/build失败、DN强切、DN主备切换/failover、GTM主备切换/failover。 等待自动恢复,观察业务是否恢复。如果业务未恢复,联系SRE。 部分业务受损。 其他异常告警 OtherAbnormalAlarm 重要 磁盘使用阈值告警等。 关注业务变化,及时计划扩容。 超过使用阈值,将无法扩容。 实例运行状态异常 TaurusInstanceRunningStatusAbnormal 重要 由于灾难或者物理机故障导致实例故障时,会上报该事件,属于关键告警事件。 提交工单。 可能导致数据库服务不可用。 实例运行状态异常已恢复 TaurusInstanceRunningStatusRecovered 重要 针对灾难性的故障,GaussDB有高可用工具会自动进行恢复或者手动恢复,执行完成后会上报该事件。 不需要处理。 无 节点运行状态异常 TaurusNodeRunningStatusAbnormal 重要 由于灾难或者物理机故障导致数据库节点故障时,会上报该事件,属于关键告警事件。 检查数据库服务是否可以正常使用,并提交工单。 可能导致数据库服务不可用。 节点运行状态异常已恢复 TaurusNodeRunningStatusRecovered 重要 针对灾难性的故障,GaussDB有高可用工具会自动进行恢复或者手动恢复,执行完成后会上报该事件。 不需要处理。 无 创建实例业务失败 GaussDBV5CreateInstanceFailed 重要 创建实例失败产生的事件,一般是配额大小不足,底层资源耗尽导致。 先释放不再使用的实例再尝试重新发放,或者提交工单调整配额上限。 无法创建数据库实例。 添加节点失败 GaussDBV5ExpandClusterFailed 重要 一般是由于底层资源不足等原因导致。 提交工单让运维在后台协调资源,删除添加失败的节点,重新尝试添加新节点。 无 存储扩容失败 GaussDBV5EnlargeVolumeFailed 重要 一般是由于底层资源不足等原因导致。 提交工单让运维在后台协调资源再重试扩容操作。 如果磁盘满,会导致业务中断。 重启失败 GaussDBV5RestartInstanceFailed 重要 一般是由于网络问题等原因导致 重试重启操作或提交工单让运维处理。 可能导致数据库服务不可用。 全量备份失败 GaussDBV5FullBackupFailed 重要 一般是备份文件导出失败或上传失败等原因导致。 提交工单让运维处理。 无法备份数据。 差量备份失败 GaussDBV5DifferentialBackupFailed 重要 一般是备份文件导出失败或上传失败等原因导致。 提交工单让运维处理。 无法备份数据。 删除备份失败 GaussDBV5DeleteBackupFailed 重要 无需实现。 绑定EIP失败 GaussDBV5BindEIPFailed 重要 弹性公网IP已被占用或IP资源等原因导致。 提交工单让运维处理。 导致实例无法使用公网链接或访问 解绑EIP失败 GaussDBV5UnbindEIPFailed 重要 网络故障或公网EIP服务故障等原因导致。 重新解绑Ip或提交工单让运维处理。 可能导致IP资源残留 参数组应用失败 GaussDBV5ApplyParamFailed 重要 一般是由于修改参数组命令超时导致。 重新尝试修改参数组操作。 无 参数修改失败 GaussDBV5UpdateInstanceParamGroupFailed 重要 一般是由于修改参数组命令超时导致。 重新尝试修改参数组操作。 无 备份恢复失败 GaussDBV5RestoreFromBcakupFailed 重要 一般是由底层资源不足或备份文件下载失败等原因导致 提交工单。 可能导致在恢复失败期间数据库服务不可用
        来自:
        帮助文档
        云监控服务
        用户指南
        事件监控
        事件监控支持的事件说明
        云数据库GaussDB支持的事件列表
      • 将PostgreSQL迁移到TeleDB
        本页介绍天翼云TeleDB数据库将PostgreSQL迁移至TeleDB。 支持的源和目标数据库 支持的源和目标数据库如下表: 源数据库 目标数据库 PostgresSQL 12, 13, 14, 15 TeleDB 支持的迁移对象及SQL 迁移对象 结构迁移支持的对象:模式、表、索引、约束(外键、唯一、排他)、视图、物化视图、序列、存储过程、函数、规则、触发器、用户自定义类型、域。 支持的字段类型:数字类型、货币类型、字符类型、二进制数据类型、日期/时间类型、布尔类型、枚举类型、几何类型、网络地址类型、位串类型、文本搜索类型、UUID类型、JSON类型、复合类型、范围类型。 注意事项 每次至多同步一个库(database),同步多个库需要创建多个DTS任务。 模式:不支持pgtoast,pgtemp1,pgtoasttemp1,pgcatalog,informationschema等系统模式的迁移。 表:不支持临时表的迁移,表的索引、约束会一起迁移,表的触发器、规则在全量完成之后迁移。 序列:待迁移的表中有引用序列时,必须同时迁移相应的序列。 映射规则: 不包含增量时,可以对库、表、列名进行映射,若对表的列进行映射,则表中涉及到该列的约束将不会迁移。 包含增量时,不支持列名映射。 视图、存储过程、函数、域、自定义类型等对象依赖的表不支持做表名映射,否则视图、存储过程、函数将会失效。 增量数据迁移支持的SQL操作 DML INSERT、UPDATE、DELETE。 DDL 增量迁移的DDL操作仅支持CREATE TABLE、ALTER TABLE、DROP TABLE、CREATE SEQUENCE、ALTER SEQUENCE、DROP SEQUENCE、CREATE VIEW、ALTER VIEW、DROP VIEW、CREATE INDEX、ALTER INDEX、DROP INDEX。 注意 暂不支持 CREATE TABLE 表名 AS SELECT 语句。 RENAME表名之后,向更改名称后的表插入新的数据时,DTS不会同步新的数据到目标库,因可能会导致任务中断异常或数据不一致。 暂不支持以注释开头的DDL语句的同步。 数据库账号及权限 数据库 所需权限 参考赋权语句 源库 数据库的CONNECT权限, 模式的USAGE权限, 表的SELECT权限, 序列的SELECT权限存在增量 REPLICATION连接权限 对模式public的USAGE和CREATE权限 用于 增量抓取ddl ,这里也可以用户提前创建好 CREATE USER和GRANT语法。 创建同步用户 (dts)CREATE USER dts WITH PASSWORD 'xxx'; 授权同步用户 (dts) 需要同步的 SCHEMA (public) 权限 GRANT SELECT,REFERENCES,TRIGGER ON ALL TABLES IN SCHEMA public TO dts; grant SELECT on ALL SEQUENCES IN SCHEMA public to dts; grant usage on schema public to dts; 开启同步用户 (dts) 的 REPLICATIONALTER USER dts REPLICATION; grant pgreadallsettings to dts; 目标库 存在结构 具有模式所在库的CONNECT权限、 模式所在库上的CREATE权限、 对象所在模式的USAGE权限、 对象所在模式上的CREATE权限 不存在结构 迁移库表的INSERT, UPDATE, DELETE, DDL 权限 创建同步用户 (dts)CREATE USER dts WITH PASSWORD 'xxx'; grant usage on schema public to dts; grant ALL PRIVILEGES ON ALL TABLES IN SCHEMA public TO dts; grant CREATE on DATABASE public to dts; grant CREATE on schema public to dts 操作须知 DTS迁移过程一般包含四个阶段:预检查阶段、结构迁移阶段、全量阶段、增量阶段。为了确保数据迁移各个阶段的平顺,在创建迁移任务前,请务必阅读以下使用须知。 任务开始前 源库要求 源数据库的分区表触发器不可以设置为disable。 全量同步支持源库备机状态,但需要设置hotstandbyfeedback为on;增量同步不支持源库备机状态。 同步对象依赖和关联的对象也须一起同步,否则可能导致任务失败。 若要做增量同步,源数据库的“pghba.conf” 文件中包含如下的配置: host replication all 0.0.0.0/0 md5 源数据库参数wallevel必须配置为logical; 源数据库需提前安装Decoderbufs插件; 源数据库中无主键表的replica identity属性必须为full; 源数据库的maxreplicationslots参数值必须大于当前已使用的复制槽数量; 源数据库的maxwalsenders参数值必须等于或大于maxreplicationslots参数值; 源数据库中表的主键列toast属性为main、external、extended时,其replica identity属性必须为full。 同步对象依赖和关联的对象也须一起同步,否则可能导致任务失败。 目标库要求 目标数据库的blocksize参数值必须大于或等于源库中的对应参数值。 如果存在money类型的字段,需要目标数据库和源数据库的lcmonetary参数值一致。 若要做增量同步,且同步对象包含外键、触发器或事件触发器,则目标数据库的sessionreplicationrole参数必须设置为replica,同步结束后,此参数需改为origin。 目标库不可以包含与待同步对象类型相同且名称相同的对象,包括模式、表、序列等,否则任务可能出差。系统库、系统模式、系统表等除外。 选择表级对象迁移时,增量迁移过程中不建议对表进行重命名操作。 对于全量+增量和增量任务,启动前请确保源库中未启动长事务,启动长事务会阻塞逻辑复制槽的创建,进而引发任务失败。 若选择同步DDL,须注意源库执行DDL时,确保在目标库上是兼容的。 目标数据库关联TeleDB实例必须有足够的磁盘空间,磁盘大小建议取以下两种中的最小值: 源库待迁移数据量大小的1.5倍。 源库待迁移数据量大小加200GB。 结构、全量过程中 请勿修改源库和目标库的端口号,请勿修改、删除源库和目标库连接用户的密码、权限,否则可能导致任务失败。 请勿在源库执行任何DDL,否则可能导致数据不一致或任务失败。 请勿在目标库做写入操作,否则可能导致数据不一致。 增量过程中 请勿修改源库和目标库的端口号,请勿修改、删除源库和目标库连接用户的密码、权限,否则可能导致任务失败。 请勿修改源数据库表的主键或者唯一键(主键不存在时),否则可能导致增量数据不一致或任务失败。 请勿修改源数据库中表的replica identity属性,否则可能导致增量数据不一致或任务失败。 请勿在目标库做写入操作,否则可能导致数据不一致。 库级同步时,源库新增无主键表时,请务必同时将该无主键表的replica identity属性设置为full,然后再写入数据,否则可能导致数据不一致或任务失败。 库级同步时,源库新增主键表时,如果主键列toast属性为main、external、extended时,请务必同时将该表的replica identity属性设置为full,然后再写入数据,否则可能导致数据不一致或任务失败。 若选择同步DDL,须注意源库执行DDL时,确保在目标库上是兼容的。 数据稽核 建议在源库的业务低峰期进行数据比对,防止误报不一致数据,以及减少对源库和DTS任务的冲击。 在增量同步过程中做对比时,源库若存在写入,则对比结果可能不一致。 数据类型映射说明 PostgreSQL类型 Decoderbuf字段 BOOLOID datumboolean INT2OID datumint32 INT4OID datumint32 INT8OID datumint64 OIDOID datumint64 FLOAT4OID datumfloat FLOAT8OID datumdouble NUMERICOID datumdouble CHAROID datumstring VARCHAROID datumstring BPCHAROID datumstring TEXTOID datumstring JSONOID datumstring XMLOID datumstring UUIDOID datumstring TIMESTAMPOID datumstring TIMESTAMPTZOID datumstring BYTEAOID datumbytes POINTOID datumpoint PostGIS geometry datumpoint PostGIS geography datumpoint 准备工作 1. 登录自建PostgreSQL所属的服务器。 2. 如果需要进行增量迁移,需要将配置文件中的wallevel设置为logical。 3. 将DTS的IP地址加入至自建PostgreSQL的配置文件pghba.conf中。如下图: 如果您已将信任地址配置为0.0.0.0/0,可跳过本步骤。 4. 如果任务包含增量迁移,需安装PostgreSQL的逻辑解码器输出插件Decoderbufs,建议安装v2.1.1.Final以上版本,低版本可能会导致PostgreSQL数据库出现coredump,详细的步骤可参考如下内容或PostgreSQL官网文档。 > (1) 请自行前往github仓库获取Decoderbufs插件。 > (2) 进行插件的配置。 > ① 进行插件的编译。 > > export PATH/usr/lib/postgresql/9.6/bin:$PATH > make > make install > ② 在postgresql.conf中配置逻辑复制。 > > MODULES > sharedpreloadlibraries 'decoderbufs'
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据传输服务操作指南
        迁移指南
        迁移配置
        将PostgreSQL迁移到TeleDB
      • 部署规划
        您需要在部署天翼云TeleDB数据库之前,规划相关的硬件、网络及基础环境。 1. 先准备好介质独立部署,为方便快速部署,TelePG从1.5.3版本开始支持独立部署功能。前期准备好介质,部署好zk,部署好mysql,借助TelePG控制台进行部署。 2. 通过集团云翼平台直接订购开通部署。 3. 流复制是PostgreSQL 9.0 之后提供的新的传递 WAL 日志的方法。通过流复制,备库不断的从主库同步相应的数据,并在备库应用每个 WAL 文件 。主备模式推荐采用同步及潜在同步至少三节点的方式。 4. 暂不支持自动建立database,需用户手动建立database;支持自动建schema,用户可不用手动建立schema。 内存分配 1.shared buffer pool,共享内存区域:供 PostgreSQL 服务器的所有进程使用。查看 sharedbuffers 参数可以得到其设置值,建议设为内存的四分之一。 2.WAL buffer,预写日志缓冲区:WAL 数据在写入持久存储之前的缓冲区,实例初始化时自动计算。 3.commit log,提交日志:所有事务的状态日志,每个事务占用 2bit,最大512MB。 4.tempbuffers,临时表缓冲区。 5.workmem,工作内存:执行器在执行 sort、distinct 使用该区域对元组做排序,以及存储 merge join、hash join 多表连接的数据,受最大连接数 maxconnections 参数影响,建议用户 session 级别进行设置,不要全局设置。 6.maintenanceworkmem,维护内存:某些类型的维护操作使用该区域(如vacuum、reindex)。 注意 按照小系统上云oltp应用保守设置,如果是大数据、数据仓库,需要再此基础按照测试重新优化调整较大参数值。 最大内存估算可参考如下表: 项目 值(MB) 备注 maxconnections 100 默认值为100 workmem 4 默认值为4,最小值64KB tempbuffers 8 默认值为8,最小值800KB sharedbuffers 128 默认值为8,最小值128KB autovacuummaxworkers 3 默认值为3 maintenanceworkmem 64 默认值为64MB,最小值为1MB。 commit log 48 每个事务2bits,autovacuumfreezemaxage,默认为2亿。 maxconnectionsworkmem+maxconnectionstempbuffers+sharedbuffers+(autovacuummaxworkersmaintenanceworkmem)+clog 1568 wal buffers1 autovacuumworkmem1 操作系统配置规范: 关闭 CPU 的节能模式。 关闭 NUMA。 建议使用 UTF8。 设置时间时区,建议主机工程师设置时间同步服务。 关闭其他服务: systemctl stop tuned.service ktune.service systemctl stop firewalld.service systemctl stop postfix.service systemctl stop avahidaemon.socket systemctl stop avahidaemon.service systemctl stop atd.service systemctl stop bluetooth.service systemctl stop wpasupplicant.service systemctl stop accountsdaemon.service systemctl stop atd.service cups.service systemctl stop postfix.service systemctl stop ModemManager.service systemctl stop debugshell.service systemctl stop rtkitdaemon.service systemctl stop rpcbind.service systemctl stop rngd.service systemctl stop upower.service systemctl stop rhsmcertd.service systemctl stop rtkitdaemon.service systemctl stop ModemManager.service systemctl stop mcelog.service systemctl stop colord.service systemctl stop gdm.service systemctl stop libstoragemgmt.service systemctl stop ksmtuned.service systemctl stop brltty.service systemctl stop avahidnsconfd.service 数据库高可用telePG 数据库高可用telePG组件服务器,bios层需要关闭numa,关闭电源保护模式设置CPU为最大性能模式,让其不降频,cat /proc/cpuinfo grep E "model nameMHz"CPU型号、频率一致。 参数类型 配置项 说明 操作系统内核参数配置 sysctl vm.swappiness5 5~10可选,但不可能阻止使用swap空间 操作系统内核参数配置 vm.minfreekbytes1024000 保证系统空闲内存维持在一定水平,同时保障内存管理low和min水位之间有足够间隔 操作系统内核参数配置 fs.aiomaxnr40960000 aiomaxnr no of process per DB no of databases 4096 操作系统内核参数配置 vm.dirtyratio20 vm.dirtybackgroundratio5 vm.dirtywritebackcentisecs100 vm.dirtyexpirecentisecs500 可选,这个参数指定了当文件系统缓存脏页数量达到系统内存百分之多少时(如5%)就会触发pdflush/flush/kdmflush等后台回写进程运行,将一定缓存的脏页异步地刷入外存 操作系统内核参数配置 vm.vfscachepressure150 vm.swappiness10 vm.minfreekbytes524288">> /etc/sysctl.d/99sysctl.conf && sysctl system 可选,该参数表示内核回收用于directory和inode cache内存的倾向。缺省值100表示内核将根据pagecache和swapcache,把directory和inode cache保持在一个合理的百分比;降低该值低于100,将导致内核倾向于保留directory和inode cache;增加该值超过100,将导致内核倾向于回收directory和inode cache 操作系统内核参数配置 fs.filemax 76724200 该参数表示文件句柄的最大数量。文件句柄设置表示在linux系统中可以打开的文件数量 操作系统内核参数配置 net.core.rmemmax 4194304 最大的TCP数据接收缓冲 操作系统内核参数配置 net.core.wmemmax 2097152 最大的TCP数据发送缓冲 操作系统内核参数配置 net.core.wmemdefault 262144 表示接收套接字缓冲区大小的缺省值(以字节为单位) 操作系统内核参数配置 net.core.rmemdefault 262144 表示发送套接字缓冲区大小的缺省值(以字节为单位) 操作系统内核参数配置 net.ipv4.tcpsyncookies 1 当出现SYN等待队列溢出时,启用cookies来处理,可防范少量SYN攻击,默认为0,表示关闭。 操作系统内核参数配置 net.ipv4.tcptwreuse 1 允许将TIMEWAIT sockets重新用于新的TCP连接,默认为0,表示关闭 操作系统内核参数配置 net.ipv4.tcptwrecycle 1 TCP连接中TIMEWAIT sockets的快速回收,默认为0,表示关闭,注意如果是natnat网络,并与net.ipv4.tcptimestamps 1组合使用,则会出现时断时续的情况 操作系统内核参数配置 net.ipv4.tcpfintimeout 30 修改系統默认的TIMEOUT 时间,避免服务器被大量的TIMEWAIT拖死 操作系统内核参数配置 net.ipv4.iplocalportrange 9000 65000 如果连接数本身就很多,可以再优化一下TCP的可使用端口范围,进一步提升服务器的并发能力,默认值是32768到61000 操作系统内核参数配置 net.ipv4.tcpmaxsynbacklog 8192 SYN队列的长度,默认为1024,加大队列长度为8192,可以容纳更多等待连接的网络连接数 操作系统内核参数配置 net.ipv4.tcpmaxtwbuckets 5000 系统同时保持TIMEWAIT的最大数量,如果超过这个数字,TIMEWAIT将立刻被清除并打印警告信息,默认为180000 操作系统内核参数配置 net.ipv4.conf.all.rpfilter 0 net.ipv4.conf.all.arpfilter 0 net.ipv4.conf.default.rpfilter 0 net.ipv4.conf.default.arpfilter 0 net.ipv4.conf.lo.rpfilter 0 net.ipv4.conf.lo.arpfilter 0 net.ipv4.conf.em1.rpfilter 0 net.ipv4.conf.em1.arpfilter 0 net.ipv4.conf.em2.rpfilter 0 net.ipv4.conf.em2.arpfilter 0 网卡的设置 操作系统内核参数配置 kernel.shmmni 4096 这个内核参数用于设置系统范围内共享内存段的最大数量。该参数的默认值是4096 。通常不需要更改kernel.sem 250 32000 100 142 操作系统内核参数配置 kernel.shmall 1073741824 该参数表示系统一次可以使用的共享内存总量(以页为单位)。缺省值是2097152,可根据kernel.shmmax大小进行调整(kernel.shmmax/41024或者kernel.shmmax/81024) 操作系统内核参数配置 kernel.shmmax 4398046511104 该参数定义了共享内存段的最大尺寸(以字节为单位),此值默认为物理内存的一半 操作系统内核参数配置 kernel.sysrq 0 如无需调试系统排查问题,这个必须为0 telepg的 limits.conf配置 telepg soft nofile1048576 telepg的 limits.conf配置 telepg soft memlock 1 telepg的 limits.conf配置 telepg hard memlock 1 telepg的 limits.conf配置 telepg hard memlock 128849018880 telepg的 limits.conf配置 telepg soft memlock 128849018880 telepg的 limits.conf配置 telepg soft core6291456 telepg的 limits.conf配置 telepg hard core6291456 telepg的 limits.conf配置 telepg hard nproc131072 telepg的 limits.conf配置 telepg soft nproc131072 telepg的 limits.conf配置 telepg hard nofile 1048576 telepg的 limits.conf配置 telepg hard stack 32768 telepg的 limits.conf配置 telepg soft stack 10240 禁用透明大页 echo never> /sys/kernel/mm/transparenthugepage/enabled 禁用透明大页 echo never> /sys/kernel/mm/transparenthugepage/defrag 网络连通性 确保组件和集群内的网络联通。 确保与相关联组件的网络连通。 确保防火墙关闭。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V1.0.0版本产品文档
        安装部署手册
        安装前准备
        部署规划
      • 系统兼容与迁移限制
        主机迁移服务重要声明有哪些? 源端服务器数据收集声明 。 源端服务器上安装和配置完迁移Agent后,迁移Agent会把源端服务器信息发送给主机迁移服务校验,收集的源端服务器的详细信息请参见主机迁移服务会收集源端的哪些信息?。这些数据只用于迁移可行性判断,不做其他用途。若您使用主机迁移服务,表示您同意主机迁移服务对这些信息的收集。 License失效声明 。 源端服务器的系统、应用、文件等数据迁移到目的端服务器后,服务器的SID、网卡MAC地址等信息发生改变,导致OS、应用等License失效。此类问题,主机迁移服务概不负责。对于Windows License可以使用天翼云License服务器获取新License,应用License用户自行解决。 迁移过程中禁止对目的端服务器的系统、磁盘进行操作,包括但不限于切换操作系统、重装系统等。在迁移过程中对目的端服务器进行操作所产生的费用以及数据损坏等问题,主机迁移服务概不负责。 目的端服务器磁盘格式化说明 。 迁移过程中,目的端服务器的磁盘会被格式化并重新进行分区,导致目的端服务器上所有数据丢失。请迁移前做好数据备份以及确认目的端服务器磁盘可被格式化。否则造成数据丢失,主机迁移服务概不负责。 源端磁盘数据安全性声明 迁移过程中,主机迁移服务无法感知磁盘内容,需要您自行保障源端磁盘数据的安全性。如果因为源端磁盘数据中存在木马或病毒等软件,导致迁移后目的端VPC内的主机受到影响,主机迁移服务概不负责。 源端服务器导致的迁移问题免责申明 。 因源端服务器的硬件(如磁盘、网卡)、软件(如OS、应用)、数据(文件)等损坏/配置不当/不兼容/业务量大/网络慢等因素引发的迁移问题,非主机迁移服务的问题,包括但不限于下面列举的问题。您可自行解决,若自行解决无果,您可以向天翼云提出咨询或请求天翼云协助解决,但天翼云不承诺解决问题。 源端服务器系统本身有问题,如:Windows的启动文件损坏或缺失。 源端服务器系统配置错乱,如:Linux的grub配置错乱缺失,fstab配置错乱。 网络问题,如:访问不了公网,网速慢,ssh问题,防火墙等。 IO读写慢,增量数据多,Windows有效簇分散,Linux小文件多导致的迁移慢,同步慢,同步时间比较久的问题。 源端平台服务或软件与天翼云不兼容。 源端平台服务或软件把Agent关闭,或杀毒软件把IO监控关闭。 迁移到天翼云后,若目的端服务器不能正常启动,天翼云可以提供相应的技术支持,但是不承诺解决问题。 其中目的端服务器不能正常启动的原因可能包括以下几种: 源端服务器本身无法重启 源端服务器上有非OS标准的配置 源端服务器上安装了与天翼云不兼容的驱动或软件等 为了适配天翼云,主机迁移服务对目的端服务器的系统配置做了修改,详细的修改项请参见迁移后目的端与源端相比有哪些变化?。主机迁移服务可以保证迁移前后数据一致性,但无法保证业务能正常运行,需要您自己修改业务相关配置。 业务割接后,源端服务器、目的端服务器均有新增数据时,使用主机迁移服务,无法将源端新增数据与目的端新增数据进行合并,只能使用源端数据覆盖目的端数据。因此,建议您在业务割接前,不要在目的端服务器新增数据;业务割接后,不要在源端服务器新增数据。对于业务割接后,源端服务器、目的端服务器均有新增数据且需要合并的情况,需要您自行设计解决方案。 GPU服务器驱动问题声明 迁移到GPU服务器出现的驱动相关问题(如:不具备计算加速/图形加速能力),需要您自行安装相关驱动解决。若自行解决无果,天翼云可以提供相应的技术支持,但是不承诺解决问题。 关于业务隔离、业务冲突声明 主机迁移服务在迁移过程中,不会识别和感知用户业务,需要用户自行识别源端和目的端业务之间的冲突并保持隔离性,如果因为目的端启动后对源端造成业务冲突异常,主机迁移服务概不负责。
        来自:
        帮助文档
        主机迁移服务SMS
        常见问题
        系统兼容与迁移限制
      • 新建MRS Hive连接
        参数 是否必选 说明 数据连接名称 是 数据连接的名称,只能包含英文字母、数字、下划线和中划线,且长度为1~50个字符。 标签 否 标识数据连接的属性。设置标签后,便于统一管理。 说明 标签的名称,只能包含中文、英文字母、数字和下划线,不能以下划线开头。且长度不能超过100个字符。 集群名 是 选择Hive所属的MRS集群。如果在下拉列表中无法显示MRS集群,请检查MRS集群与DataArts Studio实例是否网络互通。 需确保MRS集群和DataArts Studio实例之间网络互通,网络互通需满足如下条件: DataArts Studio实例(指DataArts Studio实例中的CDM集群)与MRS集群处于不同区域的情况下,需要通过公网或者专线打通网络。通过公网互通时,需确保CDM集群已绑定EIP,MRS集群可以访问公网且防火墙规则已开放连接端口。 DataArts Studio实例(指DataArts Studio实例中的CDM集群)与MRS集群同区域情况下,同虚拟私有云、同子网、同安全组的不同实例默认网络互通;如果同虚拟私有云但子网或安全组不同,还需配置路由规则及安全组规则,配置路由规则请参见 连接方式 是 选择所需的连接方式,推荐使用“通过代理连接”。 通过代理连接:通过Agent(即CDM集群)进行代理,以MRS集群的用户名和密码访问MRS集群。代理连接方式支持MRS所有版本的集群。 MRS API连接:以MRS API的方式访问MRS集群。MRS API连接仅支持2.X及更高版本的MRS集群。 选择MRS API连接时,有以下约束: 1. 无法查看表和字段。 2. 在SQL编辑器运行SQL时,只能以日志形式显示执行结果。 3. 数据治理(如数据架构、数据质量、数据目录等组件)功能无法使用MRS API连接。 说明 为保证数据架构、数据质量、数据目录、数据服务等组件能够使用此MRS连接,此处连接方式推荐配置为“通过代理连接”。 用户名 否 MRS集群的用户名,通过代理连接的时候,是必选项。如果使用新建的MRS用户进行连接,您需要先登录Manager页面,并更新初始密码。 如果要创建MRS安全集群的数据连接,不能使用admin用户。因为admin用户是默认的管理页面用户,这个用户无法作为安全集群的认证用户来使用。您可以参考 说明 MRS 3.1.0及之后版本集群,所创建的用户至少需具备Managerviewer的角色权限才能在管理中心创建连接;如果需要对应组件的进行库、表、数据的操作,还需要添加对应组件的用户组权限。 MRS 3.1.0版本之前的集群,所创建的用户需要具备Manageradministrator或Systemadministrator权限,才能在管理中心创建连接。 仅具备Managertenant或Managerauditor权限,无法创建连接。 密码 否 MRS集群的访问密码,通过代理连接的时候,是必选项。 KMS密钥 否 KMS密钥名称。通过代理连接的时候,是必选项。 绑定Agent 否 通过代理连接的时候,是必选项。 MRS为非全托管服务,DataArts Studio无法直接与非全托管服务进行连接。CDM集群提供了DataArts Studio与非全托管服务通信的代理,所以创建MRS的数据连接时,请选择一个CDM集群。如果没有可用的CDM集群,请先通过数据集成增量包进行创建。 CDM集群作为网络代理,必须和MRS集群网络互通才可以成功创建MRS连接,为确保两者网络互通,CDM集群必须和MRS集群处于相同的区域、可用区、VPC和子网,安全组规则需允许两者网络互通。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        管理控制台
        使用教程
        新建MRS Hive连接
      • 重置节点
        操作步骤 新UI支持批量重置节点。 步骤 1 登录CCE控制台。 步骤 2 单击集群名称进入集群,在左侧选择“节点管理”,在右侧列表中选择要重置的节点,可以选多个。单击“更多 > 重置节点”。 步骤 3 在弹出的窗口中单击“是”。跳转到参数配置界面。 对于DefaultPool节点池下的节点,会跳转到配置参数界面,请参见步骤 4 进行配置。 对于用户创建的节点池下的节点,重置是不支持配置参数,直接使用节点池的配置镜像重置。 步骤 3 配置节点参数。 计算配置 表 计算配置参数 参数 参数说明 节点规格 重置节点时不支持修改节点规格。 容器引擎 CCE集群支持Docker,1.23起CentOS、Ubuntu支持Containerd。 操作系统 公共镜像:请选择节点对应的操作系统。 登录方式 密码 用户名默认为“root”,请输入登录节点的密码,并确认密码。登录节点时需要使用该密码,请妥善管理密码,系统无法获取您设置的密码内容。 密钥对选择用于登录本节点的密钥对,支持选择共享密钥。密钥对用于远程登录节点时的身份认证。若没有密钥对,可单击选项框右侧的“创建密钥对”来新建。 存储配置 配置节点云服务器上的存储资源,方便节点上的容器软件与容器应用使用。 表 存储配置参数 参数 参数说明 系统盘 直接使用云服务器的系统盘。 数据盘 至少需要一块数据盘 ,供容器运行时和Kubelet组件使用,该数据盘不能被删除卸载,否则会导致节点不可用。 单击后方的“展开高级设置”可设置自定义空间分配:勾选后可定义容器运行时在数据盘上占用的空间比例,容器运行时的空间用于存放容器运行时工作目录、容器镜像数据以及镜像元数据。数据盘空间分配详细说明请参见数据盘空间分配说明。 其他数据盘 默认情况直接创建为裸盘,不做任何处理。您也可以展开高级配置,将磁盘挂载到指定目录。另外还可以作为持久存储卷或临时存储卷,具体使用请参见本地持久存储卷和临时存储卷。 高级配置 表 高级配置参数 参数 参数说明 K8S标签 单击“添加标签”可以设置附加到Kubernetes 对象(比如Pods)上的键值对,最多可以添加10条标签使用该标签可区分不同节点, 可结合工作负载的亲和能力实现容器Pod调度到指定节点的功能。详细请参见Labels and Selectors。 资源标签 通过为资源添加标签,可以对资源进行自定义标记,实现资源的分类。 CCE服务会自动帮您创建CCEDynamicProvisioningNode节点id的标签。 污点(Taints) 默认为空。 支持给节点加Taints来设置反亲和性,每个节点最多配置10条Taints,每条Taints包含以下3个参数: Key:必须以字母或数字开头,可以包含字母、数字、连字符、下划线和点,最长63个字符;另外可以使用DNS子域作为前缀。 Value:必须以字符或数字开头,可以包含字母、数字、连字符、下划线和点,最长63个字符。 Effect:只可选NoSchedule,PreferNoSchedule或NoExecute。须知l Taints配置时需要配合Pod的toleration使用,否则可能导致扩容失败或者Pod无法调度到扩容节点。 节点池创建后可单击列表项的“编辑”修改配置,修改后将同步到节点池下的已有节点。 最大实例数 节点最大可以正常运行的实例数(Pod),该数量包含系统默认实例,取值范围为16~256。 该设置的目的为防止节点因管理过多实例而负载过重,请根据您的业务需要进行设置。 安装前执行脚本 请输入脚本命令,大小限制为0~1000字符。 脚本将在Kubernetes软件安装前执行,可能导致Kubernetes软件无法正常安装,需谨慎使用。 安装后执行脚本 请输入脚本命令,大小限制为0~1000字符。 脚本将在Kubernetes软件安装后执行,不影响Kubernetes软件安装。 步骤 4 单击“下一步:规格确认”,确认已阅读并知晓服务协议。 步骤 5 单击“提交”。
        来自:
        帮助文档
        云容器引擎
        用户指南
        节点管理
        重置节点
      • 步骤四:配置远端隧道网关
        图VXLAN配置状态 up表示隧道状态正常。 操作步骤(H3C S6520交换机) 远端隧道网关的配置方法:在VXLAN交换机和企业交换机之间建立VXLAN隧道,并将VXLAN隧道与VXLAN关联,以便将虚拟机发送的二层报文封装为IP报文后发到企业交换机。VXLAN交换机的下行端口上配置以太网服务实例和相应的匹配规则,用来识别用户网络中的报文所属的VXLAN。 1. 配置交换机工作在VXLAN模式,保存配置并重启交换机(若已开启则跳过)。 配置示例: systemview [SwitchA] switchmode 1 shell Reboot device to make the configuration take effect. [SwitchA] quit reboot shell Start to check configuration with next startup configuration file, please wait.. .......DONE! Current configuration may be lost after the reboot, save current configuration? [Y/N]:y This command will reboot the device. Continue? [Y/N]:y 2. 创建隧道口并配置接口IP地址。 根据组网图规划,创建loopback接口并配置接口IP地址,作为隧道的远端地址。 配置示例: [SwitchA] interface loopback 0 [SwitchALoopBack0] ip address 2.2.2.2 32 注意 对于新规划的远端地址,即VXLAN交换机的接口IP地址(包括Loopback接口IP地址),要确认下其到企业交换机隧道子网路由是否可达,如果不通,需要在VXLAN交换机上配置路由。此处VXLAN交换机可以是汇聚交换机或者核心交换机,请根据网络实际规划选择。 3. 创建VXLAN。 1. 开启L2VPN能力。 配置示例: systemview [SwitchA] l2vpn enable 2. 配置VXLAN隧道工作在二层转发模式。 配置示例: [SwitchA] undo vxlan ipforwarding 3. 创建VSI实例vpna和VXLAN 5010。 配置示例: [SwitchA] vsi vpna [SwitchAvsivpna] vxlan 5010 [SwitchAvsivpnavxlan5010] quit [SwitchAvsivpna] quit 注意 这里VXLAN ID必须和表1创建二层连接时,远端接入信息的隧道号保持一致。 4. 创建VXLAN隧道 创建到达企业交换机的VXLAN隧道Tunnel1。 配置示例: [SwitchA] interface tunnel 1 mode vxlan [SwitchATunnel1] source 2.2.2.2 [SwitchATunnel1]destination 10.0.6.3 [SwitchATunnel1] quit 5. 关联VXLAN和VXLAN隧道。 在VXLAN交换机上将VXLAN隧道Tunnel1与VXLAN 5010关联。 配置示例: [SwitchA] vsi vpna [SwitchAvsivpna] vxlan 5010 [SwitchAvsivpnavxlan5010] tunnel 1 [SwitchAvsivpnavxlan5010] quit [SwitchAvsivpna] quit 注意 同一企业交换机上创建多个(最多6个)二层连接场景,需和此企业交换机建多条VXLAN,可以创建多个VXLAN和同一个VXLAN隧道关联。如:Tunnel1。 同一VXLAN交换机和多个企业交换机连接场景(此场景很少用),可以创建多个VXLAN隧道和同一个VXLAN关联。如:Tunnel1、Tunnel2。 6. 配置以太网服务实例匹配用户报文,并将其与VSI关联。 在VXLAN交换机接口BridgeAggregation1上创建以太网服务实例1000,该实例用来匹配VLAN 100的数据帧,将该服务实例与vpna(VXLAN 5010)关联。 配置示例: [SwitchA] BridgeAggregation 1 [SwitchABridgeAggregation1] port linktype trunk [SwitchABridgeAggregation1] serviceinstance 1000 [SwitchABridgeAggregation1srv1000] encapsulation svid 100 [SwitchABridgeAggregation1srv1000] xconnect vsi vpna [SwitchABridgeAggregation1srv1000] quit [SwitchABridgeAggregation1] quit 注意 在交换机物理以太接口上也可以创建以太网服务实例,方法类似。 7. 查看验证隧道状态。 查看Tunnel接口信息,可以看到VXLAN模式的Tunnel接口处于up状态。 配置示例: [SwitchA]display interface Tunnel 1 shell Tunnel1 Current state: UP Line protocol state: UP Description: Tunnel1 Interface Bandwidth: 64 kbps Maximum transmission unit: 1464 Internet protocol processing: Disabled Last clearing of counters: 17:19:44 Fri 01/18/2013 Tunnel source 2.2.2.2, destination 10.0.6.3 Tunnel protocol/transport UDPVXLAN/IP Last 300 seconds input rate: 0 bytes/sec, 0 bits/sec, 0 packets/sec Last 300 seconds output rate: 0 bytes/sec, 0 bits/sec, 0 packets/sec Input: 0 packets, 0 bytes, 4 drops Output: 0 packets, 0 bytes, 0 drops 查看VSI信息,可以看到与VXLAN关联的VXLAN隧道、与VSI关联的以太网服务实例均处于up状态。 配置示例: [SwitchA]display l2vpn vsi verbose shell VSI Name: vnpa VSI Index : 1 VSI State : Up MTU : 1500 Bandwidth : Broadcast Restrain : Multicast Restrain : Unknown Unicast Restrain: MAC Learning : Enabled MAC Table Limit : MAC Learning rate : Drop Unknown : Flooding : Enabled Statistics : Disabled VXLAN ID : 5010 Tunnels: Tunnel Name Link ID State Type Flood proxy Tunnel1 0x5000001 UP Manual Disabled ACs: AC Link ID State Type BAGG1 srv1000 0 Up Manual
        来自:
        帮助文档
        企业交换机
        快速入门
        步骤四:配置远端隧道网关
      • RocketMQ业务迁移
        本章节介绍了如何讲其他厂商或自建的业务迁移到分布式消息服务RocketMQ的实践方案。 操作场景 RocketMQ业务迁移是指将其他厂商或者自建的RocketMQ迁移到天翼云分布式消息服务RocketMQ。 前提条件 1. 配置网络环境 分布式消息服务RocketMQ实例分VPC内以及公网地址两种网络连接方式。如果使用公网地址,则消息生产与消费客户端需要有公网访问权限,并配置如下安全组。 表1 安全组规则 方向 协议 端口 源地址 说明 入方向 TCP 8200 0.0.0.0/0 公网访问元数据节点的端口 入方向 TCP 1010010199 0.0.0.0/0 访问业务节点的端口 2. 购买分布式消息服务RocketMQ实例 具体请参考购买RocketMQ实例。 操作步骤 1. 迁移元数据至分布式消息服务RocketMQ实例。 1. 获取其他厂商或自建RocketMQ实例的元数据。 2. 登录主机,下载RocketMQ软件包。 wget i < 1. 解压软件包。 unzip rocketmqall4.9.4binrelease.zip 1. (可选)如果RocketMQ实例开启了ACL访问控制,执行mqadmin命令时,需要鉴权。切换到解压后的软件包目录下,在“conf/tools.yml”文件中,增加如下内容。 accessKey: secretKey: accessKey和secretKey表示在控制台“用户管理”页面,创建的用户名和密钥。 1. 进入解压后的软件包目录下,执行以下命令,查询集群名称。sh ./bin/mqadmin clusterList n {nameserver地址及端口号}例如:“nameserver地址及端口号”为“192.168.0.65:8100”。 2. sh ./bin/mqadmin clusterList n 192.168.0.65:8100执行以下命令,导出元数据。未开启SSL的实例,执行以下命令。sh ./bin/mqadmin exportMetadata n {nameserver地址及端口号} c {RocketMQ集群名称} f {导出的元数据文件的存放路径}例如:“nameserver地址及端口号”为“192.168.0.65:8100”,“RocketMQ集群名称”为“DmsCluster”,“导出的元数据文件的存放路径”为“/tmp/rocketmq/export”。 1. sh ./bin/mqadmin exportMetadata n 192.168.0.65:8100 c DmsCluster f /tmp/rocketmq/export已开启SSL的实例,执行以下命令。JAVAOPTDtls.enabletrue sh ./bin/mqadmin exportMetadata n {nameserver地址及端口号} c {RocketMQ集群名称} f {导出的元数据文件的存放路径}例如:“nameserver地址及端口号”为“192.168.0.65:8100”,“RocketMQ集群名称”为“DmsCluster”,“导出的元数据文件的存放路径”为“/tmp/rocketmq/export”。 3. JAVAOPTDtls.enabletrue sh ./bin/mqadmin exportMetadata n 192.168.0.65:8100 c DmsCluster f /tmp/rocketmq/export在控制台迁移元数据。登录控制台。 4. 单击RocketMQ实例的名称,进入实例详情页面。 5. 在左侧导航栏,选择“元数据迁移”,进入迁移任务列表页面。 6. 单击“创建迁移任务”,弹出“创建迁移任务”对话框。 参考,设置迁移任务的参数。 参数 说明 任务名称 您可以自定义迁移任务的名称,用于区分不同的迁移任务。 是否同名覆盖 如果开启同名覆盖,会对已有的同名元数据的配置进行修改。例如:原实例Topic01的读队列个数为3,云上实例Topic01的读队列个数为2,开启同名覆盖后,云上实例Topic01的读队列个数变为3。如果不开启同名覆盖,同名元数据的迁移将失败。例如:原实例的Topic包含Topic01和Topic02,云上实例的Topic包含Topic01和Topic03,不开启同名覆盖,原实例Topic01的迁移将失败。 元数据 上传。 1. 单击“确定”。迁移完成后,在迁移任务列表页面查看“任务状态”。 1. 当“任务状态”为“迁移完成”,表示所有元数据都已成功迁移。 2. 当“任务状态”为“迁移失败”,表示元数据中部分或全部元数据迁移失败。单击迁移任务名称,进入迁移任务详情页,在“迁移结果”中查看迁移失败的Topic/消费组名称,以及失败原因。 2. 迁移生产消息至分布式消息服务RocketMQ版实例。将生产客户端的元数据连接地址改为分布式消息服务RocketMQ版实例的元数据连接地址,重启生产业务,使得生产者将新的消息发送到分布式消息服务RocketMQ版实例中。 3. 迁移消费消息至分布式消息服务RocketMQ版实例。待消费组中的消息消费完之后,将消费客户端的元数据连接地址改为分布式消息服务RocketMQ版实例的元数据连接地址,重启消费业务,使得消费者从分布式消息服务RocketMQ版实例中消费消息。 4. 如果有多个RocketMQ实例需要迁移到同一个分布式消息服务RocketMQ版实例中,请依次进行迁移
        来自:
        帮助文档
        分布式消息服务RocketMQ
        最佳实践
        RocketMQ业务迁移
      • 1
      • ...
      • 69
      • 70
      • 71
      • 72
      • 73
      • ...
      • 79
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      GPU云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      训推服务

      AI Store

      模型推理服务

      应用托管

      推荐文档

      启动即时会议

      云课堂 第十六课:天翼云语音听写AI云服务测试Demo(Pyth

      实例恢复

      云课堂 第九课:如何选择天翼云云硬

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号