活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 聚力AI赋能 天翼云大模型专项 大模型特惠专区·Token Plan 轻享包低至9.9元起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 企业出海解决方案 NEW 助力您的业务扬帆出海,通达全球!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
Token服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V4-Flash
  • GLM-5.1
  • Qwen3.5-122B-A10B
  • DeepSeek-V3.2(旗舰版)
  • GLM-5(正式版)
智算一体机
  • 智算一体机
智能体引擎
  • 智能体引擎
智算安全专区
  • 大模型安全评测
  • 大模型安全护栏
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      微消息队列MQTT版_相关内容
      • Post Object(1)
        响应样式说明 当successactionstatus设为201时,返回如下: plaintext HTTP/1.1 201 xamzversionid: VersionId Bucket Key Etag 响应消息头 该请求的响应消息使用公共的响应消息头,请参见如何调用API响应结果响应消息头。除公共响应消息头之外,还可能返回如下的消息头: 参数名称 参数描述 类型 xamzversionid 参数解释: 若开启多版本,则返回对象的版本号。 string 响应消息元素 该响应中将桶的区域信息以消息元素的形式返回,元素的具体含义如下表所示 : 参数名称 参数描述 类型 PostResponse 参数解释: 返回结果的容器。 string Location 参数解释: 对象的URI。 string Bucket 参数解释: 对象所在桶的名称。 string Key 参数解释: 对象的key。 string ETag 参数解释: 对象的ETag。 string 错误码 请参见调用前必知错误码全局错误码。
        来自:
      • 使用AMQProxy解决PHP等客户端Connection复用问题
        AMQProxy是一款开源AMQP代理服务,具备复用AMQP Connection的能力。可以通过该代理服务使原本只能使用短连接的客户端(例如PHP客户端)使用长连接,从而减少网络资源消耗和分布式消息服务RabbitMQ资源消耗。 前提条件 如果您要使用SSL连接AMQProxy和分布式消息服务RabbitMQ,请确保您的客户端服务器已安装OpenSSL。 背景 部分语言的客户端,例如PHP客户端,无法使用长连接,会频繁地开启或关闭Connection,消耗大量的网络资源和分布式消息服务RabbitMQ资源,从而对分布式消息服务RabbitMQ造成巨大压力。 AMQProxy AMQProxy是Cloud AMQP提供的开源AMQP代理服务。客户端可以通过该代理服务与分布式消息服务RabbitMQ保持长连接。当客户端服务器部署AMQProxy后,客户端和分布式消息服务RabbitMQ之间的请求都会先发送到AMQProxy,然后由AMQProxy转发到对方。 AMQProxy处理客户端发起的Connection相关请求的逻辑如下: 如果客户端发送开启Connection的请求,AMQProxy将根据用户名、密码、Vhost查找当前是否有合适的Connection可以复用,如果有就复用该Connection,如果没有就由AMQProxy代替客户端和分布式消息服务RabbitMQ开启Connection。 如果客户端发送关闭Connection的请求,AMQProxy会直接应答OK,但并不会关闭与分布式消息服务RabbitMQ的Connection,当该客户端下次再请求开启Connection时,AMQProxy会直接使用该Connection。 部署AMQProxy (1)下载和安装AMQProxy。 开源项目地址: releases目录下有安装包,下载后可以在本地解压 (2)启动AMQProxy ./amqproxy l LISTENADDRESS p LISTENPORT AMQPURL 参数 描述 LISTENADDRESS AMQProxy IP地址。由于是在客户端服务器部署AMQProxy,因此可以直接使用本机地址127.0.0.1。 LISTENPORT AMQProxy监听端口。客户端请求通过该端口发送到AMQProxy。该端口可以为任何可用的端口,例如5673。 AMQPURL 分布式消息服务RabbitMQ实例的URL。格式为{amqpIamqps}://{endpoint}。 amqp:AMQP协议。不使用SSL连接时使用。 amqps:AMQP/SSL协议。使用SSL连接时使用。 endpoint:分布式消息服务RabbitMQ实例的接入点。可以在分布式消息服务RabbitMQ控制台的实例详情页面查看。 示例命令如下: ./amqproxy l 127.0.0.1 p 5673 amqps://192.168.0.100:5672 返回示例如下: Proxy upstream: 192.168.0.100:5672 TLS Proxy listening on 127.0.0.1:5673 0 clients 0 upstreams 参数 描述 clients 客户端和AMQProxy的Connection数量。 upstreams AMQProxy和分布式消息服务RabbitMQ实例的Connection数量。 (3)在客户端代码中将Host和端口修改为AMQProxy IP地址和监听端口。 factory.setHost("127.0.0.1"); factory.setPort(5673);
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        最佳实践
        使用AMQProxy解决PHP等客户端Connection复用问题
      • 批量运维
        本章节介绍ECS应用实例批量运维功能 概述 ECS应用实例批量运维功能主要提供按集群、按应用实例、按ECS实例运维三种方式,以满足用户不同场景下对ECS云主机运维需求。 前提条件 1. 当前环境已导入ECS云主机或已部署ECS应用实例 批量运维 微服务云应用平台提供按集群、按应用实例、按ECS实例三种方式运维,具体操作如下 1. 按集群,添加目标ECS集群,然后输入命令 2. 按应用实例,添加目标应用实例,然后输入命令 3. 按ECS实例,添加目标ECS云主机实例,然后输入命令 用户执行运维命令可以在执行记录中查看,以及详情。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        部署运维
        ECS应用实例
        批量运维
      • 管理类
        如何保证消息发布的可靠性? 如果acks0,生产者在成功写入消息之前是不会等待任何的来自服务器的响应。可靠性最低、性能最优。 如果acks1,只要集群的首领节点收到消息,生产者就会收到来自服务器成功的响应。 如果acksall / 1,只有在集群所有的跟随副本都接收到消息后,生产者才会受到一个来自服务器的成功响应。可靠性最高,性能最差。 如何保证消息的顺序? Kafka 每个 Partition 都是相互独立的,Kafka 只能保证单个 Partition 下的有序。 局部有序:当我们所需要的有序其实是针对单个用户的有序,而不要求全局有序。我们可以以用户的 ID 作为 key , 确保单个用户一定会被分配到某个固定的 Partition 上(可能会引起数据倾斜问题),这样我们就能够实现单个用户维度的有序了。 如果一定要全局的有序,所有消息都使用同一个 key ,这样他们一定会被分配到同一个 Partition 上,这种做法适用于临时性且数据量不大的小需求,消息量大了会有性能压力。 如何选择 Partiton 的数量? 在创建 Topic 的时候可以指定 Partiton 数量,也可以在创建完后手动修改。但 Partiton 数量只能增加不能减少。中途增加 Partiton 会导致各个 Partiton 之间数据量的不平等。 Partition 的数量直接决定了该 Topic 的并发处理能力。但也并不是越多越好。Partition 的数量对消息延迟性会产生影响。 一般建议选择 Broker Num Consumer Num ,这样平均每个 Consumer 会同时读取 Broker 数目个 Partition , 这些 Partition 压力可以平摊到每台 Broker 上。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        管理类
      • 镜像优化类
        操作系 统 相关配置项 Windows 设置网卡属性为DHCP 开启远程桌面连接功能 安装Guest OS driver,包括PV driver和UVP VMtools驱动 安装CloudbaseInit工具 (可选)开启网卡多队列 (可选)配置IPv6地址 Linux 清理网络规则文件 设置网卡属性为DHCP 安装原生KVM驱动 修改grub文件的磁盘标识方式为UUID 修改fstab文件的磁盘标识方式为UUID 清除“/etc/fstab”中非系统盘的自动挂载信息 安装CloudInit工具 (可选)开启网卡多队列 (可选)配置IPv6地址
        来自:
        帮助文档
        镜像服务 IMS
        常见问题
        镜像优化类
      • ListMultipartUploads
        请求消息元素 该请求消息中不带消息元素。 响应消息样式 plaintext HTTP/1.1 Status Code TransferEncoding: chunked xamzrequestid: tx00000000000000000004e00624d61a05403fdefault ContentType: application/xml Date: Wed, 06 Apr 2022 09:47:12 GMT Connection: KeepAlive YYYYYY bkmultipart 2~ls51tmBOaXRZ0cphaKniJgwYvTXYd9E 1000 false 111 2~wa0ng7BS4kgkvH53BIv6IiKghQicI base base base base STANDARD 20220406T06:44:46.545Z obj 2~3VNk9y7oaxEplNPYRoVCwZDJIvxAI9 base base base base STANDARD 20220406T06:20:02.607Z 响应消息头 该请求的响应消息使用公共的响应消息头,请参见如何调用API响应结果响应消息头。
        来自:
        帮助文档
        对象存储 ZOS
        API参考
        API(原生接口)
        Object操作
        Object分块操作
        ListMultipartUploads
      • Get Bucket Inventory Configuration(1)
        功能说明 Get Bucket Inventory Configuration返回目标桶的某项桶清单配置。 请求消息样式 plaintext GET /{Bucket}?inventory&idxxx HTTP/1.1 Host: xxx.zos.ctyun.cn xamzdate: Date xamzcontentsha256: ContentSHA256 Authorization: Auth String ContentLength: ContentLength 请求消息参数 参数名称 参数描述 类型 是否必须 Bucket 参数解释: 桶的名称。 String 是 id 参数解释: 用来标识清单规则的id。 String 是 请求消息头 该请求使用公共的请求消息头,请参见如何调用API构造请求请求消息头。 请求消息元素 该请求消息中不带消息元素。 响应消息样式 plaintext HTTP/1.1 Status Code xamzrequestid: Request Id ContentType: ContentType ContentLength: ContentLength Date: Date Connection: KeepAlive string string string boolean string string string string string 响应消息头 该请求的响应消息使用公共的响应消息头,请参见如何调用API响应结果响应消息头。 响应消息元素 该响应中将桶清单配置信息以消息元素的形式返回,元素的具体含义如下表所示 : 参数名称 参数描述 类型 InventoryConfiguration 参数解释: 桶清单信息的根标签。 Container 表InventoryConfiguration 参数名称 参数描述 类型 Destination 参数解释: 清单导出目标的容器。 Container IsEnabled 参数解释: 是否启用清单规则。 Boolean Filter 参数解释: 包含清单过滤规则,清单仅包括符合条件的对象。 Container Id 参数解释: 用来标识清单规则的id。 String IncludedObjectVersions 参数解释: 是否列出对象的所有版本。 约束限制: 支持的字段为All和Current。 String OptionalFields 参数解释: 包含清单文件中包含的可选字段。 String Schedule 参数解释: 指定清单文件的导出周期。 String 表Destination 参数名称 参数描述 类型 S3BucketDestination 参数解释: 包含清单文件导出目标存储桶,前缀。 Container 表S3BucketDestination 参数名称 参数描述 类型 Bucket 参数解释: 清单文件导出的目标桶。 String Format 参数解释: 清单导出的格式。 约束限制: 只支持CSV格式。 String Prefix 参数解释: 导出清单文件的路径。 String 表Filter 参数名称 参数描述 类型 Prefix 参数解释: 指定源存储桶中需要进行清单导出的文件前缀。 String 表OptionalFields 参数名称 参数描述 类型 Field 参数解释: 清单文件中的可选字段。 String 表Schedule 参数名称 参数描述 类型 Frequency 参数解释: 清单文件导出周期。 约束限制: 支持Daily和Weekly,分别对应每天和每周末导出。 String
        来自:
      • 弹性存储最佳实践
        考虑点 建议 本地磁盘存储空间 本地磁盘存储空间 (未开启弹性存储的Topic存储量 + 弹性存储Topic本地热数据存储量) 130% 未开启弹性存储的Topic存储量 :未开启弹性存储的Topic业务消息量 副本数,如集群未开启弹性存储的Topic均为3副本,消息量为100GB,则未开启弹性存储的Topic存储量为100GB 3 300 GB。 弹性存储Topic本地数据存储量 :弹性存储主题热数据会存储在本地,未超过 “消息本地保留时长” 的消息数据均存储在本地;由于数据生命周期以分区分片为单位, 未满一个数据分片 的数据也会存储在本地(默认1个分片大小为1GB,编辑主题可调整)。 假如集群有3副本的主题分区100个,分片大小均为1GB。 保留时间为1小时,1小时消息量为50GB,则弹性存储Topic本地数据存储量 max(100 1GB 3, 50GB 3) 300GB。 假如集群有3副本的主题分区100个,分片大小均为128MB。 保留时间为1小时,1小时消息量为50GB,则弹性存储Topic本地数据存储量 max(100 128MB 3, 50GB 3) 150GB。 建议 预留多30% 存储空间。 磁盘空间大小会影响磁盘性能,具体性能参考“ 消息本地保留时长 默认为1小时。建议根据业务实际消费场景调整,如消费者经常消费落后1.5小时,则需要调大到2小时。 分区分片大小 默认为1G,弹性存储Topic可以适当调小至128MB~1024MB之间,因为数据生命周期管理以分区分片为单位,消息数据量必须满一分片才会上传弹性存储或超时清理。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        弹性存储最佳实践
      • 连接分析使用说明
        本小节介绍微隔离防火墙连接分析使用说明。 1.点击菜单栏连接分析,可进入连接分析界面。连接分析页面可帮助用户对于内部流量有针对性的进行筛选、钻取、分析。 2.按照提示,选择访问者、服务提供者,选择想要查看、分析的对应服务、端口(可添加多个服务),次数以及时间周期,如图所示。 3.添加好相应条件后,点击 ,即可根据查看如下界面。 4.如果访问者、提供者为工作组时,还可点击此工作组,进一步对信息进行钻取,如下图所示。
        来自:
        帮助文档
        微隔离防火墙(文档停止维护)
        可视化分析使用说明
        连接分析使用说明
      • Kafka Broker节点CPU高负载
        本章节介绍Kafka Broker CPU高负载故障演练。 背景介绍 分布式系统中作为数据交换和异步解耦核心的 Kafka 集群,其 Broker 节点 CPU 易因高消息吞吐量、过多消费者组、数据复制同步及消息压缩解压缩等因素出现持续高负载,进而引发消息延迟、吞吐量下降等问题,本演练可有效测试系统的应对与恢复能力。 基本原理 指定或随机一个Broker节点启动自定义程序,空跑for循环来消耗CPU时间片。 故障注入 1、纳管实例资源 1. 导航至 故障演练 > 目标应用 > 应用资源页面。 2. 在资源类型页签中选择分布式消息服务Kafka,然后单击添加资源。 3. 在弹出的对话框中,勾选目标分布式消息服务Kafka实例,单击确定。 2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择分布式消息服务Kafka。 添加实例 :单击添加实例 ,勾选上一步中添加的分布式消息服务Kafka实例。 添加故障动作 :单击立即添加 ,在列表中选择Broker CPU高负载动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 CPU占用率:指定 CPU 负载百分比,取值在0 100之间
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        中间件
        分布式消息服务Kafka
        Kafka Broker节点CPU高负载
      • ListBucketObjects
        功能说明 ListBucketObjects请求列出Bucket中的对象。 请求消息样式 plaintext GET /{Bucket}?delimiterDelimiter&markerMarker&maxkeysMaxKeys&prefixPrefix HTTP/1.1 Host: xxx.zos.ctyun.cn xamzcontentsha256: ContentSHA256 xamzdate: Date Authorization: Auth String 请求消息参数 参数名称 参数描述 类型 是否必须 Bucket 参数解释: Bucket的名称。 String 是 delimiter 参数解释: 对key名称进行分组的字符。 String 否 marker 参数解释: 列举key的起始位置,返回的列表将是以key名按照字典序排在该参数后的对象。 String 否 maxkeys 参数解释: 本次返回keys的最大数目。 约束限制: 小于0时返回结果为0,大于1000时返回结果为1000。 取值范围: 01000 默认取值: 1000 Int 否 prefix 参数解释: 返回的key的前缀。 String 否 请求消息头 该请求使用公共的请求消息头,请参见如何调用API构造请求请求消息头。 请求消息元素 该请求消息中不带消息元素。 响应消息样式 plaintext HTTP/1.1 Status Code TransferEncoding: chunked xamzrequestid: Request Id ContentType: application/xml Date: Date Connection: KeepAlive boolean string string string string timestamp string string integer string string ... string string string integer string ...
        来自:
        帮助文档
        对象存储 ZOS
        API参考
        API(原生接口)
        Bucket基础操作
        ListBucketObjects
      • List Bucket Object(1)
        功能说明 List Bucket Object 请求列出Bucket中的对象。 请求消息样式 plaintext GET /{Bucket}?delimiterDelimiter&markerMarker&maxkeysMaxKeys&prefixPrefix HTTP/1.1 Host: xxx.zos.ctyun.cn XAmzContentSHA256: ContentSHA256 XAmzDate: Date Authorization: Auth String 请求消息参数 参数名称 参数描述 类型 是否必须 Bucket 参数解释: Bucket的名称。 String 是 delimiter 参数解释: 对key名称进行分组的字符。 String 是 marker 参数解释: 列举key的起始位置,返回的列表将是以key名按照字典序排在该参数后的对象。 String 是 maxkeys 参数解释: 本次返回keys的最大数目。 约束限制: 小于0时返回结果为0,大于1000时返回结果为1000。 取值范围: 01000 默认取值: 1000 Int 否 prefix 参数解释: 返回的key的前缀。 String 否 请求消息头 该请求使用公共的请求消息头,请参见如何调用API构造请求请求消息头。 请求消息元素 该请求消息中不带消息元素。 响应消息样式 plaintext HTTP/1.1 Status Code TransferEncoding: chunked xamzrequestid: Request Id ContentType: application/xml Date: Date Connection: KeepAlive boolean string string string string timestamp string string integer string string ... string string string integer string ...
        来自:
      • 告警管理
        操作步骤 1. 登录媒体存储控制台,进入【告警管理告警配置】菜单页面,列表展示为目前配置的告警规则。 2. 可在列表对指定的规则进行修改、下线或删除操作。 注意 编辑规则时,规则名称、监控维度、监控区域、监控Bucket不可修改。 如规则存在未恢复或未处理的告警消息,则该规则暂无法修改,请等待告警恢复或忽略告警信息后再修改。 查看告警消息 用户可参考以下说明,通过控制台查看告警消息。 操作步骤 1. 登录媒体存储控制台,进入【告警管理告警消息】菜单页面,在【告警列表】标签页可查看告警消息。 2. 可在告警列表查看指定的告警消息详情或进行【忽略告警】操作。 3. 告警列表仅展示最近30天的告警消息。 4. 【历史推送】标签页展示近30天的告警信息所关联的历史推送记录,每推送一次为一条记录。
        来自:
        帮助文档
        媒体存储
        控制台指南
        对象存储
        数据监控
        告警管理
      • DLI Flink Job
        参数 是否必选 说明 作业类型 是 选择“Flink SQL作业”。用户采用编写SQL语句来启动作业。 脚本路径 是 选择需要执行的Flink SQL脚本。如果脚本未创建,请参考 DLI队列 是 默认选择“共享队列”,用户也可以选择自定义的独享队列。 说明 当子用户在创建作业时,子用户只能选择已经被分配的队列。 CUs 是 一个CU是1核4G的资源配置。 并发数 是 并发数是指同时运行Flink SQL作业的任务数。 说明 并发数不能大于计算单元(CUs1)的4倍。 UDF Jar 否 当作业所属集群选择独享集群时,该参数有效。在选择UDF Jar之前,您需要将UDF Jar包上传至OBS桶中,并在“资源管理”页面中新建资源,具体操作请参考 异常自动启动 否 设置是否启动异常自动重启功能,当作业异常时将自动重启并恢复作业。 作业名称 是 填写DLI Flink作业的名称,只能包含英文字母、数字、“”,且长度为1~64个字符。默认与节点的名称一致。 作业名称添加工作空间前缀 否 设置是否为创建的作业名称添加工作空间前缀。 节点名称 是 节点名称,可以包含中文、英文字母、数字、“”、“”、“/”、“<”、“>”等各类特殊字符,长度为1~128个字符。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        节点参考
        DLI Flink Job
      • 客户端首次接入分布式消息服务Kafka时出现异常的排查方法
        本节介绍客户端首次接入分布式消息服务Kafka时出现异常的排查方法 客户端首次接入分布式消息服务Kafka时如果出现异常,您可以通过以下三个方面进行排查: 网络连通问题:通常有如下几种情况可能会导致网络不通,客户端无法连接分布式消息服务Kafka的服务端。 (1)ECS实例(客户端)与分布式消息服务Kafka实例不在同一个VPC内。关于如何通过VPC网络接入服务端,请参见VPC接入。 (2)本地客户端访问非公网的分布式消息服务Kafka实例。您可以通过公网接入服务端。 客户端版本问题:客户端版本太低可能会出现异常,建议升级到与服务端匹配的客户端版本。 配置问题:默认接入点配置错误等都可能导致接入失败。您可以参见快速入门进行配置检查。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        连接问题
        客户端首次接入分布式消息服务Kafka时出现异常的排查方法
      • GetObjectTagging
        响应消息头 该请求的响应消息使用公共的响应消息头,请参见如何调用API响应结果响应消息头。 响应消息元素 该响应中将标签信息以消息元素的形式返回,元素的具体含义如下表所示: 参数名称 参数描述 类型 Tagging 参数解释: 标签集容器。 Container 表Tagging 参数名称 参数描述 类型 TagSet 参数解释: 标签集容器。 Container 表TagSet 参数名称 参数描述 类型 Tag 参数解释: 标签。 Container 表Tag 参数名称 参数描述 类型 Key 参数解释: 标签键 String Value 参数解释: 标签值 String 错误码 请参见调用前必知错误码全局错误码。
        来自:
        帮助文档
        对象存储 ZOS
        API参考
        API(原生接口)
        Object操作
        GetObjectTagging
      • Get Object Tagging(1)
        响应消息头 该请求的响应消息使用公共的响应消息头,请参见如何调用API响应结果响应消息头。 响应消息元素 该响应中将标签信息以消息元素的形式返回,元素的具体含义如下表所示: 参数名称 参数描述 类型 Tagging 参数解释: 标签集容器。 Container 表Tagging 参数名称 参数描述 类型 TagSet 参数解释: 标签集容器。 Container 表TagSet 参数名称 参数描述 类型 Tag 参数解释: 标签。 Container 表Tag 参数名称 参数描述 类型 Key 参数解释: 标签键 String Value 参数解释: 标签值 String 错误码 请参见调用前必知错误码全局错误码。
        来自:
      • 在哪里做日志
        syslogfacility (enum) 当启用了向syslog记录时,这个参数决定要使用的syslog“设备”。你可以在LOCAL0、LOCAL1、LOCAL2、LOCAL3、LOCAL4、 LOCAL5、LOCAL6、LOCAL7中选择,默认值是LOCAL0。还请参阅系统的syslog守护进程的文档。这个参数只能在postgresql.conf文件中或在服务器命令行上设置。 syslogident (string) 当启用了向syslog记录时,这个参数决定用来标识syslog中的TeleDB消息的程序名。默认值是postgres。这个参数只能在postgresql.conf文件中或在服务器命令行上设置。 syslogsequencenumbers (boolean) 当日志被记录到syslog并且这个设置为 on (默认)时,每一个消息会被加上一个增长的序号作为前缀(例如 [2])。这种行为避开了很多 syslog 实现默认采用的 “ 上一个消息重复 N 次 ”形式。在现代 syslog 实现中, 抑制重复消息是可以配置的(例如rsyslog 中的$RepeatedMsgReduction),因此这个参数可能不是必需的。 此外,如果你真的想抑制重复消息,你可以把这个参数设置为 off。这个参数只能在postgresql.conf文件或者服务器命令行上设置。 syslogsplitmessages (boolean) 当启用把日志记录到syslog时,这个参数决定消息如何送达 syslog。当设置为 on(默认)时,消息会被分成行, 并且长的行也会被划分以便能够放到 1024 字节中, 这是传统 syslog 实现一种典型的尺寸限制。当设置为 off 时,TeleDB服务器日志消息会被原样送达 syslog 服务, 而处理可能的大体量消息的任务由 syslog 服务负责。如果 syslog 最终被记录到一个文本文件中,那么两种设置的效果是一样的, 但最好设置为 on,因为大部分 syslog 实现要么不能处理大型消息, 要么需要做特殊的配置以处理大型消息。但是如果 syslog 最终写入到某种其他媒介,有必要让消息保持逻辑上的整体性(也更加有用)。这个参数只能在postgresql.conf文件或者服务器命令行上设置。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        错误报告和日志相关参数
        在哪里做日志
      • 资源管理
        云原生网关 左侧导航栏,选择资源管理 > 云原生网关。在云原生网关列表展示了当前环境已导入的云原生网关资源。 点击导入按钮,列表会展示与当前环境同VPC的云原生网关列表,勾选云原生网关,点击保存就可将资源导入。 导入失败可点击日志查看具体失败原因,也可点击重试按钮进行重试。 点击移除按钮,可移除选择的云原生网关。 关系数据库 左侧导航栏,选择资源管理 > 关系数据库。在关系数据库列表展示了当前环境已导入的关系数据库资源。 点击导入按钮,列表会展示与当前环境同VPC的关系数据库列表,勾选关系数据库,点击保存就可将资源导入。 导入失败可点击日志查看具体失败原因,也可点击重试按钮进行重试。 点击移除按钮,可移除选择的关系数据库。 分布式缓存 左侧导航栏,选择资源管理 > 分布式缓存。在分布式缓存列表展示了当前环境已导入的分布式缓存资源。 点击导入按钮,列表会展示与当前环境同VPC分布式缓存列表,勾选分布式缓存,点击保存就可将资源导入。 导入失败可点击日志查看具体失败原因,也可点击重试按钮进行重试。 点击移除按钮,可移除选择的分布式缓存。 分布式消息 左侧导航栏,选择资源管理 > 分布式消息。在分布式消息列表展示了当前环境已导入的分布式消息资源。 点击导入按钮,列表会展示与当前环境同VPC分布式消息列表,勾选分布式消息,点击保存就可将资源导入。 导入失败可点击日志查看具体失败原因,也可点击重试按钮进行重试。 点击移除按钮,可移除选择的分布式消息。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        环境规划
        资源管理
      • 备份Hive业务数据
        操作步骤 1.在FusionInsight Manager,选择“运维 > 备份恢复 > 备份管理”。 2.单击“创建”。 3.在“任务名称”填写备份任务的名称。 4.在“备份对象”选择待操作的集群。 5.在“备份类型”选择备份任务的运行类型。 “周期备份”表示按周期自动执行备份,“手动备份”表示由手工执行备份。 周期备份参数 参数名称 描述 开始时间 任务第一次启动的时间。 周期 任务下次启动,与上一次运行的时间间隔,支持按“小时”或按“天”。 备份策略 首次全量备份,后续增量备份 每次都全量备份 每n次进行一次全量备份 说明 备份Manager数据和组件元数据时不支持增量备份,仅支持“每次都全量备份”。 如果“路径类型”要使用NFS或CIFS,不能使用增量备份功能。因为在NFS或CIFS备份时使用增量备份时,每次增量备份都会刷新最近一次全量备份的备份数据,所以不会产生新的恢复点。 6.在“备份配置”,勾选“Hive > Hive”。 7.在“Hive”的“路径类型”,选择一个备份目录的类型。 备份目录支持以下类型: “RemoteHDFS”:表示将备份文件保存在备集群的HDFS目录。选择此参数值,还需要配置以下参数: “目的端NameService名称”:填写备集群的NameService名称。可以输入集群内置的远端集群的NameService名称(haclusterX,haclusterX1,haclusterX2,haclusterX3,haclusterX4),也可输入其他已配置的远端集群NameService名称。 “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “目的端NameNode IP地址”:填写备集群NameNode业务平面IP地址,支持主节点或备节点。 “目的端路径”:填写备集群保存备份数据的HDFS目录。不支持填写HDFS中的隐藏目录,例如快照或回收站目录;也不支持默认的系统目录,例如“/hbase”或“/user/hbase/backup”。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。需和集群中已存在且状态正常的队列名称相同。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 “NFS”:表示将备份文件通过NFS协议保存在NAS中。选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “服务器共享路径”:填写用户配置的NAS服务器共享目录。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。需和集群中已存在且状态正常的队列名称相同。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 “CIFS”:表示将备份文件通过CIFS协议保存在NAS中。选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “端口号”:填写CIFS协议连接NAS服务器使用的端口号,默认值为“445”。 “用户名”:填写配置CIFS协议时设置的用户名。 “密码”:填写配置CIFS协议时设置的密码。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “服务器共享路径”:填写用户配置的NAS服务器共享目录。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。需和集群中已存在且状态正常的队列名称相同。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 “SFTP”:表示将备份文件通过SFTP协议保存到服务器中。 选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写备份数据的服务器IP地址。 “端口号”:填写SFTP协议连接备份服务器使用的端口号,默认值为“22”。 “用户名”:填写使用SFTP协议连接服务器时的用户名。 “密码”:填写使用SFTP协议连接服务器时的密码。 “服务器共享路径”:SFTP服务器上的备份路径。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。需和集群中已存在且状态正常的队列名称相同。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 8.在“最大恢复点个数”填写备份任务在本集群中备份可保留的快照数量。 9.在“备份内容”中,选择一个或多个需要备份的Hive表。 支持两种方式选择备份数据: 直接选择 单击导航中某个数据库的名称,将展开显示此数据库中的所有表,勾选指定的表。 正则表达式筛选 a. 单击“正则表达式输入”。 b. 根据界面提示,在第一个输入框填写Hive表所在的数据库,需要与当前存在的数据库完全匹配。例如“defalut”。 c. 在第二个输入框输入正则表达式,支持标准正则表达式。例如要筛选数据库中所有的表,输入“([sS] ?)”。例如要筛选命名规则为字母数字组合的表,如tb1可输入“tbd ”。 d. 单击“刷新”,在“目录名称”查看筛选的表。 e. 单击“同步”保存筛选结果。 说明 输入正则表达式时,可以使用和增加或删除一条表达式。 如果已选择的表或目录不正确,可以单击“清除选中节点”清除勾选。 10.单击“校验”查看备份任务的配置是否正确。 校验失败可能存在以下原因: 目的端NameNode IP地址不正确。 队列名称不正确。 待备份的数据文件所在HDFS路径的父目录或子目录存在HDFS快照。 待备份的目录或表不存在。 NameService名称不正确。 11.单击“确定”保存。 12.在备份任务列表中已创建任务的“操作”列,选择“更多 > 即时备份”,开始执行备份任务。 备份任务执行完成后,系统自动在备集群的备份路径中为每个备份任务创建子目录,目录名为 “备份任务名数据源任务创建时间” ,数据源每次备份的最新备份文件保存在此目录中。所有备份文件集保存在对应的快照目录中。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        备份数据
        备份Hive业务数据
      • 续订和退订
        场景描述 分布式消息服务RocketMQ为用户提供全面周到的服务,支持用户续订和退订的需求。 ● 续订:针对包周期消息实例服务,用户可在到期前进行服务周期延长操作,即续订操作。 ● 退订:用户如不需要继续使用该分布式消息服务RocketMQ实例,可进行删除实例操作,即退订操作。 续订 1、登录RocketMQ消息控制台,可以看到当前租户下面的实例列表。 2、点击需要变更实例栏 > 更多 > 续订。 3、 进入到续订页面,在弹出来的确认窗口选择续订时长,点击确认即可。 退订 1、登录RocketMQ消息控制台,可以看到当前租户下面的实例列表。 2、点击需要变更实例栏 > 更多 > 退订。 3、进入到退订页面,在弹出来的确认窗口点击确认即可。 注意: 退订的实例处于冻结状态,请务必在实例退订前停止全部的应用。 在申请退订前,请做好数据备份工作,退订后数据将保留15个自然日,15天后相关数据将不予保留,且不会进行备份,务必谨慎操作。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        实例管理
        续订和退订
      • 操作日志
        操作分类 具体操作 描述 基础配置 新增应用系统 新增应用系统 删除应用系统 删除应用系统 修改应用系统 修改应用系统 新增站点 创建站点 删除站点 删除站点 修改站点 修改站点 启用站点 启用站点 禁用站点 禁用站点 重置站点 重建站点业务数据,在故障站点恢复正常后操作 新增单元 新增单元 删除单元 删除单元 修改单元 修改单元 新增单元组 新增单元组 删除单元组 删除单元组 修改单元组 修改单元组 接入层配置 选择接入层网关 绑定接入层网关 移除接入层网关 解绑接入层网关 新增单元组URI配置 新增业务流量路由 删除单元组URI配置 删除业务流量路由 修改单元组URI配置 修改业务流量路由 数据层配置 新增数据源 新增数据层数据源 删除数据源 删除数据层数据源 修改数据源 修改数据层数据源 新增同步任务 新增数据同步任务 删除同步任务 删除数据同步任务 修改同步任务 修改数据同步任务 启动同步任务 启动数据同步任务 停止同步任务 停止数据同步任务 绑定链路 绑定同步链路与数据传输服务实例 解绑链路 解绑同步链路与数据传输服务实例 启动链路 启动同步链路所绑定任务 停止链路 停止同步链路所绑定任务 消息层配置 新增数据源 新增消息层数据源 删除数据源 删除消息层数据源 修改数据源 修改消息层数据源 新增同步任务 新增消息同步任务 删除同步任务 删除消息同步任务 修改同步任务 修改消息同步任务 启动同步任务 启动消息同步任务 停止同步任务 停止消息同步任务 创建路由任务配置 创建消息路由任务配置 删除路由任务配置 删除消息路由任务配置 创建路由任务 创建路由任务 删除路由任务 删除路由任务 启用路由任务 启用路由任务 停用路由任务 停用路由任务 重置位点 重置目标实例消费位点 容灾切流 基础配置推送 发起基础配置推送 流量切换 发起流量切换 主备切换 发起主备切换 取消步骤 取消切流过程指定步骤 忽略步骤 跳过切流过程指定步骤 重试步骤 重试切流过程指定步骤
        来自:
      • 业务数据不均衡最佳实践
        本文介绍Kafka业务数据不均衡最佳实践 方案概述 Kafka将Topic划分为多个分区,所有消息分布式存储在各个分区上。每个分区有一个或多个副本,分布在不同的Broker节点上,每个副本存储一份全量数据,副本之间的消息数据保持同步。Kafka的Topic、分区、副本和代理的关系如下图所示: 在实际业务过程中可能会遇到各节点间或分区之间业务数据不均衡的情况,业务数据不均衡会降低Kafka集群的性能,降低资源使用率。 业务数据不均衡原因: 业务中部分Topic的流量远大于其他Topic,会导致节点间的数据不均衡。 生产者发送消息时指定了分区,未指定的分区没有消息,会导致分区间的数据不均衡。 生产者发送消息时指定了消息Key,按照对应的Key发送消息至对应的分区,会导致分区间的数据不均衡。 系统重新实现了分区分配策略,但策略逻辑有问题,会导致分区间的数据不均衡。 Kafka扩容了Broker节点,新增的节点没有分配分区,会导致节点间的数据不均衡。 业务使用过程中随着集群状态的变化,多少会发生一些Leader副本的切换或迁移,会导致个别Broker节点上的数据更多,从而导致节点间的数据不均衡。 实施步骤 业务数据不均衡的处理措施: 优化业务中Topic的设计,对于数据量特别大的Topic,可对业务数据做进一步的细分,并分配到不同的Topic上。 生产者生产消息时,尽量把消息均衡发送到不同的分区上,确保分区间的数据均衡。 创建Topic时,使分区的Leader副本分散到各个Broker节点中,以保障整体的数据均衡。 Kafka提供了分区重平衡的功能,可以把分区的副本重新分配到不同的Broker节点上,解决节点间负载不均衡的问题。具体分区重平衡的操作请参考修改分区平衡。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        业务数据不均衡最佳实践
      • Get Bucket Logging(1)
        功能说明 Get bucket logging请求获取存储桶的日志转存配置。 请求消息样式 plaintext GET /{Bucket}?logging HTTP/1.1 Host: xxxx.zos.ctyun.cn AcceptEncoding: identity XAmzContentSHA256: ContentSHA256 XAmzDate: 20220412T100505Z Authorization: string 请求消息参数 参数名称 描述 类型 是否必须 Bucket 参数解释: 桶的名称。 String 是 请求消息头 该请求使用公共的请求消息头,请参见如何调用API构造请求请求消息头。 请求消息元素 该请求消息中不带消息元素。 响应消息样式 plaintext HTTP/1.1 Status Code xamzrequestid: tx00000000000000000001100624e4d205e72default ContentType: application/xml ContentLength: 129 Date: Thu, 07 Apr 2022 02:32:16 GMT Connection: KeepAlive string string string string string string string 响应消息头 该请求的响应消息使用公共的响应消息头,请参见如何调用API响应结果响应消息头。 响应消息元素 参数名称 描述 类型 是否必须 BucketLoggingStatus 参数解释: 日志状态信息。若此参数置为空,则表示关闭日志转存功能。 Container 是 表 BucketLoggingStatus 参数名称 描述 类型 是否必须 LoggingEnabled 参数解释: 描述日志存储位置和日志对象前缀。 Container 否 表 LoggingEnabled 参数名称 描述 类型 是否必须 TargetBucket 参数解释: 日志存储位置。可以将日志存放到任意用户拥有的桶中,包含源存储桶。用户可以配置多个源桶的日志均投放到同一个目标存储桶中,在这种情况下,用户可以使用 TargetPrefix 区分日志来自哪个源存储桶。 String 是 TargetGrants 参数解释: 授权信息。 Container 否 TargetPrefix 参数解释: 日志对象前缀。若多个源存储桶的日志均写到同一个目标存储桶中,则可以通过目标前缀来区分日志来自哪一个源存储桶。 String 是 表 TargetGrants 参数名称 描述 类型 是否必须 Grant 参数解释: 授权许可。 Container 否 表 Grant 参数名称 描述 类型 是否必须 Grantee 参数解释: 授权许可。 Container 否 Permission 参数解释: 日志访问许可。 取值范围: FULLCONTROL:完全控制权限 READ:读权限 WRITE:写权限 String 否 表 Grantee 参数名称 描述 类型 是否必须 DisplayName 参数解释: 展示名字。 String 否 EmailAddress 参数解释: 邮件地址。 String 否 ID 参数解释: 授权用户 ID。 String 否 Type 参数解释: 授权类型。 取值范围: CanonicalUser:普通用户 AmazonCustomerByEmail:邮箱用户 String 否
        来自:
      • HeadObject
        请求消息元素 该请求消息中不带消息元素。 响应消息样式 plaintext HTTP/1.1 Status Code xamzdeletemarker: DeleteMarker xamzexpiration: Expiration LastModified: LastModified ContentLength: ContentLength ETag: ETag xamzversionid: VersionId xamzwebsiteredirectlocation: WebsiteRedirectLocation xamzstorageclass: StorageClass xamztaggingcount: TagCount xamzobjectlockmode: ObjectLockMode xamzobjectlockretainuntildate: ObjectLockRetainUntilDate xamzobjectlocklegalhold: ObjectLockLegalHoldStatus xamzmetadata: Metadata 响应消息头 该请求的响应消息使用公共的响应消息头,请参见如何调用API响应结果响应消息头。 除公共响应消息头之外,还可能返回如下的消息头: 参数名称 参数描述 类型 xamzdeletemarker 参数解释: 指明对象是否是DeleteMarker。 String xamzexpiration 参数解释: 对象的过期时间。如果配置了对象过期(请参阅 PUT Bucket Lifecycle),则响应包含此标头。它包括提供对象过期信息的过期日期和规则ID键值对。 String ContentLength 参数解释: Body的长度。 Long ETag 参数解释: 对象的Etag。 String xamzversionid 参数解释: 对象的VersionId。 String xamzwebsiteredirectlocation 参数解释: 如果开启了website配置,重定向到指定的URL。 String xamzstorageclass 参数解释: 对象的存储级别。 String xamztaggingcount 参数解释: 对象的tag数。 Long xamzobjectlockmode 参数解释: 对象的Lock模式。 String xamzobjectlockretainuntildate 参数解释: 对象Lock到期的时间。 Date xamzobjectlocklegalhold 参数解释: 对象Legal hold是否开启。 String xamzmetadata 参数解释: 用户指定的元数据信息。 String
        来自:
        帮助文档
        对象存储 ZOS
        API参考
        API(原生接口)
        Object操作
        HeadObject
      • Kafka Broker节点磁盘IO高负载
        本章节介绍Kafka Broker节点磁盘IO高负载故障演练。 背景介绍 分布式消息服务 Kafka 集群的性能与稳定性高度依赖底层磁盘 IO 能力,高并发写入、集群数据复制、海量消息存储检索及磁盘故障恢复等场景易导致 Broker 节点磁盘 IO 触达瓶颈,引发消息持久化延迟等问题,本演练可测试业务系统的响应与恢复能力。 基本原理 指定或随机一个Broker节点先通过dd命令将数据写入文件中,然后再通过循环读写文件占用磁盘带宽。 故障注入 1、纳管实例资源 1. 导航至 故障演练 > 目标应用 > 应用资源页面。 2. 在资源类型页签中选择分布式消息服务Kafka,然后单击添加资源。 3. 在弹出的对话框中,勾选目标分布式消息服务Kafka实例,单击确定。 2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择分布式消息服务Kafka。 添加实例 :单击添加实例 ,勾选上一步中添加的分布式消息服务Kafka实例。 添加故障动作 :单击立即添加 ,在列表中选择Broker 磁盘IO高负载动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 读负载:开启读压力模式,创建一个临时文件并对其进行持续的读取操作。 写负载:开启写压力模式,持续向一个临时文件写入数据。 块大小:控制单次读写操作的数据块大小,单位为MB。增大此值可以提升单次操作的 IO 压力。通常保持默认值即可。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        中间件
        分布式消息服务Kafka
        Kafka Broker节点磁盘IO高负载
      • Kafka客户端参数配置建议
        本文主要 Kafka客户端参数配置建议。 Kafka客户端的配置参数很多,以下提供producer和consumer几个常用参数配置。其他参数配置,请参考Kafka配置。 表 Producer参数 参数 默认值 推荐值 说明 acks 1 高可靠:all或者1高吞吐:1 收到Server端确认信号个数,表示producer需要收到多少个这样的确认信号,算消息发送成功。 acks参数代表了数据备份的可用性。常用选项:acks0:表示producer不需要等待任何确认收到的信息,副本将立即加到socket buffer并认为已经发送。没有任何保障可以保证此种情况下server已经成功接收数据,同时重试配置不会发生作用(因为客户端不知道是否失败)回馈的offset会总是设置为1。 acks1:这意味着至少要等待leader已经成功将数据写入本地log,但是并没有等待所有follower是否成功写入。如果follower没有成功备份数据,而此时leader又无法提供服务,则消息会丢失。 acksall或者1:这意味着leader需要等待ISR中所有备份都成功写入日志。只要任何一个备份存活,数据都不会丢失。min.insync.replicas指定必须确认写入才能被认为成功的副本的最小数量。 retries 0 结合实际业务调整 客户端发送消息的重试次数。值大于0时,这些数据发送失败后,客户端会重新发送。 注意,这些重试与客户端接收到发送错误时的重试没有什么不同。允许重试将潜在的改变数据的顺序,如果这两个消息记录都是发送到同一个partition,则第一个消息失败第二个发送成功,则第二条消息会比第一条消息出现要早。针对网络闪断场景,生产者建议配置重试能力,推荐重试次数retries3,重试间隔retry.backoff.ms1000。 request.timeout.ms 30000 结合实际业务调整 设置一个请求最大等待时间,超过这个时间则会抛Timeout异常。超时时间如果设置大一些,如127000(127秒),高并发的场景中,能减少发送失败的情况。 block.on.buffer.full TRUE TRUE TRUE表示当我们内存用尽时,停止接收新消息记录或者抛出错误。默认情况下,这个设置为TRUE。 然而某些阻塞可能不值得期待,因此立即抛出错误更好。如果设置为false,则producer抛出一个异常错误:BufferExhaustedException batch.size 16384 262144 默认的批量处理消息字节数上限。producer将试图批处理消息记录,以减少请求次数。 这将改善client与server之间的性能。不会试图处理大于这个字节数的消息字节数。 发送到brokers的请求将包含多个批量处理,其中会包含对每个partition的一个请求。较小的批量处理数值比较少用,并且可能降低吞吐量(0则会仅用批量处理)。 较大的批量处理数值将会浪费更多内存空间,这样就需要分配特定批量处理数值的内存大小。 buffer.memory 33554432 67108864 producer可以用来缓存数据的内存大小。如果数据产生速度大于向broker发送的速度,producer会阻塞或者抛出异常,以“block.on.buffer.full”来表明。 这项设置将和producer能够使用的总内存相关,但并不是一个硬性的限制,因为不是producer使用的所有内存都是用于缓存。一些额外的内存会用于压缩(如果引入压缩机制),同样还有一些用于维护请求。 表 Consumer参数 参数 默认值 推荐值 说明 :::: auto.commit.enable TRUE FALSE 如果为真,consumer所fetch的消息的offset将会自动的同步到zookeeper。这项提交的offset将在进程无法提供服务时,由新的consumer使用。约束:设置为false后,需要先成功消费再提交,这样可以避免消息丢失。 auto.offset.reset latest earliest 没有初始化offset或者offset被删除时,可以设置以下值: earliest:自动复位offset为最早 latest:自动复位offset为最新 none:如果没有发现offset则向消费者抛出异常 anything else:向消费者抛出异常。 说明 如果将此配置设置为latest,新增分区时,生产者可能会在消费者重置初始偏移量之前开始向新增加的分区发送消息,从而导致部分消息丢失。 connections.max.idle.ms 600000 30000 空连接的超时时间,设置为30000可以在网络异常场景下减少请求卡顿的时间。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Kafka客户端参数配置建议
      • 账户管理
        本小节介绍微隔离防火墙账户管理。 1.点击账户管理,即可进入账户管理页面,账户管理页面可查看用户登录信息,新增用户、修改密码等操作。 2.账户分为超级管理员、管理员、审查员。 超级管理员:最高权限,可创建管理员及审查员; 管理员:可以进行策略设置、工作组设置、工作负载接入等操作,但不能查看系统管理日志; 审查员:只可以查看系统日志、操作日志及告警规则。 3.超级管理员可以在账户管理页面解锁被锁定的用户,也可针对某一用户生成API密钥。被生成API密钥的账户,可以使用API接口。
        来自:
        帮助文档
        微隔离防火墙(文档停止维护)
        用户指南
        系统配置
        账户管理
      • 获取Rest Client算子返回值教程
        本章节主要介绍DataArts Studio的获取Rest Client算子返回值操作。 Rest Client算子可以执行RESTful请求。 本教程主要介绍如何获取Rest Client的返回值,包含以下两个使用场景举例。 通过“响应消息体解析为传递参数定义”获取返回值。 通过EL表达式获取返回值。 通过“响应消息体解析为传递参数定义”获取返回值 如下图所示,第一个Rest Client调用了MRS服务查询集群列表的API,下图为API返回值的JSON消息体。 使用场景:需要获取集群列表中第一个集群的cluster Id,然后作为参数传递给后面的节点使用。 关键配置:在第一个Rest Client的“响应消息体解析为传递参数定义”配置中,配置clusterIdclusters[0].clusterId,后续的Rest Client节点就可以用${clusterId}的方式引用到集群列表中的第一个集群的cluster Id。 Rest Clien作业样例1 JSON消息体 通过EL表达式获取返回值 Rest Client算子可与EL表达式相配合,根据具体的场景选择不同的EL表达式来实现更丰富的用法。您可以参考本教程,根据您的实际业务需要,开发您自己的作业。EL表达式用法可参考表达式概述。 如下图所示,Rest Client调用了MRS服务查询集群列表的API,然后执行Kafka Client发送消息。 使用场景:Kafka Client发送字符串消息,消息内容为集群列表中第一个集群的cluster Id。 关键配置:在Kafka Client中使用如下EL表达式获取Rest API返回消息体中的特定字段:
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        使用教程
        获取Rest Client算子返回值教程
      • 开源对比
        进行分布式消息服务Kafka与开源自建对比。 分布式消息服务Kafka相对开源自建的Kafka提供更多功能服务,具备如下优势: 对比项 开源自建 分布式消息服务Kafka 低成本运维 需要专业人员资源规划、部署、运维。 一键开通,全托管。提供多种规格,按需使用,支持一键式节点数、磁盘存储空间和节点规格扩容。 分区规模 千级分区稳定性下降。 支持万级分区稳定写入。 消息查询 命令行可以消费,但无法根据位点或者时间直接定位到具体的消息。 控制台可视化按时间或者位点直接查看消息。 ACL访问控制 命令行,配置复杂。 灵活配置,一键生效。 可视化配置 命令行,配置复杂。 控制台全方位可视化配置管理。 运维监控 缺乏配套的监控运维能力。 提供全引擎指标可视化监控,告警及时发现问题。 集群巡检 命令行,配置复杂。 引擎状态、主题一键健康检测、启停。 稳定可靠 需要自己开发或基于开源实现,开发成本高昂,无法保证业务可靠运行。 支持跨AZ部署,提升可靠性。 安全保证 需要自行进行安全加固。 VPC隔离,支持SSL通道加密。 简单易用 无,需要自己开发。 提供简单的实例管理RESTful API,使用门槛低。
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        开源对比
      • 实例诊断
        本章节介绍了如何使用实例诊断功能快速定位问题。 操作场景 使用分布式消息服务RocketMQ消费消息时,如果遇到消息消费缓慢或者消费不到消息等消费异常的场景,借助实例诊断功能可以帮助您快速定位问题。 前提条件 已创建消费组,且消费组中已存在消费者。 已创建Topic。 实例诊断 1. 登录分布式消息服务RocketMQ控制台。 2. 单击RocketMQ实例的名称,进入实例详情页面。 3. 在左侧导航栏,选择“实例诊断”,进入实例诊断页面。 4. 选择待诊断的消费组名称,单击“开始诊断”。 诊断完成后,在“诊断记录”区域,新增一条诊断记录。 5. 单击“查看报告”,进入“实例诊断”页面,查看诊断结果。 图1 诊断结果 说明: 消费组中没有消费者时,会导致诊断失败。 消费组不在线时,可以诊断成功,但是会显示1项异常。 删除诊断记录 1. 登录分布式消息服务RocketMQ控制台。 2. 单击RocketMQ实例的名称,进入实例详情页面。 3. 在左侧导航栏,选择“实例诊断”,进入实例诊断页面。 4. 选择以下任意一种方法删除诊断记录。 在待删除的诊断记录所在行,单击“删除”。 如需批量删除诊断记录,勾选待删除的诊断记录,单击“批量删除”。 5. 弹出确认删除对话框,单击“是”,完成诊断记录的删除。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        实例诊断
      • DeleteMultipleObjects
        功能说明 DeleteMultipleObjects请求删除多个指定的对象。 请求消息样式 plaintext POST /{Bucket}?delete HTTP/1.1 Host: xxx.zos.ctyun.cn xamzcontentsha256: ContentSHA256 xamzdate: Date Authorization: Auth String ContentType: application/xml Connection: keepalive ContentLength: Length string string ... boolean 请求消息参数 参数名称 参数描述 类型 是否必须 Bucket 参数解释: Bucket的名称。 String 是 请求消息头 该请求使用公共的请求消息头,请参见如何调用API构造请求请求消息头。 消息消息元素 参数名称 参数描述 类型 是否必须 Delete 参数解释: 批量删除信息的容器。 Container 是 表Delete 参数名称 参数描述 类型 是否必须 Object 参数解释: 删除对象的信息。 Container 是 Quiet 参数解释: 是否开启静默模式,若关闭,则会返回具体的删除信息。 取值范围: True False 默认取值: True Boolean 否 表Object 参数名称 参数描述 类型 是否必须 Key 参数解释: 删除对象的Key。 String 是 VersionId 参数解释: 删除对象的版本号。 String 否
        来自:
        帮助文档
        对象存储 ZOS
        API参考
        API(原生接口)
        Object操作
        DeleteMultipleObjects
      • 1
      • ...
      • 29
      • 30
      • 31
      • 32
      • 33
      • ...
      • 276
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      聚力AI赋能 天翼云大模型专项

      大模型特惠专区·Token Plan 轻享包低至9.9元起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      企业出海解决方案

      助力您的业务扬帆出海,通达全球!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务 MDR

      GPU云主机

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      训推服务

      应用托管

      科研助手

      推荐文档

      大事记

      安全类问题

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 息壤智算平台
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号