云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      消息服务MNS_相关内容
      • 产品定义
        本章节介绍应用高可用的产品定义。 产品定义 应用高可用服务 是为应用提供高可用解决方案的产品,包含应用容灾多活 和故障演练服务 ,提供应用流量调度、数据同步、演练容灾一站式管理,助力企业云上业务实现多活高可用建设。 产品优势 多种容灾架构:丰富的容灾架构,满足应用级、业务级多场景容灾。 一站接入管控:应用分层管理,接入层、服务层、数据层等统一纳管调度。 快速恢复预期:确定的流程编排,一键容灾切换,分钟级业务恢复能力。 高效运维监控:组件协同管理,全链路监控告警,容灾运维简单高效。 产品特性 引导接入:可视化引导用户进行应用改造、配置和流程编排,降低用户学习和实施成本。 资源管理:应用核心链路节点资源集成纳管,具备网关、服务、消息、数据等多层组件全栈管理能力。 流量调度:识别应用流量,支持按比例与精准路由规则,控制后端应用流量分配,实现流量分发多活。 数据保护:支持应用核心数据多集群冗余,通过SDK植入管控,实现请求封闭、消息过滤、数据禁写等一致性保护策略。 故障切换:多活应用分层协同切流,保障业务分钟级别恢复。 容灾演练:多活流量灰度验证,确保容灾操作可执行,恢复效果可预期。
        来自:
        帮助文档
        应用高可用
        产品简介
        产品定义
      • 计费类常见问题
        基准带宽和磁盘可选择哪些? 资源、规格等信息可参考产品规格文档。 哪些资源池可以订购分布式消息服务Kafka? 天翼云分布式消息服务Kafka可以在以下资源池订购: (1)华南2、华东1、华北2、西南1、上海36、青岛20、长沙42、南昌5、南宁23、武汉41、太原4 (2)芜湖2、福州4、重庆2 、北京5 、佛山3、贵州3、杭州2、内蒙6、上海7、上海6、西安3、昆明2、保定、北京4、合肥2 、乌鲁木齐27 账户里面有钱,为什么无法创建按需付费Kafka实例? 请检查您的账户金额是否小于100元,如果小于100元,则无法创建新的Kafka实例。 (1)预存后付费方式:提前充值现金到天翼云账户中,现金账户余额不低于100元,之后系统按照用户实际使用量进行结算。 (2)计费周期:按小时计费,以自然小时为计费单位(均以北京时间为准),不满一小时按照一小时计费。费用从用户账户现金余额中扣费。开通时间建议整点开通,开通不足一个自然小时,按一小时收费。提前删除也按照自然小时收费。 欠费后如何重新启用? 如果您在15天内充值补足欠款,服务会自动启用。 欠费后,资源进入保留期,您将不能正常访问及使用云服务(资源冻结),但对于您存储在云服务中的数据予以保留。 若您在保留期内充值,充值后系统会自动扣减欠费金额。 若保留期到期您仍未充值,存储在云服务中的数据将被删除、云服务资源将被释放。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        计费与购买类
        计费类常见问题
      • 运行Kafka作业
        本章节主要介绍如何运行Kafka作业。 用户可将自己开发的程序提交到MRS中,执行程序并获取结果。本章节教您在Kafka主题中产生和消费消息。 暂不支持通过界面提交Kafka作业,请通过后台功能来提交作业。 通过后台提交作业 先查询ZooKeeper和Kafka的实例地址,再运行Kafka作业。 查询实例地址(3.x版本) 1.登录MRS管理控制台。 2.选择“集群列表 > 现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 3.请参考访问FusionInsight Manager(MRS 3.x及之后版本),跳转至FusionInsight Manager页面。然后选择“服务 > ZooKeeper > 实例”,查看ZooKeeper角色实例的IP地址。记录ZooKeeper角色实例中任意一个的IP地址即可。 4.选择“服务 > Kafka > 实例”,查看Kafka角色实例的IP地址。记录Kafka角色实例中任意一个的IP地址即可。 查询实例地址(3.x之前版本) a. 登录MRS管理控制台。 b. 选择“集群列表 > 现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 c. 在MRS集群详情页面,选择“组件管理 > ZooKeeper > 实例”,查看ZooKeeper角色实例的IP地址。记录ZooKeeper角色实例中任意一个的IP地址即可。 d. 选择“组件管理 > Kafka > 实例”,查看Kafka角色实例的IP地址。记录Kafka角色实例中任意一个的IP地址即可。 运行Kafka作业 MRS 3.x及之后版本客户端默认安装路径为“/opt/Bigdata/client”,MRS 3.x之前版本为“/opt/client”。具体以实际为准。 1.在集群信息页面的“节点管理”页签中单击Master2节点名称,进入弹性云主机管理控制台。 2.单击页面右上角的“远程登录”。 3.根据界面提示,输入Master节点的用户名和密码,用户名、密码分别为root和创建集群时设置的密码。 4.执行如下命令初始化环境变量。 source /opt/Bigdata/client/bigdataenv 5.如果当前集群已开启Kerberos认证,执行以下命令认证当前用户。如果当前集群未开启Kerberos认证,则无需执行该步骤。 kinit MRS集群用户 例如, kinit admin 6.执行如下命令,创建kafka topic。 kafkatopics.sh create zookeeper ZooKeeper角色实例IP:2181/kafkapartitions 2 replicationfactor 2 topic 7.在topic test中产生消息。 首先执行命令kafkaconsoleproducer.sh brokerlist Kafka角色实例IP:9092 topic producer.config /opt/Bigdata/client/Kafka/kafka/config/producer.properties 。 然后输入指定的内容作为生产者产生的消息,输入完成后按回车发送消息。如果需要结束产生消息,使用“Ctrl + C”退出任务。 8.消费topic test中的消息。 kafkaconsoleconsumer.sh topic bootstrapserver Kafka角色实例IP:9092 consumer.config/opt/Bigdata/client/Kafka/kafka/config/consumer.properties 说明 如果集群开启Kerberos认证,则执行如上两个命令时请修改端口号9092为21007,详见
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        运行Kafka作业
      • 云审计服务支持的RabbitMQ操作列表
        本章节主要介绍云审计服务支持的分布式消息服务RabbitMQ操作列表。 通过云审计服务,您可以记录与分布式消息服务RabbitMQ相关的操作事件,便于日后的查询、审计和回溯。 表1 云审计服务支持的RabbitMQ操作列表 操作名称 资源类型 事件名称 删除后台任务成功 rabbitmq deleteDMSBackendJobSuccess 删除后台任务失败 rabbitmq deleteDMSBackendJobFailure 创建DMS实例订单成功 rabbitmq createDMSInstanceOrderSuccess 创建DMS实例订单失败 rabbitmq createDMSInstanceOrderFailure 修改DMS实例订单成功 rabbitmq modifyDMSInstanceOrderSuccess 修改DMS实例订单失败 rabbitmq modifyDMSInstanceOrderFailure 扩容实例成功 rabbitmq extendDMSInstanceSuccess 扩容实例失败 rabbitmq extendDMSInstanceFailure 重置DMS实例密码成功 rabbitmq resetDMSInstancePasswordSuccess 重置DMS实例密码失败 rabbitmq resetDMSInstancePasswordFailure 删除创建失败的DMS实例成功 rabbitmq deleteDMSCreateFailureInstancesSuccess 删除创建失败的DMS实例失败 rabbitmq deleteDMSCreateFailureInstancesFailure 重启DMS实例成功 rabbitmq restartDMSInstanceSuccess 重启DMS实例失败 rabbitmq restartDMSInstanceFailure 批量删除DMS实例成功 rabbitmq batchDeleteDMSInstanceSuccess 批量删除DMS实例失败 rabbitmq batchDeleteDMSInstanceFailure 批量重启DMS实例成功 rabbitmq batchRestartDMSInstanceSuccess 批量重启DMS实例失败 rabbitmq batchRestartDMSInstanceFailure 修改DMS实例信息成功 rabbitmq modifyDMSInstanceInfoSuccess 修改DMS实例信息失败 rabbitmq modifyDMSInstanceInfoFailure 批量删除DMS实例任务 rabbitmq batchDeleteDMSInstanceTask 解冻DMS实例任务成功 rabbitmq unfreezeDMSInstanceTaskSuccess 解冻DMS实例任务失败 rabbitmq unfreezeDMSInstanceTaskFailure 冻结DMS实例任务成功 rabbitmq freezeDMSInstanceTaskSuccess 冻结DMS实例任务失败 rabbitmq freezeDMSInstanceTaskFailure 删除DMS实例任务成功 rabbitmq deleteDMSInstanceTaskSuccess 删除DMS实例任务失败 rabbitmq deleteDMSInstanceTaskFailure 创建DMS实例任务成功 rabbitmq createDMSInstanceTaskSuccess 创建DMS实例任务失败 rabbitmq createDMSInstanceTaskFailure 扩容DMS实例任务成功 rabbitmq extendDMSInstanceTaskSuccess 扩容DMS实例任务失败 rabbitmq extendDMSInstanceTaskFailure 重启DMS实例任务成功 rabbitmq restartDMSInstanceTaskSuccess 重启DMS实例任务失败 rabbitmq restartDMSInstanceTaskFailure 批量重启DMS实例任务成功 rabbitmq batchRestartDMSInstanceTaskSuccess 批量重启DMS实例任务失败 rabbitmq batchRestartDMSInstanceTaskFailure 修改DMS实例信息任务成功 rabbitmq modifyDMSInstanceInfoTaskSuccess 修改DMS实例信息任务失败 rabbitmq modifyDMSInstanceInfoTaskFailure
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        云审计服务支持的关键操作
        云审计服务支持的RabbitMQ操作列表
      • 设置告警规则
        本章节会介绍如何设置数据库监控告警规则。 操作场景 通过在云监控中设置告警规则,用户可自定义关系型数据库的监控目标与通知策略,及时了解关系型数据库运行状况,从而起到预警作用。 设置关系型数据库的告警规则包括设置告警规则名称、服务、维度、监控对象、监控指标、告警阈值、监控周期和是否发送通知等参数。 设置告警规则 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域和项目。 步骤 3 在“服务列表”中选择“管理与部署 > 云监控服务”,进入云监控服务信息页面。 步骤 4 选择“告警 > 告警规则”。 步骤 5 单击“创建告警规则”。 步骤 6 在“创建告警规则”界面,根据界面提示配置参数。 表 告警规则信息 参数 参数说明 名称 系统会随机产生一个名称,用户也可以进行修改。 描述 告警规则描述。 告警类型 选择指标。 资源类型 选择关系型数据库。 维度 选择MySQL实例。 监控范围 资源分组:该分组下任何资源满足告警策略时,都会触发告警通知。 指定资源:在“监控对象”单击“选择指定资源”进行指定资源的选择。 触发规则 关联模板:所关联模板内容修改后,该告警规则中所包含策略也会跟随修改。 建议选择导入已有模板,模板中已经包含CPU使用率、内存使用率、磁盘利用率三个常用告警指标。 自定义创建:自行配置告警策略。 模板 触发规则选择关联模板时,需要选择模板。 您可以选择系统预置的默认告警模板,或者选择自定义模板。 表 告警通知 参数 参数说明 发送通知 配置是否发送邮件、短信、HTTP和HTTPS通知用户。 通知方式 根据需要可选择通知组或主题订阅两种方式。 通知组 需要发送告警通知的通知组。 通知对象 选择主题订阅时设置需要发送告警通知的对象,可选择云账号联系人或主题名称。 云账号联系人为注册时的手机和邮箱。 主题是消息发布或客户端订阅通知的特定事件类型。 生效时间 该告警仅在生效时间段发送通知消息,非生效时段则在隔日生效时段发送通知消息。 如生效时间为08:0020:00,则该告警规则仅在08:0020:00发送通知消息。 触发条件 可以选择“出现告警”、“恢复正常”两种状态,作为触发告警通知的条件。 归属企业项目 告警规则所属的企业项目。只有拥有该企业项目权限的用户才可以查看和管理该告警规则。 步骤 7 单击“立即创建”,告警规则创建完成。 结束
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        监控与告警
        设置告警规则
      • 通信协议
        本文主要介绍通信协议 本章节介绍APM采集的Websocket监控指标的类别、名称、含义等信息。 表 Websocket监控指标说明 指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 ::::::: 异常(exception,Websocket的异常信息统计。) exceptionType 异常类型 异常类型 ENUM LAST 异常(exception,Websocket的异常信息统计。) causeType 异常类 发生异常的类 ENUM LAST 异常(exception,Websocket的异常信息统计。) count 次数 该异常的发生次数 INT SUM 异常(exception,Websocket的异常信息统计。) message 异常消息 该异常产生的异常消息 STRING LAST 异常(exception,Websocket的异常信息统计。) stackTrace 异常堆栈 该异常产生的堆栈信息 CLOB LAST websocket消息监控(message,websocket消息处理信息。) url url websocket对应的url ENUM LAST websocket消息监控(message,websocket消息处理信息。) errorCount 错误次数 消息处理错误次数 INT SUM websocket消息监控(message,websocket消息处理信息。) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST websocket消息监控(message,websocket消息处理信息。) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST websocket消息监控(message,websocket消息处理信息。) invokeCount 调用次数 消息处理方法调用次数 INT SUM websocket消息监控(message,websocket消息处理信息。) traffic 流量 流量 INT SUM websocket消息监控(message,websocket消息处理信息。) createSessionCount 创建连接数 创建连接数 INT SUM websocket消息监控(message,websocket消息处理信息。) closeSessionCount 关闭连接数 关闭连接数 INT SUM websocket消息监控(message,websocket消息处理信息。) closeReason 关闭原因 连接关闭的原因 STRING LAST websocket消息监控(message,websocket消息处理信息。) maxTime 最大响应时间 最大响应时间 INT MAX websocket消息监控(message,websocket消息处理信息。) totalTime 总响应时间 总响应时间 INT SUM websocket消息监控(message,websocket消息处理信息。) range1 010ms 响应时间在010ms范围请求数 INT SUM websocket消息监控(message,websocket消息处理信息。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM websocket消息监控(message,websocket消息处理信息。) range3 100500ms 响应时间在100500ms范围请求数 INT SUM websocket消息监控(message,websocket消息处理信息。) range4 5001000ms 响应时间在5001000ms范围请求数 INT SUM websocket消息监控(message,websocket消息处理信息。) range5 110s 响应时间在110s范围请求数 INT SUM websocket消息监控(message,websocket消息处理信息。) range6 10s以上 响应时间在10s以上请求数 INT SUM Websocket汇总(total,汇总信息统计。) errorCount 错误次数 总的错误次数 INT SUM Websocket汇总(total,汇总信息统计。) invokeCount 调用次数 总的调用次数 INT SUM Websocket汇总(total,汇总信息统计。) createSessionCount 创建连接数 创建连接数 INT SUM Websocket汇总(total,汇总信息统计。) closeSessionCount 关闭连接数 关闭连接数 INT SUM Websocket汇总(total,汇总信息统计。) traffic 流量 流量 INT SUM Websocket汇总(total,汇总信息统计。) totalTime 总响应时间 总响应时间 INT SUM
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        通信协议
      • 开启告警通知
        此小节介绍如何开启/关闭告警通知。 为AntiDDoS开启告警通知以后,当实例受到DDoS攻击时,您会收到提醒消息(短信或Email)。否则,无论DDoS攻击流量多大,您都只能登录管理控制台自行查看,无法收到报警信息。 告警通知默认关闭,用户可以根据实际情况手动开启告警通知。 前提条件 已获取管理控制台的登录账号与密码,且该账号已购买公网IP。 操作步骤 1. 登录管理控制台。 2. 单击页面顶部的区域选择框,选择区域。 3. 在产品服务列表中,选择“安全 > AntiDDoS流量清洗”,进入AntiDDoS服务管理界面。 4. 选择“告警通知”页签,设置告警通知。 告警通知参数说明: 参数 说明 告警通知开关 开启或关闭告警通知,说明如下: :开启状态。 :关闭状态。 消息通知主题 可以选择使用已有的主题,或者单击“查看消息通知主题”创建新的主题。 5. 单击“应用”,完成告警通知设置。 相关操作 关闭告警通知:在告警通知配置页面,将告警通知状态参数置为关闭状态,即可关闭告警通知。 说明 关闭告警通知后,无论DDoS攻击流量多大,您都只能登录管理控制台自行查看,无法收到报警信息。
        来自:
        帮助文档
        Anti-DDoS流量清洗
        用户指南
        开启告警通知
      • 查看实例后台任务
        本文主要介绍查看实例后台任务。 . 对实例的一些操作,如修改公网访问开关、修改容量阈值策略等,会启动一个后台任务,您可以在后台任务页,查看该操作的状态等信息,同时可通过删除操作,清理任务信息。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例的“基本信息”页签。 步骤 5 单击“后台任务管理”页签,进入后台任务管理页面。 界面显示任务列表。 步骤 6 在右上角单击系统默认时间,选择开始时间和结束时间,单击“确定”,界面显示相应时间段内启动的任务。 在后台任务管理页面,您还可以执行以下操作: 单击,刷新任务状态。 单击“删除”,弹出“删除任务记录”对话框,单击“是”,清理任务信息。 说明 您只能在任务已经执行完成,即任务状态为成功或者失败时,才能执行删除操作。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        查看实例后台任务
      • 日志中心
        参数 描述 STARTTIME 请求开始时间。 REQ(:METHOD) 请求方法。 REQ(XENVOYORIGINALPATH?:PATH) 请求的原始路径,若无则使用标准路径。 PROTOCOL 请求所使用的协议。 RESPONSECODE 服务器对请求的响应状态码。 RESPONSEFLAGS 响应的标志,提供关于响应的特性信息。 BYTESRECEIVED 接收到的字节数,指示请求消息的大小。 BYTESSENT 发送出去的字节数,指示响应消息的大小。 DURATION 请求处理的持续时间,包括接收到请求到发送响应的时间。 RESP(XENVOYUPSTREAMSERVICETIME) 上游服务的响应时间,表示上游服务处理请求所花费的时间。 REQ(XFORWARDEDFOR) 请求的xff头部。 REQ(USERAGENT) 请求的用户代理,标识发起请求的软件。 REQ(XREQUESTID) 请求的唯一标识符,用于跟踪请求的生命周期。 REQ(:AUTHORITY) 请求的主机名,在HTTP/2中对应请求的authority字段。
        来自:
        帮助文档
        应用服务网格
        用户指南
        可观测管理中心
        日志中心
      • 为什么不推荐使用Sarama Go客户端收发消息?
        本节介绍Kafka不推荐使用Sarama Go客户端收发消息 问题现象 所有Sarama Go版本客户端存在以下已知问题: 当Topic新增分区时,Sarama Go客户端无法感知并消费新增分区,需要客户端重启后,才能消费到新增分区。 当Sarama Go客户端同时订阅两个以上的Topic时,有可能会导致部分分区无法正常消费消息。 当Sarama Go客户端的消费位点重置策略设置为Oldest(earliest)时,如果客户端宕机或服务端版本升级,由于Sarama Go客户端自行实现OutOfRange机制,有可能会导致客户端从最小位点开始重新消费所有消息。 解决方案 建议尽早将Sarama Go客户端替换为Confluent Go客户端。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        操作类
        为什么不推荐使用Sarama Go客户端收发消息?
      • 管理实例标签
        本章节主要介绍管理分布式消息服务RabbitMQ实例标签。 标签是RabbitMQ实例的标识,为RabbitMQ实例添加标签,方便您识别和管理拥有的RabbitMQ实例资源。 您可以在创建RabbitMQ实例时添加标签,也可以在RabbitMQ实例创建完成后,在“标签”页面添加标签,最多可以给实例添加20个标签。另外,您还可以进行修改和删除标签。 标签共由两部分组成:“标签键”和“标签值”,其中,“标签键”和“标签值”的命名规则如下表所示。 表1 标签命名规则 参数名称 规则 :::: 标签键 不能为空。 对于同一个实例,Key值唯一。 长度为1~128个字符(中文也可以输入128个字符)。 由任意语种字母、数字、空格和字符组成,字符仅支持 . : + @ 首尾字符不能为空格。 标签值 长度为0~255个字符(中文也可以输入128个字符)。 由任意语种字母、数字、空格和字符组成,字符仅支持 . : + @ 首尾字符不能为空格。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择RabbitMQ实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”>“分布式消息服务”>“RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤 4 单击待设置标签的实例名称,进入实例详情页面。 步骤 5 单击“标签”页签,进入标签管理页面,页面显示该实例的标签列表。 步骤 6 您可以根据实际需要,执行以下操作: 添加标签 单击“创建/删除标签”,弹出“创建/删除标签”对话框。 在“标签键”和“标签值”中,输入标签的键/值,单击“添加”。如果您已经预定义了标签,在“标签键”和“标签值”中选择已经定义的标签键/值,单击“添加”。 单击“确定”,成功为实例添加标签。 删除标签(可通过以下任意方法删除) 在待删除的标签所在行,单击“删除”,弹出“删除标签”对话框。单击“是”,完成标签的删除。 单击“创建/删除标签”,弹出“创建/删除标签”对话框。在待删除的标签后,单击,然后单击“确定”,完成标签的删除。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        实例日常管理
        管理实例标签
      • 【优惠】正式开放2年7折,3年5折包年折扣
        面向长期稳定客户,我们特别推出了更加优惠的包年订阅选项,旨在通过深度折扣,帮助客户显著降低资源单位成本,优化整体支出。 自2024年11月9日起订购和续订分布式消息服务MQTT产品更长包周期即可享受2年7折,3年5折优惠。
        来自:
        帮助文档
        分布式消息服务MQTT
        服务公告
        2024年
        【优惠】正式开放2年7折,3年5折包年折扣
      • Java客户端Pull和Push的选择
        Java客户端必须使用Push Consumer 使用Pull可以实现的所有场景,均可使用Push实现,并且更简单。 Push其实是长轮询的Pull(依然是由客户端发起),在客户端通过配置参数是可以实现流控的,并不会出现服务端的流量压垮客户端的情况。 Push封装了拉取消息,分发给消费线程的线程模型,非流控的情况下,由后台线程主动拉取消息,并缓存在本地,消费线程池有空闲线程时,分发给消费线程,在有堆积量的情况下,可以保证消费线程一直工作,性能更高(备注:Pull只提供了拉取消息的功能,并且何时去拉取,拉取时机,这些都需要应用去控制;分发给消费线程的逻辑需要应用封装,除了增加应用工作量外,还可能有不稳定、性能问题等)。 Push经过多个大型项目的长时间的使用,更成熟稳定。 Push会自动订阅重试队列,不需要再次调用拉取重试队列的API来取得重试队列的消息(备注:Pull需要另外调用API拉取重试队列的消息)。 Pull是一种遗留的消费模式(兼容早期的API),新开发的应用,或者未上线的应用,都要求使用Push消费模式。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        最佳实践
        Java客户端Pull和Push的选择
      • 卡券使用
        本节介绍产品使用卡券规则。 天翼云分布式消息服务RocketMQ产品卡券使用遵循天翼云统一规则。 ++优惠券使用++ ++代金券使用++ 卡券使用常见问题:卡券管理费用中心常见问题 天翼云。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        计费说明
        卡券使用
      • 连接已开启SSL的RocketMQ实例
        本章节介绍了如何连接已开启SSL的分布式消息服务RocketMQ实例。 实例开启SSL时,数据使用加密传输,安全性更高。本文主要介绍在命令行模式下使用SSL连接RocketMQ实例的操作,其中包含VPC内和公网环境下两种连接场景。 在使用SSL连接的场景下,通过VPC内访问和通过公网环境访问,仅涉及连接IP和端口不一致,其他操作步骤是一样的,VPC内访问的连接端口为8100,公网环境下访问的连接端口为8200。 文中仅介绍公网环境下的连接示例,在VPC内连接时,替换为相应的连接地址即可。 前提条件 已创建RocketMQ实例,并记录实例详情中的“元数据连接地址”(VPC内访问)/“元数据公网连接地址”(公网访问)。 已配置安全组。 已创建Topic。 已创建弹性云服务器,并且弹性云服务器的VPC、子网、安全组与RocketMQ实例的VPC、子网、安全组保持一致。 已安装Java Development Kit 1.8.111或以上版本,并完成环境变量配置。 命令行模式连接实例 1. 下载“rocketmqtutorial”示例软件包。 wget 2. 解压“rocketmqtutorial”。 unzip rocketmqtutorial.zip 3. 进入“rocketmqtutorial/bin”目录。 cd rocketmqtutorial/bin 4. 运行生产普通消息示例。 sh mqadmin sendMessage n "{连接地址}" t {Topic名称} p "hello rocketmq" 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin sendMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest p "hello rocketmq" 使用Ctrl+C命令退出。 5. 运行消费普通消息示例。 sh mqadmin consumeMessage n "{连接地址}" t {Topic名称} 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin consumeMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest 如需停止消费使用Ctrl+C命令退出。 6. 运行生产带消息轨迹的消息示例。 sh mqadmin sendMessage n "{连接地址}" t {Topic名称} p "hello rocketmq" m true 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin sendMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest p "hello rocketmq" m true 使用Ctrl+C命令退出。 7. 运行消费消息示例,并发送消息轨迹。 sh mqadmin consumeMessage n "{连接地址}" t {Topic名称} m true 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin consumeMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest m true 使用Ctrl+C命令退出。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        连接实例
        连接已开启SSL的RocketMQ实例
      • 连接未开启SSL的RocketMQ实例
        本章节介绍了如何连接未开启SSL的分布式消息服务RocketMQ实例。 实例开启SSL时,数据使用加密传输,安全性更高。本文主要介绍在命令行模式下使用SSL连接RocketMQ实例的操作,其中包含VPC内和公网环境下两种连接场景。 在使用SSL连接的场景下,通过VPC内访问和通过公网环境访问,仅涉及连接IP和端口不一致,其他操作步骤是一样的,VPC内访问的连接端口为8100,公网环境下访问的连接端口为8200。 文中仅介绍公网环境下的连接示例,在VPC内连接时,替换为相应的连接地址即可。 前提条件 已创建RocketMQ实例,并记录实例详情中的“元数据连接地址”(VPC内访问)/“元数据公网连接地址”(公网访问)。 已配置安全组。 已创建Topic。 已创建弹性云服务器,并且弹性云服务器的VPC、子网、安全组与RocketMQ实例的VPC、子网、安全组保持一致。 已安装Java Development Kit 1.8.111或以上版本,并完成环境变量配置。 命令行模式连接实例 1. 下载“rocketmqtutorial.zip”示例软件包。 wget 2. 解压“rocketmqtutorial”。 unzip rocketmqtutorial.zip 3. 进入“rocketmqtutorial/bin”目录。 cd rocketmqtutorial/bin 4. 运行生产普通消息示例。 sh mqadmin sendMessage n "{连接地址}" t {Topic名称} p "hello rocketmq" 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin sendMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest p "hello rocketmq" 使用Ctrl+C命令退出。 5. 运行消费普通消息示例。 sh mqadmin consumeMessage n "{连接地址}" t {Topic名称} 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin consumeMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest 如需停止消费使用Ctrl+C命令退出。 6. 运行生产带消息轨迹的消息示例。 sh mqadmin sendMessage n "{连接地址}" t {Topic名称} p "hello rocketmq" m true 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin sendMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest p "hello rocketmq" m true 使用Ctrl+C命令退出。 7. 运行消费消息示例,并发送消息轨迹。 sh mqadmin consumeMessage n "{连接地址}" t {Topic名称} m true 参数说明如下: 连接地址:表示RocketMQ实例的元数据连接地址(VPC内访问)/元数据公网连接地址(公网访问)。 Topic名称:RocketMQ实例下创建的Topic名称。 示例如下,其中“100.xxx.xxx.89:8200;100.xxx.xxx.144:8200”为RocketMQ实例的元数据公网连接地址,“topictest”为Topic名称。 sh mqadmin consumeMessage n "100.xxx.xxx.89:8200;100.xxx.xxx.144:8200" t topictest m true 使用Ctrl+C命令退出。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        连接实例
        连接未开启SSL的RocketMQ实例
      • RabbitMQ资源
        本章节主要介绍分布式消息服务RabbitMQ资源。 资源是服务中存在的对象。在DMS for RabbitMQ中,资源包括:rabbitmq,您可以在创建自定义策略时,通过指定资源路径来选择特定资源。 表1 DMS for RabbitMQ的指定资源与对应路径 指定资源 资源名称 资源路径 rabbitmq 实例 【格式】 DMS:::rabbitmq:实例ID 【说明】 对于实例资源,IAM自动生成资源路径前缀DMS:::rabbitmq: 通过实例ID指定具体的资源路径,支持通配符。例如: DMS:::rabbitmq:表示任意RabbitMQ实例。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        权限管理
        RabbitMQ资源
      • 删除消费组
        介绍分布式消息服务Kafka删除消费组功能操作内容。 场景描述 Kafka删除消费组的场景包括: 消费组不再使用:当一个消费组不再需要使用时,可以选择删除该消费组。这可能是因为业务需求变化,或者消费组已经完成了其任务。删除消费组可以释放资源,并减少管理和维护的工作量。 重置消费者偏移量:在某些情况下,可能需要重置消费者组的偏移量,以重新开始消费消息。例如,当需要重新处理之前的消息,或者需要从最早的消息开始消费时,可以删除消费组并创建一个新的消费组来实现偏移量的重置。 清理过期的消费组:如果消费组长时间未被使用或者没有活跃的消费者,可以选择删除这些过期的消费组。这有助于减少资源占用和管理的复杂性,同时也可以提高整体性能和效率。 需要注意的是,在删除消费组之前,要确保没有任何正在运行的消费者实例与该消费组相关联。否则,删除消费组可能会导致数据丢失或其他问题。在删除消费组之前,建议先停止相关的消费者实例,并确保所有的消费者都已经退出消费组。 操作步骤 删除消费组 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“消费组管理”后进入消费组管理页面。 (5)在目标消费组所在行,单击“更多 ”“删除”。 批量删除消费组 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“消费组管理”后进入消费组管理页面。 (5)在目标消费组所在行,勾选其左侧目标框。 (6)点击左上角“删除消费组”按钮,完成批量删除。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消费组管理
        删除消费组
      • 步骤4:查看实时日志
        本节介绍了完成日志采集规则配置后,在云日志控制台实时查看上报的日志。 前提条件 已创建日志组和日志流。 已完成ICAgent安装。 已接入日志。 查看实时日志 1. 在云日志服务管理控制台,单击“日志管理”。 2. 在日志组列表中,单击已创建的日志组名称。 3. 在日志流列表中,单击已创建的日志流名称。 4. 在日志流详情页面,单击“实时日志”,查看实时日志。 日志每隔大约5秒钟上报一次,在日志消息区域,您最多需要等待5秒钟左右,即可查看实时上报的日志。 同时,您还可以通过页面右上方的“清屏”、“暂停”对日志消息区域进行操作。 1. 清屏:清除日志消息区域已经显示出来的日志。 2. 暂停:暂停日志消息的实时显示,页面定格在当前已显示的日志。 暂停后,“暂停”会变成“继续”,再次单击“继续”,日志消息继续实时显示。 说明 如果您正在使用实时查看功能,请停留在实时查看页面,请勿切换页面。如果您离开实时查看页面,实时查看功能将会被关闭。
        来自:
        帮助文档
        云日志服务
        快速入门
        步骤4:查看实时日志
      • 用户权限管理
        场景描述 RocketMQ提供了用户管理和权限管理机制,用于确保消息队列的安全性和访问控制。另外RocketMQ还支持角色的概念,可以将多个权限组合成一个角色,并将角色分配给用户。通过角色管理,可以简化权限管理的复杂性,提高管理效率。 通过用户管理和权限管理机制,RocketMQ可以实现对消息队列的细粒度访问控制,确保只有授权的用户能够读取、写入和订阅消息,并提供了灵活的角色管理功能,方便管理员进行权限分配和管理。这些机制可以帮助用户保护消息队列的安全性,防止未经授权的访问和操作。 应用用户管理 本章节适用于南京3、上海7、重庆2、乌鲁木齐27、保定、石家庄20、内蒙6、晋中、北京5 节点。 新建消息实例后,必须在此菜单新建应用用户,然后应用才能在此消息实例上发送、消费消息。此处的用户名即为管控openapi中的accessKey,加密后的密码即为管控openapi中的secretKey。 应用用户:指MQ客户端,连接服务器生产消费时,需要进行权限校验,所以MQ客户端的用户,称为应用用户。 除了用户密码的校验,还可以为用户指定topic,代表该用户只能生产消费,指定的topic,其他topic不能生产消费。 1)点击【新建用户】按钮 2)进入用户列表界面,新增用户 3)弹出框填写用户字段 默认展示租户名,不可修改。 选择集群名称,填写应用用户名,请输入大于6位字符,只能输入大小写字母,下划线,数字。 填写用户密码,请输入大于8位字符,需要包含数字大小写字母以及特殊符号(!@
        来自:
      • 应用场景
        优势 多源数据分析免搬迁:关系型数据库RDS中存放车辆和车主基本信息,表格存储中存放实时的车辆位置和健康状态信息,数据仓库DWS中存放周期性统计的指标。通过DLI无需数据搬迁,对多数据源进行联邦分析。 数据分级存储:车企需要保留全量历史数据支撑审计类等业务,低频进行访问。温冷数据存放在低成本的对象存储服务OBS上,高频访问的热数据存放在数据引擎(DWS)中,降低整体存储成本。 告警快速敏捷触发服务器弹性伸缩:对CPU、内存、硬盘空间和带宽无特殊要求。 建议搭配以下服务使用: CDM、OBS、DWS。 大数据ETL处理 运营商大数据分析 运营商数据体量在PB~EB级,其数据种类多,有结构化的基站信息数据,非结构化的消息通信数据,同时对数据的时效性有很高的要求,DLI服务提供批处理、流处理等多模引擎,打破数据孤岛进行统一的数据分析。 优势 大数据ETL:具备TB~EB级运营商数据治理能力,能快速将海量运营商数据做ETL处理,为分布式批处理计算提供分布式数据集。 高吞吐低时延:采用Apache Flink的Dataflow模型,高性能计算资源,从用户自建的Kafka、MRSKafka、DMSKafka消费数据,单CU每秒吞吐1千~2万条消息。 建议搭配以下服务使用: OBS、DataArts Studio。
        来自:
        帮助文档
        数据湖探索
        产品简介
        应用场景
      • 退订
        本节主要介绍分布式消息服务Kafka的退订说明 如果您有退订的需求,可以进行登录天翼云管理中心或产品控制台进行退订操作。天翼云目前支持7天无理由全额退订和非七天无理由退订以及其他退订,详细规则请参考文档费用中心退订。
        来自:
        帮助文档
        分布式消息服务Kafka
        计费说明
        退订
      • 通过kafka导入日志
        本文主要介绍如何通过kafka导入日志。 本文主要介绍如何将天翼云分布式消息服务Kafka的数据导入到云日志服务,实现数据的查询分析、加工等操作。 注意 当前功能为试用阶段,仅在华北2资源池开放。 创建数据导入任务 1. 登录云日志服务控制台。 2. 左侧菜单栏点击“日志接入”,进入接入管理页面 3. 在“数据导入”模块中,点击“分布式消息服务Kafka数据导入” 4. 选择目标日志项目和日志单元,单击下一步。 5. 设置接入配置,配置如下参数,确认无误后,单击下一步。 参数 说明 接入配置名称 导入任务的唯一标识 Kafka 实例 选择kafka实例作为数据源 Topic 列表 选择Kafka主题,当前仅支持导入公有Topic 消费组 选择kafka中的消费组, 起始位置 选择开始导入数据的位置。 最早:从已有的第一条Kafka数据开始导入 最晚:从最近生成的Kafka数据开始导入 数据格式 待导入数据的格式。若您选择JSON字符串,导入任务会将原始数据解析为keyvalue对格式,只解析到第一层。 编码格式 选择导入数据的编码格式(即字符集),目前仅支持UTF8和GBK。 6. 创建索引。默认开启全文索引,您也可以根据需要手动创建字段索引用于字段查询。 7. 点击完成,即可完成导入任务创建。等待1分钟左右,在查询日志界面能查询到日志,则说明导入成功。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        其他接入方式
        通过kafka导入日志
      • 新资费
        说明 分布式消息服务Kafka如下资源池支持Kafka2.8、3.6版本引擎,提供集群和单机两种规格实例,支持X86和ARM计算CPU架构类型的计算增强型主机,可选350代理数量。 目前在 华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3 资源池开放订购。 上述资源池订购和续订可享受1年83折,2年7折,3年5折优惠。 价格计算公式 分布式消息服务Kafka费用由实例费用和存储费用两部分组成,两者单价如下表所示,计费公式为: 实例费用实例规格单价 代理数量,单机版代理数量为1。 存储费用存储类型单价 代理数量 单节点存储空间GB大小,单机版代理数量为1。 实例规格单价 Intel计算增强型 规格名称 实例单价(单个节点) 规格名称 按需标准价格(元/小时) 包月标准价格(元/月) Kafka.2u4g.cluster 0.98 441 Kafka.4u8g.cluster 2.24 1008 Kafka.8u16g.cluster 4.86 2187 Kafka.12u24g.cluster 7.38 3321 Kafka.16u32g.cluster 9 4050 Kafka.24u48g.cluster 15.12 6804 Kafka.32u64g.cluster 20.16 9072 Kafka.48u96g.cluster 30.24 13608 Kafka.64u128g.cluster 40.32 18144
        来自:
        帮助文档
        分布式消息服务Kafka
        计费说明
        产品资费
        新资费
      • 按需转包周期
        本文主要介绍 按需转包周期。 选择按需付费的用户,可以选择“转包周期”,变更实例计费模式为包年/包月。 说明 实例从按需变为包周期计费时,不影响应用,只是计费方式变了。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 通过以下任意一种方法,实现按需实例转包周期。 勾选Kafka实例名称左侧的方框,可选一个或多个,单击信息栏左上侧的“转包周期”,弹出“转包周期”对话框,单击“是”,跳转到“按需转包年/包月”页面。 在待转包周期的Kafka实例所在行,单击“更多 > 转包周期”,跳转到“按需转包年/包月”页面。 单击Kafka实例名称,进入实例详情页面。单击右上角的“更多 > 转包周期”,跳转到“按需转包年/包月”页面。 步骤 5 选择续费时长,然后单击“去支付”,根据界面提示信息,支付费用,完成实例转包周期操作。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        按需转包周期
      • 分区平衡
        本节介绍Kafka分区平衡功能 场景描述 分区平衡是指将分区的副本重新分配到不同的节点上,解决Kafka节点负载不均衡问题。 需要进行分区平衡的场景如下: 实例扩容节点个数后,新节点没有任何负载,需要将原有Topic分区的副本迁移到新节点上。 将高负载节点上的Leader分区切换为Follower分区。 增加/减少副本数量。 分布式消息服务Kafka版控制台提供两种分区平衡的方法:自动平衡和手动平衡,建议选择自动平衡,确保分区Leader的均匀分布。 操作影响 对数据量大的Topic进行分区平衡,会占用大量的网络和存储带宽,业务可能会出现请求超时或者时延增大,建议在业务低峰期时操作。对Topic进行分区平衡前,根据Kafka实例规格对比当前实例负载情况,评估是否可以进行分区平衡,建议预留足够的带宽进行分区平衡,CPU使用率在90%以上时,不建议进行分区平衡。 带宽限制是指设定Topic进行副本同步的带宽上限,确保不会对该实例上的其他Topic造成流量冲击。但需要注意,带宽限制不会区分是正常的生产消息造成的副本同步还是分区平衡造成的副本同步,如果带宽限制设定过小,可能会影响正常的生产消息,且可能会造成分区平衡一直无法结束。 分区平衡任务启动后,不能删除正在进行分区平衡的Topic,否则会导致分区平衡任务无法结束。 分区平衡任务启动后,无法修改Topic的分区数。 分区平衡任务启动后,无法手动停止任务,需要等到任务完成。 分区平衡后Topic的metadata会改变,如果生产者不支持重试机制,会有少量的请求失败,导致部分消息生产失败。 数据量大的Topic进行分区平衡的时间会比较长,建议根据Topic的消费情况,适当调小Topic老化时间,使得Topic的部分历史数据被及时清理,加快迁移速度。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        分区平衡
      • 配置HTTP响应头
        本文简述HTTP响应头的配置方法。 功能介绍 HTTP响应头是HTTP响应消息的基本组成部分,可以携带指定的响应参数传给客户端。通过配置特定的HTTP响应头,可以实现在边缘节点返回消息头时携带已配置的响应头。常用于告诉客户端边缘节点响应文件的类型,例如添加响应头ContentType: text/xml表明边缘节点响应的文件类型是xml文件。也可以用于实现跨域资源访问。 前提条件 您已经完成添加服务域名,如果您未添加,请参考添加服务域名。 操作步骤 1.登录边缘安全加速控制台,选择【域名】【基础配置】,在域名列表中选中需要配置的域名。 2.进入域名配置详情页面后,选择【头部修改】,单击【编辑配置】按钮。 3.选择【HTTP响应头】后单击【增加规则】按钮。 4.输入响应头的参数名,参数仅支持大小写字母、数字、下划线、中划线。 5.点击确定。 配置界面
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        基础配置
        头部修改
        配置HTTP响应头
      • 实例类型/版本
        其他新增命令 1. swapdb 用途:交换同一Redis实例内2个db的数据。 用法:swapdb dbindex1 dbindex2 2. zlexcount 用途:在有序集合中,返回符合条件的元素个数。 用法:zlexcount key min max 内存使用和性能改进 1. 使用更少的内存来存储相同数量的数据 2. 可以对使用的内存进行碎片整理,并逐渐回收 Redis5.0支持的新特性说明 DCS的Redis 5.0版本继承了Redis 4.0版本的所有功能增强以及新的命令,同时还兼容开源Redis 5.0版本的新增特性。 Stream数据结构 Stream是Redis 5.0引入的一种新数据类型,它是一个全新的支持多播的可持久化消息队列。 Redis Stream的结构示意图如下图所示,它是一个可持久化的数据结构,用一个消息链表,将所有加入进来的消息都串起来。 Stream数据结构具有以下特性 : 1. Stream中可以有多个消费者组。 2. 每个消费组都含有一个Lastdeliveredid,指向消费组当前已消费的最后一个元素(消息)。 3. 每个消费组可以含有多个消费者对象,消费者共享消费组中的Lastdeliveredid,相同消费组内的消费者存在竞争关系,即一个元素只能被其中一个消费者进行消费。 4. 消费者对象内还维持了一个Pendingids,Pendingids记录已发送给客户端,但是还没完成ACK(消费确认)的元素id。 5. Stream与Redis其他数据结构的比较,见下表。 Stream数据结构示意图 Stream与Redis现有数据结构比较 比较项 Stream List、Pub/Sub、Zset 复杂度 获取元素高效,复杂度为O(logN) List获取元素的复杂度为O(N) offset 支持offset,每个消息元素有唯一id。不会因为新元素加入或者其他元素淘汰而改变id。 List没有offset概念,如果有元素被逐出,无法确定最新的元素 持久化 支持消息元素持久化,可以保存到AOF和RDB中。 Pub/Sub不支持持久化消息。 消费分组 支持消费分组 Pub/Sub不支持消费分组 消息确认 支持ACK(消费确认) Pub/Sub不支持 性能 Stream性能与消费者数量无明显关系 Pub/Sub性能与客户端数量正相关 逐出 允许按时间线逐出历史数据,支持block,给予radix tree和listpack,内存开销少。 Zset不能重复添加相同元素,不支持逐出和block,内存开销大。 删除元素 不能从中间删除消息元素。 Zset支持删除任意元素 Stream相关命令介绍 接下来按照使用流程中出现的顺序介绍 Stream相关命令 。详细命令见下表 1. 首先使用XADD添加流元素,即创建Stream,添加流元素时可指定消息数量最大保存范围。 2. 然后通过XGROUP创建消费者组。 3. 消费者使用XREADGROUP指令进行消费。 4. 客户端消费完毕后使用XACK命令确认消息已消费成功。 Stream相关命令介绍 Stream的详细命令 命令 说明 语法 XACK 从流的消费者组的待处理条目列表 (简称PEL)中删除一条或多条消息。 XACK key group ID [ID ...] XADD 将指定的流条目追加到指定key的流中。 如果key不存在,作为运行这个命令的副作用,将使用流的条目自动创建key。 XADD key ID field string [field string ...] XCLAIM 在流的消费者组上下文中,此命令改变待处理消息的所有权,因此新的所有者是在命令参数中指定的消费者。 XCLAIM key group consumer minidletime ID [ID ...] [IDLE ms] [TIME msunixtime] [RETRYCOUNT count] [FORCE] [JUSTID] XDEL 从指定流中移除指定的条目,并返回成功删除的条目的数量,在传递的ID不存在的情况下, 返回的数量可能与传递的ID数量不同。 XDEL key ID [ID ...] XGROUP 该命令用于管理流数据结构关联的消费者组。使用XGROUP你可以:l 创建与流关联的新消费者组。l 销毁一个消费者组。l 从消费者组中移除指定的消费者。l 将消费者组的最后交付ID设置为其他内容。 XGROUP [CREATE key groupname idor] [SETID key idor ] [DESTROY key groupname] [DELCONSUMER key groupname consumername] XINFO 检索关于流和关联的消费者组的不同的信息。 XINFO [CONSUMERS key groupname] key key [HELP] XLEN 返回流中的条目数。如果指定的key不存在,则此命令返回0,就好像该流为空。 XLEN key XPENDING 通过消费者组从流中获取数据。检查待处理消息列表的接口,用于观察和了解消费者组中哪些客户端是活跃的,哪些消息在等待消费,或者查看是否有空闲的消息。 XPENDING key group [start end count] [consumer] XRANGE 返回流中满足给定ID范围的条目。 XRANGE key start end [COUNT count] XREAD 从一个或者多个流中读取数据,仅返回ID大于调用者报告的最后接收ID的条目。 XREAD [COUNT count] [BLOCK milliseconds] STREAMS key [key ...] ID [ID ...] XREADGROUP XREAD命令的特殊版本,指定消费者组进行读取。 XREADGROUP GROUP group consumer [COUNT count] [BLOCK milliseconds] STREAMS key [key ...] ID [ID ...] XREVRANGE 与XRANGE相同,但显著的区别是以相反的顺序返回条目,并以相反的顺序获取开始结束参数 XREVRANGE key end start [COUNT count] XTRIM XTRIM将流裁剪为指定数量的项目,如有需要,将驱逐旧的项目(ID较小的项目)。 XTRIM key MAXLEN [~] count 消息(流元素)消费确认 Stream与相比Pub/Sub,不仅增加消费分组模式,还支持消息消费确认。 当一条消息被某个消费者调用XREADGROUP命令读取或调用XCLAIM命令接管的时候, 服务器尚不确定它是否至少被处理了一次。 因此, 一旦消费者成功处理完一条消息,它应该调用XACK知会Stream,这样这个消息就不会被再次处理, 同时关于此消息的PEL(pendingids)条目也会被清除,从Redis服务器释放内存 。 某些情况下,因为网络问题等,客户端消费完毕后没有调用XACK,这时候PEL内会保留对应的元素ID。待客户端重新连上后,XREADGROUP的起始消息ID建议设置为00,表示读取所有的PEL消息及自lastid之后的消息。同时,消费者消费消息时需要能够支持消息重复传递。 ACK机制解读
        来自:
        帮助文档
        分布式缓存服务Redis版
        常见问题
        实例类型/版本
      • Kafka性能白皮书
        步骤四:购买客户端服务器 购买3台ECS服务器(资源池、可用区、虚拟私有云、子网、安全组与Kafka实例保持一致,带宽要大于等于Kafka实例带宽) 购买完成后需要进行如下操作: 安装JDK yum install y java1.8.0openjdkdevel.x8664 下载Kafka命令行工具并解压 tar zxvf kafka2.132.8.2.tar.gz 步骤五:测试命令 ./kafkaproducerperftest.sh producerprops bootstrap.servers${连接地址} acks1 batch.size16384 topic ${Topic名称} numrecords 5000000 recordsize 1024 throughput 1 producer.config ../config/producer.properties bootstrap.servers:购买Kafka实例后,获取的Kafka实例的地址。 acks:消息主从同步策略,acks1表示异步复制消息,acks1表示同步复制消息。 batch.size:每次批量发送消息的大小(单位为字节)。 topic:创建Topic中设置的Topic名称。 numrecords:总共需要发送的消息数。 recordsize:每条消息的大小。 throughput:每秒发送的消息数,1表示不作限制。 测试结果 测试场景一(实例是否开启SASL):相同的Topic(30分区,3副本,异步复制) 实例规格 磁盘类型 节点数量 TPS(使用SASL) TPS(不使用SASL) 计算增强型4核8GB 超高IO 3 170000 500000 计算增强型8核16GB 超高IO 3 200000 730000 计算增强型16核32GB 超高IO 3 360000 886000 测试场景二(同步/异步复制):相同的实例(超高I/O、3个节点、不使用SASL) 实例规格 分区数 副本数 TPS(同步复制) TPS(异步复制) 计算增强型4核8GB 30 3 238000 500000 计算增强型8核16GB 30 3 315000 730000 计算增强型16核32GB 30 3 375000 886000 测试场景三(不同磁盘类型):相同的Topic(30分区,3副本,异步复制) 实例规格 是否使用SASL 节点数量 TPS(高IO) TPS(超高IO) 计算增强型4核8GB 不使用 3 135000 500000 计算增强型8核16GB 不使用 3 240000 730000 计算增强型16核32GB 不使用 3 280000 886000 测试场景四(不同分区数):相同的实例(超高I/O、3个节点、不使用SASL) 实例规格 是否同步复制 副本数 TPS(3分区) TPS(12分区) TPS(100分区) 计算增强型4核8GB 否 3 330000 280000 260000 计算增强型8核16GB 否 3 480000 410000 340000 计算增强型16核32GB 否 3 534000 744000 630000
        来自:
        帮助文档
        分布式消息服务Kafka
        性能白皮书
        Kafka性能白皮书
      • 如何实现RabbitMQ的高性能
        本文主要介绍如何实现RabbitMQ的高性能最佳实践。 本章节基于吞吐量和可靠性两个指标,指导您通过设置队列长度、集群负载均衡、优先队列数量等参数,实现RabbitMQ的高性能。 使用较小的队列长度 队列中存在大量消息时,会给内存使用带来沉重的负担,为了释放内存,RabbitMQ会将消息刷新到磁盘。这个过程通常需要时间,由于需要重建索引,重启包含大量消息的集群非常耗时。当刷盘的消息过多时,会阻塞队列处理消息,从而降低队列速度,对RabbitMQ节点的性能产生负面影响。 要获得最佳性能,应尽可能缩短队列。建议始终保持队列消息堆积的数量在0左右。 对于经常受到消息峰值影响的应用程序,和对吞吐量要求较高的应用程序,建议在队列上设置 最大长度 。这样可以通过丢弃队列头部的消息来保持队列长度,队列长度永远不会大于最大长度设置。 最大长度可以通过Policy设置,也可以通过在队列声明时使用对应参数设置。 在Policy中设置 在队列声明时使用对应参数设置 //创建队列 HashMap map new HashMap<>(); //设置队列最大长度 map.put("xmaxlength",10 ); //设置队列溢出方式保留前10 map.put("xoverflow","rejectpublish" ); channel.queueDeclare(queueName,false,false,false,map); 当队列长度超过设置的最大长度时,RabbitMQ的默认做法是将队列头部的信息(队列中最老的消息)丢弃或变成死信。可以通过设置不同的overflow 值来改变这种方式,如果overflow 值设置为 drophead ,表示从队列前面丢弃或deadletter消息,保存后n条消息。如果overflow 值设置为 rejectpublish ,表示最近发布的消息将被丢弃,即保存前n条消息。 说明 如果同时使用以上两种方式设置队列的最大长度,两者中较小的值将被使用。 超过队列最大长度的消息会被丢弃,请谨慎使用。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        最佳实践
        如何实现RabbitMQ的高性能
      • 配置Syslog北向参数
        参数区域 参数名称 参数说明 Syslog协议 服务IP模式 设置对接服务器IP地址模式,可选择“IPV4”或者“IPV6”。 Syslog协议 服务IP 设置对接服务器IP地址。 Syslog协议 服务端口 设置对接端口。 Syslog协议 协议 设置协议类型,可选值: l TCP l UDP Syslog协议 安全级别 设置上报消息的严重程度,取值范围: l Emergency l Alert l Critical l Error l Warning l Notice l Informational(默认值) l Debug 说明 “安全级别”和“Facility”共同组成发出消息的优先级( Priority )。 优先级( Priority ) “Facility” × 8 +“安全级别” “安全级别”和“Facility”各项对应的数值请参考下表:“安全级别”和“Facility”字段数值编码 。 Syslog协议 Facility 设置产生日志的模块。可选项参考下表:“安全级别”和“Facility”字段数值编码 ,推荐使用默认值“local use 0 (local0)”。 Syslog协议 标识符 设置产品标识,默认为“FusionInsight Manager”。 标识符可以包含字母、数字、下划线、 空格、、 $、 {、 }、 点、中划线,并且不能超过256个字符。 报告信息 报文格式 设置告警报告的消息格式,具体要求请参考界面帮助。 报文格式可以包含字母、数字、下划线、 空格、、 $、 {、 }、 点、中划线,并且不能超过1024个字符。 说明 报文格式中信息域的说明请参考下表:报文格式信息域表。 报告信息 报告信息类型 设置需要上报的告警类型。 报告信息 上报消息级别 设置需要上报的告警级别。 未恢复告警上报设置 周期上报未恢复告警 设置是否按指定周期上报未清除的告警。打开开关表示启用此功能,关闭开关表示不启用。开关默认为关闭。 未恢复告警上报设置 间隔时间(分钟) 设置周期上报告警的时间间隔,当“周期上报未恢复告警”开关设置为打开时启用。单位为分钟,默认值为“15”,支持范围为“5”到“1440”(1天)。 心跳设置 上报心跳 设置是否开启周期上报Syslog心跳消息。打开开关表示开启此功能,关闭开关表示不启用。开关默认为关闭。 心跳设置 心跳周期(分钟) 设置周期上报心跳的时间间隔,当“上报心跳”开关设置为打开时启用。单位为分钟,默认值为“15”,支持范围为“1”到“60”。 心跳设置 心跳报文 设置心跳上报的内容,当“上报心跳”开关设置为打开时启用,不能为空。支持数字、字母、下划线、竖线、冒号、空格、英文逗号和句号字符,长度小于等于256。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        系统设置
        对接设置
        配置Syslog北向参数
      • Chat对话API
        描述 接口名称 对话 请求路径 功能描述 针对描述会话的消息列表,模型将返回响应
        来自:
        帮助文档
        训推服务
        API参考
        推理服务API
        API
        Chat对话API
      • 1
      • ...
      • 15
      • 16
      • 17
      • 18
      • 19
      • ...
      • 483
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      GPU云主机

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      应用托管

      科研助手

      推荐文档

      如何充值?

      概念

      文档下载

      云课堂 第十三课:如何远程管理天翼云RDS数据库

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号