活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      消息服务MNS_相关内容
      • 使用监控通知
        监控通知将为您提供云监控平台相关通知消息,为避免您日常使用受到影响,建议你及时关注监控通知消息。 操作场景 监控通知功能便于您及时了解监控平台推送您的重要通知消息。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 操作步骤 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,本文我们选择华东1。 3. 依次选择“管理与部署”,单击“云监控”,进入监控概览页面。 4. 单击右上角“监控通知”按钮,即可查看云监控平台推送的通知消息。 说明 在监控通知抽屉页,您可点击消息右上角“标为已读”按钮,确认您已知晓消息内容。 “监控概览”/“监控面板”页面,监控通知按钮右上角数值,表示用户未读消息数目。 在4.0资源池,监控通知功能在“监控概览”、“监控面板”页面均显示;在3.0资源池,监控通知功能在“监控面板”页面显示。 注意 “监控通知”功能仅在云监控平台根据业务需求,向您推送相关通知信息后,控制台才显示相关功能。
        来自:
        帮助文档
        云监控服务
        快速入门
        使用监控通知
      • 使用SASL证书连接
        生产消息 进入Kafka客户端文件的“/bin”目录下,执行如下命令进行生产消息。 ./kafkaconsoleproducer.sh brokerlist ​{连接地址} topic 连接地址−−topic​{Topic名称} producer.config ../config/producer.properties 参数说明如下: 连接地址:从前提条件获取的连接地址。 Topic名称:Kafka实例下创建的Topic名称。 示例如下,“10.3.196.45:9095,10.78.42.127:9095,10.4.49.103:9095”为Kafka实例连接地址。 执行完命令后,输入需要生产的消息内容,按“Enter”发送消息到Kafka实例,输入的每一行内容都将作为一条消息发送到Kafka实例。 [root@ecskafka bin] ./kafkaconsoleproducer.sh brokerlist 10.3.196.45:9095,10.78.42.127:9095,10.4.49.103:9095 topic topicdemo producer.config ../config/producer.propertiesHello DMS Kafka! ^C[root@ecskafka bin] 如需停止生产使用Ctrl+C命令退出。 消费消息 执行如下命令消费消息。 ./kafkaconsoleconsumer.sh bootstrapserver ​{连接地址} topic 连接地址−−topic​{Topic名称} group ${消费组名称} frombeginning consumer.config ../config/consumer.properties 参数说明如下: 连接地址:从前提条件获取的连接地址。 Topic名称:Kafka实例下创建的Topic名称。 消费组名称:根据您的业务需求,设定消费组名称。 如果已经在配置文件中指定了消费组名称,请确保命令行中的消费组名称与配置文件中的相同,否则可能消费失败 。 消费组名称开头包含特殊字符,例如下划线“”、 号“ ”时,监控数据无法展示。 示例如下: [root@ecskafka bin]
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        步骤四:连接实例生产消费消息
        使用SASL证书连接
      • 天翼云AOne个人信息采集清单
        业务场景 收集目的 处理方式 信息类型 账号注册 登录认证、双因子认证、重置密码、验证码校验、应用访问权限申请和审批、员工账号管理 用户输入 手机号、电子邮箱、用户名 账号登录 登录认证 用户输入 注册用户登录账号、注册用户登录密码、验证码 设备管理 进行移动设备管理 APP收集 账号、设备ID、设备名称、设备系统 信息统计故障诊断 使用故障诊断、信息统计、服务稳定性改进、响应使用异常帮助请求 APP收集 设备名称、品牌、型号、操作系统、设备设置、IDFV(仅iOS)、IP地址、个人信息(头像) 企业/组织控制台数据配置 企业组织管理、应用范围管理、日常办公安全管理 企业管理员配置 隶属部门、办公邮箱账号、办公电话、企业账号信息、访问企业应用/资产名称、访问企业应用/资产的时长、访问过程中流量的大小 VPN服务 访问企业内部应用、产品功能正常运行 APP收集 设备名称、设备版本、软件版本号、虚拟网卡IP地址 应用资源访问 网络日志保存、安全审计 APP收集 访问的应用名、访问的目的地址、目的端口、设备网络类型、客户端IP地址、客户端端口、访问日期和时间 AI应用中心智能对话 意图识别、关键词拆分、信息检索、提供精准搜索结果和总结性回答 用户输入 与AI应用中心交互过程中输入的内容(语音、文本、图片、文件)、对话记录(输入信息、App生成内容、对话主题) AI应用中心文件上传 智能搜索、交互服务、精准理解用户需求、提供准确搜索结果和智能推荐 用户上传 用户上传的文件内容 日程服务 日程提醒、日程安排管理 用户输入 日程安排、事件通知 消息服务 信息传输与交互、设备同步 用户输入 聊天信息(文本消息、图片消息、文件、通信录信息) 空间服务在线文档 文档管理、协作记录 用户输入 文档及文档信息(文档类型、大小、文档权限、存放位置)、参与编辑的记录、分享/创建副本/下载/浏览/变更权限设置的操作记录 空间服务搜索 搜索结果展示 用户输入 搜索关键字信息 企业微信账户授权登录 关联账号登录 APP收集 个人账号信息、联系方式、组织架构 飞书账户授权登录 关联账号登录 APP收集 个人账号信息、联系方式、组织架构、设备信息与日志信息(操作系统版本号、服务日志)、个人常用设备信息 钉钉账户授权登录 关联账号登录 APP收集 个人账号信息、联系方式、组织架构 音视频会议发言 音视频流传输 APP收集 音频信息、视频信息 音视频会议粘贴会议号 会议号鉴别、提升入会效率 APP收集 剪贴板中的会议号 音视频会议蓝牙连接 蓝牙设备会议交流 APP收集 蓝牙设备信息 共享屏幕 在其他应用上层显示 APP收集 悬浮窗权限、共享屏幕信息 会议记录 会议信息管理、后期查看 APP收集 会议主题、会议号、会议密码、会议创建人、参会人、会议开始和结束时间、最近入会时间及参会时长 云录制 会议内容保存、回放观看 APP收集 音频信息、视频信息、会议纪要文本数据 会议纪要生成 生成会议纪要(按主题、按章节、按发言人总结) APP收集 会议音频信息、会议主题、参会人昵称信息 全球加速 加速访问公网应用 APP收集 设备名称、设备版本、软件版本号、虚拟网卡IP地址 生物识别登录 账号登录验证 本地验证 指纹信息/人脸信息(不采集原始图像,仅保存在用户设备上) 待办工单 工单管理 用户输入 待办工单信息 邮件服务 邮件收发 用户输入 电子邮箱地址、图片、文字、文件
        来自:
        帮助文档
        边缘安全加速平台
        相关协议
        天翼云AOne个人信息采集清单
      • 天翼云AOne个人信息采集清单(1)
        业务场景 收集目的 处理方式 信息类型 账号注册 登录认证、双因子认证、重置密码、验证码校验、应用访问权限申请和审批、员工账号管理 用户输入 手机号、电子邮箱、用户名 账号登录 登录认证 用户输入 注册用户登录账号、注册用户登录密码、验证码 设备管理 进行移动设备管理 APP收集 账号、设备ID、设备名称、设备系统 信息统计故障诊断 使用故障诊断、信息统计、服务稳定性改进、响应使用异常帮助请求 APP收集 设备名称、品牌、型号、操作系统、设备设置、IDFV(仅iOS)、IP地址、个人信息(头像) 企业/组织控制台数据配置 企业组织管理、应用范围管理、日常办公安全管理 企业管理员配置 隶属部门、办公邮箱账号、办公电话、企业账号信息、访问企业应用/资产名称、访问企业应用/资产的时长、访问过程中流量的大小 VPN服务 访问企业内部应用、产品功能正常运行 APP收集 设备名称、设备版本、软件版本号、虚拟网卡IP地址 应用资源访问 网络日志保存、安全审计 APP收集 访问的应用名、访问的目的地址、目的端口、设备网络类型、客户端IP地址、客户端端口、访问日期和时间 AI应用中心智能对话 意图识别、关键词拆分、信息检索、提供精准搜索结果和总结性回答 用户输入 与AI应用中心交互过程中输入的内容(语音、文本、图片、文件)、对话记录(输入信息、App生成内容、对话主题) AI应用中心文件上传 智能搜索、交互服务、精准理解用户需求、提供准确搜索结果和智能推荐 用户上传 用户上传的文件内容 日程服务 日程提醒、日程安排管理 用户输入 日程安排、事件通知 消息服务 信息传输与交互、设备同步 用户输入 聊天信息(文本消息、图片消息、文件、通信录信息) 空间服务在线文档 文档管理、协作记录 用户输入 文档及文档信息(文档类型、大小、文档权限、存放位置)、参与编辑的记录、分享/创建副本/下载/浏览/变更权限设置的操作记录 空间服务搜索 搜索结果展示 用户输入 搜索关键字信息 企业微信账户授权登录 关联账号登录 APP收集 个人账号信息、联系方式、组织架构 飞书账户授权登录 关联账号登录 APP收集 个人账号信息、联系方式、组织架构、设备信息与日志信息(操作系统版本号、服务日志)、个人常用设备信息 钉钉账户授权登录 关联账号登录 APP收集 个人账号信息、联系方式、组织架构 音视频会议发言 音视频流传输 APP收集 音频信息、视频信息 音视频会议粘贴会议号 会议号鉴别、提升入会效率 APP收集 剪贴板中的会议号 音视频会议蓝牙连接 蓝牙设备会议交流 APP收集 蓝牙设备信息 共享屏幕 在其他应用上层显示 APP收集 悬浮窗权限、共享屏幕信息 会议记录 会议信息管理、后期查看 APP收集 会议主题、会议号、会议密码、会议创建人、参会人、会议开始和结束时间、最近入会时间及参会时长 云录制 会议内容保存、回放观看 APP收集 音频信息、视频信息、会议纪要文本数据 会议纪要生成 生成会议纪要(按主题、按章节、按发言人总结) APP收集 会议音频信息、会议主题、参会人昵称信息 全球加速 加速访问公网应用 APP收集 设备名称、设备版本、软件版本号、虚拟网卡IP地址 生物识别登录 账号登录验证 本地验证 指纹信息/人脸信息(不采集原始图像,仅保存在用户设备上) 待办工单 工单管理 用户输入 待办工单信息 邮件服务 邮件收发 用户输入 电子邮箱地址、图片、文字、文件
        来自:
      • SDK下载及使用说明
        该页面主要介绍分布式消息服务Kafka版的SDK,您可以根据实际业务需求进行集成。 各语言SDK下载及使用 支持语言 SDK附件 Java ctyunctgkafkajavasdkv1.0.1.zip Go ctyunctgkafkagosdkv1.0.1.zip 说明 由于运行环境的多样性,部分接口在某些特定配置下可能存在适配差异,我们的技术团队将持续优化兼容性。如有问题,可提单咨询。
        来自:
        帮助文档
        分布式消息服务Kafka
        API参考
        SDK下载及使用说明
      • 【通知】通用型主机规格调整为白名单特性,上线计算增强型主机规格
        为保障更优的性能,分布式消息服务MQTT上线并主推计算增强型主机类型,原通用型规格调整为白名单特性,更多产品类型信息请参阅产品规格。 调整时间 2024年11月9日 影响范围 所有区域 调整影响 新用户默认不开放主机类型通用型规格订购开通,如需要该特性,请联系技术支持开通后使用。 已购买主机类型通用型规格实例的用户,原实例仍可正常使用,续费等操作不受影响。
        来自:
        帮助文档
        分布式消息服务MQTT
        服务公告
        2024年
        【通知】通用型主机规格调整为白名单特性,上线计算增强型主机规格
      • 消费组问题
        本文主要介绍消费组问题。 Kafka实例是否需要创建消费组、生产者和消费者? 不需要单独创建消费组、生产者和消费者,在使用时自动生成,实例创建后,直接使用即可。 连接Kafka实例后,生产消息和消费消息,请参考向Kafka实例生产消息和消费消息。 如果消息组中没有在线的消费者(如empty状态),是否14天后会自动被删除? 消息组中没有在线的消费者(如empty状态),14天后是否会自动被删除与offsets.retention.minutes参数有关: 2020年6月16日前创建的实例,offsets.retention.minutes默认为2147483646分钟,约1491308天,消费组14天后不会被删除。 2020年6月16日以及之后创建的实例,offsets.retention.minutes默认为20160分钟,即14天,消费组14天后会自动被删除。 原因如下: Kafka通过offsets.retention.minutes参数控制消费组中offsets保留时间,在此时间内如果没有提交offset,offsets将会被删除。Kafka判定消息组中没有在线的消费者(如empty状态),且没有offsets时,将会删除此消费组。 客户端删除消费组后,在Kafka Manager中仍可以看到此消费组? 客户端删除消费组后,此消费组已经被删除了。在Kafka Manager中仍可以看到此消费组,是因为Kafka Manager存在缓存。 通过以下任意一种方法解决此问题: 重启Kafka Manager。 Kafka Manager只显示14天内有消费记录的消费组,如果您不想重启Kafka Manager,可以等待14天后Kafka Manager自动清除此消费组。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        消费组问题
      • 删除消费组
        场景描述 在RocketMQ中,删除消费组的场景可以有以下几种情况: 业务变更:当某个业务不再需要使用消费组时,可以删除该消费组。例如,某个业务已经停止使用RocketMQ作为消息中间件,或者该业务的订阅逻辑发生了变化,不再需要使用该消费组。 重构订阅逻辑:当订阅逻辑发生较大变化时,可能需要删除原有的消费组,并重新创建一个新的消费组。例如,原有的消费组无法满足新的业务需求,或者需要重新设计消费组的消费者数量、消费策略等配置。 清理无用消费组:在RocketMQ中,可能会存在一些无用的消费组,这些订阅组可能是之前测试或开发过程中创建的,但在实际生产环境中已经不再使用。为了清理无用的消费组,可以进行删除操作,以减少资源占用和管理复杂度。 需要注意的是,在删除消费组之前,需要确保该消费组没有任何未处理的消息。如果消费组中还存在未消费的消息,删除消费组可能会导致消息丢失。因此,在删除消费组之前,建议先停止该消费组的消费者,并确保所有消息都已经被消费或者转移到其他消费组。 总之,删除消费组的场景包括业务变更、重构订阅逻辑和清理无用消费组。在删除消费组之前,需要确保没有未处理的消息,并谨慎操作,以避免消息丢失和其他问题的发生。 操作步骤 1、进入消费组管理菜单。 2、在消费组管理菜单选择将要删除的消费组,点击删除按钮,即可完成删除。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        消费组管理
        删除消费组
      • RocketMQ性能白皮书
        测试场景 本章节主要测试RocketMQ不同产品规格在发送1KB大小的消息,实例的网络入流量、网络出流量、消息生产速率、消息消费速率、CPU核均负载和内存使用率。 测试环境 购买实例 名称 规格 存储空间 rocketmq01 c7.xlarge.2 4C8G 超高I/O 500GB rocketmq02 c7.2xlarge.2 8C16G 超高I/O 500GB rocketmq03 c7.4xlarge.2 16C32G 超高I/O 500GB 控制台创建主题 名称 权限 关联代理 队列个数 topic01 发布+订阅 broker1 8 控制台创建消费组 名称 关联代理 最大重试次数 是否允许以广播模式消费 group01 broker1 16 否 测试工具准备 购买1台ECS服务器(区域、可用区、虚拟私有云、子网、安全组与RocketMQ实例保持一致,Linux系统),安装jdk,并配置环境变量 tar zxvf jdk8u131linuxx64.tar.gz vi /etc/profile 追加以下内容 export JAVAHOME/root/jdk1.8.0131 export PATH$JAVAHOME/bin:$PATH 生效配置 source /etc/profile 下载测试工具 wget 解压测试工具 unzip rocketmqall5.1.4binrelease.zip 测试命令
        来自:
        帮助文档
        分布式消息服务RocketMQ
        性能白皮书
        RocketMQ性能白皮书
      • HTTP/HTTPS网络端点事件目标
        参数 说明 示例 URL 输入HTTP/HTTPS目标的URL地址。 HTTP METHOD 选择HTTP协议请求方式。 POST 消息体 选择调用到服务的事件内容,更多内容请参考 完整事件 网络类型 选择服务所在的网络环境。 专有网络:选择租户专有网络的VPC和子网。 专有网络 鉴权配置 选择服务的鉴权配置。 无需鉴权:无鉴权、无需配置。 Basic:输入Basic认证的账号密码。 Token:输出Token认证方式的token。 无需鉴权 Header 调用所带上的请求头。
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件规则
        事件目标
        目标服务类型
        HTTP/HTTPS网络端点事件目标
      • 服务韧性
        介绍分布式消息服务Kafka服务韧性 Kafka服务的韧性是指其在面对各种故障和异常情况时能够保持可用性和可靠性的能力。以下是保障Kafka服务韧性的关键方面: 跨AZ容灾 根据数据和服务的不同可靠性需求,您有多种选择。您可以选择在一个可用区(即单个机房)内部署Kafka实例,或者选择跨多个可用区(即同城灾备)进行部署。 AZ内实例容灾 Kafka的AZ内实例容灾可以通过部署多个Broker节点,以及实施监控和自动化措施来实现。这样可以提高Kafka集群的可用性和容灾能力,确保数据的可靠性和业务的连续性。 数据容灾 Kafka使用副本机制来提供数据的冗余备份和故障转移。每个分区可以配置多个副本,其中一个副本作为领导者处理读写请求,其他副本作为追随者复制数据。当领导者副本发生故障时,Kafka会自动选举一个新的领导者副本来接管分区,从而实现故障转移。
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        安全
        服务韧性
      • PahoPublisher监控
        指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 PahoPublisher发送Publish报文监控(message,PahoPublisher发送Publish报文监控。) uri serviceUri PahoPublisher连接的MQTT服务端uri ENUM LAST PahoPublisher发送Publish报文监控(message,PahoPublisher发送Publish报文监控。) msgType 报文类型 发送的报文类型 ENUM LAST PahoPublisher发送Publish报文监控(message,PahoPublisher发送Publish报文监控。) concurrentMax 最大并发 最大并发 INT MAX PahoPublisher发送Publish报文监控(message,PahoPublisher发送Publish报文监控。) errorCount 错误次数 错误次数 INT SUM PahoPublisher发送Publish报文监控(message,PahoPublisher发送Publish报文监控。) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST PahoPublisher发送Publish报文监控(message,PahoPublisher发送Publish报文监控。) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST PahoPublisher发送Publish报文监控(message,PahoPublisher发送Publish报文监控。) invokeCount 调用次数 调用次数 INT SUM PahoPublisher发送Publish报文监控(message,PahoPublisher发送Publish报文监控。) lastError 错误信息 错误信息 STRING LAST PahoPublisher发送Publish报文监控(message,PahoPublisher发送Publish报文监控。) maxTime 最大响应时间 最大响应时间 INT MAX PahoPublisher发送Publish报文监控(message,PahoPublisher发送Publish报文监控。) totalTime 总响应时间 总响应时间 INT SUM PahoPublisher发送Publish报文监控(message,PahoPublisher发送Publish报文监控。) range1 010ms 响应时间在010ms范围请求数 INT SUM PahoPublisher发送Publish报文监控(message,PahoPublisher发送Publish报文监控。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM PahoPublisher发送Publish报文监控(message,PahoPublisher发送Publish报文监控。) range3 100500ms 响应时间在100500ms范围请求数 INT SUM PahoPublisher发送Publish报文监控(message,PahoPublisher发送Publish报文监控。) range4 5001000ms 响应时间在5001000ms范围请求数 INT SUM PahoPublisher发送Publish报文监控(message,PahoPublisher发送Publish报文监控。) range5 110s 响应时间在110s范围请求数 INT SUM PahoPublisher发送Publish报文监控(message,PahoPublisher发送Publish报文监控。) range6 10s以上 响应时间在10s以上请求数 INT SUM PahoPublisher发送Publish报文节点维度监控(uriMessage,PahoPublisher发送Publish报文节点维度监控。) uri serviceUri PahoPublisher连接的MQTT服务端uri ENUM LAST PahoPublisher发送Publish报文节点维度监控(uriMessage,PahoPublisher发送Publish报文节点维度监控。) errorCount 错误次数 错误次数 INT SUM PahoPublisher发送Publish报文节点维度监控(uriMessage,PahoPublisher发送Publish报文节点维度监控。) invokeCount 调用次数 调用次数 INT SUM PahoPublisher发送Publish报文节点维度监控(uriMessage,PahoPublisher发送Publish报文节点维度监控。) totalTime 总响应时间 总响应时间 INT SUM 异常(exception,PahoPublisher调用的异常信息统计。) exceptionType 异常类型 异常类型 ENUM LAST 异常(exception,PahoPublisher调用的异常信息统计。) causeType 异常类 发生异常的类 ENUM LAST 异常(exception,PahoPublisher调用的异常信息统计。) count 次数 该异常的发生次数 INT SUM 异常(exception,PahoPublisher调用的异常信息统计。) message 异常消息 该异常产生的异常消息 STRING LAST 异常(exception,PahoPublisher调用的异常信息统计。) stackTrace 异常堆栈 该异常产生的堆栈信息 CLOB LAST PahoPublisher主题维度监控(clientPublish,PahoPublisher主题维度监控。) clientId clientId clientId ENUM LAST PahoPublisher主题维度监控(clientPublish,PahoPublisher主题维度监控。) topic 主题 主题 ENUM LAST PahoPublisher主题维度监控(clientPublish,PahoPublisher主题维度监控。) msgSentCount 消息推送次数 消息推送次数 INT SUM PahoPublisher主题维度监控(clientPublish,PahoPublisher主题维度监控。) bytesSent 消息推送字节数 消息推送字节数 INT SUM PahoPublisher版本(version,PahoPublisher版本。) version 版本 版本 STRING LAST PahoPublisher主题汇总(total,PahoPublisher主题汇总信息统计。) msgSentCount 消息推送次数 总的消息推送次数 INT SUM PahoPublisher主题汇总(total,PahoPublisher主题汇总信息统计。) bytesSent 消息推送字节数 总消息推送字节数 INT SUM
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        物联网
        PahoPublisher监控
      • 变更实例规格
        扩容/缩容代理规格的过程 在扩容/缩容代理规格的过程中,代理采用滚动重启的方式进行实例变更,具体过程如下(以3个代理为例介绍): 1. 停止Broker 0的Kafka进程 2. 扩容/缩容Broker 0的规格 3. 重启Broker 0的Kafka进程 4. 重复1~3,扩容/缩容Broker 1的规格。 5. 重复1~3,扩容/缩容Broker 2的规格。 图 扩容/缩容代理规格过程 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 在实例所在行,单击“更多 > 变更规格”,进入“分布式消息服务Kafka变更规格”页面。 步骤 5 根据实际情况选择扩容存储空间、代理数量、代理规格、基准带宽,或者缩容代理规格。 老规格实例扩容步骤如下: 扩容基准带宽。 在“规格”中,选择扩容后的带宽,单击“下一步”。确认扩容信息无误后,单击“提交”。 在实例列表页面的“规格”中查看扩容后的带宽大小。 说明 扩容带宽是通过扩容代理实现的,原来代理不受影响,业务也不受影响。 新创建的Topic才会分布在新代理上,原有Topic还分布在原有代理上,造成分区分布不均匀。通过 已开启公网访问的实例,在扩容基准带宽时,需要为新扩容的代理设置弹性IP地址。 扩容基准带宽,可以扩大总分区数。 扩容存储空间。 在“存储空间”中,选择扩容后的存储空间大小,单击“下一步”。确认扩容信息无误后,单击“提交”。 在实例列表页面的“可用存储空间”中查看扩容后的存储空间大小。 说明 扩容存储空间不会影响业务。 可用存储空间实际存储空间用于存储日志和ZK的数据的存储空间格式化磁盘的损耗。 例如,实际扩容存储空间到700GB,用于存储日志和ZK的数据的存储空间为100GB,格式化磁盘损耗7GB,那么扩容后的可用存储空间为593GB。 新规格实例扩容步骤如下: 扩容存储空间。 在“变更配置”中,选择“存储空间”,在“单个代理存储空间”中,选择扩容后的单个代理的存储空间大小,单击“下一步”。确认扩容信息无误后,单击“提交”。 在实例列表页面的“可用存储空间”中查看扩容后的总存储空间大小(即扩容后的单个代理的存储空间代理个数)。 说明 扩容存储空间不会影响业务。 可用存储空间实际存储空间用于存储日志和ZK的数据的存储空间格式化磁盘的损耗。 例如,实际扩容存储空间到700GB,用于存储日志和ZK的数据的存储空间为100GB,格式化磁盘损耗7GB,那么扩容后的可用存储空间为593GB。 扩容代理数量。 在“变更配置”中,选择“代理数量”,在“代理数量”中,选择扩容后的代理个数,单击“下一步”。确认扩容信息无误后,单击“提交”。 在实例列表页面的“规格”中查看扩容后的代理个数。 说明 扩容代理数量不会影响原来的代理,业务也不受影响。 新创建的Topic才会分布在新代理上,原有Topic还分布在原有代理上,造成分区分布不均匀。通过 已开启公网访问的实例,在扩容代理数量时,需要为新扩容的代理设置弹性IP地址。 扩容代理数量,可以扩大总分区数。 扩容/缩容代理规格。 在“变更配置”中,选择“代理规格”,在“代理规格”中,选择扩容/缩容后的代理规格,单击“下一步”。确认扩容/缩容信息无误后,单击“提交”。 在实例列表页面的“规格”中查看扩容/缩容后的代理规格。 说明 扩容/缩容代理规格的过程中,节点会重启,可能造成闪断,生产客户端需要配置重试机制。 若Topic为单副本,扩容/缩容期间无法对该Topic生产消息或消费消息。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        变更实例规格
      • 新资费
        说明 分布式消息RabbitMQ新资费产品支持RabbitMQ3.8版本引擎,提供集群和单机两种规格实例,支持X86和ARM计算CPU架构类型的计算增强型主机,可选3、5、7、9代理数量。 新资费目前在 华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3 资源池开放订购。 上述资源池实例新购和续订可享受1年83折,2年7折,3年5折优惠。 价格计算公式 分布式消息服务RabbitMQ费用由实例费用和存储费用两部分组成,两者单价如下表所示,计费公式为: 实例费用实例规格单价 代理数量,单机版总节点数量为1。 存储费用存储类型单价 代理数量 单节点存储空间GB大小,单机版代理数量为1。 实例规格单价 Intel计算增强型 规格名称 实例单价(单个节点) 规格名称 按需标准价格(元/小时) 包月标准价格(元/月) RabbitMQ.2u4g.cluster 0.98 441 RabbitMQ.4u8g.cluster 2.24 1008 RabbitMQ.8u16g.cluster 4.86 2187 RabbitMQ.12u24g.cluster 7.38 3321 RabbitMQ.16u32g.cluster 9 4050 RabbitMQ.24u48g.cluster 15.12 6804 RabbitMQ.32u64g.cluster 20.16 9072 RabbitMQ.48u96g.cluster 30.24 13608 RabbitMQ.64u128g.cluster 40.32 18144
        来自:
      • 不使用SASL证书连接
        生产消息 进入Kafka客户端文件的“/bin”目录下,执行如下命令进行生产消息: ./kafkaconsoleproducer.sh brokerlist ​{连接地址} topic 连接地址−−topic​{Topic名称} 参数说明如下: 连接地址:从前提条件中获取的连接地址。 Topic名称:Kafka实例下创建的Topic名称。 示例如下,“10.3.196.45:9094,10.78.42.127:9094,10.4.49.103:9094”为获取的Kafka实例公网连接地址。 执行完命令后,输入需要生产的消息内容,按“Enter”发送消息到Kafka实例,输入的每一行内容都将作为一条消息发送到Kafka实例。 [root@ecskafka bin] ./kafkaconsoleproducer.sh brokerlist 10.3.196.45:9094,10.78.42.127:9094,10.4.49.103:9094 topic topicdemoHello DMS Kafka! ^C[root@ecskafka bin] 如需停止生产使用Ctrl+C命令退出。 消费消息 执行如下命令进行消费消息: ./kafkaconsoleconsumer.sh bootstrapserver ​{连接地址} topic 连接地址−−topic​{Topic名称} group ${消费组名称} frombeginning 参数说明如下: 连接地址:从前提条件中获取的连接地址。 Topic名称:Kafka实例下创建的Topic名称。 消费组名称:根据您的业务需求,设定消费组名称。 如果已经在配置文件中指定了消费组名称,请确保命令行中的消费组名称与配置文件中的相同,否则可能消费失败。 消费组名称开头包含特殊字符,例如下划线“”、 号“ ”时,监控数据无法展示。 示例如下: [root@ecskafka bin] ./kafkaconsoleconsumer.sh bootstrapserver 10.3.196.45:9094,10.78.42.127:9094,10.4.49.103:9094 topic topicdemo group ordertest frombeginning Kafka! DMS Hello ^CProcessed a total of 3 messages [root@ecskafka bin]
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        步骤四:连接实例生产消费消息
        不使用SASL证书连接
      • 撤销服务账号权限
        接口描述 撤销服务账号对PostgreSQL实例的访问权限。当技术支持通过服务账号解决了您的问题后,您可以通过该接口释放服务账号对您PostgreSQL实例的访问权限。 请求方法 POST URI /v1/instuser/revokeoperator 请求参数 名称 位置 类型 必选 说明 prodInstId body Long 是 实例id database body String 是 需要授权访问的数据库名称。 schema body String 否 需要授权访问的模式名称。不指定默认为public 响应参数 名称 类型 说明 message String 消息提示 statusCode Integer 状态码 returnObj Object 返回结果 示例 请求示例 /v1/instuser/revokeOperatorPermission { "database": "test", "prodInstId": "165776586159600008", "schema": "test" } 响应示例 { "message": "SUCCESS", "returnObj": {}, "statusCode": 800 } 错误码 访问ErrorCodes说明文档查看更多错误码。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        账号
        撤销服务账号权限
      • 修改用户信息
        介绍分布式消息服务Kafka修改用户的功能操作内容。 场景描述 当前主要支持重置用户密码:当用户忘记密码或需要更改密码时,可以通过修改用户密码来实现。这有助于保护用户账户的安全性,防止未经授权的访问和操作。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“用户管理”后进入应用用户管理页面,点击“修改”。 (5)点击“修改”后,在弹窗中可以修改密码和对应描述。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        用户管理
        修改用户信息
      • PahoSubscriber监控
        指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) uri serviceUri PahoSubscriber连接的MQTT服务端uri ENUM LAST PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) msgType 报文类型 发送的报文类型 ENUM LAST PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) concurrentMax 最大并发 最大并发 INT MAX PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) errorCount 错误次数 错误次数 INT SUM PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) invokeCount 调用次数 调用次数 INT SUM PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) lastError 错误信息 错误信息 STRING LAST PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) maxTime 最大响应时间 最大响应时间 INT MAX PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) totalTime 总响应时间 总响应时间 INT SUM PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) range1 010ms 响应时间在010ms范围请求数 INT SUM PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) range3 100500ms 响应时间在100500ms范围请求数 INT SUM PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) range4 5001000ms 响应时间在5001000ms范围请求数 INT SUM PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) range5 110s 响应时间在110s范围请求数 INT SUM PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) range6 10s以上 响应时间在10s以上请求数 INT SUM PahoSubscriber接收Publish报文节点维度监控(uriMessage,PahoSubscriber接收Publish报文监控。) uri serviceUri PahoSubscriber连接的MQTT服务端uri ENUM LAST PahoSubscriber接收Publish报文节点维度监控(uriMessage,PahoSubscriber接收Publish报文监控。) errorCount 错误次数 错误次数 INT SUM PahoSubscriber接收Publish报文节点维度监控(uriMessage,PahoSubscriber接收Publish报文监控。) invokeCount 调用次数 调用次数 INT SUM PahoSubscriber接收Publish报文节点维度监控(uriMessage,PahoSubscriber接收Publish报文监控。) totalTime 总响应时间 总响应时间 INT SUM 异常(exception,PahoSubscriber调用的异常信息统计。) exceptionType 异常类型 异常类型 ENUM LAST 异常(exception,PahoSubscriber调用的异常信息统计。) causeType 异常类 发生异常的类 ENUM LAST 异常(exception,PahoSubscriber调用的异常信息统计。) count 次数 该异常的发生次数 INT SUM 异常(exception,PahoSubscriber调用的异常信息统计。) message 异常消息 该异常产生的异常消息 STRING LAST 异常(exception,PahoSubscriber调用的异常信息统计。) stackTrace 异常堆栈 该异常产生的堆栈信息 CLOB LAST PahoSubscriber主题维度监控(clientReceive,PahoSubscriber主题维度监控。) clientId clientId clientId ENUM LAST PahoSubscriber主题维度监控(clientReceive,PahoSubscriber主题维度监控。) topic 主题 主题 ENUM LAST PahoSubscriber主题维度监控(clientReceive,PahoSubscriber主题维度监控。) msgReceivedCount 消息接收次数 消息接收次数 INT SUM PahoSubscriber主题维度监控(clientReceive,PahoSubscriber主题维度监控。) bytesReceived 消息接收字节数 消息接收字节数 INT SUM PahoSubscriber版本(version,PahoSubscriber版本。) version 版本 版本 STRING LAST PahoSubscriber主题汇总(total,PahoSubscriber主题汇总信息统计。) msgReceivedCount 消息接收次数 总消息接收次数 INT SUM PahoSubscriber主题汇总(total,PahoSubscriber主题汇总信息统计。) bytesReceived 消息接收字节数 总消息接收字节数 INT SUM
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        物联网
        PahoSubscriber监控
      • 服务治理
        公钥认证 公钥认证是微服务引擎提供的一种简单高效的微服务之间认证机制,它的安全性建立在微服务与服务中心之间的交互是可信的基础之上,即微服务和服务中心之间必须先启用认证机制。它的基本流程如下: 1. 微服务启动的时候,生成密钥对,并将公钥注册到服务中心。 2. 消费者访问提供者之前,使用自己的私钥对消息进行签名。 3. 提供者从服务中心获取消费者公钥,对签名的消息进行校验。 启用公钥认证步骤如下: 1. 公钥认证需要在消费者、提供者都启用。 servicecomb: handler: chain: Consumer: default: authconsumer Provider: default: authprovider 2. 在pom.xml中增加依赖: org.apache.servicecomb handlerpublickeyauth
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        微服务引擎 CSE
        服务治理
      • 区域和格式化相关参数
        clientencoding (string) 设置客户端编码(字符集)。默认使用数据库编码。 lcmessages (string) 设置消息显示的语言。可接受的值是系统相关的。如果这个变量被设置为空字符串(默认),那么该值将以一种系统相关的方式从服务器的执行环境中继承。在一些系统上,这个区域分类并不存在。仍然可以设置这个变量,只是不会有任何效果。同样,所期望语言的翻译消息也可能不存在。在这种情况下,你将仍然继续看到英文消息。只有超级用户可以改变这个设置。因为它同时影响发送到服务器日志和客户端的消息。一个不正确的值可能会降低服务器日志的可读性。 lcmonetary (string) 设置用于格式化货币量的区域,例如用tochar函数族。可接受的值是系统相关的。如果这个变量被设置为空字符串(默认),那么该值将以一种系统相关的方式从服务器的执行环境中继承。 lcnumeric (string) 设置用于格式化数字的区域,例如用tochar函数族。可接受的值是系统相关的。如果这个变量被设置为空字符串(默认),那么该值将以一种系统相关的方式从服务器的执行环境中继承。 lctime (string) 设置用于格式化日期和时间的区域,例如用tochar函数族。可接受的值是系统相关的。如果这个变量被设置为空字符串(默认),那么该值将以一种系统相关的方式从服务器的执行环境中继承。 defaulttextsearchconfig (string) 选择被那些没有显式参数指定配置的文本搜索函数变体使用的文本搜索配置。内建默认值是pgcatalog.simple,但是如果能够标识一个匹配区域的配置,initdb将用对应于选中的lcctype区域的设置初始化配置文件。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        客户端连接默认相关参数
        区域和格式化相关参数
      • Python
        环境安装 1. 安装Python。(Python版本为2.7或3.X。) 2. 安装依赖库。(使用公网连接需要安装confluentkafka 1.9.2及以下版本的依赖库) pip install confluentkafka1.9.2 3. 下载Demo包kafkaconfluentpythondemo.zip。 配置修改 1. 如果是ssl连接,需要在控制台下载证书。并且解压压缩包得到ssl.client.truststore.jks,执行以下命令生成caRoot.pem文件。 keytool importkeystore srckeystore ssl.client.truststore.jks destkeystore caRoot.p12 deststoretype pkcs12 openssl pkcs12 in caRoot.p12 out caRoot.pem 2. 修改setting.py文件。(calocation仅在ssl连接时需要配置) kafkasetting { 'bootstrapservers': 'XXX', 'topicname': 'XXX', 'groupname': 'XXX' } 生产消息 发送以下命令发送消息。 python kafkaproducer.py 生产消息示例代码如下: from confluentkafka import Producer import setting conf setting.kafkasetting """初始化一个 Producer 对象""" p Producer({'bootstrap.servers': conf['bootstrapservers']}) def deliveryreport(err, msg): """ Called once for each message produced to indicate delivery result. Triggered by poll() or flush(). """ if err is not None: print('Message delivery failed: {}'.format(err)) else: print('Message delivered to {} [{}]'.format(msg.topic(), msg.partition())) """异步发送消息""" p.produce(conf['topicname'], "Hello".encode('utf8'), callbackdeliveryreport) p.poll(0) """在程序结束时,调用flush""" p.flush() 消费消息 发送以下命令消费消息。 python kafkaconsumer.py 消费消息示例代码如下: from confluentkafka import Consumer, KafkaError import setting conf setting.kafkasetting c Consumer({ 'bootstrap.servers': conf['bootstrapservers'], 'group.id': conf['groupname'], 'auto.offset.reset': 'latest' }) c.subscribe([conf['topicname']]) while True: msg c.poll(1.0) if msg is None: continue if msg.error(): if msg.error().code() KafkaError.PARTITIONEOF: continue else: print("Consumer error: {}".format(msg.error())) continue print('Received message: {}'.format(msg.value().decode('utf8'))) c.close()
        来自:
        帮助文档
        分布式消息服务Kafka
        开发指南
        Python
      • 鉴权接入超时问题
        本节介绍分布式消息服务Kafka使用安全接入点,公网接入点等需要鉴权的接入点时,可能会遇到连接超时的问题。 使用安全接入点,公网接入点等需要鉴权的接入点时,可能会遇到连接超时等问题。 解决方法为可以在客户端机器的host文件上配置Kafka的ip。 例如用户连接Kafka的公网接入点34.28.112.101:8094,34.28.112.102:8094,34.28.112.103:8094时,出现连接超时的报错,可以在客户端机器上的/etc/hosts文件里面加上如下配置: plaintext 34.28.112.101 34.28.112.101 34.28.112.102 34.28.112.102 34.28.112.103 34.28.112.103 然后再重启客户端服务,看是否能正常生产消费。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        连接问题
        鉴权接入超时问题
      • 集群管理类
        如何在MRS集群中手动添加组件? 已经创建的MRS 3.1.0及之前版本集群不支持安装新的组件。如果需要使用当前集群未安装的组件,则需要重新创建一个集群,并且选择所需要的组件。 MRS 3.1.2LTS.3及之后版本的自定义类型集群支持手动添加组件。 MRS集群中安装的组件能否删除? 不可以删除。 已经创建的MRS 3.1.0及之前版本集群中的组件不可以删除,如果不使用的话可以登录Manager页面在服务管理中找到对应的组件将其停止。 MRS是否支持变更MRS集群节点? MRS管理控制台不支持变更集群节点,也不建议用户在ECS管理控制台直接修改MRS集群节点。如果手动在ECS管理控制台对集群节点执行停止ECS、删除ECS、修改或重装ECS操作系统,以及修改ECS规格的操作,可能影响集群稳定运行。 如果您对MRS集群节点进行了上述操作,MRS会自动识别并直接删除发生变更的集群节点。您可以登录MRS管理控制台,通过扩容恢复已经删除的节点。请勿在扩容过程中对正在扩容的节点进行操作。 如何取消集群风险告警的消息通知? 1.登录MRS服务控制台。 2.单击集群名称进入集群详情页面。 3.选择“告警管理 > 消息订阅规则”。 4.在待修改的规则所在行的“操作”列单击“编辑”,在“订阅规则”中取消对应风险告警。 5.单击“确定”完成修改。 为什么MRS集群显示的资源池内存小于实际集群内存? 在MRS集群中,MRS默认为Yarn服务分配集群内存的50%,用户从逻辑上对Yarn服务的节点按照资源池进行分区管理,所以集群中显示的资源池总内存仅有集群总内存的50%。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        操作类
        集群管理类
      • 接口类型列表
        目前推理服务提供Chat和Image两类接口。 功能分类 支持模型类别 请求路径后缀 请求完整路径 功能描述 chat 文本生成、图像理解 /chat/completions 针对描述会话的消息列表,模型将返回响应。 image 文本生图 /images/generations 基于提示创建图像。 Embeddings 文本向量化 /embeddings 创建表示输入文本的嵌入向量。
        来自:
        帮助文档
        一站式智算服务平台
        推理服务API
        接口类型列表
      • 实例规格变更问题
        本文主要介绍实例规格变更问题。 Kafka扩容/缩容会影响业务吗? Kafka扩容带宽/代理个数/存储空间,都不会影响业务的使用。 Kafka扩容代理规格,在扩容过程中,节点会重启,可能造成闪断。若Topic为单副本,扩容期间无法对该Topic生产消息或消费消息。 表 变更实例规格的影响 变更配置类型 影响 基准带宽/代理数量 扩容基准带宽/代理数量不会影响原来的代理,业务也不受影响。 扩容基准带宽/代理数量时,系统会根据当前磁盘大小进行相应比例的存储空间扩容。例如扩容前实例的代理数为3,每个代理的磁盘大小为200GB,扩容后实例的代理数为10,此时代理的磁盘大小依旧为200GB,但是总磁盘大小为2000GB。 新创建的Topic才会分布在新代理上,原有Topic还分布在原有代理上,造成分区分布不均匀。通过修改Kafka分区平衡,实现将原有Topic分区的副本迁移到新代理上。 存储空间 扩容存储空间有次数限制,只能扩容20次。 扩容存储空间不会影响业务。 代理规格 若Topic为单副本,扩容/缩容期间无法对该Topic生产消息或消费消息,会造成业务中断。 若Topic为多副本,扩容/缩容代理规格不会造成服务中断,但会逐个节点重启,负载会转移到剩余节点上,建议您在业务低峰期扩容/缩容。 扩容/缩容代理规格的过程中,节点滚动重启造成分区Leader切换,会发生秒级连接闪断,在用户网络环境稳定的前提下,Leader切换时长一般为1分钟以内。多副本的Topic需要在生产客户端配置重试机制,方法如下: a. 生产客户端为Kafka开源客户端时,检查是否配置retries和retry.backoff.ms参数。建议参数值分别配置为:retries10,retry.backoff.ms1000。 b. 生产客户端为Flink客户端时,检查是否配置重启策略,配置重启策略可以参考如下代码。 StreamExecutionEnvironment env StreamExecutionEnvironment.getExecutionEnvironment(); env.setRestartStrategy(RestartStrategies.fixedDelayRestart(10, Time.seconds(20))); 若实例已创建的分区数总和大于待缩容规格的实例分区数上限,此时无法缩容。不同规格配置的实例分区数上限不同,具体请参见产品规格。例如:kafka.4u8g.cluster3的实例,已创建800个分区,您想把此实例的规格缩容为kafka.2u4g.cluster3,kafka.2u4g.cluster3规格的实例分区数上限为750,此时无法缩容。 变更代理规格的时长和代理数量有关,单个代理的变更时长一般在5~10分钟,代理数量越多,规格变更时间越长。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        实例规格变更问题
      • 旧资费
        说明 分布式消息服务RocketMQ旧资费根据实例规格分为基础版、中级版和高级版,按照不同版本收费。 目前在 上海7、南京3、乌鲁木齐27、北京5、晋中、内蒙6 资源池开放订购。 实例资费 实例类型 标准资费(元/月) 按需标准资费(元/小时) 实例说明 基础版 1546 3.23 TPS:5000条/秒, Topic数上限:50,存储空间:200GB 中级版 2276 4.75 TPS:10000条/秒, Topic数上限:200,存储空间:500GB 高级版 3792 7.90 TPS:20000条/秒, Topic数上限:500,存储空间:1000GB
        来自:
        帮助文档
        分布式消息服务RocketMQ
        计费说明
        产品资费
        旧资费
      • 旧资费
        说明 分布式消息服务Kafka旧资费根据实例规格分为基础版和高级版,存储空间按照不同类型收费。 目前在 芜湖2、上海7、重庆2、乌鲁木齐27、石家庄20、内蒙6、北京5 资源池开放订购。 实例价格如下: 规格 标准资费(元/月) 标准资费(元/小时) 基础版(100 MB/s) 1300 2.71 高级版(300 MB/s ) 2100 4.38 存储空间价格如下: 存储类型 标准资费(元/G/月) 标准资费(元/G/小时) 普通 IO 0.45 0.0008 高 IO 0.6 0.0013 超高 IO 1.5 0.0032
        来自:
        帮助文档
        分布式消息服务Kafka
        计费说明
        产品资费
        旧资费
      • 文本涉政审核
        错误码 错误信息 错误描述 AIOP4010 文件大小不符合要求 文本字符超过了9999字 AIOP4017 处理该请求超时 该请求内部处理超时,请稍后再试。 AIOP4018 单次批量请求数量超过限制 该批次请求量超过限制,请降低单批次请求量 AIOP5000 服务内部错误 需要联系管理员处理 AIOP5001 服务接口异常,请联系管理员 当前接口无法正常处理请求,需要联系管理员处理。 AIOP5003 场景接口异常,具体参见返回消息 后端服务超时等
        来自:
        帮助文档
        内容审核(文档停止维护)
        API参考
        API
        文本涉政审核
      • 创建实例
        本文为您介绍分布式消息服务MQTT的快速入门创建实例。 实例介绍 MQTT实例订购支持用户自定义规格和自定义特性,采用物理隔离的方式部署。租户独占MQTT实例,可根据业务需要可定制相应规格的MQTT实例。在新的资源池节点上,还支持选择主机类型和存储规格等丰富用户选项。 操作步骤 1、在产品详情页点击立即开通按钮,或者进入消息管理控制台创建实例,进入订购分布式消息MQTT页面。 2、 创建实例,注意选择产品规格。 (1)填写实例名称,长度4~40个字符,大小写字母开头,只能包含大小写字母、数字及分隔符()。 (2)选择计费模式:包年包月/按需计费,两种模式说明参见计费模式。 (3)购买时长按照计费模式选择变化: 计费模式为包年包月,可选择购买时长16个月、13年。该模式提供自动续期功能,勾选后可以自动续期购买时长:16个月、13年。 计费模式为按需计费,则该选项隐藏无需选择。 (4)部署方式有单可用区和多可用区两个选项,目前仅支持单可用区和3可用区部署,单可用区部署请选中任意一个AZ;多可用区部署请选中3个AZ,系统会自动将Broker节点平均分配至各可用区。 (5)设置节点数,可选择3/5/7/9。MQTT 的节点数是指MQTT 集群中的节点数量。在MQTT 集群中,可以有多个节点组成一个集群,每个节点都是一个独立的MQTT 服务器实例。 (6)下拉选择主机类型,可选择通用型和计算增强型。通用型云主机共享宿主机的CPU资源,主要提供基本水平的vCPU性能、平衡的计算、内存和网络资源,具有较高性价比,支持通用的业务运行。计算增强型云主机独享宿主机的CPU资源,实例间无CPU争抢,并且没有进行资源超配,同时搭载全新网络加速引擎,实现接近物理服务器的强劲稳定性能。 (7)选择实例规格,分布式消息服务MQTT提供通用型和计算增强型各3类规格,各规格详细说明参见弹性云主机规格。 (8)选择存储空间,包括磁盘类型和空间。 磁盘类型提供高IO/普通IO/超高IO三类。普通IO适用于大容量、读写速率中等、事务性处理较少的应用场景。高IO:适用于主流的高性能、高可靠应用场景。超高IO:适用于超高IOPS、超大带宽需求的读写密集型应用场景。了解更多磁盘类型说明参见云硬盘规格。 磁盘空间以100G起步,可以以100倍数增加磁盘空间。 (9)选择已有虚拟私有云,若无虚拟私有云,点击创建跳转到虚拟私有云页面新增,了解更多内容参见虚拟私有云。 (10)选择已有子网,若无子网,点击创建跳转到子网页面新增,了解更多内容参见虚拟私有云子网管理 创建子网。 (11)选择已有安全组,若无安全组,点击创建跳转到安全组页面新增,了解更多内容参见虚拟私有云安全组 创建安全组。 3、 填写完上述信息后,单击“下一步”,进入费用确认页面。 4、 确认实例信息无误后,提交请求。 5、 在实例列表页面,查看MQTT实例是否创建成功。创建实例大约需要3到15分钟,此时实例状态为“创建中”。
        来自:
        帮助文档
        分布式消息服务MQTT
        快速入门
        创建实例
      • 关于日志
        运行日志 日志描述 服务安装前的准备日志 记录服务安装前的准备工作,如检测、配置和反馈操作的信息。 进程启动日志 记录进程启动过程中执行的命令信息。 进程启动异常日志 记录进程启动失败时产生异常的信息,如依赖服务错误、资源不足等。 进程运行日志 记录进程运行轨迹信息及调试信息,如函数入口和出口打印、模块间接口消息等。 进程运行异常日志 记录导致进程运行时错误的错误信息,如输入对象为空、编解码失败等错误。 进程运行环境信息日志 记录进程运行环境的信息,如资源状态、环境变量等。 脚本日志 记录脚本执行的过程信息。 资源回收日志 记录资源回收的过程信息。 服务卸载时的清理日志 记录卸载服务时执行的步骤操作信息,如清除目录数据、执行时间等。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        日志管理
        关于日志
      • 术语解释
        Hudi Hudi是数据湖的文件组织层,对Parquet格式文件进行管理提供数据湖能力,支持多种计算引擎,提供IUD接口,在 HDFS的数据集上提供了插入更新和增量拉取的流原语。 资源池 ModelArts提供的大规模计算集群,可应用于模型开发、训练和部署。支持公共资源池和专属资源池两种,分别为共享资源池和独享资源池。ModelArts默认提供公共资源池。专属资源池需单独购买,专属使用,不与其他用户共享。 Hue Hue是一组WEB应用,用于和MRS大数据组件进行交互,能够帮助用户浏览HDFS,进行Hive查询,启动MapReduce任务等,它承载了与所有MRS大数据组件交互的应用。 Kafka Kafka是一个分布式的、分区的、多副本的消息发布订阅系统,它提供了类似于JMS的特性,但在设计上完全不同,它具有消息持久化、高吞吐、分布式、多客户端支持、实时等特性,适用于离线和在线的消息消费,如常规的消息收集、网站活性跟踪、聚合统计系统运营数据(监控数据)、日志收集等大量数据的互联网服务的数据收集场景。 Spark Spark是一个开源的,并行数据处理框架,能够帮助用户简单的开发快速,统一的大数据应用,对数据进行离线处理,流式处理,交互式分析等等。
        来自:
        帮助文档
        翼MapReduce
        产品简介
        术语解释
      • 删除Vhost
        本章节主要介绍如何删除Vhost。 操作场景 本章节主要介绍删除Vhost的操作,有以下几种方式,您可以根据实际情况选择任意一种方式: 方式一:在控制台删除 方式二:使用RabbitMQ WebUI删除 方式三:调用API删除 方式一:在控制台删除 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择RabbitMQ实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”>“分布式消息服务”>“RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤 4 单击实例名称,进入实例详情页面。 步骤 5 在左侧导航栏选择“Vhost列表”,进入Vhost列表页面。 步骤 6 通过以下任意一种方法,删除Vhost。 勾选Vhost名称左侧的方框,可选一个或多个,单击信息栏左上侧的“删除Vhost”。 在待删除的Vhost所在行,单击“删除”。 步骤 7 在弹出的确认删除对话框中,单击“是”。 方式二:使用RabbitMQ WebUI删除 步骤 1 登录RabbitMQ WebUI。 步骤 2 在顶部导航栏选择“Admin”,进入Admin页面。 步骤 3 在右侧导航栏选择“Virtual Hosts”,进入Virtual Hosts页面。 图1 Virtual Hosts页面 步骤 4 单击待删除的Vhost名称,进入Vhost详情页。 图2 待删除的Vhost 步骤 5 在“Delete this vhost”区域,单击“Delete this virtual host”,弹出确认删除对话框。 图3 删除Vhost 步骤 6 单击“确定”,完成Vhost的删除。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        Vhost管理
        删除Vhost
      • 1
      • ...
      • 19
      • 20
      • 21
      • 22
      • 23
      • ...
      • 483
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      GPU云主机

      训推服务

      科研助手

      知识库问答

      人脸实名认证

      人脸活体检测

      人脸比对

      动作活体识别

      身份证识别

      推荐文档

      开通备案

      充值预付款能否开具发票?

      产品优势

      手动备份

      代金券查询与使用

      变更实例的CPU和内存规格

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号