云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      消息队列Kafka版_相关内容
      • 恢复Kafka元数据
        操作步骤 1.在FusionInsight Manager,选择 “运维 > 备份恢复 > 备份管理”。 2.在任务列表指定任务的“操作”列,选择“更多 > 查询历史”,打开备份任务执行历史记录。 在弹出的窗口中,在指定一次执行成功记录的“备份路径”列,单击“查看”,打开此次任务执行的备份路径信息,查找以下信息: “备份对象”表示备份的数据源。 “备份路径”表示备份文件保存的完整路径。 选择正确的项目,在“备份路径”手工选中备份文件的完整路径并复制。 3.在FusionInsight Manager,选择“运维 > 备份恢复 > 恢复管理”。 4.单击“创建”。 5.在“任务名称”填写恢复任务的名称。 6.在“恢复对象”选择待操作的集群。 7.在“恢复配置”,勾选“Kafka”。 说明 若安装了多个Kafka服务,请勾选需要恢复的Kafka服务名称。 8.在“Kafka”的“路径类型”,选择一个备份目录的类型。 选择不同的备份目录时,对应设置如下: “LocalDir”:表示备份文件保存在主管理节点的本地磁盘上。 选择此参数值,还需要配置“源端路径”,表示要恢复的备份文件。例如,“ 版本号数据源任务执行时间.tar.gz ”。 “LocalHDFS”:表示备份文件保存在当前集群的HDFS目录。 选择此参数值,还需要配置以下参数: “源端路径”:表示备份文件在HDFS中保存的完整路径。例如“ 备份路径/备份任务名任务创建时间/版本号数据源任务执行时间.tar.gz ”。 “源NameService名称”:选择恢复任务执行时备份目录对应的NameService名称。默认值为“hacluster”。 “RemoteHDFS”:表示备份文件保存在备集群的HDFS目录。 选择此参数值,还需要配置以下参数: “源端NameService名称”:填写备份数据集群的NameService名称。可以输入集群内置的远端集群的NameService名称:haclusterX,haclusterX1,haclusterX2,haclusterX3,haclusterX4;也可输入其他已配置的远端集群NameService名称。 “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “源端NameNode IP地址”:填写备集群NameNode业务平面IP地址,支持主节点或备节点。 “源端路径”:填写备集群保存备份数据的完整HDFS路径。例如,“ 备份路径/备份任务名数据源任务创建时间/版本号数据源任务执行时间.tar.gz ”。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。需和集群中已存在且状态正常的队列名称相同。 “NFS”:表示备份文件通过NFS协议保存在NAS中。 选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “源端路径”:填写备份文件在NAS服务器中保存的完整路径。例如,“ 备份路径/备份任务名数据源任务创建时间/版本号数据源任务执行时间.tar.gz ”。 “CIFS”:表示备份文件通过CIFS协议保存在NAS中。 选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “端口号”:填写CIFS协议连接NAS服务器使用的端口号,默认值为“445”。 “用户名”:填写配置CIFS协议时设置的用户名。 “密码”:填写配置CIFS协议时设置的密码。 “源端路径”:填写备份文件在NAS服务器中保存的完整路径。例如,“ 备份路径/备份任务名数据源任务创建时间/版本号数据源任务执行时间.tar.gz ”。 “OBS”:表示将备份文件保存在OBS中。 选择此参数值,还需要配置以下参数: “源端路径”:填写备份文件在OBS中保存的完整路径。例如,“ 备份路径/备份任务名数据源任务创建时间/版本号数据源任务执行时间.tar.gz ”。 说明 MRS 3.1.0及之后版本才支持将备份文件保存到OBS。 9.单击“确定”保存。 10.在恢复任务列表已创建任务的“操作”列,单击“执行”,开始执行恢复任务。 恢复成功后进度显示为绿色。 恢复成功后此恢复任务不支持再次执行。 如果恢复任务在第一次执行时由于某些原因未执行成功,在排除错误原因后单击“重试”,重试恢复任务。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        恢复数据
        恢复Kafka元数据
      • 入门指引
        本文介绍分布式消息服务RocketMQ的入门指引。 本章节将为您介绍分布式消息服务RocketMQ入门的基本流程,主要包括环境准备、控制台创建RocketMQ实例、创建Topic以及生成消费验证,帮助您快速上手RocketMQ。 操作流程 步骤说明 操作流程如下: 1.环境准备 创建RocketMQ实例先要准备好虚拟私有云、子网和安全组。 2.创建RocketMQ实例 在订购分布式消息RocketMQ填写和确认实例名称、引擎类型、计费模式等信息,确认费用后点击下一步,等待开通流程结果通知成功后完成创建实例。 3.创建主题和订阅组 开通实例后,在控制台相关页面按照指引创建主题和订阅组,用于发送和接收消息。 4.创建应用用户和分配权限 创建应用用户并分配主题和订阅组权限,实现各应用共享或者独占消息队列的效果。 5.生产消费验证 以上工作完成后,通过控制台拨测功能生成生产和消费测试数据,用户应用也可按照规范接入RocketMQ,发送、消费消息。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        快速入门
        入门指引
      • DataArts Studio支持的数据源
        数据源简介 数据源简介 数据源类型 简介 数据仓库服务(DWS) DWS是基于Sharednothing分布式架构,具备MPP大规模并行处理引擎,兼容标准ANSI SQL 99和SQL 2003,同时兼容PostgreSQL/Oracle数据库生态,为各行业PB级海量大数据分析提供有竞争力的解决方案。 数据湖探索(DLI) DLI是完全兼容Apache Spark和Apache Flink生态,实现批流一体的Serverless大数据计算分析服务。DLI支持多模引擎,企业仅需使用SQL或程序就可轻松完成异构数据源的批处理、流处理、内存计算、机器学习等,挖掘和探索数据价值。 MapReduce服务(MRS HBase) HBase是一个开源的、面向列(ColumnOriented)、适合存储海量非结构化数据或半结构化数据的、具备高可靠性、高性能、可灵活扩展伸缩的、支持实时数据读写的分布式存储系统。 使用MRS HBase可实现海量数据存储,并实现毫秒级数据查询。选择MRS HBase可以实现物流数据毫秒级实时入库更新,并支持百万级时序数据查询分析。 MapReduce服务(MRS Hive) Hive是一种可以存储、查询和分析存储在Hadoop中的大规模数据的机制。Hive定义了简单的类SQL查询语言,称为HiveQL,它允许熟悉SQL的用户查询数据。 使用MRS Hive可实现TB/PB级的数据分析,快速将线下Hadoop大数据平台(CDH、HDP等)迁移上云,业务迁移 “0”中断,业务代码 “0”改动。 MapReduce服务(MRS Kafka) MapReduce服务可提供专属MRS Kafka集群。Kafka是一个分布式的、分区的、多副本的消息发布订阅系统,它提供了类似于JMS的特性,但在设计上完全不同,它具有消息持久化、高吞吐、分布式、多客户端支持、实时等特性,适用于离线和在线的消息消费,如常规的消息收集、网站活性跟踪、聚合统计系统运营数据(监控数据)、日志收集等大量数据的互联网服务的数据收集场景。 MapReduce服务(MRS Ranger) Ranger提供一个集中式安全管理框架,提供统一授权和统一审计能力。它可以对整个Hadoop生态中如HDFS、Hive、HBase、Kafka、Storm等进行细粒度的数据访问控制。用户可以利用Ranger提供的前端WebUI控制台通过配置相关策略来控制用户对这些组件的访问权限。 MySQL MySQL是目前最受欢迎的开源数据库之一,其性能卓越,架构成熟稳定,支持流行应用程序,适用于多领域多行业,支持各种WEB应用,成本低,中小企业首选。 MapReduce服务(MRS Spark) Spark是一个开源的,并行数据处理框架,能够帮助用户简单的开发快速、统一的大数据应用,对数据进行协处理、流式处理、交互式分析等等。 Spark提供了一个快速的计算、写入以及交互式查询的框架。相比于Hadoop,Spark拥有明显的性能优势。Spark提供类似SQL的Spark SQL语言操作结构化数据。 云数据库RDS RDS是一种基于云计算平台的即开即用、稳定可靠、弹性伸缩、便捷管理的在线关系型数据库服务。 注意,DataArts Studio平台目前仅支持RDS中的MySQL和PostgreSQL数据库。 主机连接 通过主机连接,用户可以在DataArts Studio数据开发中连接到指定的主机,通过脚本开发和作业开发在主机上执行Shell或Python脚本。主机连接保存连接某个主机的连接信息,当主机的连接信息有变化时,只需在主机连接管理中编辑修改,而不需要到具体的脚本或作业中逐一修改。 MapReduce服务(MRS Presto) Presto是一个开源的用户交互式分析查询的SQL查询引擎,用于针对各种大小的数据源进行交互式分析查询。其主要应用于海量结构化数据/半结构化数据分析、海量多维数据聚合/报表、ETL、AdHoc查询等场景。 Presto允许查询的数据源包括Hadoop分布式文件系统(HDFS),Hive,HBase,Cassandra,关系数据库甚至专有数据存储。一个Presto查询可以组合不同数据源,执行跨数据源的数据分析。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        管理控制台
        DataArts Studio支持的数据源
      • SASL_SSL接入报错
        本节介绍分布式消息服务Kafka使用SASLSSL连接常见问题 1.报错示例:java.security.cert.CertPathValidatorException: Algorithm constraints check failed: SHA256withDS 解决途径:排查jdk是否支持SHA256withDS算法,推荐使用oracle jdk1.8.0201版本jdk 2.报错示例:Topic authorization failed for topics 解决途径:排查topic是否授权,如果没有则授予对应权限 3. 报错示例:Authentication failed during authentication due to invalid credentials with SASL mechanism SCRAMSHA512 解决途径:排查连接kafka的用户密码是否正确 4. 报错示例:java.security.cert.CertificateException: No subject alternative names present 解决途径:配置文件需要配置 ssl.endpoint.identification.algorithm 5. 报错示例:Keystore was tampered with, or password was incorrect 解决途径:排查 ssl client密码是否错误或者和证书不匹配,可以从实例详情>接入点信息>查看所有IP和端口信息,界面下载对应证书 6.接入配置示例
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        连接问题
        SASL_SSL接入报错
      • 导出实例
        本文主要介绍如何导出分布式消息服务RabbitMQ的实例。 操作场景 本章节指导您在控制台导出实例列表。 操作步骤 1. 登录管理控制台。 2. 在管理控制台右上角单击,选择区域。 说明 请选择RabbitMQ实例所在的区域。 3. 在管理控制台左上角单击,选择“企业中间件 > 分布式消息服务 > RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 4. 单击“导出”,导出实例列表。 5. 单击“导出 > 导出全部数据到XLSX”/“导出 > 导出已选中数据到XLSX”,导出实例列表。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        实例日常管理
        导出实例
      • 续订
        对于包周期订购后,支持通过控制台进行续订操作。 具体操作如下: 步骤1:登录Kafka专享版控制台,在实例列表中,右侧的“更多”菜单下拉选择“续费”按钮; 步骤2:进入续订管理界面后,选择续订周期后,点击“确认提交”,按提示完成后续支付流程。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        计费说明
        续订
      • 创建Spark作业
        本章节主要介绍创建Spark作业。 Spark作业编辑页面支持执行Spark作业,为用户提供全托管式的Spark计算服务。 在总览页面,单击Spark作业右上角的“创建作业”,或在Spark作业管理页面,单击右上角的“创建作业”,均可进入Spark作业编辑页面。 进入Spark作业编辑页面,页面会提示系统将创建DLI临时数据桶。该桶用于存储使用DLI服务产生的临时数据,例如:作业日志、作业结果等。如果不创建该桶,将无法查看作业日志。桶名称为系统默认。 如果不需要创建DLI临时数据桶,并且希望不再收到该提示,可以勾选“下次不再提示”并单击“取消”。 前提条件 1.请先将所要依赖的程序包通过“数据管理>程序包管理”页面上传至对应的OBS桶中。具体操作请参考创建程序包。 2.创建Spark作业,访问其他外部数据源时,如访问OpenTSDB、HBase、Kafka、DWS、RDS、ES、CloudTable、DCS Redis、DDS Mongo等,需要先创建跨源连接,打通作业运行队列到外部数据源之间的网络。 当前Spark作业支持访问的外部数据源详情请参见跨源连接和跨源分析概述。 创建跨源连接操作请参见增强型跨源连接。 创建完跨源连接后,可以通过“资源管理 > 队列管理”页面,单击“操作”列“更多”中的“测试地址连通性”,验证队列到外部数据源之间的网络连通是否正常。详细操作可以参考测试地址联通性。
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业管理
        Spark作业管理
        创建Spark作业
      • 生产消费验证
        本文介绍分布式消息服务RocketMQ入门指引的生产消费验证内容。 背景信息 RocketMQ的生产消费验证是指在使用RocketMQ进行消息生产和消费时的验证过程。具体而言,验证包括以下几个方面: 生产者验证:RocketMQ提供了丰富的生产者API,开发人员可以使用这些API将消息发送到RocketMQ的消息队列中。在验证阶段,可以通过发送消息并检查返回结果来确保消息成功发送到Broker节点。此外,生产者还应该验证消息的顺序性、事务性以及可靠性等方面。 消费者验证:RocketMQ的消费者可以订阅特定的消息主题,从而消费这些主题下的消息。在验证阶段,消费者应该能够正确地从Broker节点拉取消息并进行消费处理。消费者还可以验证消息的顺序性、重试机制以及消息过滤等功能。 操作步骤 1、 天翼云官网点击控制中心,选择产品分布式消息服务RocketMQ。 2、 登录分布式消息服务RocketMQ控制台,点击右上角地域选择对应资源池。 进入实例列表,点击【管理】按钮进入管理菜单。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入主题管理菜单,点击【拨测】按钮,进行生产消费的拨测验证,验证开通的消息实例和主题。 1)生产测试拨测: 选择消息类型,默认普通消息。 填写需要产生的测试消息数量,以及每条消息的大小,默认每条消息1KB,建议不超过4MB(4096KB)。 选择已建的消息主题,若无选项,请新增主题,详见上文创建主题和订阅组。 点击【测试】按钮,按照已填写规格及数量产生测试消息数据,展示消息数据的信息,包括消息ID(messageID)、发送状态、主题名(topic名)、Broker名、队列ID。 拨测功能涉及消息发送状态码,以下是RocketMQ消息发送状态码及其说明: ✧ SENDOK(发送成功):表示消息成功发送到了消息服务器。 ✧ FLUSHDISKTIMEOUT(刷新磁盘超时):表示消息已经成功发送到消息服务器,但是刷新到磁盘上超时。这可能会导致消息服务器在宕机后,尚未持久化到磁盘上的数据丢失。 ✧ FLUSHSLAVETIMEOUT(刷新从服务器超时):表示消息已经成功发送到消息服务器,但是刷新到从服务器上超时。这可能会导致主从同步不一致。 ✧ SLAVENOTAVAILABLE(从服务器不可用):表示消息已经成功发送到消息服务器,但是从服务器不可用。这可能是由于网络故障或从服务器宕机引起的。 ✧ UNKNOWNERROR(未知错误):表示发送消息时遇到了未知的错误。一般情况下建议重试发送消息。 ✧ MESSAGESIZEEXCEEDED(消息大小超过限制):表示消息的大小超过了消息服务器的限制。需要检查消息的大小是否合适。 ✧ PRODUCETHROTTLE(消息生产被限流):表示消息生产者的频率超出了消息服务器的限制。这可能是由于消息发送频率过高引起的。 ✧ SERVICENOTAVAILABLE(服务不可用):表示消息服务器不可用。这可能是由于网络故障或者消息服务器宕机引起的。 请注意,以上状态码仅适用于RocketMQ消息发送阶段,并且并不代表消息是否成功被消费者接收。同时,这些状态码也可能因版本变化而有所不同,建议查阅官方文档获取最新信息。 2)消费测试拨测: 选择消息顺序,下拉选择无序/有序,默认选项为无序。 RocketMQ是一种开源的分布式消息中间件,它支持有序消息和无序消息。 ✧ 有序消息是指消息的消费顺序与发送顺序完全一致。在某些业务场景下,消息的处理需要保证顺序性,例如订单的处理或者任务的执行。RocketMQ提供了有序消息的支持,通过指定消息的顺序属性或使用消息队列的分区机制,可以确保消息按照指定的顺序进行消费。 ✧ 无序消息则是指消息的消费顺序与发送顺序无关。无序消息的特点是高吞吐量和低延迟,适用于一些不要求严格顺序的业务场景,如日志收集等。 在RocketMQ中,有序消息和无序消息的实现方式略有不同。有序消息需要借助MessageQueue的分区机制和消费者端的顺序消息消费来实现。而无序消息则是通过消息的发送和接收的并发处理来实现的。 总的来说,RocketMQ既支持有序消息也支持无序消息,根据业务需求选择合适的消息类型来满足业务的要求。 选择消费方式,目前仅提供pull方式。值得注意的是,RocketMQ还提供了推送(push)方式的消费模式,其中消息队列服务器会主动将消息推送给消费者。但在当前仅限于pull方式的消费模式。 填写消费数量。 下拉选择选择已建的消息主题和订阅组,若无选项,请新增主题和订阅组,详见上文创建主题和订阅组。 点击【测试】按钮,按照已填写规格及数量产生消费数据,展示消息数据的信息,包括消息ID(messageID)、主题名称(topicName)、生成时间、存储时间、队列ID、消费状态。 拨测功能涉及消息消费状态码,RocketMQ消费状态码是指在消息消费过程中,对消费结果进行标识的状态码。以下是常见的RocketMQ消费状态码: ✧ CONSUMESUCCESS(消费成功):表示消息成功被消费。 ✧ RECONSUMELATER(稍后重试):表示消费失败,需要稍后再次进行消费。 ✧ CONSUMEFAILURE(消费失败):表示消息消费出现异常或失败。 ✧ SLAVENOTAVAILABLE(从节点不可用):表示消费者无法访问从节点来消费消息。 ✧ NOMATCHEDMESSAGE(无匹配的消息):表示当前没有匹配的消息需要消费。 ✧ OFFSETILLEGAL(偏移量非法):表示消费的偏移量参数不合法。 ✧ BROKERTIMEOUT(Broker超时):表示由于Broker超时导致消费失败。 5、 用户应用按照规范接入RocketMQ,发送、消费消息。 1)生产者示例API 以下适用于南京3、上海7、重庆2、乌鲁木齐27、保定、石家庄20、内蒙6、晋中、北京5节点。 ctgmq引擎版本,SDK下载方式详见环境准备其他工具章节。 package com.ctg.guide; import com.ctg.mq.api.CTGMQFactory; import com.ctg.mq.api.IMQProducer; import com.ctg.mq.api.PropertyKeyConst; import com.ctg.mq.api.bean.MQMessage; import com.ctg.mq.api.bean.MQSendResult; import com.ctg.mq.api.exception.MQException; import com.ctg.mq.api.exception.MQProducerException; import java.util.Properties; / Producer,发送消息 / public class Producer { public static void main(String[] args) throws InterruptedException, MQException { Properties properties new Properties(); properties.setProperty(PropertyKeyConst.ProducerGroupName, "producergroup"); properties.setProperty(PropertyKeyConst.NamesrvAddr, "10.50.208.1:9876;10.50.208.2:9876;10.50.208.3:9876"); properties.setProperty(PropertyKeyConst.NamesrvAuthID, "app4test"); properties.setProperty(PropertyKeyConst.NamesrvAuthPwd, ""); properties.setProperty(PropertyKeyConst.ClusterName, "defaultMQBrokerCluster"); properties.setProperty(PropertyKeyConst.TenantID, "defaultMQTenantID"); IMQProducer producer CTGMQFactory.createProducer(properties);//建议应用启动时创建 int connectResult producer.connect(); if(connectResult ! 0){ return; } for (int i 0; i mqResultList) { //mqResultList 默认为1,可通过批量消费数量设置 for(MQResult result : mqResultList) { //TODO System.out.println(result); } return ConsumerTopicStatus.CONSUMESUCCESS;//对消息批量确认(成功) //return ConsumerTopicStatus.RECONSUMELATER;//对消息批量确认(失败) } }); } } 以下适用于华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3节点。 rocketmq引擎版本,SDK下载方式详见环境准备其他工具章节。 importorg.apache.rocketmq.client.consumer.DefaultMQPushConsumer; importorg.apache.rocketmq.client.consumer.listener.ConsumeConcurrentlyStatus; importorg.apache.rocketmq.client.consumer.listener.MessageListenerConcurrently; importorg.apache.rocketmq.client.exception.MQClientException; publicclassPushConsumer{ publicstaticvoidmain(String[] args)throwsException{ AclClientRPCHook rpcHook newAclClientRPCHook( newSessionCredentials(ACCESSKEY, SECRETKEY)); DefaultMQPushConsumer consumer newDefaultMQPushConsumer(rpcHook); consumer.setConsumerGroup("ConsumerGroupName"); // 填入元数据地址 consumer.setNamesrvAddr("192.168.0.1:9876"); ; //如果需要开启SSL,请增加此行代码 consumer.subscribe("TopicTest",""); consumer.registerMessageListener((MessageListenerConcurrently)(msgs, context)>{ System.out.printf("%s Receive New Messages: %s %n",Thread.currentThread().getName(), msgs); returnConsumeConcurrentlyStatus.CONSUMESUCCESS; }); consumer.start(); System.out.printf("Consumer Started.%n"); } } 示例参数说明: Namesrv地址 Namesrv地址可从控制台查看,多个地址按分号分隔。 应用用户和密码 这个应用用户和密码就是控制台创建的应用用户和密码。 租户id和集群名 集群名和租户id可以从应用用户管理查询。 订阅组 订阅组名需要在控制台提前创建好。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        快速入门
        生产消费验证
      • 产品规格
        本节介绍分布式消息服务RocketMQ相关的产品规格,以便您正确理解和使用。 (1)以下适用于华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3 节点。 注意 通用型规格已调整为白名单特性,如需了解该规格参数请联系技术支持。 ctgmq引擎已调整为白名单特性,如需了解该引擎请联系技术支持。 单机版实例面向用户体验和业务测试场景,无法保证性能和高可用。如果需要在生产环境使用RocketMQ实例,建议购买集群版实例。 天翼云分布式消息服务RocketMQ版产品规格由以下五个维度定义: 资源规格:定义使用的弹性云服务器的规格类型。 代理个数:即Broker数量,定义实例的规模,天翼云分布式消息RocketMQ每个Broker由一个Master节点(主节点)和一个Slave节点(备节点)组成,详细见产品架构。 存储容量:定义单个代理可以保存的存储容量。 单个代理TPS:定义单个代理的TPS性能。 单个代理消费组数上限:定义单个代理可以创建的消费组数量。 天翼云分布式消息服务RocketMQ支持的产品规格如下所示: 说明 TPS(Transaction per second)是指每秒可以生产消息和消费消息的总次数,可以理解为对应规格每秒生产消息和消费消息的总吞吐量。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        产品简介
        产品规格
      • 产品配置类常见问题
        Web应用防火墙(边缘云版)服务接入网站时未配置的端口是否会有安全风险? Web应用防火墙(边缘云版)支持在域名接入时配置请求协议和回源端口,安全防护节点只会转发来自HTTP/HTTPS请求协议对应端口的业务流量给源站服务器。 Web应用防火墙(边缘云版)安全防护节点不会转发任何未配置端口的请求流量到源站,因此,在接入网站时未配置的端口不会对源站产生任何安全风险。 非天翼云服务器可以使用Web应用防火墙(边缘云版)吗? 非天翼云服务器也可以使用Web应用防火墙(边缘云版)服务。 Web应用防火墙(边缘云版)是一种网络应用防火墙,可以通过检测、过滤和阻止来自互联网的恶意网络流量,保护服务器和应用程序免受各种网络攻击和安全威胁。无论您使用哪种云服务器,只要符合Web应用防火墙(边缘云版)的系统要求,就可以部署和配置防护策略来增强网络安全。采用cname的方式接入服务,与客户的源站类型无关,因此,非天翼云服务器也可以使用Web应用防火墙(边缘云版)服务。 Web应用防火墙(边缘云版)可以支持HTTPS双向认证吗? 单向认证:在 SSL 身份验证中,客户端会收到服务器的证书,客户端可能会尝试将服务器的 CA 与客户端的受信任 CA 列表进行匹配。如果颁发CA是可信的,客户端将验证证书是真实的并且没有被篡改。客户端和服务器在消息交换之前都使用9次握手消息来建立加密通道。 双向认证:双向 SSL 身份验证中,客户端和服务器都通过数字证书相互验证,以便双方都确信对方的身份。客户端和服务器在消息交换之前都使用12次握手消息来建立加密通道。 Web应用防火墙(边缘云版)支持HTTPS双向认证。双向认证包括边缘双向认证以及回源双向认证,如果您有该需求,可以联系我们进行后台配置。
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        常见问题
        产品配置类
        产品配置类常见问题
      • 开启Kerberos认证集群中的默认用户清单
        类别 用户名称 初始密码 描述 MRS集群系统管理员 admin 在集群创建时由用户指定。 Manager的管理员。 此外还具有以下权限: 具有HDFS、ZooKeeper普通用户的权限。 具有提交、查询Mapreduce、YARN任务的权限,以及YARN队列管理权限和访问YARN WebUI的权限。 Storm中,具有提交、查询、激活、去激活、重分配、删除拓扑的权限,可以操作所有拓扑。 Kafka服务中,具有创建、删除、授权、Reassign、消费、写入、查询主题的权限。 MRS集群节点操作系统用户 omm 系统随机生成 MRS集群系统的内部运行用户。在全部节点生成,属于操作系统用户,无需设置为统一的密码。 MRS集群节点操作系统用户 root 用户设置的密码。 MRS集群所属节点的登录用户。在全部节点生成,属于操作系统用户。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        MRS多用户权限管理
        开启Kerberos认证集群中的默认用户清单
      • 开启Kerberos认证集群中的默认用户清单
        类别 用户名称 初始密码 描述 MRS集群系统管理员 admin 在集群创建时由用户指定。 Manager的管理员。 此外还具有以下权限: 具有HDFS、ZooKeeper普通用户的权限。 具有提交、查询Mapreduce、YARN任务的权限,以及YARN队列管理权限和访问YARN WebUI的权限。 Storm中,具有提交、查询、激活、去激活、重分配、删除拓扑的权限,可以操作所有拓扑。 Kafka服务中,具有创建、删除、授权、Reassign、消费、写入、查询主题的权限。 MRS集群节点操作系统用户 omm 系统随机生成 MRS集群系统的内部运行用户。在全部节点生成,属于操作系统用户,无需设置为统一的密码。 MRS集群节点操作系统用户 root 用户设置的密码。 MRS集群所属节点的登录用户。在全部节点生成,属于操作系统用户。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        安全管理
        开启Kerberos认证集群中的默认用户清单
      • 迁移元数据
        本章节介绍了如何迁移分布式消息服务RocketMQ实例的元数据。 操作场景 分布式消息服务RocketMQ支持通过控制台迁移其他厂商或自建RocketMQ实例的元数据到云上RocketMQ实例。 前提条件 已购买RocketMQ实例。 步骤一:获取其他厂商或自建RocketMQ实例的元数据 1. 进入RocketMQ实例的安装目录,执行以下命令,查询集群名称。 sh ./bin/mqadmin clusterList n {nameserver地址及端口号} 例如:“nameserver地址及端口号”为“192.168.0.65:8100”。 sh ./bin/mqadmin clusterList n 192.168.0.65:8100 2. 执行以下命令,导出元数据。 sh ./bin/mqadmin exportMetadata n {nameserver地址及端口号} c {RocketMQ集群名称} f {导出的元数据文件的存放路径} 例如:“nameserver地址及端口号”为“192.168.0.65:8100”,“RocketMQ集群名称”为“DmsCluster”,“导出的元数据文件的存放路径”为“/tmp/rocketmq/export”。 sh ./bin/mqadmin exportMetadata n 192.168.0.65:8100 c DmsCluster f /tmp/rocketmq/export 步骤二 :在控制台迁移元数据 1. 登录分布式消息服务RocketMQ控制台。 2. 单击RocketMQ实例的名称,进入实例详情页面。 3. 在左侧导航栏,选择“元数据迁移”,进入迁移任务列表页面。 4. 单击“创建迁移任务”,弹出“创建迁移任务”对话框。 5. 参考表1,设置迁移任务的参数。 表1 迁移任务参数说明 参数 说明 任务名称 您可以自定义迁移任务的名称,用于区分不同的迁移任务。 是否同名覆盖 如果开启同名覆盖,会对已有的同名元数据的配置进行修改。例如:原实例Topic01的读队列个数为3,云上实例Topic01的读队列个数为2,开启同名覆盖后,云上实例Topic01的读队列个数变为3。如果不开启同名覆盖,同名元数据的迁移将失败。例如:原实例的Topic包含Topic01和Topic02,云上实例的Topic包含Topic01和Topic03,不开启同名覆盖,原实例Topic01的迁移将失败。 元数据 上传其他厂商或自建RocketMQ实例的元数据。 6. 单击“确定”。 迁移完成后,在迁移任务列表页面查看“任务状态”。 当“任务状态”为“迁移完成”,表示所有元数据都已成功迁移。 当“任务状态”为“迁移失败”,表示元数据中部分或全部元数据迁移失败。单击迁移任务名称,进入迁移任务详情页,在“迁移结果”中查看迁移失败的Topic/消费组名称,以及失败原因。 图 迁移结果
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        迁移元数据
      • 创建增强型跨源连接
        本章节主要介绍如何创建增强型跨源连接。 操作场景 使用DLI访问其他数据源的数据前,首先要通过建立增强型跨源连接打通DLI和数据源之间的网络,DLI才能够访问、导入、查询、分析其他数据源的数据。 例如:DLI连接MRS、RDS、CSS、Kafka、DWS时,需要打通DLI和对应数据源VPC之间的网络,才能实现数据互通。 本节操作介绍在控制台创建增强型跨源连接的操作步骤。 约束和限制 DLI提供的default队列不支持创建跨源连接。 Flink作业访问DIS,OBS和SMN数据源,无需创建跨源连接,可以直接访问。 增强型跨源连接需要使用VPC、子网、路由、对等连接功能,因此需要获得VPC(虚拟私有云)的VPC Administrator权限。 使用DLI增强型跨源时,弹性资源池/队列的网段与数据源网段不能重合。 访问跨源表需要使用已经创建跨源连接的队列。 跨源表不支持Preview预览功能。 检测跨源连接的连通性时对IP约束限制如下: −IP必须为合法的IP地址,用“.”分隔的4个十进制数,范围是0255。 −测试时IP地址后可选择添加端口,用":"隔开,端口最大限制5位,端口范围:0~65535。 例如192.168.xx.xx或者192.168.xx.xx:8181。 检测跨源连接的连通性时对域名约束限制如下: −域名的限制长度为1到255的字符串,并且组成必须是字母、数字、下划线或者短横线。 −域名的顶级域名至少包含两个及以上的字母,例如.com,.net,.cn等。 −测试时域名后可选择添加端口,用":"隔开,端口最大限制为5位,端口范围:0~65535。 例如example.com:8080。
        来自:
        帮助文档
        数据湖探索
        用户指南
        增强型跨源连接
        创建增强型跨源连接
      • 基于消息队列RocketMQ实现全链路灰度
        本章节介绍如何基于消息队列RocketMQ实现全链路灰度 概述 本文介绍在使用消息队列(RocketMQ)这种异步场景下,可以在不修改业务代码的情况下,实现异步场景的灰度,从而实现全链路灰度。本文介绍基于消息队列RocketMQ实现全链路灰度。 背景介绍 在大多数业务场景中对于消息的灰度并没有RPC调用那么严格,但是当全链路灰度调用中涉及到消息消费时,如果消息消费没有按照全链路流量规则路由,则会导致通过消息产生的流量逃逸,从而破坏全链路规则,导致出现一些不符合预期的情况。 如下图所示,本文分别部署网关、appa、appagray、appb、appbgray、appc、appcgray以及RocketMQ,模拟一个真实的全链路灰度场景。 通过网关调用appa应用的接口,当满足路由规则后,灰度流量会被路由到appagray,appagray又会调用appbgray,随后由appbgray发送灰度消息,appcgray将会收到灰度消息,而appc不会收到灰度消息。 前提条件 1. 用户已开通微服务治理中心企业版。 2. 用户已开通云容器引擎。 3. 用户已部署RocketMQ,且RocketMQ版本在4.5.0以上,broker.conf中已配置enablePropertyFiltertrue。 部署Demo应用 准备自建入口网关msgczuul,准备应用msgcappa,msgcappb和msgcappc。调用过程是msgcappa –> msgcappb > msgcappc。 步骤1:在云容器引擎中安装微服务治理插件: 1. 登录“云容器引擎”控制台。 2. 在左侧菜单栏选择“集群”,点击目标集群。 3. 在集群管理页面点击“插件”“插件市场”,选择“cubems”插件安装。 步骤2:为应用开启微服务治理能力: 1. 登录“云容器引擎”控制台。 2. 左侧菜单栏选择“集群”,点击目标集群。 3. 在集群管理页面点击“工作负载”“无状态”,选择目标命名空间。 4. 在Deployment列表页选择指定Deployment,并点击“全量替换”,进入Deployment编辑页。 5. 在Deployment编辑页点击“显示高级设置”,新增“Pod标签”: mseCubeMsAutoEnable:on。 6. 在发布应用时,配置指定环境变量,可指定注入微服务治理中心的应用名、命名空间和标签等信息。 环境变量配置如下: 环境变量名 环境变量值 MSEAPPNAME 接入到微服务治理中心的应用名。 MSESERVICETAG 应用标签信息,如灰度应用可配置gray。 MSENAMESPACE(选填) 接入到微服务治理中心的命名空间,默认为:default。 7. 完成编辑后点击“提交”,重新发布容器即可接入。 appa应用的配置 基线: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appa" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appa" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appa" spec: containers: env: name: "MSEAPPNAME" value: "appa" image: "镜像仓库域名/xxx/appa:latest" imagePullPolicy: "Always" name: "appa" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" 灰度: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appa" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appa" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appa" spec: containers: env: name: "MSEAPPNAME" value: "appa" name: "MSESERVICETAG" value: "gray" image: "镜像仓库域名/xxx/appa:latest" imagePullPolicy: "Always" name: "appa" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" appb应用的配置 基线: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appb" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appb" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appb" spec: containers: env: name: "MSEAPPNAME" value: "appb" image: "镜像仓库域名/xxx/appb:latest" imagePullPolicy: "Always" name: "appb" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" 灰度: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appb" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appb" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appb" spec: containers: env: name: "MSEAPPNAME" value: "appb" name: "MSESERVICETAG" value: "gray" image: "镜像仓库域名/xxx/appb:latest" imagePullPolicy: "Always" name: "appb" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" appc应用的配置 基线: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appc" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appc" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appc" spec: containers: env: name: "MSEAPPNAME" value: "appc" image: "镜像仓库域名/xxx/appc:latest" imagePullPolicy: "Always" name: "appc" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" 灰度: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appc" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appc" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appc" spec: containers: env: name: "MSEAPPNAME" value: "appc" name: "MSESERVICETAG" value: "gray" image: "镜像仓库域名/xxx/appc:latest" imagePullPolicy: "Always" name: "appc" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" zuul应用的配置: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "zuul" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "zuul" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "zuul" spec: containers: env: name: "MSEAPPNAME" value: "zuul" image: "镜像仓库域名/xxx/zuul:latest" imagePullPolicy: "Always" name: "zuul" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi"
        来自:
        帮助文档
        微服务引擎
        最佳实践
        基于消息队列RocketMQ实现全链路灰度
      • 查看监控数据
        本章节介绍了如何查看分布式消息服务RocketMQ实例的各项监控指标。 操作场景 云监控对RocketMQ实例的运行状态进行日常监控,可以通过控制台直观的查看RocketMQ实例各项监控指标。 前提条件 已购买RocketMQ实例。 操作步骤 1. 登录分布式消息服务RocketMQ控制台。 2. 选择以下任意一种方法查看监控数据。 在待查看监控数据的实例所在行,单击。 单击RocketMQ实例的名称,进入实例详情页面。在左侧导航栏,单击“实例监控”。 3. 在“实例监控”页面,查看实例、节点、主题、消费组和死信队列的监控数据。 聚合是指云监控服务在一定周期内对原始采样指标数据进行最大、最小、平均、求和或方差值的计算,并把结果持久化的过程。这个计算周期又叫聚合周期。 4. (可选)在监控页面,您可以自行选择哪些监控指标需要展示,以及对监控指标进行排序。 例如,在“节点”页签中,只需要展示“消息生产数”和“消息消费数”,请按照如下步骤操作。 a. 在“节点”页签下,单击“设置”,弹出“设置”页面。 b. 勾选“消息生产数”和“消息消费数”,单击“确定”。 图1 设置监控指标 c. 监控指标设置成功后,选中监控指标,并拖动到需要展示的位置,完成监控指标的排序。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        监控
        查看监控数据
      • 未开启Kerberos认证集群中的默认用户清单
        类别 用户名称 初始密码 描述 MRS集群系统管理员 admin 在集群创建时由用户指定。 MRS Manager的管理员。 此外还具有以下权限: 具有HDFS、ZooKeeper普通用户的权限。 具有提交、查询Mapreduce、YARN任务的权限,以及YARN队列管理权限和访问YARN WebUI的权限。 Storm中,具有提交、查询、激活、去激活、重分配、删除拓扑的权限,可以操作所有拓扑。 Kafka服务中,具有创建、删除、授权、Reassign、消费、写入、查询主题的权限。 MRS集群节点操作系统用户 omm 系统随机生成 MRS集群系统的内部运行用户。在全部节点生成,属于操作系统用户,无需设置为统一的密码。 MRS集群节点操作系统用户 root 用户设置的密码。 MRS集群所属节点的登录用户。在全部节点生成,属于操作系统用户。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        安全管理
        未开启Kerberos认证集群中的默认用户清单
      • 应用场景
        本文为您介绍分布式消息服务MQTT常用业务应用场景。 分布式消息服务MQTT广泛应用于移动互联网以及物联网领域,包括智能抄表、智能家居、即时聊天等多种应用场景。 智能抄表 电表、水表、燃气表已是每个家庭必备,集成消息队列 MQTT 系统后,再无需进行人工抄表,所有住户的用电、用水、燃气、供暖数据都可由数据后台一键抄取,省时省力避免上门催收的尴尬,助力能源管理部门提供更优质服务。 智能家居 通过门监测住户出入行为,同时结合实时气温与时间,控制空调、灯具、电视机、音箱等的启动和关闭。 即时聊天 MQTT作为一种轻量级、可扩展的通信协议,提供了一种可靠的、实时的消息传递机制,使得即时聊天应用能够高效地处理用户之间的实时通信需求,为实时通信提供了有效的解决方案。
        来自:
        帮助文档
        分布式消息服务MQTT
        产品介绍
        应用场景
      • 产品规格
        本文为您介绍分布式消息服务MQTT产品规格。 注意 通用型规格已调整为白名单特性,如需了解该规格参数请联系技术支持。 单机版实例面向用户体验和业务测试场景,无法保证性能和高可用。如果需要在生产环境使用MQTT实例,建议购买集群版实例。 集群版 Intel计算增强型 实例规格 代理个数 单个代理最大连接数 单个代理最大支持消息读写TPS总和 单个连接最大订阅数 mqtt.2u4g.cluster 39 10000 8000 30 mqtt.4u8g.cluster 39 20000 16000 30 mqtt.8u16g.cluster 39 40000 32000 30 mqtt.12u24g.cluster 39 60000 48000 30 mqtt.16u32g.cluster 39 80000 64000 30 单机版 Intel计算增强型 实例规格 代理个数 单个代理最大连接数 单个代理最大支持消息读写TPS总和 单个连接最大订阅数 mqtt.2u4g.single 1 10000 8000 30 mqtt.4u8g.single 1 20000 16000 30 mqtt.8u16g.single 1 40000 32000 30
        来自:
        帮助文档
        分布式消息服务MQTT
        产品介绍
        产品规格
      • 退订
        对于包周期订购后,支持通过控制台进行退订操作。 具体操作如下: 步骤1:登录Kafka专享版控制台,在实例列表中,右侧的“更多”菜单下拉选择“退订”按钮; 步骤2:进入退订管理界面后,按页面提示选择“退订原因”,并勾选“我已同意本次退订金额及相关费用详情”,点击“退订”按钮完成后续流程。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        计费说明
        退订
      • 服务内联委托
        应用场景 注意:在以下场景需要获取其他云服务资源的访问权限。 分布式消息服务RocketMQ 应用多活功能需要查询分布式消息服务RocketMQ实例信息、同步分布式消息服务RocketMQ数据,因此需要获取访问分布式消息服务RocketMQ服务的权限。 关系数据库MySQL版 应用多活功能需要查询关系数据库MySQL版实例信息,因此需要获取访问关系数据库MySQL版服务的权限。 关系数据库PostgreSQL版 应用多活功能需要查询关系数据库PostgreSQL版实例信息,因此需要获取访问关系数据库PostgreSQL版服务的权限。 数据传输服务DTS 应用多活功能需要通过数据传输服务DTS同步数据库数据,因此需要获取访问数据传输服务DTS服务的权限。 微服务引擎云原生网关 应用多活功能需要向微服务引擎云原生网关推送多活规则,因此需要获取访问微服务引擎云原生网关服务的权限。 微服务引擎注册配置中心 应用多活功能需要微服务引擎注册配置中心管理多活规则,因此需要获取访问微服务引擎注册配置中心服务的权限。 服务内联委托说明 登录系统控制台时,系统会检查当前账号是否已有服务内联委托adtsadmin ,如果不存在则会弹出提示,在您确认授权后,系统自动创建服务内联委托adtsadmin 并授权应用高可用委托授权管理员权限策略。 创建完成后,您可以在IAM控制台的角色管理页面、API或CLI调用ListDelegates 获取委托列表的返回结果中查看已创建的服务内联委托。您还可以登录系统控制台,如果可以正常使用则表示已成功创建服务内联委托。 注意 如果没有adtsadmin服务内联委托权限,可能会因为某个服务权限不足而影响系统功能的正常使用。 请不要自行删除或者修改adtsadmin委托以及应用高可用委托授权管理员权限策略。
        来自:
        帮助文档
        应用高可用
        用户指南
        应用容灾多活
        权限管理
        服务内联委托
      • 数据采集
        采集项名称 最大值 监控项默认最大行数 500行 SQL默认长度限制 2000字符 SQL Result Body体默认采集数量限制 100个 SQL Result Body体默认采集内容大小限制 999字符 Redis Body体默认长度限制 100字符 Mongo最大集群数 10个 Mongo command默认长度限制 2000字符 Hbase command默认长度限制 500字符 Es RestClient上限 10个 Cassandra CQL默认长度限制 2000字符 Cassandra Session上限 10个 Kafka Mbean采集ObjectName上限 100个 Kafka ClientId对应IP缓存上限 100个 RabbitMq连接地址上限 20个 RabbitMq每个地址最大缓存连接数 100个 RabbitMq Consumer上限 500个 RabbitMq每个Consumer最大缓存Channel数 100个 RabbitMq每个Channel没有ACK的消息数 3000条 RabbitMq缓存的手动ACK Consumer个数 20个 RocketMq PID上限 20个 RocketMq ClientId上限 20个 Jetcd Tag最大长度 500字符 HttpClient连接池上限 10条 连接池调用链默认上报时间阈值 1毫秒 Dubbo Invocation长度限制 500字符 Dubbo Attachment长度限制 500字符 URL Body体默认长度限制 9999字符 URL采集应用code body长度限制 0字符 Java Method Body体长度限制 8192字符
        来自:
        帮助文档
        应用性能管理
        产品介绍
        数据采集
      • SDK概述
        本文介绍了分布式消息服务RocketMQ版提供的SDK语言版本。 SDK列表 下表提供了分布式消息服务RocketMQ版支持的SDK列表。 编程语言 参考文档 :: Java 开发指南Java Python 开发指南Python Go 开发指南Go C++ SDK参考C++ .NET SDK参考.NET PHP SDK参考PHP
        来自:
        帮助文档
        分布式消息服务RocketMQ
        SDK参考
        SDK概述
      • 日志通知
        本章节为您介绍日志外发相关功能 数据库安全网关支持配置Syslog、Kafka日志外发能力。 配置Syslog外发 用户可配置通过 Syslog 通知方式将资产审计日志或资产告警日志发送到指定的Syslog服务器。 1.在左侧导航栏选择“通知外送 > 日志外送 > SYSLOG”进入告警通知页面。 2.单击页面中的“新增”按钮,弹出 SYSLOG 配置对话框,编辑相关信息。 配置项 说明 名称 Syslog接收接口的配置名称。 服务器地址 Syslog服务器地址,可为IP或者域名。 端口 Syslog服务器端口,默认为端口为514。 发送协议 选择日志传输的协议类型,支持UDP或TCP。 是否发送消息头 决定是否在日志数据前添加自定义Syslog消息头(含主机名及用户名)。 内容协议格式 定义日志数据的格式,默认为RFC3164。 报文默认主机名 可以指定日志中使用的默认主机名。 报文默认应用名 可以指定日志中使用的默认应用程序名。 程序模块编码 Syslog协议RFC5424 规定,消息中必须包含“程序模块编码”,Syslog服务端使用该编码区分发送消息的程序来源。与服务器端配置保持一致即可。 严重等级 选择向Syslog服务器发送告警所标记的严重等级。等级分为:Emergency、Alert、Critical、Error、Warning、Notice、Informational、Debug。 与服务器端配置保持一致即可。 审计日志模板 发送审计日志信息的模板,可修改默认模板,具体字段请依据填写说明编辑。 告警日志模板 发送告警日志信息的模板,可修改默认模板,具体字段请依据填写说明编辑。 3.配置好Syslog发送模板后,需配置需要发送通知的资产及接收人,点击“添加”按钮即可添加接收人。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据库安全网关操作指导
        通知发送
        日志通知
      • 安全方案
        身份认证 CTIAM 统一身份认证(Identity and Access Management, 简称:CTIAM)是提供用户进行权限管理的基础服务,可以帮助您安全的控制天翼云服务和资源的访问及操作权限,包括:用户身份认证、权限分配、访问控制等功能。具体介绍请参考统一身份认证产品介绍。 您可以创建IAM用户,并为其设置关分布式消息服务MQTT实例权限,该用户就可以通过用户名和密码访问授权的实例资源。具体请参见统一身份认证快速入门创建IAM用户。 访问控制 权限控制 购买分布式消息服务MQTT实例之后,您可以使用CTIAM为企业中的员工设置不同的访问权限,以达到不同员工之间的权限隔离,通过CTIAM进行精细的权限管理。 VPC和子网 虚拟私有云(Virtual Private Cloud,VPC)为分布式消息服务MQTT构建隔离、私密的虚拟网络环境,提升消息队列的安全性,并简化用户的网络部署。您可以完全掌控自己的专有网络,VPC丰富的功能帮助您灵活管理云上网络,包括创建子网、设置安全组和网络ACL、管理路由表、申请弹性公网IP和带宽等。通过子网与其他网络隔离,独享网络资源,提高网络安全性。具体内容请参见虚拟私有云用户指南创建虚拟私有云和子网 。
        来自:
        帮助文档
        分布式消息服务MQTT
        产品介绍
        安全方案
      • RocketMQ性能白皮书
        测试场景 本章节主要测试RocketMQ不同产品规格在发送1KB大小的消息,实例的网络入流量、网络出流量、消息生产速率、消息消费速率、CPU核均负载和内存使用率。 测试环境 购买实例 名称 规格 存储空间 rocketmq01 c7.xlarge.2 4C8G 超高I/O 500GB rocketmq02 c7.2xlarge.2 8C16G 超高I/O 500GB rocketmq03 c7.4xlarge.2 16C32G 超高I/O 500GB 控制台创建主题 名称 权限 关联代理 队列个数 topic01 发布+订阅 broker1 8 控制台创建消费组 名称 关联代理 最大重试次数 是否允许以广播模式消费 group01 broker1 16 否 测试工具准备 购买1台ECS服务器(区域、可用区、虚拟私有云、子网、安全组与RocketMQ实例保持一致,Linux系统),安装jdk,并配置环境变量 tar zxvf jdk8u131linuxx64.tar.gz vi /etc/profile 追加以下内容 export JAVAHOME/root/jdk1.8.0131 export PATH$JAVAHOME/bin:$PATH 生效配置 source /etc/profile 下载测试工具 wget 解压测试工具 unzip rocketmqall5.1.4binrelease.zip 测试命令
        来自:
        帮助文档
        分布式消息服务RocketMQ
        性能白皮书
        RocketMQ性能白皮书
      • 权限管理
        触发器/服务功能 权限 APIG专享版 apig:instances:get apig:instances:create apig:instances:update apig:instances:list apig:sharedInstance:operate DDS dds:instance:get dds:instance:list DMS/Kafka dms:instance:get dms:instance:list LTS lts:groups:create lts:groups:get lts:groups:list lts:groups:put lts:logstreams:delete lts:logstreams:list lts:topics:get lts:subscriptions:create lts:subscriptions:delete lts:subscriptions:put lts:structConfig:create lts:structConfig:get
        来自:
        帮助文档
        函数工作流
        产品简介
        权限管理
      • 执行流程
        执行流程概述在创建流程后,您可以通过多种方式触发、执行流程,并在执行后查看执行结果 流程支持以下触发方式:手动触发:在云工作流控制台直接启动流程。定时触发:设置定时任务,按照指定的时间周期自动执行流程 执行流程 概述 在创建流程后,您可以通过多种方式触发、执行流程,并在执行后查看执行结果 流程支持以下触发方式: 手动触发:在云工作流控制台直接启动流程。 定时触发:设置定时任务,按照指定的时间周期自动执行流程。 队列消息触发:通过将消息发送至消息队列来触发工作流流程。 事件触发:通过监听其他天翼云服务(如对象存储、云日志等)的事件来触发工作流流程。 HTTP触发:通过调用云工作流的API接口来启动流程。 本文将以云工作流控制台为例,演示如何执行流程并查看结果。 操作步骤 1. 登录云工作流控制台,然后在顶部菜单栏选择 地域(可选)。 2. 在左侧导航栏,选择 工作流列表 ,然后在 工作流列表页面,单击目标工作流。 3. 在工作流详情页面的 执行记录页 签,单击 启动执行 。在执行工作流面板,填写 执行名称 (可选)和 执行输入 (可选),然后单击 确定。 1. 注意事项: 若填写执行输入,需为合法 JSON 对象格式。 1. 执行完成后,您可在执行历史详情页中查看每个节点的执行结果、输入、输出、执行时间等详细信息,以确认流程按预期完成。 执行结果的详细介绍请参见工作流执行管理。
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        快速入门
        执行流程
      • 配置必须的监控告警
        介绍Kafka配置必须的监控告警 告警指标 在实际业务中,建议按照以下告警策略,配置监控指标的告警规则。 指标ID 指标名称 告警策略 指标说明 告警处理建议 brokerbytesin 节点流量告警 告警阈值:原始值>50MB/s 持续时间:可自定义 告警级别:重要 该指标为从Kafka节点虚拟机层面采集的数据写入流量。 出现该告警时,先检查该监控是否长期处于接近或超过告警阈值状态,如果是,需要修改实例代理个数,即扩节点。具体操作请参考扩容。 brokermessagein 节点tps告警 告警阈值:原始值>10000 持续时间:可自定义 告警级别:重要 该指标为从Kafka节点虚拟机层面采集的tps。 出现该告警时,先检查该监控是否长期处于接近或超过告警阈值状态,如果是,需要修改实例代理个数,即扩节点。具体操作请参考扩容。 topicbytesin 主题流量告警 告警阈值:原始值>50MB/s 持续时间:可自定义 告警级别:重要 该指标为从topic机层面采集的数据写入流量。 出现该告警时,先检查该监控是否长期处于接近或超过告警阈值状态,如果是,需要修改实例代理个数,即扩节点。具体操作请参考扩容。 topicmessagein 主题tps告警 告警阈值:原始值>10000 持续时间:可自定义 告警级别:重要 该指标为从topic机层面采集的tps。 出现该告警时,先检查该监控是否长期处于接近或超过告警阈值状态,如果是,需要修改实例代理个数,即扩节点。具体操作请参考扩容。 grouptotallag 消费组堆积数告警 告警阈值:原始值>10000 持续时间:可自定义 告警级别:重要 该指标为统计的消费组未消费的消息堆积量 出现该告警时,请先检测消费者客户端消费速度是否过慢,检查消费者客户端是否有扩充的可能(消费者客户端数量和对应tpic的分区数相等)
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        配置必须的监控告警
      • 概览
        本文将为您介绍Web应用防火墙(边缘云版)的概览页。 网站接入边缘云WAF防护并新增域名成功后,系统将会自动为您捕获网站的业务数据及受攻击数据,您可以通过概览页面查询近24小时带宽峰值、请求数量、QPS、域名数量以及各种攻击行为的检测数据,帮助您了解网站当前的整体情况。 若您想知道更详细的网站安全相关报表,可见安全分析报表。 若您想知道更详细的网站业务相关报表,可见站点分析报表。 前提条件 网站已经成功接入边缘云WAF防护,您可以通过【域名列表】是否含有已启用域名来确认。具体操作请见WAF接入。 操作步骤 1. 登录Web应用防火墙(边缘云版)控制台,进入左侧导航栏【概览页面】。 2. 将自动为您查询近24小时的数据。 3. 概览页主要提供三个部分的数据查看:消息中心、业务统计数据、安全防护数据。 查询消息中心 概览页面顶部具备消息通知栏,支持查看威胁消息、域名配置信息以及系统消息。 威胁消息。展示互联网已经公布和尚未披露的0 day漏洞信息,您可以查看漏洞对网站是否有影响,如果受到漏洞的影响,可以联系天翼云安全专家沟通具体的解决方案,联系方式见服务保障。 域名消息。在此模块展示域名配置的相关消息,域名新增/停用或者配置下发后,可以在此查看域名的配置情况,配置成功将会形成新消息。 系统消息。即系统公告,展示更新说明、版本发布、边缘云WAF功能相关动态等信息。
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        安全运营
        概览
      • 购买类
        MRS 2.1.0版本的集群对Storm日志的大小有什么限制? MRS 2.1.0版本的集群对Storm日志有不超过20G的限制,超出后会循环删除。 因为日志是保存在系统盘上,有空间限制。若如需长期保存,则需要将日志挂载出来。 Kafka支持的访问协议类型有哪些? Kafka支持四种协议类型的访问,分别为:PLAINTEXT、SSL、SASLPLAINTEXT、SASLSSL。 zstd的压缩比有什么优势? zstd的压缩比orc好一倍,是开源的。 具体请参见 CarbonData不支持lzo,MRS里面有集成zstd。 MRS 3.1.0版本的集群,Spark任务支持哪些python版本? MRS 3.1.0版本的集群,Spark任务建议使用python2.7或3.x版本。 如何让不同的业务程序分别用不同的Yarn队列? 在Manager页面上创建一个新的租户,然后将不同的集群业务用户绑定至不同的租户。 操作步骤 1.登录FusionInsight Manager,单击“租户资源”。 2.在左侧租户列表,选择父租户节点然后单击,打开添加子租户的配置页面,参见下表为子租户配置属性。 子租户参数一览 参数名 描述 集群 显示上级父租户所在集群。 父租户资源 显示上级父租户的名称。 名称 指定当前租户的名称,长度为3~50个字符,可包含数字、字母或下划线()。 根据业务需求规划子租户的名称,不得与当前集群中已有的角色、HDFS目录或者Yarn队列重名。 租户类型 指定租户是否是一个叶子租户: 选择“叶子租户”:当前租户为叶子租户,不支持添加子租户。 选择“非叶子租户”:当前租户为非叶子租户,支持添加子租户,但租户层级不能超过5层。 计算资源 为当前租户选择动态计算资源。 选择“Yarn”时,系统自动在Yarn中以子租户名称创建任务队列。 − 如果是叶子租户,叶子租户可直接提交到任务队列中。 − 如果是非叶子租户,非叶子租户不能直接将任务提交到队列中。但是,Yarn会额外为非叶子租户增加一个任务队列(隐含),队列默认命名为“default”,用于统计当前租户剩余的资源容量,实际任务不会分配在此队列中运行。 不选择“Yarn”时,系统不会自动创建任务队列。 默认资源池容量 (%) 配置当前租户使用的计算资源百分比,基数为父租户的资源总量。 默认资源池最大容量(%) 配置当前租户使用的最大计算资源百分比,基数为父租户的资源总量。 存储资源 为当前租户选择存储资源。 选择“HDFS”时,系统将自动在HDFS父租户目录中,以子租户名称创建文件夹。 不选择“HDFS”时,系统不会分配存储资源。 文件目录数上限 配置文件和目录数量配额。 存储空间配额 配置当前租户使用的HDFS存储空间配额。 当存储空间配额单位设置为MB时,范围为1~8796093022208,当“存储空间配额单位”设置为GB时,范围为1~8589934592。 此参数值表示租户可使用的HDFS存储空间上限,不代表一定使用了这么多空间。 如果参数值大于HDFS物理磁盘大小,实际最多使用全部的HDFS物理磁盘空间。 如果此配额大于父租户的配额,实际存储量不超过父租户配额。 存储路径 配置租户在HDFS中的存储目录。 系统默认将自动在父租户目录中以子租户名称创建文件夹。例如子租户“ta1s”,父目录为“/tenant/ta1”,系统默认自动配置此参数值为“/tenant/ta1/ta1s”,最终子租户的存储目录为“/tenant/ta1/ta1s”。 支持在父目录中自定义存储路径。 描述 配置当前租户的描述信息。 说明 创建租户时将自动创建租户对应的角色、计算资源和存储资源。 l 新角色包含计算资源和存储资源的权限。此角色及其权限由系统自动控制,不支持通过“系统 > 权限> 角色”进行手动管理,角色名称为“租户名称集群ID”。首个集群的集群ID默认不显示。 l 使用此租户时,请创建一个系统用户,并绑定租户对应的角色。具体操作请参见 l 子租户可以将当前租户的资源进一步分配。每一级别父租户下,直接子租户的资源百分比之和不能超过100%。所有一级租户的计算资源百分比之和也不能超过100%。 3.当前租户是否需要关联使用其他服务的资源? 是,执行步骤4。 否,执行步骤5。 4.单击“关联服务”,配置当前租户关联使用的其他服务资源。 a.在“服务”选择“HBase”。 b.在“关联类型”选择: −“独占”表示该租户独占服务资源,其他租户不能再关联此服务。 −“共享”表示共享服务资源,可与其他租户共享使用此服务资源。 说明 l 创建租户时,租户可以关联的服务资源只有HBase。为已有的租户关联服务时,可以关联的服务资源包含:HDFS、HBase和Yarn。 l 若为已有的租户关联服务资源:在租户列表单击目标租户,切换到“服务关联”页签,单击“关联服务”单独配置当前租户关联资源。 l 若为已有的租户取消关联服务资源:在租户列表单击目标的租户,切换到“服务关联”页签,单击“删除”,并勾选“我已阅读此信息并了解其影响。”,再单击“确定”删除与服务资源的关联。 c.单击“确定”。 d.单击“确定”,等待界面提示租户创建成功。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        购买类
      • 开启实例插件
        操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择RabbitMQ实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”>“分布式消息服务”>“RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤 4 单击待开启插件的实例名称,进入实例详情页面。 步骤 5 在“插件管理”页签,单击待开启插件后的“开启”。 确认开启后,等待实例插件开启成功。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        插件管理
        开启实例插件
      • 1
      • ...
      • 14
      • 15
      • 16
      • 17
      • 18
      • ...
      • 243
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      AI Store

      应用托管

      科研助手

      推荐文档

      Push方式的调用说明

      添加伸缩策略

      文档下载

      天翼云最佳实践④:网络流量实时查看工具ifstat

      加入会议

      入门教程④:Windows Service 2008系统扩容卷功

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号