活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      消息队列RabbitMQ版_相关内容
      • 鲲鹏系列
        规格名称 vCPU 内存(GB) 最大带宽/基准带宽(Gbps) 最大收发包能力(万PPS) 网卡多队列数 km1.large.8 2 16 3/0.8 30 1 km1.xlarge.8 4 32 7/3 80 2 km1.2xlarge.8 8 64 12/6 140 4 km1.4xlarge.8 16 128 15/8 200 8 km1.8xlarge.8 32 256 30/20 400 16
        来自:
        帮助文档
        弹性云主机 ECS
        产品概述
        产品规格
        国产云主机
        鲲鹏系列
      • 鲲鹏系列
        规格名称 vCPU 内存(GB) 最大带宽/基准带宽(Gbps) 最大收发包能力(万PPS) 网卡多队列数 km1.large.8 2 16 3/0.8 30 1 km1.xlarge.8 4 32 7/3 80 2 km1.2xlarge.8 8 64 12/6 140 4 km1.4xlarge.8 16 128 15/8 200 8 km1.8xlarge.8 32 256 30/20 400 16
        来自:
        帮助文档
        专属云(计算独享型)
        产品简介
        产品规格
        国产化系列
        鲲鹏系列
      • 桌面看板
        此小节介绍桌面看板。 系统桌面看板分为统计控制板、活动用户、待审批工单、主机类型统计、应用类型统计、当前活动会话、今日新增会话、登录次数统计、运维次数统计、运维用户Top5、运维资源Top5、系统状态、系统信息、最近登录主机、最近登录应用、可登录主机、可登录应用等共17个信息模块,呈现云堡垒机系统状态、用户活动统计、主机/应用运维统计等信息。 不同用户角色拥有不同模块查看权限,本小节以系统管理员admin为例,介绍系统桌面看板的含义。 操作步骤 1. 登录云堡垒机系统。 2. 在左侧导航树中,选择“桌面”,进入系统桌面看板页面。 统计控制板 呈现当前用户可管理用户、主机、应用、应用服务器的统计数据,以及未处理告警消息的数量。 统计控制板 用户角色需分别获取“用户管理”、“主机管理”、“应用发布”、“应用服务器”模块管理权限,以及开启角色管理权限,即可查看系统控制板统计信息。当角色权限只有其中一个时,默认不显示统计控制板。 用户:呈现当前用户可管理用户数。单击用户模块,跳转到用户列表页面,可管理当前用户列表。 主机:呈现当前用户可管理主机资源数。单击主机模块,跳转到主机列表页面,可管理当前主机资源列表。 应用:呈现当前用户可管理应用发布资源数。单击应用模块,跳转到应用列表页面,可管理当前应用资源列表。 应用服务器:呈现当前用户可管理应用服务器数。单击应用服务器模块,跳转到应用服务器列表页面,可管理当前应用服务器列表。 告警:呈现当前用户未处理告警消息数。单击告警模块,跳转到消息中心页面,可管理当前消息列表。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        系统桌面
        桌面看板
      • 运行Kafka作业
        本章节主要介绍如何运行Kafka作业。 用户可将自己开发的程序提交到MRS中,执行程序并获取结果。本章节教您在Kafka主题中产生和消费消息。 暂不支持通过界面提交Kafka作业,请通过后台功能来提交作业。 通过后台提交作业 先查询ZooKeeper和Kafka的实例地址,再运行Kafka作业。 查询实例地址(3.x版本) 1.登录MRS管理控制台。 2.选择“集群列表 > 现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 3.请参考访问FusionInsight Manager(MRS 3.x及之后版本),跳转至FusionInsight Manager页面。然后选择“服务 > ZooKeeper > 实例”,查看ZooKeeper角色实例的IP地址。记录ZooKeeper角色实例中任意一个的IP地址即可。 4.选择“服务 > Kafka > 实例”,查看Kafka角色实例的IP地址。记录Kafka角色实例中任意一个的IP地址即可。 查询实例地址(3.x之前版本) a. 登录MRS管理控制台。 b. 选择“集群列表 > 现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 c. 在MRS集群详情页面,选择“组件管理 > ZooKeeper > 实例”,查看ZooKeeper角色实例的IP地址。记录ZooKeeper角色实例中任意一个的IP地址即可。 d. 选择“组件管理 > Kafka > 实例”,查看Kafka角色实例的IP地址。记录Kafka角色实例中任意一个的IP地址即可。 运行Kafka作业 MRS 3.x及之后版本客户端默认安装路径为“/opt/Bigdata/client”,MRS 3.x之前版本为“/opt/client”。具体以实际为准。 1.在集群信息页面的“节点管理”页签中单击Master2节点名称,进入弹性云主机管理控制台。 2.单击页面右上角的“远程登录”。 3.根据界面提示,输入Master节点的用户名和密码,用户名、密码分别为root和创建集群时设置的密码。 4.执行如下命令初始化环境变量。 source /opt/Bigdata/client/bigdataenv 5.如果当前集群已开启Kerberos认证,执行以下命令认证当前用户。如果当前集群未开启Kerberos认证,则无需执行该步骤。 kinit MRS集群用户 例如, kinit admin 6.执行如下命令,创建kafka topic。 kafkatopics.sh create zookeeper ZooKeeper角色实例IP:2181/kafkapartitions 2 replicationfactor 2 topic 7.在topic test中产生消息。 首先执行命令kafkaconsoleproducer.sh brokerlist Kafka角色实例IP:9092 topic producer.config /opt/Bigdata/client/Kafka/kafka/config/producer.properties 。 然后输入指定的内容作为生产者产生的消息,输入完成后按回车发送消息。如果需要结束产生消息,使用“Ctrl + C”退出任务。 8.消费topic test中的消息。 kafkaconsoleconsumer.sh topic bootstrapserver Kafka角色实例IP:9092 consumer.config/opt/Bigdata/client/Kafka/kafka/config/consumer.properties 说明 如果集群开启Kerberos认证,则执行如上两个命令时请修改端口号9092为21007,详见
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        运行Kafka作业
      • 日志、告警外发设置
        本节指导用户通过Kafka将日志、告警外发至第三方。 日志外发功能为公测功能,新购用户可以限时免费体验。 为日志类型添加转发目标 1. 登录云安全中心控制台。 2. 在左侧导航栏,选择“设置 > 集成配置”,进入集成配置页面。 3. 选择日志类型,点击“转发配置”列的【+】按钮,弹出“新增转发配置”窗口。 4. 选择“转发目标”,单击“保存”,自动返回集成配置页面。此时转发配置 开关为“关闭”,投递状态为“未开启”。 5. 单击“转发配置”开关,打开“转发配置”。 配置转发目标 1. 在新增转发配置页面,单击“转发目标配置”进入转发目标配置页面,单击“新增”,进入“转发目标编辑”页面。 2. 输入相关信息,单击“检测”。 说明 “加密类型”选择“不加密”时,会自动在目标Kafka创建相应的“队列名(topic)”。 “加密类型”选择“SASL加密”时,需要先手动在目标Kafka创建相应的“队列名(topic)”。 3. 检测通过后,单击“保存”。 保存成功,返回转发目标配置页面,可以看到已新增的转发目标。
        来自:
        帮助文档
        云安全中心
        快速入门
        日志、告警外发设置
      • 工作空间概述
        本节将介绍工作空间的定义、类型和基本操作等内容。 什么是工作空间? 工作空间(Workspace)属于态势感知(专业版)顶层工作台。 空间管理: 单个工作空间可绑定普通项目,可支撑不同场景下的工作空间运营模式。 空间托管: 工作空间数据委托:单租所有工作空间按照租户实际运营汇聚到某一个工作空间做集中安全运营,跨租汇聚安全运营。 工作空间委托:跨账号安全运营,可实现工作空间委托集中安全运营查看统一资产风险、告警和事件等。 什么是数据空间? 数据空间是进行数据分组、负载、流控单元。同一数据空间的数据共享同一载均衡策略。 什么是数据管道? 数据传输消息主题和存储索引组合为数据管道。 工作空间通用规则 单账号单Region内最多创建5个工作空间。 一个工作空间中最多可创建5个数据空间。 一个数据空间中最多可创建20个数据管道。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        工作空间
        工作空间概述
      • 经典版
        主备实例 实例名称 包月(元/月) 按量(元/小时) 2G 主备版 135.0 0.282 4G 主备版 277.6 0.58 8G 主备版 548.8 1.144 16G 主备版 1102.4 2.304 32G 主备版 2230.4 4.64 集群单机 实例名称 包月(元/月) 按量(元/小时) 16G 集群单机版 800 1.67 32G 集群单机版 1600 3.34 64G 集群单机版 3200 6.67 128G 集群单机版 6400 13.34 256G 集群单机版 12800 26.67 512G 集群单机版 25600 53.34 集群主备 实例名称 包月(元/月) 按量(元/小时) 16G 集群主备版 1500 3.13 32G 集群主备版 3000 6.25 64G 集群主备版 6500 13.54 128G 集群主备版 13000 27.08 256G 集群主备版 26100 54.38 512G 集群主备版 52400 109.17 1024G 集群主备版 105100 218.96
        来自:
        帮助文档
        分布式缓存服务Redis版
        计费说明
        产品资费
        经典版
      • 服务条款
        产品服务协议请查看: 天翼云分布式消息服务协议
        来自:
        帮助文档
        分布式消息服务Kafka
        相关协议
        服务条款
      • 连接未开启SASL的Kafka实例
        命令行模式连接实例 以下操作命令以Linux系统为例进行说明: 步骤 1 解压Kafka命令行工具。 进入文件压缩包所在目录,然后执行以下命令解压文件。 tar zxf [kafkatar] 其中, [kafkatar] 表示命令行工具的压缩包名称。 例如: tar zxf kafka2.122.7.2.tgz 步骤 2 进入Kafka命令行工具的“/bin”目录下。 注意,Windows系统下需要进入“/bin/windows”目录下。 步骤 3 执行如下命令进行生产消息。 ./kafkaconsoleproducer.sh brokerlist {连接地址} topic {Topic名称} 参数说明如下: 连接地址:从前提条件中获取的连接地址,如果是公网访问,请使用“公网连接地址”,如果是VPC内访问,请使用“内网连接地址”,请根据实际情况选择。 Topic名称:Kafka实例下创建的Topic名称。如果Kafka实例开启了自动创建Topic功能,此参数值可以填写已创建的Topic名称,也可以填写未创建的Topic名称。 本文以公网连接为例,获取的Kafka实例公网连接地址为“10.3.196.45:9094,10.78.42.127:9094,10.4.49.103:9094”。执行完命令后输入内容,按“Enter”发送消息到Kafka实例,输入的每一行内容都将作为一条消息发送到Kafka实例。 [root@ecskafka bin] ./kafkaconsoleproducer.sh brokerlist 10.3.196.45:9094,10.78.42.127:9094,10.4.49.103:9094 topic topicdemo >Hello >DMS >Kafka! >^C[root@ecskafka bin] 如需停止生产使用Ctrl+C命令退出。 步骤 4 执行如下命令消费消息。 ./kafkaconsoleconsumer.sh bootstrapserver {连接地址} topic {Topic名称} group ${消费组名称} frombeginning 参数说明如下: 连接地址:从前提条件中获取的连接地址,如果是公网访问,请使用“公网连接地址”,如果是VPC内访问,请使用“内网连接地址”,请根据实际情况选择。 Topic名称:Kafka实例下创建的Topic名称。 消费组名称:根据您的业务需求,设定消费组名称。 如果已经在配置文件中指定了消费组名称,请确保命令行中的消费组名称与配置文件中的相同,否则可能消费失败 。 消费组名称开头包含特殊字符,例如下划线“”、
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        连接Kafka实例
        连接未开启SASL的Kafka实例
      • 【降价】分布式消息服务Kafka产品资费价格下调
        为了让更多客户享受到分布式消息Kafka产品服务,我们致力于为客户提供更具竞争力的价格,并持续提升服务质量。 分布式消息服务KafkaⅡ类资源池从7月15日开始启用新资费计价,老资费计算增强型同规格对比新费用降幅达19%27%,更多资费信息请参见产品资费。 规格名称 计费单位 实例包月标准价格 降幅 规格名称 计费单位 20240715前价格 新价格 降幅 kafka.4u8g.cluster 元/代理 1726 1260 27% kafka.8u16g.cluster 元/代理 3122 2430 22% kafka.16u32g.cluster 元/代理 5555 4500 19% 注意 通用型规格已经调整为白名单特性,如需了解相关资费请联系技术支持。 本次降价适用于Ⅱ类资源池。
        来自:
        帮助文档
        分布式消息服务Kafka
        服务公告
        2024年
        【降价】分布式消息服务Kafka产品资费价格下调
      • 产品与使用
        IKEv1和IKEv2的区别 协商过程不同。 IKEv1协商安全联盟主要分为两个阶段,其协议相对复杂、带宽占用较多。IKEv1阶段1的目的是建立IKE SA,它支持两种协商模式:主模式和野蛮模式。主模式用6条ISAKMP消息完成协商。野蛮模式用3条ISAKMP消息完成协商。野蛮模式的优点是建立IKE SA的速度较快。但是由于野蛮模式密钥交换与身份认证一起进行无法提供身份保护。IKEv1阶段2的目的就是建立用来传输数据的IPsec SA,通过快速交换模式(3条ISAKMP消息)完成协商。 IKEv2简化了安全联盟的协商过程。IKEv2正常情况使用2次交换共4条消息就可以完成一个IKE SA和一对IPsec SA,如果要求建立的IPsec SA大于一对时,每一对SA只需额外增加1次交换,也就是2条消息就可以完成。 说明 IKEv1协商,主模式需要6+3,共9个报文;野蛮模式需要3+3,共6个报文。IKEv2协商,只需要2+2,共4个报文。 认证方法不同。 数字信封认证(hssde)仅IKEv1支持(需要安装加密卡),IKEv2不支持。 IKEv2支持EAP身份认证。IKEv2可以借助AAA服务器对远程接入的PC、手机等进行身份认证、分配私网IP地址。IKEv1无法提供此功能,必须借助L2TP来分配私网地址。 IKE SA的完整性算法支持情况不同。IKE SA的完整性算法仅IKEv2支持,IKEv1不支持。 DPD中超时重传实现不同。 retryinterval参数仅IKEv1支持。表示发送DPD报文后,如果超过此时间间隔未收到正确的应答报文,DPD记录失败事件1次。当失败事件达到5次时,删除IKE SA和相应的IPsec SA。直到隧道中有流量时,两端重新协商建立IKE SA。 对于IKEv2方式的IPsec SA,超时重传时间间隔从1到64以指数增长的方式增加。在8次尝试后还未收到对端发过来的报文,则认为对端已经下线,删除IKE SA和相应的IPsec SA。 IKE SA与IPsec SA超时时间手工调整功能支持不同。 IKEv2的IKE SA软超时为硬超时的9/10±一个随机数,所以IKEv2一般不存在两端同时发起重协商的情况,故IKEv2不需要配置软超时时间。
        来自:
        帮助文档
        VPN连接
        常见问题
        企业版VPN
        产品与使用
      • 消息广播
        Kafka 自身没有消息广播的语义,可以通过创建不同的 Consumer Group 来模拟实现。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        消费者实践
        消息广播
      • 脱密审批
        本节介绍在翼加密客户端的脱密审批流程 有脱密申请审批权限的用户,客户端首页会有脱密审批入口。并且,当审批人接收到新的脱密申请时,右下角消息中心将会弹出提示。审批人点击消息可以快速打开脱密审批详情页进行审批处理。 审批人打开打开审批详情页,可下载查看申请脱密的文件,进行脱密审批。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        翼加密
        客户端使用指南
        脱密审批
      • 计费项
        本页为您介绍WPS云文档天翼云版的计费项 WPS云文档天翼云版 标准版365/元/人/年 WPS云文档天翼云版 高级版599/元/人/年 WPS云文档天翼云版 基础版168/元/人/年 WPS云文档天翼云版 WPS会员89/元/人/年 WPS云文档天翼云版 稻壳会员 89/元/人/年 WPS云文档天翼云版 超级会员179/元/人/年 WPS云文档天翼云版 咨询服务8100元/人/天
        来自:
        帮助文档
        WPS云文档天翼云版
        计费说明
        计费项
      • 服务条款
        产品服务协议请查看: 天翼云分布式消息服务协议
        来自:
        帮助文档
        分布式消息服务RocketMQ
        相关协议
        服务条款
      • 与其他服务的关系
        服务名称 与其他服务的关系 主要交互功能 云审计服务 开通云审计服务后,云审计服务会记录AntiDDoS相关的操作事件,方便用户日后的查询、审计和回溯。 消息通知服务 消息通知服务(Simple Message Notification,简称SMN)提供消息通知功能。AntiDDoS开启告警通知后,如果IP地址受到DDoS攻击时用户会收到短信或邮件的提醒信息。 云日志服务 将攻击日志记录到云日志服务(Log Tank Service,简称LTS)中,通过LTS记录AntiDDoS日志,可以高效地进行实时决策分析、设备运维管理以及业务趋势分析。 云监控服务 云监控服务可以监控AntiDDoS相关的指标,用户可以通过指标及时了解防护状况,并通过这些指标设置防护策略。 统一身份认证服务 统一身份认证服务(Identity and Access Management,简称IAM)为AntiDDoS提供权限管理的功能,拥有对应权限的用户才能使用AntiDDoS服务。
        来自:
        帮助文档
        Anti-DDoS流量清洗
        产品介绍
        与其他服务的关系
      • 删除消费组
        本章节介绍了如何删除分布式消息服务RocketMQ实例的消费组。 操作场景 消费组无需继续使用,需要清理时,参考本章节删除消费组。 操作步骤 1. 登录分布式消息服务RocketMQ控制台。 2. 单击RocketMQ实例的名称,进入实例详情页面。 3. 在左侧导航栏,单击“消费组管理”,进入“消费组管理”页面。 图1 删除消费组 4. 选择以下任意一种方法删除消费组。 在待删除的消费组所在行,单击“删除”。 单击待删除的消费组名称,进入消费组详情页面。在页面右上角,单击“删除”。 如需批量删除消费组,勾选待删除的消费组,单击“删除消费组”。 5. 单击“是”,确认删除消费组。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        消费组管理
        删除消费组
      • 规格清单(鲲鹏)
        鲲鹏内存优化型规格清单 表 km1s型弹性云主机的规格 规格名称 vCPU 内存(GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力(万PPS) 网卡多队列数 网卡个数上限 虚拟化类型 km1s.large.8 2 16 2/0.4 30 2 2 KVM km1s.xlarge.8 4 32 3/0.8 50 2 3 KVM km1s.2xlarge.8 8 64 4/1.5 80 4 4 KVM km1s.3xlarge.8 12 96 5/2 110 4 5 KVM km1s.4xlarge.8 16 128 7/3 140 4 6 KVM km1s.6xlarge.8 24 192 8/4 200 8 6 KVM km1s.8xlarge.8 32 256 10/5 260 8 6 KVM km1s.12xlarge.8 48 384 15/8 350 16 8 KVM km1s.15xlarge.8 60 480 18/10 400 16 8 KVM 鲲鹏超高IO型规格清单 表 ki1s型弹性云主机的规格 规格名称 vCPU 内存(GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力(万PPS) 网卡多队列数 网卡个数上限 本地盘 虚拟化类型 ki1s.2xlarge.4 8 32 4/1.5 80 4 4 13.2T KVM ki1s.4xlarge.4 16 64 7/3 140 4 6 23.2T KVM ki1s.6xlarge.4 24 96 8/4 200 8 6 33.2T KVM ki1s.8xlarge.4 32 128 10/5 260 8 6 43.2T KVM ki1s.12xlarge.4 48 192 15/8 350 16 6 63.2T KVM ki1s.16xlarge.4 64 228 18/10 400 16 6 83.2T KVM
        来自:
      • 服务等级协议
        产品服务等级协议请查看: 分布式消息服务RocketMQ服务等级协议
        来自:
        帮助文档
        分布式消息服务RocketMQ
        相关协议
        服务等级协议
      • 服务等级协议
        产品服务等级协议请查看: 分布式消息服务Kafka服务等级协议
        来自:
        帮助文档
        分布式消息服务Kafka
        相关协议
        服务等级协议
      • 进行SM2签名时,如何计算SM3摘要?
        使用SM2密钥签名时,仅支持对消息摘要签名。 根据GBT32918国家标准,计算SM2签名值时,消息摘要不是对原始消息直接计算SM3摘要,而是对Z(A)和M的拼接值计算的摘要。其中M是待签名的原始消息,Z(A)是GBT32918中定义的用户A的杂凑值。 以JAVA为例,参考如下示例代码: public class Sm2SignDataPreprocessing { private static final String ECCA "FFFFFFFEFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFF00000000FFFFFFFFFFFFFFFC"; private static final String ECCB "28E9FA9E9D9F5E344D5A9E4BCF6509A7F39789F515AB8F92DDBCBD414D940E93"; private static final String ECCGX "32C4AE2C1F1981195F9904466A39C9948FE30BBFF2660BE1715A4589334C74C7"; private static final String ECCGY "BC3736A2F4F6779C59BDCEE36B692153D0A9877CC62A474002DF32E52139F0A0"; // 签名者ID,本示例使用国密标准定义的缺省值"1234567812345678" private static final String SM2ID "31323334353637383132333435363738"; public static void main(String[] args) throws Exception { // SM2公钥,BASE64编码格式,仅做示例,实际使用请替换 String sm2PubKey "MFkwEwYHKoZIzj0CAQYIKoEcz1UBgi0DQgAEsuOq/EjQeYUD9h7lIyqi3pQ6SWL7hTXjUJWmSIZAcnj" + "h9c0QcdbwzaCfI8iyyPCetX0QZl5NHrBoYLYxJpvbFg"; byte[] pubKeyBytes Base64.decodeBase64(sm2PubKey.getBytes(StandardCharsets.UTF8)); X509EncodedKeySpec keySpec new X509EncodedKeySpec(pubKeyBytes); KeyFactory keyFactory KeyFactory.getInstance("EC", new BouncyCastleProvider()); ECPublicKey ecPublicKey (ECPublicKey) keyFactory.generatePublic(keySpec); // 待签名的原始消息,仅做示例,实际使用请替换 byte[] dataToDigest new byte[]{1, 2, 3, 4}; // Z(A)是GBT32918中定义的用户A的杂凑值 byte[] zsm getSm2Z(ecPublicKey.getQ().getAffineXCoord().getEncoded(), ecPublicKey.getQ().getAffineYCoord().getEncoded()); // Z(A)和M的拼接值计算的摘要,并打印 byte[] dataToSign getSm3SignData(zsm, dataToDigest); System.out.println(Base64.encodeBase64String(dataToSign)); // 其他语言实现或执行此示例应有如下输出:He+qiM2MmtNxlV/EB4vqkcP60XgG08z/8nWQdp/IS5c } // 计算Z(A) private static byte[] getSm2Z(byte[] x, byte[] y) throws DecoderException { SM3Digest sm3 new SM3Digest(); byte[] userId Hex.decodeHex(SM2ID.toCharArray()); byte[] byteEccA Hex.decodeHex(ECCA); byte[] byteEccB Hex.decodeHex(ECCB); byte[] byteEccGx Hex.decodeHex(ECCGX); byte[] byteEccGy Hex.decodeHex(ECCGY); int len userId.length 8; sm3.update((byte) (len >> 8 & 255)); sm3.update((byte) (len & 255)); sm3.update(userId, 0, userId.length); sm3.update(byteEccA, 0, byteEccA.length); sm3.update(byteEccB, 0, byteEccB.length); sm3.update(byteEccGx, 0, byteEccGx.length); sm3.update(byteEccGy, 0, byteEccGy.length); sm3.update(x, 0, x.length); sm3.update(y, 0, y.length); byte[] md new byte[sm3.getDigestSize()]; sm3.doFinal(md, 0); return md; } // 计算Z(A)和M的拼接值的摘要 private static byte[] getSm3SignData(byte[] z, byte[] sourceData) { SM3Digest sm3 new SM3Digest(); sm3.update(z, 0, z.length); sm3.update(sourceData, 0, sourceData.length); byte[] md new byte[sm3.getDigestSize()]; sm3.doFinal(md, 0); return md; } }
        来自:
        帮助文档
        数据加密
        常见问题
        密钥管理类
        进行SM2签名时,如何计算SM3摘要?
      • 连接常见问题
        本节介绍分布式消息服务Kafka连接常见问题 接入地址出现不足三个ip+端口? 集群三台机器正常运作的情况下,接入点会出现三个ip:port连起来,当出现不足三个时候,说明其中一台机器不正常工作(没出现在接入点的机器),请尽快联系管理人员查看不正常工作的节点,尽快恢复。 实例是否支持跨VPC访问? 实例支持跨VPC访问,可以通过创建VPC对等连接,将两个VPC的网络打通,实现跨VPC访问实例。 如何通过代理访问Kafka实例 暂不支持通过代理访问Kafka实例。 原因:客户端通过bootstrap.servers随机访问服务器获取元数据,通过元数据里的IP地址进行后续的消息收发。配置代理后,第一步正常,但在第二步时,客户端仍然通过元数据中的IP地址进行访问,导致访问不通。因此,必须保证网络全连通。 生产者会建立多少个连接到Broker? 每个生产者通常会建立2个到Broker的TCP连接,一个TCP连接用于更新元数据,一个TCP连接用于发送消息。 VPC实例和公网/VPC实例的区别是什么? VPC实例:仅提供VPC接入点,只能通过VPC访问。 公网/VPC实例:提供公网接入点和VPC接入点,可以通过公网访问,也可以通过VPC访问。 Kafka实例是否支持公网访问? Kafka实例支持公网访问。使用公网访问Kafka实例的具体操作,请参考设置公网ip。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        连接问题
        连接常见问题
      • 逆向数据库(关系建模)
        参数名称 说明 所属主题 单击“选择主题”按钮选择所属的主题信息。 数据连接类型 如果逆向到逻辑模型,请在下拉列表中选择所需要的连接类型。 如果逆向到物理模型,将显示当前模型的连接类型。 数据连接 选择所需要的数据连接。 如需从其他数据源逆向数据库到关系模型中,需要先在DataArts Studio管理中心创建一个数据连接,以便连接数据源。创建数据连接的操作,请参见 数据库 选择数据库。 队列 仅限DLI连接类型,需选择DLI队列。 Schema 仅限DWS连接类型,需设置DWS模式。 更新已有表 在导入时,如果所要导入的表在关系模型中已存在,是否更新已有的表。在导入时,系统将按表编码进行判断将要导入的表在当前的关系模型中是否已存在。在导入时,只有创建或更新操作,不会删除已有的表。 不更新 :如果表已存在,将直接跳过,不更新。 更新 :如果表已存在,更新已有的表信息。如果表处于“已发布”状态,表更新后,您需要重新发布表,才能使更新后的表生效。 数据表 选择“全部”时,将数据库中的所有的表都导入关系模型中。 选择“部分”时,请选择需要导入关系模型的表。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        通用操作
        逆向数据库(关系建模)
      • 区域和格式化相关参数
        clientencoding (string) 设置客户端编码(字符集)。默认使用数据库编码。 lcmessages (string) 设置消息显示的语言。可接受的值是系统相关的。如果这个变量被设置为空字符串(默认),那么该值将以一种系统相关的方式从服务器的执行环境中继承。在一些系统上,这个区域分类并不存在。仍然可以设置这个变量,只是不会有任何效果。同样,所期望语言的翻译消息也可能不存在。在这种情况下,你将仍然继续看到英文消息。只有超级用户可以改变这个设置。因为它同时影响发送到服务器日志和客户端的消息。一个不正确的值可能会降低服务器日志的可读性。 lcmonetary (string) 设置用于格式化货币量的区域,例如用tochar函数族。可接受的值是系统相关的。如果这个变量被设置为空字符串(默认),那么该值将以一种系统相关的方式从服务器的执行环境中继承。 lcnumeric (string) 设置用于格式化数字的区域,例如用tochar函数族。可接受的值是系统相关的。如果这个变量被设置为空字符串(默认),那么该值将以一种系统相关的方式从服务器的执行环境中继承。 lctime (string) 设置用于格式化日期和时间的区域,例如用tochar函数族。可接受的值是系统相关的。如果这个变量被设置为空字符串(默认),那么该值将以一种系统相关的方式从服务器的执行环境中继承。 defaulttextsearchconfig (string) 选择被那些没有显式参数指定配置的文本搜索函数变体使用的文本搜索配置。内建默认值是pgcatalog.simple,但是如果能够标识一个匹配区域的配置,initdb将用对应于选中的lcctype区域的设置初始化配置文件。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        客户端连接默认相关参数
        区域和格式化相关参数
      • 套件卸载(1)
        本节介绍如何卸载智算套件。 注意 智算套件卸载后,AI应用、队列信息等将会删除。您可用在安装后再次创建相关资源。 操作步骤 在集群列表页点击进入指定集群; 在左侧导航栏中选择“智算套件/AI套件管理”,进入AI套件列表页; 点击“统一卸载”,在弹出的对话框中点击确认;
        来自:
      • 性能调优
        本章节主要介绍Flink作业相关问题中有关性能调优的问题。 Flink作业如何进行性能调优 概念说明及监控查看 消费组积压 消费组积压可通过topic最新数据offset减去该消费组已提交最大offset计算得出,说明的是该消费组当前待消费的数据总量。 如果Flink作业对接的是kafka专享版,则可通过云监控服务(CES)进行查看。具体可选择“云服务监控 > 分布式消息服务 > kafka专享版” ,单击“kafka实例名称 > 消费组” ,选择具体的消费组名称,查看消费组的指标信息。 反压状态 反压状态是通过周期性对taskManager线程的栈信息采样,计算被阻塞在请求输出Buffer的线程比率来确定,默认情况下,比率在0.1以下为OK,0.1到0.5为LOW,超过0.5则为HIGH。 时延 Source端会周期性地发送带当前时间戳的LatencyMarker,下游算子接收到该标记后,通过当前时间减去标记中带的时间戳的方式,计算时延指标。算子的反压状态和时延可以通过Flink UI或者作业任务列表查看,一般情况下反压和高时延成对出现: 性能分析 由于Flink的反压机制,流作业在存在性能问题的情况下,会导致数据源消费速率跟不上生产速率,从而引起Kafka消费组的积压。在这种情况下,可以通过算子的反压和时延,确定算子的性能瓶颈点。 作业最后一个算子(Sink)反压正常(绿色),前面算子反压高(红色) 该场景说明性能瓶颈点在sink,此时需要根据具体数据源具体优化,比如对于JDBC数据源,可以通过调整写出批次(connector.write.flush.maxrows)、JDBC参数重写(rewriteBatchedStatementstrue)等进行优化。 作业非倒数第二个算子反压高(红色) 该场景说明性能瓶颈点在Vertex2算子,可以通过查看该算子描述,确认该算子具体功能,以进行下一步优化。 所有算子反压都正常(绿色),但存在数据堆积 该场景说明性能瓶颈点在Source,主要是受数据读取速度影响,此时可以通过增加Kafka分区数并增加source并发解决。 作业一个算子反压高(红色),而其后续的多个并行算子都不存在反压(绿色) 该场景说明性能瓶颈在Vertex2或者Vertex3,为了进一步确定具体瓶颈点算子,可以在FlinkUI页面开启inPoolUsage监控。如果某个算子并发对应的inPoolUsage长时间为100%,则该算子大概率为性能瓶颈点,需分析该算子以进行下一步优化。 inPoolUsage监控
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        Flink作业相关问题
        性能调优
      • 计算加速型P3v
        规格名称 vCPU 内存(GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力(万PPS) 网卡多队列数 网卡个数个数上限 GPU GPU连接技术 显存(GiB) 虚拟化类型 p3v.3xlarge.8 12 96 17/5 200 4 4 1 × NVIDIA A800 80GB N/A 80 KVM p3v.24xlarge.8 96 768 40/36 850 32 8 8 × NVIDIA A800 80GB NVLink 640 KVM
        来自:
        帮助文档
        弹性云主机 ECS
        产品介绍
        实例规格(X86)
        GPU加速型
        计算加速型P3v
      • DMS助手
        本文介绍DMS助手功能,包括智能问答和对话管理。 功能介绍 DMS助手是一款专为数据库领域定制的智能问答机器人,旨在提供即时、精准的技术支持。它不仅内置了MySQL、PostgreSQL等主流数据库的知识库,还集成了DMS文档资源,能够高效响应您在使用数据库及DMS时可能遇到的各类问题: 数据库知识解答:对于数据库中的基础知识或专业术语,DMS助手能够提供全面而详尽的解释。例如,您可以提问:“数据库事务是什么?” 数据库参数说明:当您想要了解数据库中某项参数的具体详情时,DMS助手可以为您提供相关信息。例如,您可以提问:“MySQL中optimizersearchdepth默认值是什么?” 数据库操作指导:在您进行数据库操作遇到问题或需要指导时,DMS助手可以为您提供相关帮助和建议。例如,您可以提问:“我想创建一张student表,sql怎么写?” DMS使用帮助:当您想要了解DMS的特定功能或概念,或在使用DMS过程中遇到困难时,DMS助手可以为您提供解释和指导。例如,您可以提问:“DMS中的团队是什么意思?” 为了便于您核实答案的准确性,DMS助手在提供解答的同时,会附带官方文档的参考链接。这不仅方便您进行信息核实,也有助于您对相关主题进行更深入的学习和探索。 前提条件 用户已登录数据管理服务。 注意事项 请避免过于频繁发送消息,系统对消息的发送频率有限制。 每个对话允许的消息数量最多为100条。一旦达到上限,您将无法在当前对话中继续发送消息。如需继续提问,请新建一个对话。 您可以保留的历史对话数量上限为500条。如果达到这个限制,您将无法创建新的对话。在这种情况下,请考虑删除一些不再需要的旧对话,以释放空间供新的对话使用。
        来自:
        帮助文档
        数据管理服务
        用户指南
        AI智能
        DMS助手
      • 权限管理
        操作 VPN Administrator VPN FullAccess VPN ReadOnlyAccess 创建VPN网关 √ 企业版VPN:√ 经典版VPN:× × 查询VPN网关 √ √ √ 修改VPN网关 √ 企业版VPN:√ 经典版VPN:× × 删除VPN网关 √ 企业版VPN:√ 经典版VPN:× × 创建VPN连接 √ 企业版VPN:× 经典版VPN:√ × 查询VPN连接 √ √ √ 修改VPN连接 √ 企业版VPN:× 经典版VPN:√ × 删除VPN连接 √ 企业版VPN:× 经典版VPN:√ × 创建对端网关 √ 企业版VPN:√ 经典版VPN:不涉及 × 查询对端网关 √ 企业版VPN:√ 经典版VPN:不涉及 √ 修改对端网关 √ 企业版VPN:√ 经典版VPN:不涉及 × 删除对端网关 √ 企业版VPN:√ 经典版VPN:不涉及 ×
        来自:
        帮助文档
        VPN连接
        产品简介
        权限管理
      • 数据库产品类型
        产品类型 GaussDB基础版 GaussDB企业版 支持的实例类型 集中式版 分布式版(上线中) 集中式版 分布式版 支持的部署形态 集中式版 1主2备 分布式版(混合部署,上线中) 集中式版 1主2备 分布式版(独立部署) 支持的性能规格 支持的规格类型: 独享型(1:4) 独享型(1:8) 鲲鹏独享型(1:4) 支持的规格类型: 独享型(1:8) 高级特性 支持高级压缩 支持高级压缩、动态脱敏、防篡改 性能对比 (以企业版为基准) 集中式版:与企业版性能持平 分布式版混合部署:同规格情况下,基础版分布式混合部署性能约为企业版分布式独立部署的50% 价格对比 (以企业版为基准) 同规格情况下,基础版集中式的价格约为企业版集中式价格的30% 同规格情况下,基础版分布式混合部署的价格约为企业版分布式独立部署价格的7.5%
        来自:
        帮助文档
        云数据库GaussDB
        产品简介
        实例说明
        数据库产品类型
      • 实例常见问题
        本节介绍分布式消息服务Kafka实例常见问题 为什么可用区不能选择2个? Kafka 通常选择三个可用区而不是两个的原因在于数据的容错性和高可用性。通过将副本分布在三个可用区中,Kafka 能够实现更高级别的容错性和可用性,即使一个可用区发生故障,系统仍然可以继续正常运行。这种三个可用区的配置是为了提供更强大的冗余和容错能力,确保 Kafka 集群在面对故障时仍能保持数据的可靠性和可用性。 创建实例时为什么无法查看子网和安全组等信息? 创建实例时,如果无法查看虚拟私有云、子网、安全组、弹性IP,可能原因是该用户还没创建相关网络实例,需要到对应天翼云网络产品购买相应的网络产品实例。 如何选择实例硬盘大小? 磁盘大小:流量均值×存储时长×3(备份),建议在迁移上云过程中优化Topic以降低成本。 Kafka实例的超高IO和高IO如何选择? 选择Kafka磁盘类型主要取决于应用的需求和预算。通常,对于Kafka来说,高IO磁盘是更常见的选择,因为它提供了更好的性能和吞吐量。更多信息请参考计费及购买类问题Kafka磁盘选择超高IO还是高IO? Kafka服务端支持版本是多少? 分布式消息服务Kafka支持2.132.8.2版本和2.133.6.2版本服务端。 Kafka实例是否支持修改访问端口? 分布式消息服务Kafka支持在实例创建时指定访问端口。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        实例问题
        实例常见问题
      • 数据库引擎和版本
        数据库引擎 单机实例 主备实例 集群版实例 MySQL引擎 8.0 5.7 5.6 8.0 5.7 5.6 暂不支持 PostgreSQL引擎 15 14 13 12 11 10 9.6 9.5 15 14 13 12 11 10 9.6 9.5 暂不支持 Microsoft SQL Server引擎 2019 标准版 2019 web版 2017 标准版 2017 web版 2016 企业版 2016 标准版 2016 web版 2014 企业版 2014 标准版 2014 web版 2012 企业版 2012 标准版 2012 web版 2019 标准版 2017 标准版 2016 企业版 2016 标准版 2014 企业版 2014 标准版 2012 企业版 2012 标准版 2019 企业版 2017 企业版
        来自:
        帮助文档
        关系数据库PostgreSQL版
        产品介绍
        实例说明
        数据库引擎和版本
      • 1
      • ...
      • 30
      • 31
      • 32
      • 33
      • 34
      • ...
      • 238
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务 MDR

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      训推服务

      AI Store

      公共算力服务

      推荐文档

      代金券使用后是否可以退换?

      MySQL

      加入会议

      创建消费组

      操作手册

      分析指标历史数据并导出监控报告

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号