云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      微消息队列MQTT版_相关内容
      • 应用场景
        本章介绍分布式缓存服务Redis版的典型应用场景。 Redis应用场景 很多大型电商网站、视频直播和游戏应用等,存在 大规模数据访问 ,对 数据查询效率要求高 ,且 数据结构简单 , 不涉及太多关联查询 。这种场景使用Redis,在速度上对传统磁盘数据库有很大优势,能够有效减少数据库磁盘IO,提高数据查询效率,减轻管理维护工作量,降低数据库存储成本。Redis对传统磁盘数据库是一个重要的补充,成为了互联网应用,尤其是支持高并发访问的互联网应用必不可少的基础服务之一。 以下举几个典型样例: 1. (电商网站)秒杀抢购 电商网站的商品类目、推荐系统以及秒杀抢购活动,适宜使用Redis缓存数据库。 例如秒杀抢购活动,并发高,对于传统关系型数据库来说访问压力大,需要较高的硬件配置(如磁盘IO)支撑。Redis数据库,单节点QPS支撑能达到10万,轻松应对秒杀并发。实现秒杀和数据加锁的命令简单,使用SET、GET、DEL、RPUSH等命令即可。 2. (视频直播)消息弹幕 直播间的在线用户列表,礼物排行榜,弹幕消息等信息,都适合使用Redis中的SortedSet结构进行存储。 例如弹幕消息,可使用ZREVRANGEBYSCORE排序返回,在Redis5.0中,新增了zpopmax,zpopmin命令,更加方便消息处理。 3. (游戏应用)游戏排行榜 在线游戏一般涉及排行榜实时展现,比如列出当前得分最高的10个用户。使用Redis的有序集合存储用户排行榜非常合适,有序集合使用非常简单,提供多达20个操作集合的命令。 4. (社交APP)返回最新评论/回复 在web类应用中,常有“最新评论”之类的查询,如果使用关系型数据库,往往涉及到按评论时间逆排序,随着评论越来越多,排序效率越来越低,且并发频繁。 使用Redis的List(链表),例如存储最新1000条评论,当请求的评论数在这个范围,就不需要访问磁盘数据库,直接从缓存中返回,减少数据库压力的同时,提升APP的响应速度。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品简介
        应用场景
      • 重置消费进度
        本文主要介绍 重置消费进度。 重置消费进度即修改消费者的消费位置。 说明 重置消费进度可能会导致重复消费,请谨慎操作。 前提条件 Kafka实例不支持在线重置消费进度,请先将待重置消费进度的消费组停止消费,然后重置消费进度。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏选择“消费组管理”,进入消费组列表页面。 步骤 6 单击待重置消费进度的消费组名称,进入消费组详情页。 步骤 7 在“消费进度”页签,通过以下方法,重置消费进度。 重置单个Topic所有分区的消费进度:在待重置消费进度的Topic后,单击“重置消费进度”。 重置单个Topic中单个分区的消费进度:在待重置消费进度的Topic分区后,单击“重置消费进度”。 步骤 8 在弹出的“重置消费进度”对话框中,参考下表,设置重置消费进度参数。 表 重置消费进度参数说明 参数 说明 重置类型 选择重置类型: 时间:重置消费进度到指定的时间。 偏移量:重置消费进度到指定的偏移量。 一键重置消费进度只支持重置消费进度到指定时间。 时间 当“重置类型”为“时间”时,需要设置此参数。 选择重置消费进度的时间点,重置完成后,将从此时间点开始消费。 最早:最早偏移量 自定义:自定义时间点 最晚:最晚偏移量 偏移量 当“重置类型”为“偏移量”时,需要设置此参数。 选择重置消费进度的偏移量,此偏移量不能小于0,重置完成后,将从此偏移量开始消费。 步骤 9 单击“确定”,弹出确认对话框。 步骤 10 单击“是”,完成消费进度的重置。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消费组管理
        重置消费进度
      • 修改Topic分区数
        本文主要介绍修改Topic分区数。 说明 修改分区数,不会影响业务。 修改Topic分区数的方法如下: 方法1:在控制台修改 方法2:在Kafka Manager上修改 方式3:在Kafka客户端上修改 方法1:在控制台修改 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 选择“Topic管理”页签,显示已创建的Topic详情。 步骤 6 通过以下任意一种方法,修改Topic分区数。 勾选Topic名称左侧的方框,可选一个或多个,单击信息栏左上侧的“编辑Topic”。 在待修改分区数的Topic所在行,单击“编辑”。 步骤 7 在“编辑Topic”对话框中,输入分区数,单击“确定”。 说明 分区数只支持增加,不支持减少。 出于性能考虑,Kafka控制台限定单个Topic的分区数上限为100。 所有Topic分区数总和不能超过实例允许的分区上限。 方法2:在Kafka Manager上修改 步骤 1 登录Kafka Manager。 步骤 2 在Kafka Manager中,单击“Topic > List”,进入Topic列表界面。 步骤 3 单击Topic名称,进入Topic详情界面。 步骤 4 单击“Add Partitions”,进入增加分区界面。 图 Topic详情界面 步骤 5 输入分区数,单击“Add Partitions”。 图 增加分区数量 显示“Done”,表示分区增加成功。 图分区增加成功 说明 分区数只支持增加,不支持减少。 所有Topic分区数总和不能超过实例允许的分区上限。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        修改Topic分区数
      • 创建并提交Spark Jar作业
        创建队列 第一次提交Spark作业,需要先创建队列,例如创建名为“sparktest”的队列,队列类型选择为“通用队列”。 1.登录DLI管理控制台。 2.在DLI管理控制台的左侧导航栏中,选择“资源管理 > 队列管理”。 3.单击“队列管理”页面右上角“创建队列”进行创建队列。 4.创建名为“sparktest”的队列,队列类型选择为“通用队列”。创建队列详细介绍请参考《数据湖探索用户指南》>《创建队列》。 5.单击“立即创建”,完成队列创建。 创建程序包 提交Spark作业之前需要创建程序包,例如“sparkexamples.jar”。 1.在管理控制台左侧,单击“数据管理”>“程序包管理”。 2.在“程序包管理”页面,单击右上角“创建”可创建程序包。 3.在“创建程序包”对话框,“包类型”选择“JAR”,“OBS路径”选择步骤2:上传数据至OBS中“sparkexamples.jar”的包路径,“分组设置”参数选择为“不分组”。 4.单击“确定”,完成创建程序包。 程序包创建成功后,您可以在“程序包管理”页面查看和选择使用对应的包。 创建程序包详细介绍请参考《数据湖探索用户指南》>《创建程序包》。 提交Spark作业 1.在DLI管理控制台,单击左侧导航栏中的“作业管理”>“Spark作业”,单击“创建作业”,进入创建Spark作业页面。 2.在Spark作业编辑页面中,“所属队列”选择步骤4:创建队列中创建的队列,“应用程序”选择步骤5:创建程序包创建的程序包。 其他参数请参考《数据湖探索用户指南》>《创建Spark作业》中关于Spark作业编辑页面的说明。 3.单击Spark作业编辑页面右上方“执行”,阅读并同意隐私协议,单击“确定”。提交作业,页面显示“作业提交成功”。 4.(可选)可到“作业管理”>“Spark作业”页面查看提交作业的状态及日志。 说明 在DLI管理控制台第一次单击“执行”操作时,需要阅读隐私协议,同意确定后,后续操作将不会再提示。
        来自:
        帮助文档
        数据湖探索
        快速入门
        创建并提交Spark Jar作业
      • 弹性资源池概述
        维度 原有队列,无弹性资源池时 弹性资源池 扩容时长 手工扩容时间长,扩容时长在分钟级别 不需要手工干预,秒级动态扩容。 资源利用率 不同队列之间资源不能共享。 例如:队列1当前还剩余10CU资源,队列2当前负载高需要扩容时,队列2不能使用队列1中的资源,只能单独对队列1进行扩容。 添加到同一个弹性资源池的多个队列,CU资源可以共享,达到资源的合理利用。 资源利用率 配置跨源时,必须为每个队列分配不重合的网段,占用大量VPC网段。 多队列通过弹性资源池统一进行网段划分,减少跨源配置的复杂度。 资源调配 多个队列同时扩容时不能设置优先级,在资源不够时,会导致部分队列扩容申请失败。 您可以根据当前业务波峰和波谷时间段,设置各队列在弹性资源池中的优先级,保证资源的合理调配。
        来自:
        帮助文档
        数据湖探索
        用户指南
        弹性资源池
        使用前必读
        弹性资源池概述
      • 其他
        参数 说明 net.core.rmemdefault 默认的 TCP 数据接收窗口大小(字节)。 net.core.rmemmax 最大的 TCP 数据接收窗口(字节)。 net.core.wmemdefault 默认的 TCP 数据发送窗口大小(字节)。 net.core.wmemmax 最大的 TCP 数据发送窗口(字节)。 net.core.netdevmaxbacklog 在每个网络接口接收数据包的速率比内核处理这些包的速率快时,允许送到队列的数据包的最大数目。 net.core.somaxconn 定义了系统中每一个端口最大的监听队列的长度,这是个全局的参数。 net.core.optmemmax 表示每个套接字所允许的最大缓冲区的大小。 net.ipv4.tcpmem 确定 TCP 栈应该如何反映内存使用,每个值的单位都是内存页(通常是 4KB)第一个值是内存使用的下限;第二个值是内存压力模式开始对缓冲区使用应用压力的上限;第三个值是内存使用的上限。在这个层次上可以将报文丢弃,从而减少对内存的使用。对于较大的 BDP 可以增大这些值(注意:其单位是内存页而不是字节)。 net.ipv4.tcprmem 为自动调优定义 socket 使用的内存。第一个值是为 socket 接收缓冲区分配的最少字节数;第二个值是默认值(该值会被 rmemdefault 覆盖),缓冲区在系统负载不重的情况下可以增长到这个值;第三个值是接收缓冲区空间的最大字节数(该值会被 rmemmax 覆盖)。 net.ipv4.tcpwmem 为自动调优定义 socket 使用的内存。第一个值是为 socket 发送缓冲区分配的最少字节数;第二个值是默认值(该值会被 wmemdefault 覆盖),缓冲区在系统负载不重的情况下可以增长到这个值;第三个值是发送缓冲区空间的最大字节数(该值会被 wmemmax 覆盖)。 net.ipv4.tcpkeepalivetime TCP 发送 keepalive 探测消息的间隔时间(秒),用于确认 TCP 连接是否有效。 net.ipv4.tcpkeepaliveintvl 探测消息未获得响应时,重发该消息的间隔时间(秒)。 net.ipv4.tcpkeepaliveprobes 在认定 TCP 连接失效之前,最多发送多少个 keepalive 探测消息。 net.ipv4.tcpsack 启用有选择的应答(1 表示启用),通过有选择地应答乱序接收到的报文来提高性能,让发送者只发送丢失的报文段,(对于广域网通信来说)这个选项应该启用,但是会增加对 CPU 的占用。 net.ipv4.tcpfack 启用转发应答,可以进行有选择应答(SACK)从而减少拥塞情况的发生,这个选项也应该启用。 net.ipv4.tcptimestamps TCP 时间戳(会在 TCP 包头增加 12 B),以一种比重发超时更精确的方法(参考 RFC 1323)来启用对 RTT 的计算,为实现更好的性能应该启用这个选项。 net.ipv4.tcpwindowscaling 启用 RFC 1323 定义的 window scaling,要支持超过 64KB 的 TCP 窗口,必须启用该值(1 表示启用),TCP 窗口最大至 1GB,TCP 连接双方都启用时才生效。 net.ipv4.tcpsyncookies 表示是否打开 TCP 同步标签(syncookie),内核必须打开了 CONFIGSYNCOOKIES 项进行编译,同步标签可以防止一个套接字在有过多试图连接到达时引起过载。默认值 0 表示关闭。 net.ipv4.tcptwreuse 表示是否允许将处于 TIMEWAIT 状态的 socket (TIMEWAIT 的端口)用于新的 TCP 连接。说明该参数在NAT(Network AddressTranslation)场景下不能配置为1,否则将导致云主机远程连接异常。 net.ipv4.tcptwrecycle 能够更快地回收 TIMEWAIT 套接字。说明该参数在NAT(Network AddressTranslation)场景下不能配置为1,否则将导致云主机远程连接异常。 net.ipv4.tcpfintimeout 对于本端断开的 socket 连接,TCP 保持在 FINWAIT2 状态的时间(秒)。对方可能会断开连接或一直不结束连接或不可预料的进程死亡。 net.ipv4.iplocalportrange 表示 TCP/UDP 协议允许使用的本地端口号。 net.ipv4.tcpmaxsynbacklog 对于还未获得对方确认的连接请求,可保存在队列中的最大数目。如果服务器经常出现过载,可以尝试增加这个数字。默认为 1024。 net.ipv4.tcplowlatency 允许 TCP/IP 栈适应在高吞吐量情况下低延时的情况,这个选项应该禁用。 net.ipv4.tcpwestwood 启用发送者端的拥塞控制算法,它可以维护对吞吐量的评估,并试图对带宽的整体利用情况进行优化,对于 WAN 通信来说应该启用这个选项。 net.ipv4.tcpbic 为快速长距离网络启用 Binary Increase Congestion,这样可以更好地利用以 GB 速度进行操作的链接,对于 WAN 通信应该启用这个选项。 net.ipv4.tcpmaxtwbuckets 该参数设置系统的 TIMEWAIT 的数量,如果超过默认值则会被立即清除。默认为 180000。 net.ipv4.tcpsynackretries 指明了处于 SYNRECV 状态时重传 SYN+ACK 包的次数。 net.ipv4.tcpabortonoverflow 设置改参数为 1 时,当系统在短时间内收到了大量的请求,而相关的应用程序未能处理时,就会发送 Reset 包直接终止这些链接。建议通过优化应用程序的效率来提高处理能力,而不是简单地 Reset。默认值: 0 net.ipv4.route.maxsize 内核所允许的最大路由数目。 net.ipv4.ipforward 接口间转发报文。 net.ipv4.ipdefaultttl 报文可以经过的最大跳数。 net.netfilter.nfconntracktcptimeoutestablished 让 iptables 对于已建立的连接,在设置时间内若没有活动,那么则清除掉。 net.netfilter.nfconntrackmax 哈希表项最大值。
        来自:
      • 配置队列
        本章节主要介绍如何配置队列。 操作场景 用户根据业务需求,可以在MRS修改指定租户的队列配置。 前提条件 已添加关联Yarn并分配了动态资源的租户。 已完成IAM用户同步(在集群详情页的“概览”页签,单击“IAM用户同步”右侧的“同步”进行IAM用户同步)。 操作步骤 1.在集群详情页,单击“租户管理”。 说明 MRS 3.x及之后版本请参考 2.单击“队列配置”页签。 3.在租户队列表格,指定租户队列的“操作”列,单击“修改”。 说明 说明 在“租户管理”页签左侧租户列表,单击目标的租户,切换到“资源”页签,单击也能打开修改队列配置页面。 一个队列只能绑定一个非default资源池。 MRS 3.x之前版本: 队列配置参数 参数名 描述 最大应用数量 表示最大应用程序数量。取值范围从“1”到“2147483647”。 AM最大资源百分比 表示集群中可用于运行application master的最大资源占比。取值范围从“0”到“1”。 用户资源最小上限百分比(%) 表示用户使用的最小资源上限百分比。取值范围从“0”到“100”。 用户资源上限因子 表示用户使用的最大资源限制因子,与当前租户在集群中实际资源百分比相乘,可计算出用户使用的最大资源百分比。最小值为“0”。 状态 表示资源计划当前的状态,“运行”为运行状态,“停止”为停止状态。 默认资源池 表示队列使用的资源池。默认为“default”,如果需要修改为其他资源,需要先配置队列容量,请参见配置资源池的队列容量策略。 MRS 3.x及之后版本: 队列配置参数 参数名 描述 AM最多占有资源(%) 表示当前队列内所有Application Master所占的最大资源百分比。 每个YARN容器最多分配核数 表示当前队列内单个YARN容器可分配的最多核数,默认为1,表示取值范围内不限制。 每个YARN容器最大分配内存(MB) 表示当前队列内单个YARN容器可分配的最大内存,默认为1,表示取值范围内不限制。 最多运行任务数 表示当前队列最多同时可执行任务的数目,默认为1,表示取值范围内不限制(为空意义相同),为0表示不可执行任务。取值范围为1~2147483647。 每个用户最多运行任务数 表示每个用户在当前队列中最多同时可执行任务的数目,默认为1,表示取值范围内不限制(为空意义相同),为0表示不可执行任务。取值范围为1~2147483647。 最多挂起任务数 表示当前队列最多同时可挂起任务的数目,默认为1,表示取值范围内不限制(为空意义相同),为0表示不可挂起任务。取值范围为1~2147483647。 资源分配规则 表示单个用户任务间的资源分配规则,包括FIFO和FAIR。 一个用户若在当前队列上提交了多个任务,FIFO规则代表一个任务完成后再执行其他任务,按顺序执行。FAIR规则代表各个任务同时获取到资源并平均分配资源。 默认资源标签 表示在指定资源标签(Label)的节点上执行任务。 说明 如果需要使用新的资源池,需要修改默认标签为新的资源池标签。 Active状态 ACTIVE表示当前队列可接受并执行任务。 INACTIVE表示当前队列可接受但不执行任务,若提交任务,任务将处于挂起状态。 Open状态 OPEN表示当前队列处于打开状态。 CLOSED表示当前队列处于关闭状态,若提交任务,任务直接会被拒绝。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        租户管理
        配置队列
      • 运维指导
        本章节主要介绍Spark作业相关问题中有关运维指导的问题。 添加Python包后,找不到指定的Python环境 添加Python3包后,找不到指定的Python环境。 可以通过在conf文件中,设置spark.yarn.appMasterEnv.PYSPARKPYTHONpython3,指定计算集群环境为Python3环境。 目前,新建集群环境均已默认为Python3环境。 为什么Spark jar 作业 一直处于“提交中”? Spark jar 作业 一直处于“提交中”可能是队列剩余的CU量不足导致作业无法提交。 查看队列的的剩余步骤如下: 1. 查看队列CU使用量。 点击“云监控服务 > 云服务监控 > 数据探索湖 > 队列监控 > 队列CU使用量” 。 2. 计算剩余CU量。 队列剩余CU量队列CU量 队列CU使用量。 当队列剩余CU量小于用户提交的CU量,则需要等待资源,才能提交成功。
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        Spark作业相关问题
        运维指导
      • 创建角色
        支持权限管理的资源 权限设置说明 “Cluster Admin Operations” 选中时表示授予YARN管理员权限。 “root” YARN的根队列。 具体权限: “Submit”:表示在队列提交作业的权限。 “Admin”:表示管理当前队列的权限。 “Parent Queue” YARN的一种资源类型,表示父队列,可以包含子队列。根队列也属于父队列的一种。 具体权限: “Submit”:表示在队列提交作业的权限。 “Admin”:表示管理当前队列的权限。 “Leaf Queue” YARN的一种资源类型,表示叶子队列。 具体权限: “Submit”:表示在队列提交作业的权限。 “Admin”:表示管理当前队列的权限。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        MRS多用户权限管理
        创建角色
      • 权限控制概述
        同一个Nacos引擎可能会有多个用户共同使用,开启了“安全认证”的Nacos引擎专享版,通过微服务控制台提供的基于RBAC(RoleBased Access Control,基于角色的访问控制)的权限控制功能,使不同的用户根据其责任和权限,具备不同的引擎访问和操作权限。 开启了“安全认证”的Nacos引擎专享版,支持微服务正常接入。 说明 只有引擎版本为2.1.0.1及以上版本支持此功能,若版本低于2.1.0.1,可参考 当Nacos引擎版本为2.1.0升级到2.1.0.1及以上版本时,需要先开启安全认证初始化密钥信息,才可使用权限控制功能。
        来自:
        帮助文档
        微服务引擎
        用户指南
        注册配置中心
        使用注册配置中心
        权限控制
        权限控制概述
      • 实例规格扩容
        接口功能介绍 实例规格扩容 接口约束 无 URI POST /v3/api/createChangeSpecOrder 路径参数 无 Query参数 无 请求参数 请求头header参数 参数 是否必填 参数类型 说明 示例 下级对象 regionId 是 String 资源池ID 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 prodInstId 是 String 实例ID cpuNum 是 Integer CPU核数,取值为2,4,8,12,16 memSize 是 Integer 内存大小,单位GB,取值为4,8,12,24,32 响应参数 参数 参数类型 说明 示例 下级对象 message String 描述状态 statusCode String 800成功 其他失败 error String 错误码 returnObj Object 返回对象 枚举参数 无 请求示例 请求url 请求头header { "regionId":"bb9fdb42056f11eda1610242ac110002" } 请求体body { "prodInstId": "123", "cpuNum": 8, "memSize": 32 } 响应示例 { "statusCode": 800 } 状态码 请参考 状态码 错误码 请参考 错误码
        来自:
        帮助文档
        分布式消息服务MQTT
        API参考
        API
        2022-04-13
        4.0版本接口
        实例规格扩容
      • 查认证用户ACL
        接口功能介绍 查认证用户ACL 接口约束 无 URI GET /v3/api/mqttUserAclList 路径参数 无 Query参数 参数 是否必填 参数类型 说明 示例 下级对象 prodInstId 是 String 实例ID userName 是 String 认证用户 请求参数 请求头header参数 参数 是否必填 参数类型 说明 示例 下级对象 regionId 是 String 资源池id 请求体body参数 无 响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 800成功 其他失败 message String 描述状态 returnObj Array of Objects 返回对象 returnObj error String 错误码 表 returnObj 参数 参数类型 说明 示例 下级对象 allow String allow 动作权限 true false topic String 主题 action String action 动作 pub、sub、pubsub login String 认证用户 枚举参数 参数名 action 枚举值 类型 说明 pub String 发布权限 sub String 订阅权限 pubsub String 发布+订阅权限 请求示例 请求url 请求头header { "regionId":"bb9fdb42056f11eda1610242ac110002" } 请求体body 无
        来自:
        帮助文档
        分布式消息服务MQTT
        API参考
        API
        2022-04-13
        4.0版本接口
        权限管理
        查认证用户ACL
      • 删除资源池
        本章节主要介绍删除工作负载队列。 删除工作负载队列 1. 登录DWS 管理控制台。 2. 在集群列表中单击需要访问“资源管理”页面的集群名称。 3. 切换至“资源管理”页签。 4. 在左侧“资源池”中单击需要删除的资源池名称。 5. 单击右侧的“删除资源池” 说明 删除队列时如果队列中有关联的数据库用户,那么队列删除后这些用户将被关联默认队列。
        来自:
        帮助文档
        数据仓库服务
        用户指南
        资源管理
        资源池
        删除资源池
      • DLI控制台总览
        本章节主要介绍数据湖探索(DLI)的“总览”页面。 数据探索服务控制台总览页为您提供数据湖探索服务使用流程及队列资源使用情况总览。 使用流程简介 数据湖探索服务使用流程简介: 1.创建队列 队列是DLI的计算资源:SQL队列和通用队列。SQL队列支持提交Spark SQL作业,通用队列支持Spark程序、Flink opensource SQL、Flink Jar作业。 2.准备数据 通常在执行Spark SQL作业前,需要创建数据库和表;在执行Spark作业、Flink Jar作业需要上传程序包。 3.编辑提交作业 完成作业参数的编辑后,提交作业。 4.查看作业状态 在作业管理页面可以查看作业的执行状态。 总览队列使用时长 总览页面支持查看队列的使用时长。 查看所有队列的使用时长:总览所有队列资源的使用情况 查看单队列的使用时长:单队列近期的使用情况。
        来自:
        帮助文档
        数据湖探索
        用户指南
        DLI控制台总览
      • 关闭Smart Connect
        本节介绍如何关闭Smart Connect。 如果不再使用Smart Connect相关功能,您可以关闭Smart Connect,释放资源。 关闭Smart Connect不会影响业务。 约束与限制 关闭Smart Connect后,实例会停止收取用于Smart Connect的代理费用,并自动删除用于Smart Connect的代理。 关闭Smart Connect后,再重新开启Smart Connect,已删除的Smart Connect任务无法找回,需要重新创建。 前提条件 已创建Kafka实例,且实例状态为“运行中”。 关闭Smart Connect前,请先删除所有的Smart Connect任务,否则无法关闭Smart Connect。此操作是为了防止关闭Smart Connect导致正在运行的Smart Connect任务丢失。 关闭Smart Connect 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、通过以下任意一种方法,关闭Smart Connect。 在待关闭Smart Connect的Kafka实例所在行,单击“更多 > 关闭Smart Connect”。 单击Kafka实例名称,进入实例详情页面。单击右上角的“更多 > 关闭Smart Connect”。 5、单击,将Smart Connect设置为关闭,单击“下一步”。 6、确认“Smart Connect”为关闭状态,单击“提交”。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        关闭Smart Connect
      • 基本签名流程
        本文为您介绍分布式消息服务MQTT的API参考如何调用API。 ctyuneopak/ctyuneopsk基本签名流程 1、待签字符串:使用规范请求和其他信息创建待签字符串; 2、计算密钥:使用HEADER、ctyuneopsk、ctyuneopak来创建Hmac算法的密钥; 3、计算签名:使用第三步的密钥和待签字符串在通过hmacsha256来计算签名。 4、签名应用:将生成的签名信息作为请求消息头添加到HTTP请求中。 创建待签名字符串 待签名字符串的构造规则如下: 待签名字符串需要进行签名的Header排序后的组合列表+ "n" + 排序的query + "n" + toHex(sha256(原封的body)) 需要进行签名的Header排序后的组合列表(排序的header) header 以 headername:headervalue来一个一个通过n拼接起来,EOP是强制要求ctyuneoprequestid和eopdate这个头作为Header中的一部分,并且必须是待签名Header里的一个。需要进行签名算法的Header需要进行排序(将它们的headername以26个英文字母的顺序来排序),将排序后得到的列表进行遍历组装成待签名的header。 排序的query query以&作为拼接,key和值以连接,排序规则使用26个英文字母的顺序来排序,Query参数全部都需要进行签名 toHex(sha256(原封的body)) 传进来的body参数进行sha256摘要,对摘要出来的结果转十六进制 排序的header例子: 假设你需要将ctyuneoprequestid、eopdate、host都要签名,则待签名的header构造出来是: ctyuneoprequestid:123456789neopdate:20210531T100101Znhost:1.1.1.1:9080n ctyuneoprequestid、eopdate和host的排序就是这个顺序,如果你加入一个ccad的header;同时这个header也要是进行签名,则待签名的header组合: ccda:123n ctyuneoprequestid:123456789neopdate:20210531T100101Znhost:1.1.1.1:9080n 构造动态密钥 发起请求时,需要构造一个eopdate的时间,这个时间的格式是yyyymmddTHHMMSSZ;言简意赅一些,就是年月日T时分秒Z 1、先是拿你申请来的ctyuneopsk作为密钥,eopdate作为数据,算出ktime 2、拿ktime作为密钥,你申请来的ctyuneopak数据,算出kAk; 3、拿kAk作为密钥,eopdate的年月日值作为数据;算出kdate eopdate yyyymmddTHHMMSSZ(20211221T163614Z)(年月日T时分秒Z) Ktime 使用ctyuneopsk作为密钥,eopdate作为数据,算出ktime; Ktime hmacSha256(ctyuneopsk, eopdate) kAk 使用ktime作为密钥,你申请来的ctyuneopak数据,算出kAk; kAk hmacsha256(ktime,ctyuneopak) kdate 使用kAk作为密钥,eopdate的年月日值作为数据;算出kdate; kdate hmacsha256(kAk, eopdate) 签名应用及示例 由“构造动态秘钥”和“创建待签名字符串”分别的出来的待签名字符串stringsigture、kdate生成出Signature; Signature 待签名字符串stringsigture、kdate;再根据hmacsha256(kdate,stringsigture)得出的结果,再将结果进行base64编码得出Signature EopAuthorization ctyuneopak Header你构造待签名字符串时的header排序 Signature(注意中间有空格)header排序以分号”;”拼接。 例子:你待签名的字符串header顺序是 eopdate和host;那么你加到header里的值就是 EopAuthorization: ctyuneopak Headereopdate;host Signaturexad01/ada 由上得到EopAuthorization,然后将数据整合成HEADER放在httpclient内,发出即可。 httpclient 所需请求头部如下: EopAuthorization: ctyuneopak Header ctyuneoprequestid;eopdate Signaturexad01/ada eopdate:20211221T163614Z ctyuneoprequestid: 123456789 (注:若需要进行签名的Header不止默认的ctyuneoprequestid和eopdate,需要在httpclient的请求头部中加上,并且EopAuthorization中也需要增加)
        来自:
        帮助文档
        分布式消息服务MQTT
        API参考
        如何调用API
        基本签名流程
      • 产品服务协议
        管理工具 天翼云API网关服务协议 云迁移工具RDA服务协议 天翼云云审计服务协议 天翼云应用性能管理服务协议 天翼云主机迁移服务产品服务协议 安全 数据加密产品服务协议 天翼云数据库安全服务协议 天翼云WEB应用防火墙(企业版)服务协议 天翼云服务器安全卫士服务协议 天翼云渗透测试服务协议 [天翼云[SSL VPN]服务协议]( 云堤域名无忧服务协议 天翼云网页防篡改服务协议 天翼云日志审计服务协议 Web应用防火墙(边缘云版)服务协议 天翼云DDoS高防IP服务协议 天翼云终端杀毒服务协议 云解析使用协议 天翼云微隔离防火墙服务协议 天翼云云下一代防火墙服务协议 天翼云云堡垒机服务协议 天翼云漏洞扫描服务协议 天翼云登录保护服务协议 天翼云态势感知产品服务协议 天翼云网站安全检测服务协议 内容安全服务协议 天翼云等保咨询服务协议 天翼云安全专区服务协议 天翼云DDoS高防(边缘云版)服务协议 天翼云网站安全监测服务协议 天翼云密钥管理服务协议 天翼云Web应用防火墙(原生版)服务协议 天翼云日志服务(原生版)服务协议 天翼云服务器安全卫士(原生版)服务协议 天翼云Web应用防火墙(独享版)服务协议 天翼云爬虫管理平台服务协议 天翼云容器安全平台服务协议 天翼云分布式云安全平台服务协议 天翼云企业主机安全服务协议 天翼云云防火墙(原生版)服务协议 天翼云密评专区服务协议 天翼云防火墙服务协议 天翼云态势感知(专业版)服务协议 云等保专区服务协议 天翼云数据安全中心服务协议 天翼云漏洞扫描(专业版)服务协议 天翼云托管检测与响应服务(原生版)服务协议 天翼云云证书管理服务服务条款 天翼云证书管理服务服务协议 天翼云日志审计(原生版)服务协议 天翼云云安全中心服务协议 天翼云网页防篡改(原生版)服务协议 天翼云antiDDoS流量清洗服务协议 天翼云Web应用防火墙服务协议 天翼云域名无忧服务协议 天翼云运维安全中心(云堡垒机)服务协议 天翼云安全体检产品服务协议 [](
        来自:
        帮助文档
        法律声明
        产品协议
        产品服务协议
      • 流控管理
        操作场景 分布式消息服务 Kafka 版支持按主题或用户/客户端来配置限流策略,避免因资源消耗过高而影响全量业务。 前提条件 流控管理仅支持集群版实例。 操作步骤 1. 登录管理控制台。 2. 进入Kafka管理控制台。 3. 在实例列表页的操作列,目标实例行点击“管理”按钮。 4. 点击“智能运维”、“流控管理”菜单进入流控管理页面。 5. 如需配置主题流控 ,在流控配置页卡的下拉框选择“Topic”选项并点击“创建流控”按钮。 6. 在弹窗填入主题名、生产上限速率、消费上限速率,点击“确定”按钮。 Topic:填入需要限流的主题名 速率范围:1MB/s — 1024MB/s 7. 如需配置用户/客户端流控 ,在流控配置页卡的下拉框选择“User/Client”选项并点击“创建流控”按钮。 8. 在弹窗填入用户名、客户端ID、生产上限速率、消费上限速率,点击“确定”按钮。 用户名:填入需要限流的用户名,与客户端ID不能同时为空 客户端ID:填入需要限流的客户端ID,与用户名不能同时为空 速率范围:1MB/s — 1024MB/s
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        智能运维
        流控管理
      • 删除队列
        本文为您介绍如何在科研助手中删除队列。 删除步骤 1. 登录科研助手管理控制台。 2. 在控制台左侧导航栏中,选择【资源配额】中的【队列管理】。 3. 选择一个队列,在右边单击【删除】。 4. 在二次确认的弹框输入框中输入“确认删除“,并且点击【确认 】完成删除。队列下没有作业任务和开发机任务时才可删除成功。
        来自:
        帮助文档
        科研助手
        用户指南
        资源配额
        队列管理
        删除队列
      • 删除虚拟主机
        介绍分布式消息服务RabbitMQ删除虚拟主机的操作内容。 场景描述 在RabbitMQ中,删除虚拟主机(Virtual Host)的场景描述如下: 应用迁移或清理:当需要迁移应用或进行系统清理时,可能需要删除不再使用的虚拟主机。例如,如果某个应用已经停用或迁移到其他环境,可以删除相关的虚拟主机,以释放资源和减少管理工作。 安全审计和合规性要求:根据安全审计和合规性要求,可能需要删除不再需要的虚拟主机。例如,当某个虚拟主机涉及敏感数据或权限配置存在问题时,可以选择删除该虚拟主机以避免安全风险。 故障处理和恢复:在某些情况下,当虚拟主机发生故障或出现严重问题时,可能需要删除虚拟主机并重新创建。这可以作为一种故障处理和恢复的手段,以解决虚拟主机相关的问题并恢复正常运行。 系统资源管理和优化:如果虚拟主机过多或占用了过多的系统资源,可能需要删除一些不再使用或不需要的虚拟主机。这有助于优化系统资源的利用和提高整体性能。 需要注意的是,在删除虚拟主机之前,务必确保相关的队列、交换机和绑定等对象已经被删除或迁移。否则,删除虚拟主机可能会导致数据丢失或系统异常。 操作步骤 (1)在虚拟主机管理页面,在目标虚拟主机行点击“删除”,即可删除虚拟主机。 注意事项: 删除虚拟主机会删除该虚拟主机内所有数据且不可恢复,请谨慎操作。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        虚拟主机管理
        删除虚拟主机
      • 支持编排的云服务
        本节主要介绍支持编排的云服务 应用编排服务目前支持对容器类服务及容器应用进行编排操作,具体支持的云服务为:云容器引擎、容器镜像服务、微服务云应用平台。
        来自:
        帮助文档
        应用编排服务
        产品简介
        支持编排的云服务
      • 步骤一:准备环境
        本文主要介绍分布式消息服务RabbitMQ的准备环境。 虚拟私有云 虚拟私有云(Virtual Private Cloud,以下简称VPC)为RabbitMQ专享版实例提供一个隔离的、用户自主配置和管理的虚拟网络环境。 1. 在创建RabbitMQ专享版实例前,确保已存在可用的虚拟私有云和子网。 创建方法,请参考创建虚拟私有云和子网。如果您已有虚拟私有云和子网,可重复使用,不需要多次创建。 在创建VPC和子网时应注意如下要求: 创建的VPC与使用的RabbitMQ服务应在相同的区域。 创建VPC和子网时,如无特殊需求,配置参数使用默认配置即可。 2. 在创建RabbitMQ专享版实例前,确保已存在可用的安全组。 创建方法,请参考创建安全组。如果您已有安全组,可重复使用,不需要多次创建。 使用RabbitMQ实例前,添加表1所示安全组规则,其他规则请根据实际需要添加。 表1 安全组规则 方向 协议 端口 源地址 说明 入方向 TCP 5672 0.0.0.0/0 访问RabbitMQ实例(关闭SSL加密) 入方向 TCP 5671 0.0.0.0/0 访问RabbitMQ实例(开启SSL加密) 入方向 TCP 15672 0.0.0.0/0 访问Web界面UI地址(关闭SSL加密) 入方向 TCP 15671 0.0.0.0/0 访问Web界面UI地址(开启SSL加密) 说明 创建安全组后,系统默认添加入方向“允许安全组内的弹性云主机彼此通信”规则和出方向“放通全部流量”规则,此时使用内网通过同一个VPC访问RabbitMQ实例,无需添加上表中的规则。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        快速入门
        步骤一:准备环境
      • 动态资源
        本章节主要介绍翼MapReduce的动态资源操作。 简介 Yarn是大数据集群中的分布式资源管理服务,大数据集群为Yarn分配资源,资源总量可配置。Yarn内部为任务队列进一步分配和调度计算资源。对于Mapreduce、Spark、Flink和Hive的任务队列,计算资源完全由Yarn来分配和调度。 Yarn任务队列是计算资源分配的基本单位。 对于租户,通过Yarn任务队列申请到的资源是动态资源。用户可以动态创建并修改任务队列的配额,可以查看任务队列的使用状态和使用统计。 资源池 现代企业IT经常会面对纷繁复杂的集群环境和上层需求。例如以下业务场景: 集群异构,集群中各个节点的计算速度、存储容量和网络性能存在差异,需要把复杂应用的所有任务按照需求,合理地分配到各个计算节点上。 计算分离,多个部门需要数据共享,但是需要把计算完全分离在不同的计算节点上。 这就要求对计算资源的节点进一步分区。 资源池用来指定动态资源的配置。Yarn任务队列和资源池关联,可实现资源的分配和调度。 一个租户只能设置一个默认资源池。用户通过绑定租户相关的角色,来使用该租户资源池的资源。若需要使用多个资源池的资源,可通过绑定多个租户相关的角色实现。 调度机制 Yarn动态资源支持标签调度(Label Based Scheduling)策略,此策略通过为计算节点(Yarn NodeManager)创建标签(Label),将具有相同标签的计算节点添加到同一个资源池中,Yarn根据任务队列对资源的需求,将任务队列和有相应标签的资源池动态关联。 例如,集群中有40个以上的节点,根据各节点的硬件和网络配置,分别用Normal、HighCPU、HighMEM、HighIO为四类节点创建标签,添加到四个资源池中,资源池中的各节点性能如下表所示。 不同资源池中的各节点性能 标签名 节点数 硬件和网络配置 添加到 关联 Normal 10 一般 资源池A 普通的任务队列 HighCPU 10 高性能CPU 资源池B 计算密集型的任务队列 HighMEM 10 大量内存 资源池C 内存密集型的任务队列 HighIO 10 高性能网络 资源池D IO密集型的任务队列 任务队列只能使用所关联的资源池里的计算节点。 普通的任务队列关联资源池A,使用硬件和网络配置一般的Normal节点。 计算密集型的任务队列关联资源池B,使用具有高性能CPU的HighCPU节点。 内存密集型的任务队列关联资源池C,使用具有大量内存的HighMEM节点。 IO密集型的任务队列关联资源池D,使用具有高性能网络的HighIO节点。 Yarn任务队列与特定的资源池关联,可以更有效地使用资源,保证节点性能充足且互不影响。 FusionInsight Manager中最多支持添加50个资源池。系统默认包含一个默认资源池。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        多租户介绍
        技术原理
        动态资源
      • ALM-18023 Yarn任务挂起数超过阈值
        参数名称 参数含义 来源 产生告警的集群名称。 队列名 产生告警的队列名。 队列指标名 产生告警的队列指标名。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-18023 Yarn任务挂起数超过阈值
      • 节点重启后消费者如何重连
        本文介绍节点重启后消费者如何重连,以Java中使用的RabbitMQ客户端amqpclient为例。 amqpclient自带重连机制,但是自带的重连机制只会重试一次,一次连不上后就不会再执行了,这时如果消费者没有做额外的重试机制,那么这个消费者就彻底丧失的消费能力。 amqpclient在节点断连后,根据与通道建立的节点不同,产生不同的错误。 如果通道连接的是队列所在的节点,消费者就会收到一个shutdown信号,这时amqpclient的重连机制就会生效,尝试重新连接服务端。如果连上了,这个通道就会继续连接消费。如果连不上,就会执行channel.close方法,关闭这个通道。 如果通道连接的不是队列所在的节点,消费者不会触发关闭动作,而是由服务端发送的一个取消动作,这个动作对amqpclient来说并不是异常行为,所以日志上不会有明显的报错,但是连接最终还是会关闭。 amqpclient出现上面两种错误时,会分别回调handleShutdownSignal以及handleCancel方法,您可以通过重写这两种方法,在回调时执行重写的重连逻辑,就能在通道关闭后重新创建消费者的新通道继续消费。 以下提供一个简单的代码示例,能够解决上面的两种错误,实现消费者的持续消费。 import com.rabbitmq.client.; import java.io.IOException; import java.nio.charset.StandardCharsets; import java.util.concurrent.TimeoutException; public class MyRabbitConsumer { public static void main(String... args) throws IOException, TimeoutException { ConnectionFactory factory new ConnectionFactory(); factory.setHost("192.168.x.x"); factory.setPort(5672); factory.setUsername("name"); factory.setPassword("password"); Connection connection factory.newConnection(); createNewConnection(connection); } public static void createNewConnection(Connection connection) { try { Channel channel connection.createChannel(); channel.basicQos(64); channel.basicConsume("queue1", false, new CustomConsumer(channel, connection)); } catch (Exception e) { createNewConnection(connection); } } static class CustomConsumer implements Consumer { private final Channel channel; private final Connection connection; public CustomConsumer(Channel channel, Connection connection) { channel channel; connection connection; } @Override public void handleConsumeOk(String consumerTag) {} @Override public void handleCancelOk(String consumerTag) {} @Override public void handleCancel(String consumerTag) throws IOException { createNewConnection(connection); } @Override public void handleShutdownSignal(String consumerTag, ShutdownSignalException sig) { createNewConnection(connection); } @Override public void handleRecoverOk(String consumerTag) {} @Override public void handleDelivery(String consumerTag, Envelope env, AMQP.BasicProperties prop, byte[] body) throws IOException { String message new String(body, StandardCharsets.UTF8); System.out.println("收到消息: " + message); channel.basicAck(env.getDeliveryTag(), false); } } }
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        最佳实践
        节点重启后消费者如何重连
      • 公有云产品计费说明
        流水线 规格/特性名称 规格/特性说明 体验版 基础版 专业版 企业版 流水线并发 租户内并发执行的流水线的数量。 1个 5个 10个 20个 流水线执行时长 租户每个月累计流水线任务执行时长 1800分钟/月 不限 不限 不限 资源型任务执行时长 租户内资源消耗类任务每月累计执行总时长。 300分钟/月 1200分钟/月 6000分钟/月 12000分钟/月 流水线管理 流水线编排和执行,结果查看和信息订阅。 √ √ √ √ 微服务变更 DevOps变更模式,按微服务独立开发、测试和发布。 √ √ √ √ 扩展插件 自定义流水线插件。 √ √ √ √ 自定义门禁 自定义门禁策略,对阶段准出自动化拦截。 × √ √ √ 云原生发布 云原生环境变量管理,蓝绿,金丝雀,滚动发布多种发布模式。 √ √ √ √ 代码检查 规格/特性名称 规格/特性说明 体验版 基础版 专业版 企业版 代码检查并发 租户内并发执行的代码检查任务数量。 1个 5个 10个 20个 代码检查执行时长 租户每个月累计代码检查任务执行时长。 1800分钟/月 不限 不限 不限 基础语言支持 Java、C/C++、Python、JavaScript、TypeScript、ArkTs。 √ √ √ √ 进阶语言支持 除基础语言外,支持多种常用开发语言,如C
        来自:
        帮助文档
        软件开发生产线CodeArts
        计费说明
        公有云产品计费说明
      • 作业运维报错
        问题原因 在CDM界面创建迁移作业,配置DLI目的连接参数时,“资源队列”参数错误选成了DLI的“通用队列”,应该选择DLI的“SQL队列”。 解决方案 1.登录DLI管理控制台,选择“队列管理”,在队列管理界面查看是否有“SQL队列”类型的队列。 −是,执行3。 −否,执行2购买“SQL队列”类型的队列。 2.单击“购买队列”创建队列,其中队列类型选择“SQL队列”,选择其他参数后提交创建。 3.在CDM侧重新配置迁移作业的DLI目的连接参数,其中资源队列”参数选择已创建的DLI“SQL队列”。 4.CDM重新提交迁移作业,查看作业执行日志。 SQL作业访问报错:File not Found 问题现象 执行SQL作业访问报错:File not Found。 解决措施 文件报错找不到,一般是读写冲突产生的,建议查询一下SQL查询报错表的时候,是否有作业正在覆盖写对应数据。 SQL作业访问报错:DLI.0003: AccessControlException XXX 问题现象 SQL作业访问报错:DLI.0003: AccessControlException XXX。 解决措施 请查看下AccessControlException写的OBS桶,确认当前账号是否有访问桶的权限。 SQL作业访问外表报错:DLI.0001: org.apache.hadoop.security.AccessControlException: verifyBucketExists on}: status [403] 问题现象 SQL作业访问外表报错:DLI.0001: org.apache.hadoop.security.AccessControlException: verifyBucketExists on {{桶名}}: status [403]。 解决措施 当前账号没有访问该外表所在OBS桶的权限,请添加相应OBS权限再执行该查询。 执行SQL语句报错:The current account does not have permission to perform this operation,the current account was restricted. Restricted for no budget.
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        SQL作业相关问题
        作业运维报错
      • 配置Kafka实例的公网访问
        关闭IPv4公网访问(不支持修改SASL开关) 1. 登录管理控制台。 2. 在管理控制台左上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 3. 在管理控制台左上角单击,选择“应用中间件 > 分布式消息服务Kafka”,进入分布式消息服务Kafka专享版页面。 4. 单击Kafka实例的名称,进入实例的“基本信息”页面。 5. 在“公网访问”后,单击,完成公网访问的关闭。 您可以在实例的“后台任务管理”页面,查看当前任务的操作进度。任务状态为“成功”,表示操作成功。 关闭公网访问后,需要设置对应的安全组规则(请见表2),才能通过内网成功连接Kafka。 表2 Kafka实例安全组规则(内网访问) 方向 协议 类型 端口 源地址 说明 入方向 TCP IPv4 9092 0.0.0.0/0 使用内网通过同一个VPC访问Kafka实例(关闭SSL加密)。 入方向 TCP IPv4 9093 0.0.0.0/0 使用内网通过同一个VPC访问Kafka实例(开启SSL加密)。 说明 创建安全组后,系统默认添加入方向“允许安全组内的弹性云主机彼此通信”规则和出方向“放通全部流量”规则,此时使用内网通过同一个VPC访问Kafka实例,无需添加表2的规则。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        连接Kafka实例
        配置Kafka实例的公网访问
      • 应用开发类
        本节主要介绍应用开发类问题 微服务和普通应用有什么不同? 微服务是一种架构模式,其核心是将一个单体应用分成多个部分进行开发。所以微服务架构的应用程序,其本质上是一个分布式应用。基于微服务架构构建的应用程序,可以让业务变化更快,整体系统可靠性更高。 如何解决微服务注册失败问题(针对java chassis)? 微服务部署成功后,需要将微服务注册到服务中心和配置中心,才能使用注册发现和微服务治理能力。如果注册失败,可能由于以下因素导致的: AK/SK未配置或者配置不正确。 服务中心或配置中心地址配置不正确。 网络不通。 域名解析失败。 监听端口被占用。 客户端向CSE发送HTTPS消息时,有校验证书吗?使用的根证书在哪里配置? 当前CSE不会校验微服务的证书。根证书是调用公共组件psm生成的。 如何进行本地开发和测试? 服务中心是微服务框架中的重要组件,用于服务元数据以及服务实例元数据的管理和处理注册、发现。服务中心与微服务提供/消费者的逻辑关系下图所示: 前提条件 由于启动本地服务中心将会占用此台机器的30100、30110和30103端口,其分别表示服务中心的后台、配置中心的后台和前台服务端口。请确认以上端口未被使用。 使用本地开发工具前,请确认环境是否满足以下要求: 操作系统:Linux/Unix、Windows 64 bit CPU架构:x86/arm 浏览器:Chrome、Safari、Edge
        来自:
        帮助文档
        微服务引擎
        常见问题
        应用开发类
      • 应用场景
        本章节介绍故障演练服务的应用场景。 故障演练服务适用于多种复杂的业务和技术场景,旨在帮助用户从被动响应故障转变为主动发现和规避风险,全面提升系统的稳定性和韧性。 1. 验证高可用(HA)与容灾(DR)预案 这是故障演练的核心应用场景之一。通过模拟关键组件的失效,可以验证系统的自动切换、故障转移和恢复能力是否符合预期。 场景示例: 数据层 :通过模拟分布式缓存服务Redis版的主备切换、节点宕机等场景,验证组件能否无感切换,量化对上层业务的影响,评估高可用架构的实际效果。 中间件 :通过模拟分布式消息服务Kafka的Broker节点宕机等场景,检验消息中间件的高可用特性,评估业务数据的可靠性和业务消息生产/消费的合理性。 应用层 :通过模拟承载关键业务的云主机宕机等场景,验证应用健康检查与流量转移的及时性和有效性,评估业务连续性是否符合架构设计要求。 2. 评估系统性能水位 在业务大促、秒杀等高并发场景来临前,通过主动对系统资源施加压力,可以提前发现性能瓶颈,为容量规划和扩容决策提供数据支持。 场景示例: 计算资源压测 :通过模拟云主机CPU/内存高负载场景,监测应用服务的响应延迟与错误率变化,评估应用系统在资源瓶颈下的稳定性表现。 存储性能压测 :通过模拟云主机磁盘I/O高负载场景,监测数据库事务处理、日志写入等关键操作在压力下的吞吐量、延迟及错误率表现,评估存储系统的性能瓶颈。
        来自:
        帮助文档
        应用高可用
        产品简介
        故障演练服务
        应用场景
      • 应用场景(1)
        本章节介绍故障演练服务的应用场景。 故障演练服务适用于多种复杂的业务和技术场景,旨在帮助用户从被动响应故障转变为主动发现和规避风险,全面提升系统的稳定性和韧性。 1. 验证高可用(HA)与容灾(DR)预案 这是故障演练的核心应用场景之一。通过模拟关键组件的失效,可以验证系统的自动切换、故障转移和恢复能力是否符合预期。 场景示例: 数据层 :通过模拟分布式缓存服务Redis版的主备切换、节点宕机等场景,验证组件能否无感切换,量化对上层业务的影响,评估高可用架构的实际效果。 中间件 :通过模拟分布式消息服务Kafka的Broker节点宕机等场景,检验消息中间件的高可用特性,评估业务数据的可靠性和业务消息生产/消费的合理性。 应用层 :通过模拟承载关键业务的云主机宕机等场景,验证应用健康检查与流量转移的及时性和有效性,评估业务连续性是否符合架构设计要求。 2. 评估系统性能水位 在业务大促、秒杀等高并发场景来临前,通过主动对系统资源施加压力,可以提前发现性能瓶颈,为容量规划和扩容决策提供数据支持。 场景示例: 计算资源压测 :通过模拟云主机CPU/内存高负载场景,监测应用服务的响应延迟与错误率变化,评估应用系统在资源瓶颈下的稳定性表现。 存储性能压测 :通过模拟云主机磁盘I/O高负载场景,监测数据库事务处理、日志写入等关键操作在压力下的吞吐量、延迟及错误率表现,评估存储系统的性能瓶颈。
        来自:
      • 翼建站有哪些规格
        产品名称 提供方式 收费方式 产品规格 业务类型 翼建站 镜像 套餐 手机微网站 支持订购、升级、续订、退订 不支持试用 翼建站 镜像 套餐 pc端网站 支持订购、升级、续订、退订 不支持试用 翼建站 镜像 套餐 三端兼容基础版 支持订购、升级、续订、退订 不支持试用 翼建站 镜像 套餐 三端兼容高级版 支持订购、升级、续订、退订 不支持试用
        来自:
        帮助文档
        翼建站
        产品介绍
        翼建站有哪些规格
      • 1
      • ...
      • 17
      • 18
      • 19
      • 20
      • 21
      • ...
      • 255
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      训推服务

      AI Store

      公共算力服务

      应用托管

      科研助手

      知识库问答

      推荐文档

      创建阈值规则

      文档下载

      成员权限

      PostgreSQL

      创建文件和文件夹备份

      【2019】633号关于调整非经营性互联网信息服务备案编号的通知

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号