爆款云主机低至25.83元/年
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 云聚517 · 好价翼起拼 NEW 爆款云主机低至25.83元/年,参与拼团享更多优惠,拼成得额外优惠券
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 聚力AI赋能 天翼云大模型专项 大模型特惠专区·Token Plan 轻享包低至9.9元起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 企业出海解决方案 NEW 助力您的业务扬帆出海,通达全球!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
Token服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V4-Flash
  • GLM-5.1
  • Qwen3.5-122B-A10B
  • DeepSeek-V3.2(旗舰版)
  • GLM-5(正式版)
智算一体机
  • 智算一体机
智能体引擎
  • 智能体引擎
智算安全专区
  • 大模型安全评测
  • 大模型安全护栏
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      微消息队列MQTT版_相关内容
      • API调用
        修改后端服务的超时时间上限“backendtimeout”后未生效 问题描述 修改专享版APIG实例参数“backendtimeout”后未生效。 可能原因 在“定义后端服务”中,“后端超时(ms)”未修改。 解决方法 登录控制台,在“API管理”中,进入目标API详情,单击“编辑”,在“定义后端服务”中配置“后端超时(ms)”。 如何切换调用环境? 默认调用“发布”环境的API。如果您要调用其他环境的API,请添加请求消息头XStage,参数值填写环境名称。 调用请求包最大支持多少? 专享版:API每次最大可以转发Body体为12MB的请求包。请求body体超过12M时,根据业务需求,请在“实例概览”的配置参数中修改“requestbodysize”参数。“requestbodysize”表示API请求中允许携带的Body大小上限,支持修改范围1~9536 M。 使用iOS系统时,如何进行APP认证? 目前API网关为APP认证提供了Java、Python、C、PHP、Go等多种语言的SDK与demo,当您使用iOS系统(ObjectiveC语言)或者其他未包含在内的语言时,请参考“开发指南 > 使用APP认证调用API > APP认证工作原理”的指导进行APP认证。 最多支持创建多少个APP? 每个用户最多创建50个APP。 APP认证的API,怎样实现不同的第三方之间无法知道对方调用情况? 创建多个APP,并绑定同一个API,分发给不同的第三方不一样的APP。 APP认证的API,有没有限制可以给多少个第三方使用? 没有限制。 APP认证的API,是否需要自己创建APP? 是,需要自行创建APP,并绑定API。创建完成APP后,系统自动生成AppKey和AppSecret,将AppKey和AppSecret给第三方,就可以直接调用此API了。
        来自:
        帮助文档
        API网关
        常见问题
        API调用
      • 监控指标说明
        生产者指标 指标名称 指标说明 单位 生产TPS 统计Topic的消息生产速率,计算方式:1分钟内的最大值 条/秒 生产消息量峰值 统计消息生产速率的最大值 条/秒 累计生产消息量 统计所选时间段内所选topic累计生产的消息总量 条 消费者指标 指标名称 指标说明 单位 处理中消息量 计算选定的Topic和消费组当前消费者客户端正在消费但是还没有返回消费成功响应到服务端的消息数。 条 已就绪消息量 计算选定的Topic和消费组当前在服务端已经就绪可以被消费消费的消息总量,这部分消息消费者客户端还没有开始消费。 条 堆积消息量 计算选定Topic和消费组当前消息堆积总量,包括处理中消息和已就绪消息。 条 已就绪消息排队时间 计算选定的Topic和消费组最早一条就绪消息的就绪时间和当前时间差,数值面板展示取选定时间段内统计的最大值展示,曲线面板展示选定时间范围的序列值,当该订阅组没有在线时,该值不显示。该指标可以观测还未被处理的消息的延迟时间大小,适用于对消息延时时间比较敏感的业务场景。 毫秒,但随着数值增大会自适应变换单位 消息消费速率 计算选定Topic和消费组消费消息的速率。 条/秒 消费者速率峰值 计算所选定Topic和消费组的消息消费速率的最大值。 条/秒 消费堆积量 包含上面的堆积消息量,处理中消息量,已就绪消息量,以曲线的形式展示。 条 消息消费处理耗时 计算所选Topic和消费组消费时,从消息开始被消费到消费完成的处理耗时。 毫秒 消息生产速率 top20 Topics 展示消息生产速率最高的前20个Topic生产速率曲线。 条/秒 消息消费速率 top20 Groups 展示消息消费速率最高的前20个消费组消费速率曲线。 条/秒 已就绪消息量 top20 Groups 计算已就绪消息量最大的前20个消费组。 条 已就绪消息排队时间 top20 Groups 计算已就绪消息量最大的前20个Group。 条 堆积消息量(包含已就绪消息以及处理中消息)top20 Group 统计堆积的消息量最多的前20个Group。 条 处理中消息量 top20 Groups 计算处理中的消息量最多的前20个Group。 条 消费处理耗时 top20 Groups 计算消费处理耗时最长的前20个Group。 毫秒
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        监控与告警
        监控指标说明
      • 站内消息
        本文主要介绍了站内消息的设置方法和消息类型。 用户可以接收、查看、管理天翼云发送的各类消息通知。 操作步骤 1、登录消息中心。 2、在站内消息菜单,可以进行以下操作: 查看全部、未读、已读消息。 按消息类别/消息类型,筛选查看某类消息。 将未读消息标记为已读。 删除消息。 消息类型 消息类型 消息介绍 产品信息 产品的创建、开通及资源到期提醒等产品相关信息通知 账户资金 充值、订单支付、提现等资金相关信息通知 活动消息 各类线上活动通知 服务消息 新产品上线或商业化通知 重要通知 网站重要公告、通知、声明等信息通知 其他 非以上消息类型通知
        来自:
        帮助文档
        账号中心
        消息中心
        站内消息
      • 删除资源池
        本章节主要介绍翼MapReduce的删除资源池操作。 操作场景 根据业务需要,资源池不再使用时,管理员可以通过FusionInsight Manager进行删除资源池。 前提条件 集群中任何一个队列不能使用待删除资源池为默认资源池,删除资源池前需要先取消默认资源池,请参见配置队列。 集群中任何一个队列不能在待删除资源池中配置过资源分布策略,删除资源池前需要先清除策略,请参见清除队列容量配置。 操作步骤 1. 登录FusionInsight Manager。 2. 选择“租户资源 > 资源池”。 3. 在资源池列表指定资源池所在行的“操作”列,单击“删除”。 4. 在弹出窗口中单击“确定”。
        来自:
      • 配置DLI目的端参数
        参数名 说明 取值样例 资源队列 选择目的表所属的资源队列。 DLI的default队列无法在迁移作业中使用,您需要在DLI中新建SQL队列。 cdm 数据库名称 写入数据的数据库名称。 dli 表名 写入数据的表名。 cardetail 导入前清空数据 选择导入前是否清空目的表的数据。 如果设置为是,任务启动前会清除目标表中数据。 否 清空数据方式 导入前清空数据,如果设置为true时,呈现此参数。 TRUNCATE:删除标准数据。 INSERTOVERWRITE:新增数据插入,同主键数据覆盖。 TRUNCATE 分区 “导入前清空数据”设置为“是”时,呈现此参数。 填写分区信息后,表示清空该分区的数据。 year2020,locationsun
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        配置作业目的端参数
        配置DLI目的端参数
      • 创建Flink Jar作业
        本章节介绍如何新建FlinkJar作业。 用户可以基于Flink的API进行二次开发,构建自己的应用Jar包并提交到DLI的队列运行,DLI完全兼容开源社区接口。此功能需要用户自己编写并构建应用Jar包,适合对Flink二次开发有一定了解,并对流计算处理复杂度要求较高的用户。 前提条件 确保已创建独享队列。创建DLI独享队列,在购买队列时,勾选“专属资源模式”即可。 创建Flink Jar作业,访问其他外部数据源时,如访问OpenTSDB、HBase、Kafka、DWS、RDS、CSS、CloudTable、DCS Redis、DDS Mongo等,需要先创建跨源连接,打通作业运行队列到外部数据源之间的网络。 当前Flink作业支持访问的外部数据源详情请参考跨源连接和跨源分析概述。 创建跨源连接操作请参见增强型跨源连接。 创建完跨源连接后,可以通过“队列管理”页面,单击“操作”列“更多”中的“测试地址连通性”,验证队列到外部数据源之间的网络连通是否正常。详细操作可以参考 测试地址连通性。 用户运行Flink Jar作业时,需要将二次开发的应用代码构建为Jar包,上传到已经创建的OBS桶中。并在DLI“数据管理”>“程序包管理”页面创建程序包,具体请参考 创建程序包。 说明 DLI不支持下载功能,如果需要更新已上传的数据文件,可以将本地文件更新后重新上传。 由于DLI服务端已经内置了Flink的依赖包,并且基于开源社区版本做了安全加固。为了避免依赖包兼容性问题或日志输出及转储问题,打包时请注意排除以下文件: a.系统内置的依赖包,或者在Maven或者Sbt构建工具中将scope设为provided b.日志配置文件(例如:“log4j.properties”或者“logback.xml”等) c.日志输出实现类JAR包(例如:log4j等)
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业管理
        Flink作业管理
        创建Flink Jar作业
      • 云实例间迁移
        分布式消息服务Kafka提供全托管、免运维的云实例间迁移服务,用于同云实例与分布式消息服务Kafka实例之间的数据同步。本文介绍云实例间迁移的源实例类型、使用限制以及使用流程。 背景信息 云实例间迁移可以把天翼云分布式消息服务Kafka集群的元数据(Topic、Group和SASL User信息)、消息数据和点位信息同步到目标集群,迁移完成后目标集群的元数据与原集群的元数据保持一致,并且支持持续更新和完成后自动停止任务。 使用限制 1.此功能不收费,会占用当前实例的服务器资源,请结合业务流量和服务器资源占用情况,在合理的情况下进行迁移 2.单机版不支持迁移 计费说明 分布式消息服务Kafka的云实例间迁移组件处于公测阶段,不会在分布式消息服务Kafka侧产生费用。同时,天翼云不承诺迁移的SLA。 创建迁移任务 1.登录分布式消息服务Kafka控制台。 2.在左侧导航栏,单击集群迁移 ,然后单击云实例间迁移。 3.在云实例间迁移页签,单击创建任务。 4.在创建 云实例间迁移任务面板,填写任务名称,选择目标实例,然后单击下一步。 5.填写接入点,选择源实例,任务数等,具体请看参数说明。 参数说明: 参数 说明 示例 源实例 下拉框选择源实例 192.168.XX.XX:9092 任务数 选择同步数据的任务数。取值说明如下:1、6、12 1 迁移完成后自动停止任务 迁移任务会自动检测是否完成迁移 是:在检测到消息数据完成同步后停止任务 否:不停止任务,您可以手动停止任务 否 Topic 要迁移的topic信息,选填,多个用半角逗号分开,不填则迁移所有topic topic1,topic2 Groups 要迁移的group信息,选填,多个用半角逗号分开,不填则迁移所有group group1,group2 副本数是否和源集群保持一致 迁移到目标集群的topic的副本数是否和源集群保持一致,默认否 是:副本数是否和源集群保持一致,如原集群topic副本数为1,迁移后的topic副本数也为1 否:迁移后topic的副本数为3 否 6.填写完参数后,单击创建 ,完成任务的创建,在任务列表能看到一条任务,状态为等待迁移,后台调度到此任务时,会将任务状态改为迁移中。 7.其他操作 查看任务详情:单击详情。在任务详情页面,查看云实例间迁移任务的基础信息、源服务、目标服务和运行环境配置信息。 查看同步进度:单击同步进度,选择查看的Topic,可以看到对应Topic的分区id,最早点位,最新点位和当前点位信息。 启停任务:单击停止,然后在提示对话框,单击确认可停止任务。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        集群迁移
        云实例间迁移
      • MindIE NPU多机推理
        本节介绍如何创建MindIE NPU多机推理任务。 本示例基于 MindIE 推理框架,选用 DeepSeekV3.1w8a8c8QuaRot 模型进行多机部署。整体部署 1 个推理应用实例,由 1 个 Master+ 1 个 Worker 角色组成,每个角色占用 8 张 NPU 卡,因此本任务共使用 2 台机器、16 张 NPU 卡,用于验证模型在多机环境下的推理能力。 前置条件 1. 确认智算套件已经安装并且全部运行中。 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档]。 操作步骤 创建应用 进入智算套件,AI应用列表,在线推理菜单,创建AI应用。 基本信息 应用类型:MindIE 应用数:1 配置信息 推理类型选择多机,推理框架,框架版本,推理模型,模型版本根据实际情况选择。简单的示例: 推理框架: ascendmindie 框架版本:2.2.RC1800IA2py311openeuler24.03lts 推理模型:DeepSeekV3.1w8a8c8QuaRot 模型版本:v1 队列:选择存在且资源足够的的队列
        来自:
        帮助文档
        智算套件
        用户指南
        推理应用
        创建推理应用
        MindIE NPU多机推理
      • MindIE NPU多机推理(1)
        本节介绍如何创建MindIE NPU多机推理任务。 本示例基于 MindIE 推理框架,选用 DeepSeekV3.1w8a8c8QuaRot 模型进行多机部署。整体部署 1 个推理应用实例,由 1 个 master + 1 个 worker 角色组成,每个角色占用 8 张 NPU 卡,因此本任务共使用 2 台机器、16 张 NPU 卡,用于验证模型在多机环境下的推理能力。 前置条件 1. 确认智算套件已经安装并且全部运行中。 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档]。 操作步骤 创建应用 进入智算套件,AI应用列表,在线推理菜单,创建AI应用。 基本信息 应用类型:MindIE 应用数:1 配置信息 推理类型选择多机,推理框架,框架版本,推理模型,模型版本根据实际情况选择。简单的示例: 推理框架: ascendmindie 框架版本:2.2.RC1800IA2py311openeuler24.03lts 推理模型:DeepSeekV3.1w8a8c8QuaRot 模型版本:v1 队列:选择存在且资源足够的的队列
        来自:
      • 必须配置的监控告警
        操作步骤 1. 登录分布式消息服务RocketMQ控制台。 2. 单击左侧RocketMQ专享版,进入实例列表页面。 3.在RocketMQ实例名称后,单击。 进入云监控该实例的监控指标页面。 4.在实例监控指标页面中,找到需要创建告警的指标项,鼠标移动到指标区域,然后单击指标右上角的,创建告警规则。 跳转到创建告警规则页面。 5.在告警规则页面,设置告警信息。 创建告警规则操作,请查看云监控服务的用户指南“创建告警规则”。 a. 设置告警名称和告警的描述。 b. 设置告警策略和告警级别。 如下图所示,在进行指标监控时,如果连续3个周期,磁盘容量使用率原始值超过85%,则产生告警,如果未及时处理,则产生告警通知。 图1 设置告警策略和告警级别 c. 设置“发送通知”开关。当开启时,设置告警生效时间、产生告警时通知的对象以及触发的条件。 d. 单击“立即创建”,等待创建告警规则成功。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        监控
        必须配置的监控告警
      • 构建微服务应用
        本节主要介绍构建微服务应用 典型业务应用场景 应用场景 对于传统的单体架构项目,不同的业务模式必须采取统一的技术方案及技术平台,每个业务模块也不能独立出来复用,系统中一个模块出现问题会导致整个系统不可用。随着企业业务的复杂度不断提升,传统单体架构模式越来越臃肿,难以适应灵活多变的业务需求,微服务应用可以完美解决上述问题。 价值 通过应用微服务化,企业可将一个臃肿的系统拆分成若干小的服务组件,组件之间的通讯采用轻量的协议完成,实现各组件生命周期管理的解耦。 随着业务增长,服务会遇到各种意外情况,如:瞬时大规模并发访问、服务出错、入侵等情况。使用微服务架构可以对服务做细粒度管控,支撑业务需求。 ServiceStage可承载微服务应用的全生命周期管理。支持Java、Go、Node.js、Docker、Tomcat等运行环境,可无侵入托管Apache ServiceComb Java Chassis、Spring Cloud、Dubbo、服务网格等微服务应用,另外还提供配置管理、监控运维和服务治理等更多功能,让企业微服务应用上云更简单。 优势 ServiceStage提供了业内领先的微服务应用解决方案,具有以下优势: 支持原生ServiceComb、Spring Cloud、Dubbo和Service Mesh多种微服务框架,无需更改业务代码直接托管上云。 API First,支持基于Swagger的API管理。 支持多语言微服务,如JAVA、Go、Node.js等。 提供服务中心、配置中心、仪表盘、微服务灰度发布等功能。 提供容错、限流、降级、熔断、错误注入、黑白名单等全套微服务治理策略。可针对业务场景进行界面化操作,极大提高了服务治理的可用性。 实现Spring Cloud、Java Chassis和Go Chassis之间的互相发现。 持续集成和持续交付
        来自:
        帮助文档
        微服务云应用平台
        产品简介
        典型应用场景
        构建微服务应用
      • vLLM GPU多机推理
        本节介绍如何创建vLLM GPU多机推理任务。 本示例基于 vLLM 推理框架,选用 deepseekr1distillqwen7b 模型进行多机部署。整体部署 1 个推理应用实例,由 1 个 master + 1 个 worker 角色组成,每个角色占用 1 张 GPU 卡,因此本任务共使用 2 张 GPU 卡,用于验证模型在多机环境下的推理能力。 前置条件 1. 确认智算套件已经安装并且全部运行中。 2. 进入智算套件 > AI应用管理 > 队列管理,确保队列存在并且有足够的资源(GPU,CPU,内存) [参考创建队列的文档]。 操作步骤 创建应用 1. 进入智算套件 > AI应用列表 > 在线推理菜单,创建AI应用。 基本信息 应用类型:vLLM 应用数:1 配置信息 推理类型选择多机,推理框架、框架版本、推理模型、模型版本根据实际情况选择即可。简单的示例: 推理框架:nvidiavllm 框架版本:v0.11.2 推理模型:deepseekr1distillqwen7b 模型版本:v1 队列:选择存在且资源足够的的队列
        来自:
        帮助文档
        智算套件
        用户指南
        推理应用
        创建推理应用
        vLLM GPU多机推理
      • vLLM NPU多机推理(1)
        本节介绍如何创建vLLM NPU多机推理。 本示例基于 vLLM 推理框架,选用 deepseekr1distillqwen7b 模型进行多机部署。整体部署 1 个推理应用实例,由 1 个 master + 1 个 worker 角色组成,每个角色占用 1 张 NPU 卡,因此本任务共使用 2 张 NPU 卡,用于验证模型在多机环境下的推理能力。 前置条件 1. 确认智算套件已经安装并且全部运行中。 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档]。 操作步骤 创建应用 进入智算套件,AI应用列表,在线推理菜单,创建AI应用。 基本信息 应用类型:vLLM 应用数:1 配置信息 推理类型选择多机,推理框架、框架版本、推理模型、模型版本、根据实际情况选择。简单的示例: 推理框架: ascendvllm 框架版本:v0.14.0rc1 推理模型:deepseekr1distillqwen7b 模型版本:v1 队列:选择存在且资源足够的的队列
        来自:
      • 计费说明
        版本说明 基础版 专业版 铂金版 适用场景 个人开发者和小微企业 大中小型企业 大型企业 付费模式 5人及以下:免费 超出5人:预付费,包年/包月 预付费,包年/包月 预付费,包年/包月 可购买人数 最少购买人数为5人 5人以上,购买人数不限 最少购买人数为6人 6人以上,购买人数不限 最少购买人数为100人 100人以上,购买人数不限 购买周期 基础5人:1年 超出5人:1个月起 1个月~1年 1个月~1年
        来自:
        帮助文档
        软件开发生产线CodeArts
        产品介绍
        计费说明
      • 计费类问题
        版本说明 基础版 专业版 铂金版 适用场景 个人开发者和小微企业 大中小型企业 大型企业 付费模式 5人及以下:免费 超出5人:预付费,包年/包月 预付费,包年/包月 预付费,包年/包月 可购买人数 最少购买人数为5人 5人以上,购买人数不限 最少购买人数为6人 6人以上,购买人数不限 最少购买人数为100人 100人以上,购买人数不限 购买周期 基础5人:1年 超出5人:1个月起 1个月~1年 1个月~1年
        来自:
        帮助文档
        软件开发生产线CodeArts
        常见问题
        计费类问题
      • vLLM NPU多机PD分离
        本节介绍如何创建vLLM NPU多机PD分离任务。 前置条件 1. 确认智算套件已经安装并且全部运行中。 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档]。 操作步骤 创建任务 进入智算套件,AI应用列表,在线推理菜单,创建AI应用。 基本信息 应用类型:vLLM 开启PD分离选择 静态PD分离 配置信息 推理类型选择多机,推理框架,框架版本,推理模型,模型版本,Prefill 实例数和副本数,Decode 实例数和副本数,根据实际情况选择。简单的示例: 推理框架: ascendvllm 框架版本:v0.11.0rc2 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 队列:选择存在且资源足够的的队列 注意 Prefill 实例数和副本数,Decode 实例数和副本数用默认参数即可。 Prefill 菜单中的 PrefillMaster, PrefillWorker,Decode 菜单中的 DecodeMaster,DecodeWorker 启动参数用默认参数即可。 Prefill 菜单中的 PrefillMaster, PrefillWorker 中的资源都要填 NPU。 Decode 菜单中的 DecodeMaster,DecodeWorker 中的资源都要填 NPU。
        来自:
        帮助文档
        智算套件
        用户指南
        推理应用
        创建推理应用
        vLLM NPU多机PD分离
      • 添加子租户
        参数名 描述 集群 显示上级父租户所在集群。 父租户资源 显示上级父租户的名称。 名称 指定当前租户的名称,长度为3~50个字符,可包含数字、字母或下划线()。 根据业务需求规划子租户的名称,不得与当前集群中已有的角色、HDFS目录或者Yarn队列重名。 租户类型 指定租户是否是一个叶子租户: 选择“叶子租户”:当前租户为叶子租户,不支持添加子租户。 选择“非叶子租户”:当前租户为非叶子租户,支持添加子租户,但租户层级不能超过5层。 计算资源 为当前租户选择动态计算资源。 选择“Yarn”时,系统自动在Yarn中以子租户名称创建任务队列。− 如果是叶子租户,叶子租户可直接提交到任务队列中。− 如果是非叶子租户,非叶子租户不能直接将任务提交到队列中。但是,Yarn会额外为非叶子租户增加一个任务队列(隐含),队列默认命名为“default”,用于统计当前租户剩余的资源容量,实际任务不会分配在此队列中运行。 不选择“Yarn”时,系统不会自动创建任务队列。 默认资源池容量(%) 配置当前租户使用的计算资源百分比,基数为父租户的资源总量。 默认资源池最大容量(%) 配置当前租户使用的最大计算资源百分比,基数为父租户的资源总量。 存储资源 为当前租户选择存储资源。 选择“HDFS”时,系统将自动在HDFS父租户目录中,以子租户名称创建文件夹。 不选择“HDFS”时,系统不会分配存储资源。 文件目录数上限 配置文件和目录数量配额。 存储空间配额 配置当前租户使用的HDFS存储空间配额。 当存储空间配额单位设置为MB时,范围为1~8796093022208,当“存储空间配额单位”设置为GB时,范围为1~8589934592。 此参数值表示租户可使用的HDFS存储空间上限,不代表一定使用了这么多空间。 如果参数值大于HDFS物理磁盘大小,实际最多使用全部的HDFS物理磁盘空间。 如果此配额大于父租户的配额,实际存储量不超过父租户配额。 存储路径 配置租户在HDFS中的存储目录。 系统默认将自动在父租户目录中以子租户名称创建文件夹。例如子租户“ta1s”,父目录为“/tenant/ta1”,系统默认自动配置此参数值为“/tenant/ta1/ta1s”,最终子租户的存储目录为“/tenant/ta1/ta1s”。 支持在父目录中自定义存储路径。 描述 配置当前租户的描述信息
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        使用Capacity调度器的租户业务
        创建租户
        添加子租户
      • 删除资源池
        本章节主要介绍如何删除资源池。 操作场景 该任务指导用户通过MRS删除已有资源池。 前提条件 集群中任何一个队列不能使用待删除资源池为默认资源池,删除资源池前需要先取消默认资源池,请参见配置队列。 集群中任何一个队列不能在待删除资源池中配置过资源分布策略,删除资源池前需要先清除策略,请参见清除队列配置。 已完成IAM用户同步(在集群详情页的“概览”页签,单击“IAM用户同步”右侧的“同步”进行IAM用户同步)。 操作步骤 1.在集群详情页,单击“租户管理”。 说明 MRS 3.x及之后版本请参考使用说明。 2.单击“资源池”页签。 3.在资源池列表指定资源池所在行的“操作”列,单击“删除”。 在弹出窗口中单击“确定”。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        租户管理
        删除资源池
      • 创建普通任务(Job)
        Job类型 说明 使用示例 一次性Job 创建一个Pod直至其成功结束 数据库迁移 固定结束次数的Job 依次创建一个Pod运行直至completions个成功结束 处理工作队列的Pod 固定结束次数的并行Job 依次创建多个Pod运行直至completions个成功结束 多个Pod同时处理工作队列 并行Job 创建一个或多个Pod直至有一个成功结束 多个Pod同时处理工作队列
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        工作负载
        创建普通任务(Job)
      • 资源监控
        表名,表分区个数。 Hive HQL的Map数 Hive周期内执行的HQL与执行过程中调用的Map数统计,展示的信息包括:用户、HQL语句、Map数目。 Hive HQL访问次数 周期内HQL访问次数统计信息。 Kafka Kafka磁盘使用率分布 Kafka集群的磁盘使用率分布统计。 Spark2x HQL访问次数 周期内HQL访问次数统计信息,展示信息包括用户名,HQL语句,执行该语句的次数。 Yarn 资源使用(按任务) l 任务使用的CPU核数和内存。 l 可选择“按内存”或“按CPU”观察。 Yarn 资源使用(按租户) l 租户所使用的CPU核数和内存。 l 可选择“按内存”或“按CPU”观察。 Yarn 资源使用比例(按租户) l 租户所使用的CPU核数和内存的比例。 l 可选择“按内存”或“按CPU”观察。 Yarn 任务耗时排序 对Yarn任务耗时进行排序显示。 Yarn ResourceManager RPC连接数(按用户) 统计连接到RM的Client RPC请求中,各个用户的连接数。 Yarn 操作数 统计Yarn每种操作类型对应的操作数及占比。 Yarn 队列中任务资源使用排序 l 在界面上选择某个队列(租户)后,显示在该队列中正在运行任务的消耗资源排序。 l 可选择“按内存”或“按CPU”观察。 Yarn 队列中用户资源使用排序 l 在界面上选择某个队列(租户)后,显示在该队列中正在运行任务的用户消耗的资源排序。 l 可选择“按内存”或“按CPU”观察。 ZooKeeper 资源使用(按二级Znode) l ZooKeeper服务二级znode资源状况。 l 可选择“按Znode数量”或“按容量”观察 ZooKeeper 连接数(按客户端IP) ZooKeeper客户端连接资源状况。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        管理服务
        其他服务管理操作
        资源监控
      • 应用场景(1)
        本节介绍了云容器引擎的应用场景,便于用户选择业务场景使用。 微服务架构 企业应用通过微服务拆分和容器化改造后,推荐使用云容器引擎+容器镜像服务+微服务云应用平台+注册配置中心的产品组合,实现一站式云原生应用托管,加速企业业务迭代。 持续集成交付 提供从开发到上线一致的运行环境,借助第三方工具进行流水线开发测试,自动完成从代码变更到代码构建、测试、镜像构建和应用部署的DevOps完整流程。进行持续交付,替代传统部署方式,提高交付效率。 弹性伸缩 企业应用按业务流量自动扩缩容,不需要人工干预,预防流量激增时导致的业务不可用风险,并且减少对闲置资源的浪费和费用支出。
        来自:
      • 注册配置中心计费说明
        本章节介绍注册配置中心的计费项、计费方式和计费规则。本产品计费不包含负载均衡和容器服务等IaaS层资源的费用。 计费项 微服务引擎注册配置中心的计费项包含注册配置中心托管的普通实例费用、数据盘费用,其中数据盘费用单独计算。 计费方式 目前注册配置中心提供包年包月和按需付费两种付费模式。 按需付费:按需付费是后付费模式,您只需按实际情况进行使用,然后按照使用账单付费即可。为避免造成您的损失,如果您不想再使用此产品,则需要您在微服务引擎注册配置中心实例管理页面内将指定实例退订,系统才会正式停止计费。 包年包月:包年包月是预付费模式,按照包年包月的方式进行付费购买。只要您实际接入的实例数不超过您购买的实例数,不会造成额外的费用。包年包月的模式下,您需要在到期前进行续费或选择自动续费的方式,确保产品持续可用。 计费规则 实例计费规则 注册配置中心实例计费规则如下: 版本类型 主机类型 CPU(核) 内存(GB) 按需(元/节点/小时) 包月(元/节点/月) 注册配置中心单机版 X86通用型 2 4 0.461 221 注册配置中心集群版 X86通用型 2 4 0.77 369 注册配置中心集群版 X86通用型 4 8 1.413 677 注册配置中心集群版 X86通用型 8 16 2.7 1294 注册配置中心集群版 X86通用型 16 32 5.274 2528 注册配置中心企业版 X86通用型 2 4 1.51 724 注册配置中心企业版 X86通用型 4 8 2.869 1377 注册配置中心企业版 X86通用型 8 16 5.451 2616 注册配置中心企业版 X86通用型 16 32 10.357 4971 注册配置中心单机版(鲲鹏) ARM鲲鹏通用型 2 4 0.6 255 注册配置中心单机版(鲲鹏) ARM鲲鹏计算增强型 2 4 0.8 364 注册配置中心集群版(鲲鹏) ARM鲲鹏通用型 2 4 0.9 425 注册配置中心集群版(鲲鹏) ARM鲲鹏通用型 4 8 1.7 779 注册配置中心集群版(鲲鹏) ARM鲲鹏通用型 8 16 3.2 1489 注册配置中心集群版(鲲鹏) ARM鲲鹏通用型 16 32 6.1 2908 注册配置中心集群版(鲲鹏) ARM鲲鹏计算增强型 2 4 1.3 606 注册配置中心集群版(鲲鹏) ARM鲲鹏计算增强型 4 8 2.4 1111 注册配置中心集群版(鲲鹏) ARM鲲鹏计算增强型 8 16 4.5 2122 注册配置中心集群版(鲲鹏) ARM鲲鹏计算增强型 16 32 8.7 4144 注册配置中心企业版(鲲鹏) ARM鲲鹏通用型 2 4 1.8 833 注册配置中心企业版(鲲鹏) ARM鲲鹏通用型 4 8 3.3 1584 注册配置中心企业版(鲲鹏) ARM鲲鹏通用型 8 16 6.3 3009 注册配置中心企业版(鲲鹏) ARM鲲鹏通用型 16 32 12 5717 注册配置中心企业版(鲲鹏) ARM鲲鹏计算增强型 2 4 2.5 1188 注册配置中心企业版(鲲鹏) ARM鲲鹏计算增强型 4 8 4.8 2258 注册配置中心企业版(鲲鹏) ARM鲲鹏计算增强型 8 16 9 4288 注册配置中心企业版(鲲鹏) ARM鲲鹏计算增强型 16 32 17 8147 注册配置中心单机版(飞腾) ARM飞腾通用型 2 4 0.6 255 注册配置中心单机版(飞腾) ARM飞腾计算增强型 2 4 0.8 338 注册配置中心集群版(飞腾) ARM飞腾通用型 2 4 0.9 425 注册配置中心集群版(飞腾) ARM飞腾通用型 4 8 1.7 779 注册配置中心集群版(飞腾) ARM飞腾通用型 8 16 3.2 1489 注册配置中心集群版(飞腾) ARM飞腾通用型 16 32 6.1 2908 注册配置中心集群版(飞腾) ARM飞腾计算增强型 2 4 1.2 564 注册配置中心集群版(飞腾) ARM飞腾计算增强型 4 8 2.2 1033 注册配置中心集群版(飞腾) ARM飞腾计算增强型 8 16 4.2 1973 注册配置中心集群版(飞腾) ARM飞腾计算增强型 16 32 8.1 3854 注册配置中心企业版(飞腾) ARM飞腾通用型 2 4 1.8 833 注册配置中心企业版(飞腾) ARM飞腾通用型 4 8 3.3 1584 注册配置中心企业版(飞腾) ARM飞腾通用型 8 16 6.3 3009 注册配置中心企业版(飞腾) ARM飞腾通用型 16 32 12 5717 注册配置中心企业版(飞腾) ARM飞腾计算增强型 2 4 2.3 1104 注册配置中心企业版(飞腾) ARM飞腾计算增强型 4 8 4.4 2099 注册配置中心企业版(飞腾) ARM飞腾计算增强型 8 16 8.4 3987 注册配置中心企业版(飞腾) ARM飞腾计算增强型 16 32 15.8 7576 注册配置中心单机版(海光) X86海光通用型 2 4 0.6 255 注册配置中心单机版(海光) X86海光计算增强型 2 4 0.8 345 注册配置中心集群版(海光) X86海光通用型 2 4 0.9 425 注册配置中心集群版(海光) X86海光通用型 4 8 1.7 779 注册配置中心集群版(海光) X86海光通用型 8 16 3.2 1489 注册配置中心集群版(海光) X86海光通用型 16 32 6.1 2908 注册配置中心集群版(海光) X86海光计算增强型 2 4 1.2 574 注册配置中心集群版(海光) X86海光计算增强型 4 8 2.2 1052 注册配置中心集群版(海光) X86海光计算增强型 8 16 4.2 2011 注册配置中心集群版(海光) X86海光计算增强型 16 32 8.2 3926 注册配置中心企业版(海光) X86海光通用型 2 4 1.8 833 注册配置中心企业版(海光) X86海光通用型 4 8 3.3 1584 注册配置中心企业版(海光) X86海光通用型 8 16 6.3 3009 注册配置中心企业版(海光) X86海光通用型 16 32 12 5717 注册配置中心企业版(海光) X86海光计算增强型 2 4 2.4 1125 注册配置中心企业版(海光) X86海光计算增强型 4 8 4.5 2139 注册配置中心企业版(海光) X86海光计算增强型 8 16 8.5 4063 注册配置中心企业版(海光) X86海光计算增强型 16 32 16.1 7718 以订购注册配置中心集群版4C8G为例,若订购3节点,则价格为:677 3 2031元/月。 说明 企业版目前支持通过白名单方式开放订购,若您需要订购使用,请联系客户经理或提工单进行解决。
        来自:
        帮助文档
        微服务引擎
        购买指南
        计费说明
        注册配置中心计费说明
      • 如何提高消息处理效率
        重视消息生产与消费的确认过程 消息生产(发送) Kafka非常重视消息生产确认过程,它提供了可靠的消息传递保证。下面是Kafka在消息生产确认方面的一些关键特性和机制: 同步发送和异步发送:Kafka提供了同步发送和异步发送两种方式。在同步发送中,生产者会等待服务器确认消息已成功写入到所有副本中,然后才会返回确认。这种方式可以确保消息的可靠性,但会影响吞吐量。而在异步发送中,生产者会立即返回确认,不等待服务器的响应。这种方式可以提高吞吐量,但消息的可靠性可能会有所降低。 消息复制机制:Kafka使用多个副本来保证消息的可靠性。在消息发送过程中,生产者将消息写入到主副本,并将消息复制到其他副本。只有当所有副本都成功写入消息后,生产者才会返回确认。这样可以确保即使主副本发生故障,仍然可以从其他副本中读取到消息。 ISR机制:Kafka使用ISR(InSync Replicas)机制来保证消息的可靠性。ISR是指与主副本保持同步的副本集合。只有ISR中的副本成功写入消息后,生产者才会返回确认。如果某个副本与主副本的同步延迟超过一定阈值,那么它将被移出ISR,不再参与消息的确认过程,直到与主副本同步。 消息持久化:Kafka将消息持久化到磁盘,以确保即使发生故障,消息也不会丢失。消息被写入到日志文件中,并通过索引来提供高效的读取和检索。 可配置的确认级别:Kafka提供了可配置的消息确认级别。确认级别可以设置为0、1或all。在确认级别为0时,生产者不会等待服务器的确认,直接返回确认。在确认级别为1时,生产者会等待主副本的确认。在确认级别为all时,生产者会等待所有副本的确认。确认级别的选择可以根据应用的需求和性能要求进行调整。 总之,Kafka通过同步发送、消息复制、ISR机制、消息持久化和可配置的确认级别等机制,重视消息生产确认过程,以确保消息的可靠性和一致性。这些机制使得Kafka成为一个可靠的分布式消息系统。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        如何提高消息处理效率
      • 概述
        本指南主要介绍RabbitMQ实例连接信息的收集,如获取RabbitMQ实例连接地址与端口、访问实例的用户名和密码,然后提供Python语言和Spring Boot的连接示例。 RabbitMQ实例完全兼容开源RabbitMQ协议,Python以外的语言,请参考RabbitMQ官网提供的不同语言的连接和使用向导。 开源SDK列表 分布式消息服务RabbitMQ版支持所有开源版本的SDK,常见的开源SDK如下表所示。 开源SDK列表 编程语言 SDK :: Java rabbitmqjavaclient Spring Framework SpringAMQP .Net rabbitmqdotnetclient Python pika PHP phpamqplib C rabbitmqc Go amqp091go 客户端可以通过以下方式访问RabbitMQ实例: 1. VPC内子网地址访问 如果客户端与RabbitMQ实例处于同region同VPC,则可以直接访问RabbitMQ实例提供的VPC内子网地址。 2. VPC对等连接方式访问 如果客户端与RabbitMQ实例处于相同region但不同VPC,则可以通过建立VPC对等连接后,访问RabbitMQ实例提供的VPC内子网地址。 关于创建和使用VPC对等连接,可参考对等连接。 3. 公网访问 客户端在其他网络环境,或者与RabbitMQ实例处于不同region,则访问实例的公网地址。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        开发指南
        概述
      • 购买类
        参数名 描述 集群 显示上级父租户所在集群。 父租户资源 显示上级父租户的名称。 名称 指定当前租户的名称,长度为3~50个字符,可包含数字、字母或下划线()。 根据业务需求规划子租户的名称,不得与当前集群中已有的角色、HDFS目录或者Yarn队列重名。 租户类型 指定租户是否是一个叶子租户: 选择“叶子租户”:当前租户为叶子租户,不支持添加子租户。 选择“非叶子租户”:当前租户为非叶子租户,支持添加子租户,但租户层级不能超过5层。 计算资源 为当前租户选择动态计算资源。 选择“Yarn”时,系统自动在Yarn中以子租户名称创建任务队列。 − 如果是叶子租户,叶子租户可直接提交到任务队列中。 − 如果是非叶子租户,非叶子租户不能直接将任务提交到队列中。但是,Yarn会额外为非叶子租户增加一个任务队列(隐含),队列默认命名为“default”,用于统计当前租户剩余的资源容量,实际任务不会分配在此队列中运行。 不选择“Yarn”时,系统不会自动创建任务队列。 默认资源池容量 (%) 配置当前租户使用的计算资源百分比,基数为父租户的资源总量。 默认资源池最大容量(%) 配置当前租户使用的最大计算资源百分比,基数为父租户的资源总量。 存储资源 为当前租户选择存储资源。 选择“HDFS”时,系统将自动在HDFS父租户目录中,以子租户名称创建文件夹。 不选择“HDFS”时,系统不会分配存储资源。 文件目录数上限 配置文件和目录数量配额。 存储空间配额 配置当前租户使用的HDFS存储空间配额。 当存储空间配额单位设置为MB时,范围为1~8796093022208,当“存储空间配额单位”设置为GB时,范围为1~8589934592。 此参数值表示租户可使用的HDFS存储空间上限,不代表一定使用了这么多空间。 如果参数值大于HDFS物理磁盘大小,实际最多使用全部的HDFS物理磁盘空间。 如果此配额大于父租户的配额,实际存储量不超过父租户配额。 存储路径 配置租户在HDFS中的存储目录。 系统默认将自动在父租户目录中以子租户名称创建文件夹。例如子租户“ta1s”,父目录为“/tenant/ta1”,系统默认自动配置此参数值为“/tenant/ta1/ta1s”,最终子租户的存储目录为“/tenant/ta1/ta1s”。 支持在父目录中自定义存储路径。 描述 配置当前租户的描述信息。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        购买类
      • MindIE NPU单机推理
        本节介绍如何创建MindIE NPU单机推理任务。 本示例基于 MindIE 推理框架,选用 deepseekr1distillqwen1.5b 模型进行单机部署。整体部署 2 个推理应用实例,每个实例占用 1 张 NPU 卡,因此本任务共需 2 张 NPU 卡,用于验证轻量级模型在单机环境下的推理能力。 前置条件 1. 确认智算套件已经安装并且全部运行中。 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档]。 操作步骤 创建应用 进入智算套件,AI应用列表,在线推理菜单,创建AI应用。 基本信息 应用类型:MindIE 应用数:2 配置信息 推理类型选择 单机,推理框架,框架版本,推理模型,模型版本根据实际情况选择。简单的示例: 推理框架:ascendmindie 框架版本:2.2.RC1800IA2py311openeuler24.03lts 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 队列:选择存在且资源足够的的队列 Master:CPU,内存,共享内存可以不填,NPU填:1 点击确认完成创建。
        来自:
        帮助文档
        智算套件
        用户指南
        推理应用
        创建推理应用
        MindIE NPU单机推理
      • 创建vLLM NPU多机PD分离任务(1)
        本节介绍如何创建vLLM NPU多机PD分离任务。 前置条件 1. 确认智算套件已经安装并且全部运行中 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档] 操作步骤 创建任务 进入智算套件,AI应用列表,在线推理菜单,创建AI应用 基本信息 应用类型:vLLM 开启PD分离选择 静态PD分离 推理类型选择 多机 配置信息 推理框架,框架版本,推理模型,模型版本,Prefill 实例数和副本数,Decode 实例数和副本数,根据实际情况选择。 注意 Prefill 实例数和副本数,Decode 实例数和副本数用默认参数即可。 Prefill 菜单中的 PrefillMaster, PrefillWorker,Decode 菜单中的 DecodeMaster,DecodeWorker 启动参数用默认参数即可。 Prefill 菜单中的 PrefillMaster, PrefillWorker 中的资源都要填 NPU。 Decode 菜单中的 DecodeMaster,DecodeWorker 中的资源都要填 NPU。 简单的示例: 推理框架: ascendvllm 框架版本:v0.11.0rc2 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 队列:选择存在且资源足够的的队列
        来自:
      • 消息接收人设置
        本文主要介绍了消息接收人设置的操作流程。 消息接收人默认为账号联系人,不可编辑、删除。在账号联系人之外,用户可以添加或删除消息接收人,也可对消息接收人信息进行修改。 操作步骤 1、登录消息中心。 2、点击消息中心左侧导航,选择“消息接收人设置”。 3、消息接收人设置 新增消息接收人 (1)点击“新增消息接收人”,根据页面提示填写接收人姓名、手机号、邮箱并提交。 (2)点击邮箱及手机号右侧提示完成验证。 说明 需要邮箱及手机号均完成验证,新增的消息接收人才能在“消息管理”中完成添加。 修改消息接收人信息 (1)选择需要修改的消息接收人,点击“编辑”,然后根据需求,可修改接收人姓名、手机号、邮箱,然后提交。 (2)点击邮箱及手机号右侧提示完成验证。 说明 只修改姓名无需重新验证,若替换了新的邮箱/手机,则需要验证才能接收消息。 删除消息接收人 选择需要删除的消息接收人,点击“删除”,再次确认即可完成删除。
        来自:
        帮助文档
        账号中心
        消息中心
        消息订阅
        消息接收人设置
      • MindIE NPU单机PD分离
        本节介绍如何创建MindIE NPU单机PD分离任务。 本示例基于 MindIE 推理框架,选用 deepseekr1distillqwen1.5b 模型进行单机 PD(Prefill/Decode)分离部署。部署形态为 2P × 2D 架构,其中 Prefill 阶段使用 2 个实例,每个实例占用 1 张 NPU 卡;Decode 阶段使用 2 个实例,每个实例占用 1 张 NPU 卡。因此,本任务共需 4 张 NPU 卡,实现 Prefill 与 Decode 解耦,以提升首 Token 时延与整体吞吐性能。 前置条件 1. 确认智算套件已经安装并且全部运行中。 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档]。 操作步骤 创建应用 进入智算套件,AI应用列表,在线推理菜单,创建AI应用。 基本信息 应用类型:MindIE 开启PD分离选择 静态PD分离 配置信息 推理类型选择单机,推理框架,框架版本,推理模型,模型版本根据实际情况选择。简单的示例: 推理框架: ascendmindie 框架版本:2.2.RC1800IA2py311openeuler24.03lts 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 队列:选择存在且资源足够的的队列
        来自:
        帮助文档
        智算套件
        用户指南
        推理应用
        创建推理应用
        MindIE NPU单机PD分离
      • MindIE NPU单机PD分离(1)
        本节介绍如何创建MindIE NPU单机PD分离任务。 本示例基于 MindIE 推理框架,选用 deepseekr1distillqwen1.5b 模型进行单机 PD(Prefill/Decode)分离部署。部署形态为 2P × 2D 架构,其中 Prefill 阶段使用 2 个实例,每个实例占用 1 张 NPU 卡;Decode 阶段使用 2 个实例,每个实例占用 1 张 NPU 卡。因此,本任务共需 4 张 NPU 卡,实现 Prefill 与 Decode 解耦,以提升首 Token 时延与整体吞吐性能。 前置条件 1. 确认智算套件已经安装并且全部运行中。 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档]。 操作步骤 创建应用 进入智算套件,AI应用列表,在线推理菜单,创建AI应用。 基本信息 应用类型:MindIE 开启PD分离选择 静态PD分离 配置信息 推理类型选择单机,推理框架,框架版本,推理模型,模型版本根据实际情况选择。简单的示例: 推理框架: ascendmindie 框架版本:2.2.RC1800IA2py311openeuler24.03lts 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 队列:选择存在且资源足够的的队列
        来自:
      • 站内消息
        本页介绍天翼云TeleDB数据库如何查询站内消息。 在消息中心模块,提供了站内消息和消息订阅的功能。站内消息包括服务订阅、系统消息、产品消息和告警消息四大类消息。 消息查询:在消息查询中可以通过消息类型的精确匹配和消息标题或消息内容的模糊匹配对消息进行过滤查询。 消息详情:单击消息标题可以查看具体消息的详情,在查看具体消息详情之后,会将推送的消息置灰。 除此之外,还能够站内消息进行删除和批量删除以及全部删除操作。当您在消息列表上方单击全部标为已读按钮时,所有消息都将置灰。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据库资源与生命周期管理服务操作指南
        消息中心
        站内消息
      • DLI自定义策略
        Action 说明 dli:queue:submitjob DLI队列的提交操作 dli:queue: DLI队列的全部操作 dli:: DLI所有资源类型的所有操作
        来自:
        帮助文档
        数据湖探索
        用户指南
        权限管理
        DLI自定义策略
      • 1
      • ...
      • 20
      • 21
      • 22
      • 23
      • 24
      • ...
      • 276
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      云聚517 · 好价翼起拼

      爆款云主机低至25.83元/年,参与拼团享更多优惠,拼成得额外优惠券

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      聚力AI赋能 天翼云大模型专项

      大模型特惠专区·Token Plan 轻享包低至9.9元起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      企业出海解决方案

      助力您的业务扬帆出海,通达全球!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      产品推荐

      多活容灾服务 MDR

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      AI Store

      推荐文档

      android端

      产品定义

      《工业和信息化部关于进一步落实网站备案信息真实性核验工作方案(试行)》工信部电管〔2010〕64号

      MySQL

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 息壤智算平台
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号