活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      消息队列RocketMQ版_相关内容
      • 购买
        本章节主要介绍数据湖探索(DLI)的购买流程。 1.注册天翼云官网账号,登录后进入官网首页; 2.在官网首页,单击左上角“产品”,【大数据>数据湖探索】; 3.在【数据湖探索】界面,单击【立即开通】; 4.在数据湖探索队列购买页面选择CPU架构、队列规格并填写相关配置信息,勾选服务协议,单击【立即购买】; 5.按页面提示,单击【提交】即完成队列创建。队列创建完成后,您可在产品控制台“队列管理”页面看到您创建的队列。
        来自:
        帮助文档
        数据湖探索
        计费说明
        购买
      • 处理漏洞
        手动修复漏洞 您可以参考漏洞详情页面的修复建议,登录服务器手动修复漏洞。 说明 漏洞修复完成后需要手动重启服务器,否则系统仍可能为您推送漏洞消息。 不同的漏洞请根据修复建议依次进行修复。 执行以下步骤,查看漏洞修复建议: 1. 登录服务器安全卫士(原生版)控制台。 2. 在左侧导航栏,选择“风险管理 > 漏洞扫描”,进入漏洞扫描页面。 3. 单击“漏洞公告”链接、或操作列的“立即处理”,跳转至漏洞详情页面。 4. 在漏洞列表单击操作列的“更多”,查看漏洞的修复建议。 忽略漏洞 某些漏洞只在特定条件下存在风险,比如某漏洞必须通过开放端口进行入侵,如果主机系统并未开放该端口,则该漏洞不存在危害。如果评估后确认某漏洞暂时无害,可以忽略该漏洞。 说明 当漏洞处理状态为“未修复”、“修复失败”、“修复成功”、“修复成功待重启”时,可执行“忽略”操作。 1. 登录服务器安全卫士(原生版)控制台。 2. 在左侧导航栏,选择“风险管理 > 漏洞扫描”,进入漏洞扫描页面。 3. 勾选漏洞列表中所有需要忽略的漏洞,单击漏洞列表左上角的“批量忽略”,一键批量忽略漏洞。 4. 在弹出的对话框中,确认忽略的漏洞数量和影响服务器数量后,单击“确定”。 漏洞忽略后将不再提示,您可在漏洞列表中选择已忽略漏洞进行取消忽略操作。
        来自:
        帮助文档
        服务器安全卫士(原生版)
        用户指南
        风险管理
        漏洞扫描
        处理漏洞
      • 开发SQL脚本
        属性 说明 数据连接 选择数据连接。 数据库 选择数据库。 资源队列 选择执行DLI作业的资源队列。当脚本为DLI SQL时,配置该参数。如需新建资源队列,请参考以下方法: 单击 ,进入DLI的“队列管理”页面新建资源队列。 前往DLI管理控制台进行新建。 说明 DLI提供默认资源队列“default”,该资源队列不支持insert、load、cat命令。 如需以“key/value”的形式设置提交SQL作业的属性,请单击 。最多可设置10个属性,属性说明如下: dli.sql.autoBroadcastJoinThreshold(自动使用BroadcastJoin的数据量阈值) dli.sql.shuffle.partitions(指定Shuffle过程中Partition的个数) dli.sql.cbo.enabled(是否打开CBO优化策略) dli.sql.cbo.joinReorder.enabled(开启CBO优化时,是否允许重新调整join的顺序) dli.sql.multiLevelDir.enabled(OBS表的指定目录或OBS表分区表的分区目录下有子目录时,是否查询子目录的内容;默认不查询) dli.sql.dynamicPartitionOverwrite.enabled(在动态分区模式时,只会重写查询中的数据涉及的分区,未涉及的分区不删除)
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        脚本开发
        开发脚本
        开发SQL脚本
      • 管理消息与新建系统公告
        此小节介绍云堡垒机管理消息与新建系统公告。 消息中心是系统内各类消息接收提示管理中心。系统公告是对系统用户广播系统内重大变更的消息提醒。 管理消息列表 消息中心小窗可呈现最新三条未读消息。任务执行完成后,则可在任务中心查看全部任务。 消息类型共有5种,分别包括系统消息、业务消息、任务消息、命令告警、工单消息。 消息级别共有3种,分别包括“高”、“中”、“低”,消息级别越高代表消息重要程度越高。 本小节主要介绍如何在消息中心查看、删除、标记消息。 查看消息提醒 1. 登录云堡垒机系统。 2. 单击右上角,展开消息中心小窗口, 可查看最新三条未读消息。 3. 单击“查看更多”,进入消息中心列表页面。 4. 查询消息,在搜索框中输入关键字,根据消息标题内容快速查询消息。 5. 查看消息列表。消息按发生时间顺序倒序排列,可查看全部已读、未读的消息 。 6. 查看消息详情。单击目标消息名称,进入消息详情页面。 删除消息提醒 1. 登录云堡垒机系统。 2. 单击右上角,展开消息中心小窗口,可查看最新三条未读消息。 3. 单击“查看更多”,进入消息中心列表页面。 4. 勾选一条或多条消息,单击左下角“删除”,弹出删除消息确认窗口。 5. 单击“确定”,即可立即删除选中消息。消息删除后不可找回,请谨慎操作。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        系统桌面
        管理消息与新建系统公告
      • SQL作业管理
        参数名称 描述 数据格式 导出查询结果数据的文件格式。支持json和csv格式。 队列 选择运行的队列。SQL作业只能在队列类型为“SQL队列”下执行。具体队列创建可以参考6.3 创建队列。 压缩格式 导出查询结果数据的压缩方式,选择如下压缩方式。 l none l bzip2 l deflate l gzip 存储路径 输入或选择OBS的路径。 说明 l 选择OBS桶后,请在文本框中定义文件夹名称,若该文件夹不存在,则会在OBS中创建。 l 文件夹名称不能包含下列特殊字符: / : ? " < > ,并且不能以“.”开头和结尾。 导出方式 导出查询结果数据的保存方式。 l 随导出创建指定路径:指定的导出目录必须不存在,如果指定目录已经存在,系统将返回错误信息,无法执行导出操作。 l 覆盖指定路径:在指定目录下新建文件,会删除已有文件。 结果条数 导出查询结果数据的数量。不填写数值或数值为“0”时,导出全部结果。 表头 设置导出查询结果数据是否含表头。
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业管理
        SQL作业管理
      • 配置自动伸缩
        配置项 说明 伸缩名称 长度为115个字符,仅支持数字、英文字母或下划线,必须以英文字母为首。 应用队列 默认展示选择的应用队列。 伸缩组最大节点数(台) 配置伸缩组内的最大节点数,当伸缩组内节点数大于最大节点数时,自动伸缩服务会自动移出节点,使得队列的当前实例数等于最大节点数。 伸缩组最小节点数(台) 配置伸缩组内的最小节点数,当伸缩组内节点数小于最小节点数时,自动伸缩服务会自动添加节点,使得队列的当前实例数等于最小节点数。 自动扩容 是否开启自动扩容。 自动缩容 是否开启自动缩容。 缩容时间(分钟) 计算节点的连续空闲时间超过缩容时间时,该节点会被释放。 伸缩策略 全量策略:根据单次最大伸缩节点数和伸缩组满足节点数,全量伸缩所需的节点数,不考虑队列中已有的空闲节点数。 增量策略:根据单次最大伸缩节点数、伸缩组满足节点数以及队列已有空闲节点数。增量伸缩所需的节点数。 计算节点规格 选择自动扩容节点的规格。 镜像 选择自动扩容节点的镜像。 注:该镜像为弹性高性能计算平台定制镜像,请优先保持集群同一镜像。 计算节点硬盘 选择自动扩容节点规格所对应的硬盘。 子网 选择子网,建议同一个队列保持子网一致。
        来自:
        帮助文档
        弹性高性能计算 E-HPC
        用户指南
        管理集群
        配置自动伸缩
      • 设置自定义告警规则
        本页介绍了天翼云关系数据库MySQL版告警规则的设置方法。 注意 仅II类型资源池支持该功能,具体支持情况以控制台页面展示为准。更多资源池信息,请参见功能概览。 操作场景 管理控制台支持设置告警规则,用户可自定义监控目标与通知策略,及时了解MySQL数据库服务运行状况,从而起到预警作用。 说明 针对部分告警(比如存储空间或者备份空间满)默认推送给对应的租户,如果租户下面有多个用户,则所有用户都会收到对应的告警信息。 如果某个用户不希望收到告警,则需要使用该用户的账号登录天翼云官网进入数据库管理平台 > 消息中心 > 消息订阅,在告警信息设置中取消该用户的邮件、短信、企业微信和钉钉等。 新建指标告警策略 1.在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2.在左侧导航栏,选择管理中心 > 告警中心 > 告警设置。 3.单击新建告警策略,设置告警规则,您也可以对已创建的策略进行编辑修改。 参数名 参数解释 策略名称 告警策略的名称,一个告警策略可以包含多个告警规则。 资源池 告警策略对应的资源池。 备注 告警策略的备注信息。 告警对象 可选择天翼云数据库组件,并选择对应的告警实例。 以MySQL为例,可在单击实例MySQL后,单击资源池旁的选择实例。 模板类型 支持手动创建告警规则,用户也可使用默认模板的告警规则。 阈值告警 支持选择实例内存使用率、磁盘使用率、CPU使用率、连接数和活跃连接数比例、全部会话、活跃会话、备份空间使用量、实例TPS、QPS等告警指标,备份空间使用率等,具体以实际页面展示为准。 状态告警 支持选择实例状态,即实例状态异常时将发出告警。 沉默周期 指告警发生后如果未恢复正常,间隔多久重复发送一次告警通知。 告警级别 支持选择紧急、告警、普通三种告警级别。 通知方式 支持选择邮箱、短信、企业微信、钉钉等多种方式,支持同时选择多种告警方式进行告警。填写后将以选定的通知方式进行告警通知。 告警联系人 目前可选择主账号和该主账号下的子账号,不可选择其他用户。选择后会将告警信息推送至用户绑定的邮箱和短信。 4.填写对应参数后,单击确认。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        监控与告警
        设置自定义告警规则
      • vLLM GPU单机推理
        本节介绍如何创建vLLM GPU 单机推理任务。 前置条件 1. 确认智算套件已经安装并且全部运行中 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(GPU,CPU,内存) [参考创建队列的文档] 操作步骤 创建任务 进入智算套件,AI应用列表,在线推理菜单,创建AI应用 基本信息 应用类型:vLLM 推理类型选择 单机 推理框架,框架版本,推理模型,模型版本根据实际情况选择。 配置信息 简单的示例: 推理框架: nvidiavllm 框架版本:v0.11.2 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 资源:CPU,内存,共享内存可以不填 选择 GPU:2 队列:选择存在且资源足够的的队列 点击确认完成创建。
        来自:
        帮助文档
        智算套件
        用户指南
        应用管理
        在线推理
        创建推理应用
        vLLM GPU单机推理
      • 创建vLLM GPU单机推理任务(1)
        本节介绍如何创建vLLM GPU 单机推理任务。 前置条件 1. 确认智算套件已经安装并且全部运行中 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(GPU,CPU,内存) [参考创建队列的文档] 操作步骤 1. 进入智算套件,AI应用列表,在线推理菜单,创建AI应用 2. 创建应用 应用类型:vLLM 推理类型选择 单机 推理框架,框架版本,推理模型,模型版本根据实际情况选择。 简单的示例: 推理框架: nvidiavllm 框架版本:v0.11.2 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 资源:CPU,内存,共享内存可以不填 选择 GPU:2 队列:选择存在且资源足够的的队列 点击确认完成创建。
        来自:
      • vLLM NPU单机推理
        本节介绍如何创建vLLM NPU单机推理任务。 前置条件 1. 确认智算套件已经安装并且全部运行中。 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档]。 操作步骤 创建任务 进入智算套件,AI应用列表,在线推理菜单,创建AI应用。 基本信息 应用类型:vLLM 推理类型选择:单机 配置信息 推理框架,框架版本,推理模型,模型版本根据实际情况选择。简单的示例: 推理框架: ascendvllm 框架版本:v0.13.0rc1 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 资源:CPU,内存,共享内存可以不填 选择 NPU:2 队列:选择存在且资源足够的的队列 Master 点击确认完成创建。
        来自:
        帮助文档
        智算套件
        用户指南
        应用管理
        在线推理
        创建推理应用
        vLLM NPU单机推理
      • 术语解释
        Hudi Hudi是数据湖的文件组织层,对Parquet格式文件进行管理提供数据湖能力,支持多种计算引擎,提供IUD接口,在 HDFS的数据集上提供了插入更新和增量拉取的流原语。 Iceberg Iceberg 是一个用户分析的高性能表格式, Iceberg 表格的数据可以存储在 HDFS/S3 等不同存储上,Iceberg 使得能够在大数据系统中更好的使用 SQL 做数据分析,同时可以让多引擎查询同时支持 Iceberg 表格,Iceberg 支持引擎批量/增量的消费,能够降低端到端的耗时。 Knox Apache Knox Gateway 是一个应用程序网关,用于与Apache Hadoop 部署的 REST API 和 UI 进行交互。Knox 网关为与 Apache Hadoop集群的所有 REST 和 HTTP 交互提供了一个单一的访问点。 Logstash Logstash 是一个流行的开源数据收集引擎,用于从各种来源收集、处理和转发数据。它可以从多种来源(如业务日志文件、消息队列、数据库等)收集数据,对数据进行解析、过滤和转换,最终将处理后的数据输出到目标位置(Opensearch、Elasticsearch、Hadoop、S3 等)。 JeekeFS JeekeFS 是一个高性能分布式文件系统,用于存储和管理文件与数据。它采用数据与元数据分离的存储架构,数据本身被持久化在对象存储中,元数据则可以按需存储在多种数据库中。 Tez Tez组件是Apache Hadoop生态系统中的一个计算框架,它利用DAG(有向无环图)来优化作业执行。通过提供可编程的输入、输出、处理器、任务等组件,Tez能够高效地执行复杂的数据处理任务,提升Hadoop作业的性能和灵活性。
        来自:
        帮助文档
        翼MapReduce
        产品介绍
        术语解释
      • 应用场景
        本文主要介绍云搜索服务的应用场景。 日志检索分析 云搜索服务可以采集分析各类以文件形式存储的日志,包括不限于服务器、容器日志等。结合消息队列Kafka、Logstash对日志数据进行采集清洗,进入Elasticsearch或OpenSearch中存储检索分析,并通过Kibana或Dashboards进行可视化呈现。 高稳定:通过读写限流、查询熔断、集群监控等方式保障。 性能优化:通过支持压缩算法、内核增强节省存储空间,增强读写速率、降低响应延迟。 易用性:支持多种统计分析方法、划分维度,丰富的可视化查询,可对接BI实现拖拽式报表。 站内搜索 面对海量数据,提供分布式的信息检索工具,可根据网站内容进行关键字检索,也可搭建商品检索或推荐系统。 实时检索:支持模糊搜索,数据来源多样且持续写入,站内资料或商品信息更新数秒内即可被检索。 分类统计:检索同时可以将符合条件的结果进行排序或分类统计。 多场景适配:可用于网站、移动端应用搜索、企业内部应用等多种需要快速检索的场景。 数据分析 提供开箱即用的可视化、高聚合分析能力,便捷高效地对海量数据实时分析。更好地适配实时多维分析在线查询服务场景,满足高实时性,高查询QPS,低查询延迟的数据分析要求。 快速响应:支持海量的、数据源多样、字段不固定的数据高并发处理,毫秒级响应。 复杂查询:支持大批量模糊关键字搜索及一些聚合的复杂查询。 向量检索:基于向量特征相似度匹配,支持图文搜索、地理位置搜索。
        来自:
        帮助文档
        云搜索服务
        产品介绍
        应用场景
      • ALM-18020 Yarn任务执行超时
        检查队列资源是否不足 5.在原生页面找到该任务,查看该任务的“Queue”中的队列名。单击原生页面左侧“Scheduler”,在“Applications Queues”页框中查找对应的队列名,并下拉展开队列的详细信息,如图所示: 6.查看队列详情中“Used Resources”是否近似等于“Max Resources”,即任务提交的队列中资源已经使用完毕,若队列资源不足,请在FusionInsight Manager的“租户资源 > 动态资源计划 > 资源分布策略”中调大队列的“最大资源”。重新运行任务后,查看是否不再上报告警。 是,处理完毕。 否,执行步骤7。 检查任务是否发生数据倾斜 7.在Yarn的原生页面,选择“任务 ID (如application15653379197230002) > Tracking URL:ApplicationMaster > job15653379197230002”,进入如下页面: 8.选择左侧“Job > Map tasks”或者“Job > Reduce tasks”,查看每个Map或者每个Reduce任务的执行时间是否相差很大,如果相差很大,说明任务数据发生了倾斜,需要对任务数据进行均衡。 9.按照如上原因进行处理后,重新执行任务,观察本告警是否还出现。 是,执行步骤10。 否,处理完毕。 收集故障信息 10.在FusionInsight Manager界面,选择“运维 > 日志 > 下载”。 11.在“服务”中勾选待操作集群的“Yarn”。 12.单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟,单击“下载”。 13.请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。 参考信息 无。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-18020 Yarn任务执行超时
      • 消息模板
        编辑消息模板 1. 在消息模板列表中,单击消息模板名称行后的“修改”,根据[表1]进行修改,其中“模板名称”不可修改。 说明 内置消息模板不支持删除。 2. 编辑完成后,单击“确认”。 复制消息模板 1. 在消息模板列表中,单击消息模板名称行后的“复制”,须修改消息模板的模板名称。 2. 完成后,单击“确认”。 删除消息模板 删除消息模板 1. 在消息模板列表中,单击消息模板名称行后的“删除”。 说明 内置消息模板不支持删除。 2. 在弹出的对话框中,单击“确认”删除该消息模板。 批量删除消息模板 1. 在消息模板列表中,勾选待删除的消息模板,单击列表左上方“批量删除”。 2. 在弹出的删除消息模板页面,单击“确定”,删除所勾选的消息模板。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志告警
        告警通知
        消息模板
      • 有序消费和无序消费的选择
        在业务场景允许的情况下,优先选择无序消息,或者在业务能变通的情况下,将有序消息转化为无序消息。 无序消息的优点: 生产者可以使用多进程、多线程往同一个Topic发送消息,性能更好。 消费者可以使用多进程、多线程同时消费,性能较好。 可以充分使用集群的Failover特点,无须依赖自动主备切换(切换过程服务会中断),包括: 当集群中某一Broker节点故障时,不影响业务消息生产,消息将failover发送到其它节点; 当集群中某一Broker节点故障时,不影响其它节点数据消费,故障恢复后即可消费。 能动态地扩容。 有序消息的缺点: 对于有序消息,当节点故障时,Queue数不会变化,生产与消费都会出现异常,直到故障节点恢复。 对于有序消息,需要将所有消息消费完,并且停止客户端,才能扩容。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        最佳实践
        有序消费和无序消费的选择
      • 站内消息
        本页介绍天翼云TeleDB数据库如何查询站内消息。 在消息中心模块,提供了站内消息和消息订阅的功能。站内消息包括服务订阅、系统消息、产品消息和告警消息四大类消息。 消息查询:在消息查询中可以通过消息类型的精确匹配和消息标题或消息内容的模糊匹配对消息进行过滤查询。 消息详情:单击消息标题可以查看具体消息的详情,在查看具体消息详情之后,会将推送的消息置灰。 除此之外,还能够站内消息进行删除和批量删除以及全部删除操作。当您在消息列表上方单击全部标为已读按钮时,所有消息都将置灰。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据库资源与生命周期管理服务操作指南
        消息中心
        站内消息
      • 站内消息
        本文主要介绍了站内消息的设置方法和消息类型。 用户可以接收、查看、管理天翼云发送的各类消息通知。 操作步骤 1、登录消息中心。 2、在站内消息菜单,可以进行以下操作: 查看全部、未读、已读消息。 按消息类别/消息类型,筛选查看某类消息。 将未读消息标记为已读。 删除消息。 消息类型 消息类型 消息介绍 产品信息 产品的创建、开通及资源到期提醒等产品相关信息通知 账户资金 充值、订单支付、提现等资金相关信息通知 活动消息 各类线上活动通知 服务消息 新产品上线或商业化通知 重要通知 网站重要公告、通知、声明等信息通知 其他 非以上消息类型通知
        来自:
        帮助文档
        账号中心
        消息中心
        站内消息
      • 计费模式
        本节主要介绍分布式缓存服务Redis版的计费模式 目前天翼云分布式缓存服务Redis版提供包周期(包年/包月)、按需2种计费模式供您灵活选择,使用越久越便宜。 包周期(包年/包月):天翼云提供包月和包年的购买模式。这种购买方式相对于按需付费则能够提供更大的折扣,对于长期使用者,推荐该方式。包周期计费按照订单的购买周期来进行结算。 按需计费:这种购买方式比较灵活,可以即开即停,支持秒级计费。实例从“开通”开启计费到“删除”结束计费,按实际购买时长(精确到秒)计费。 下表列出两种模式的区别: 计费模式 包年/包月 按需计费 付费方式 预付费按照订单的购买周期结算。 后付费按照云服务器实际使用时长计费。 计费周期 按订单的购买周期计费。 按小时结算。 实例升级 支持扩容,工单施工完生效,但是施工过程中服务不可用;不支持缩容。 支持扩容,工单施工完生效,但是施工过程中服务不可用;不支持缩容。 更改计费模式 支持变更为按需资源。 支持变更为包周期资源。 变更规格 支持变更实例规格。 支持变更实例规格。 适用场景 适用于可预估资源使用周期的场景,价格比按需计费模式更优惠。对于长期使用者,推荐该方式。 适用于消息资源需求波动的场景,可以随时开通,随时删除。 包周期与按需计费方式之间可以进行转换,具体操作请参考包周期与按需互转。
        来自:
        帮助文档
        分布式缓存服务Redis版
        计费说明
        计费模式
      • 删除资源池
        本章节主要介绍删除资源池。 操作场景 该任务指导用户通过MRS Manager,删除已有资源池。 前提条件 集群中任何一个队列不能使用待删除资源池为默认资源池,删除资源池前需要先取消默认资源池,请参见配置队列。 集群中任何一个队列不能在待删除资源池中配置过资源分布策略,删除资源池前需要先清除策略,请参见清除队列配置。 操作步骤 在MRS Manager,单击“租户管理”。 1. 单击“资源池”页签。 2. 在资源池列表指定资源池所在行的“操作”列,单击“删除”。 在弹出窗口中单击“确定”。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        租户管理
        删除资源池
      • 创建vLLM NPU单机推理任务(1)
        本节介绍如何创建vLLM NPU单机推理任务。 前置条件 1. 确认智算套件已经安装并且全部运行中 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档] 操作步骤 创建任务 进入智算套件,AI应用列表,在线推理菜单,创建AI应用 基本信息 应用类型:vLLM 推理类型选择:单机 配置信息 推理框架,框架版本,推理模型,模型版本根据实际情况选择。 简单的示例: 推理框架: ascendvllm 框架版本:v0.13.0rc1 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 资源:CPU,内存,共享内存可以不填 选择 NPU:2 队列:选择存在且资源足够的的队列 点击确认完成创建。
        来自:
      • DLI Spark
        参数 是否必选 说明 节点名称 是 节点名称,可以包含中文、英文字母、数字、“”、“”、“/”、“<”、“>”等各类特殊字符,长度为1~128个字符。 DLI队列 是 下拉选择需要使用的队列。 作业特性 否 选择自定义镜像和对应版本。仅当DLI队列为容器化队列类型时,出现本参数。自定义镜像是DLI的特性。用户可以依赖DLI提供的Spark或者Flink基础镜像,使用Dockerfile将作业运行需要的依赖(文件、jar包或者软件)打包到镜像中,生成自己的自定义镜像,然后将镜像发布到SWR(容器镜像服务)中,最后在此选择自己生成的镜像,运行作业。自定义镜像可以改变Spark作业和Flink作业的容器运行环境。用户可以将一些私有能力内置到自定义镜像中,从而增强作业的功能、性能。。 作业名称 是 填写DLI Spark作业的名称,只能包含英文字母、数字、“”,且长度为1~64个字符。默认与节点的名称一致。 作业运行资源 否 选择作业运行的资源规格: 8核32G内存 16核64G内存 32核128G内存 作业主类 是 Spark作业的主类名称。当应用程序类型为“.jar”时,主类名称不能为空。 Spark程序资源包 是 运行spark作业依赖的jars。可以输入jar包名称,也可以输入对应jar包文件的的OBS路径,格式为:obs://桶名/文件夹路径名/包名。在选择资源包之前,您需要先将Jar包及其依赖包上传至OBS桶中,并在“资源管理”页面中新建资源,具体操作请参考 资源类型 是 支持OBS路径和DLI程序包两种类型的资源。 OBS路径:作业执行时,不会上传资源包文件到DLI资源管理,文件的OBS路径会作为启动作业消息体的一部分,推荐使用该方式。 DLI程序包:作业执行前,会将资源包文件上传到 DLI资源管理。 分组设置 否 当“资源类型”选择了“DLI程序包”时,需要设置。可选择“已有分组”,“创建新分组”或“不分组”。 分组名称 否 当“资源类型”选择了“DLI程序包”时,需要设置。 选择“已有分组”:可选择已有的分组。 选择“创建新分组”:可输入自定义的组名称。 选择“不分组”:不需要选择或输入组名称。 主类入口参数 否 用户自定义参数,多个参数请以Enter键分隔。应用程序参数支持全局变量替换。例如,在“全局配置”>“全局变量”中新增全局变量key为batchnum,可以使用{{batchnum}},在提交作业之后进行变量替换。 Spark作业运行参数 否 以“key/value”的形式设置提交Spark作业的属性,多个参数以Enter键分隔。具体参数请参见Spark Configuration。 Spark参数value支持全局变量替换。 例如,在“全局配置”>“全局变量”中新增全局变量key为customclass,可以使用"spark.sql.catalog"{{customclass}},在提交作业之后进行变量替换。 说明 Spark作业不支持自定义设置jvm垃圾回收算法。 Module名称 否 DLI系统提供的用于执行跨源作业的依赖模块,访问各个不同的服务,选择不同的模块: CloudTable/MRS HBase: sys.datasource.hbase DDS:sys.datasource.mongo CloudTable/MRS OpenTSDB: sys.datasource.opentsdb DWS: sys.datasource.dws RDS MySQL: sys.datasource.rds RDS PostGre: sys.datasource.rds DCS: sys.datasource.redis CSS: sys.datasource.css DLI内部相关模块: sys.res.dliv2 sys.res.dli sys.datasource.dliinnertable 访问元数据 是 是否通过Spark作业访问元数据。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        节点参考
        DLI Spark
      • 名词解释
        名词 说明 环境 用于隔离不同应用的逻辑单元。 应用 一组资源的逻辑集合,通常代表一个业务系统。应用是进行演练和管理的核心对象。 资源 构成应用的组件节点,例如云主机、容器、分布式缓存服务Redis版、分布式消息服务Kafka等实例。 演练 通过向应用的特定资源注入指定故障,并观察其影响,从而验证系统稳定性与韧性的过程。 动作 注入到目标资源上的一个原子性故障,例如“CPU高负载”或“网络延迟”。用户可以在一次演练中对多个动作进行自由组合和编排。 动作组 一个或多个动作的逻辑分组,通常代表一个完整的故障场景。在一个演练任务中,不同的动作组之间可以并行执行。 探针 安装在目标资源(如云主机)上,用于执行具体故障注入动作的代理程序(Agent)。 保护策略 一种自动化的安全机制,用于控制演练的“爆炸半径”。当触发预设条件时,系统会依据此策略自动中止演练并回滚故障。
        来自:
        帮助文档
        应用高可用
        产品简介
        故障演练服务
        名词解释
      • 名词解释(1)
        名词 说明 环境 用于隔离不同应用的逻辑单元。 应用 一组资源的逻辑集合,通常代表一个业务系统。应用是进行演练和管理的核心对象。 资源 构成应用的组件节点,例如云主机、容器、分布式缓存服务Redis版、分布式消息服务Kafka等实例。 演练 通过向应用的特定资源注入指定故障,并观察其影响,从而验证系统稳定性与韧性的过程。 动作 注入到目标资源上的一个原子性故障,例如“CPU高负载”或“网络延迟”。用户可以在一次演练中对多个动作进行自由组合和编排。 动作组 一个或多个动作的逻辑分组,通常代表一个完整的故障场景。在一个演练任务中,不同的动作组之间可以并行执行。 探针 安装在目标资源(如云主机)上,用于执行具体故障注入动作的代理程序(Agent)。 保护策略 一种自动化的安全机制,用于控制演练的“爆炸半径”。当触发预设条件时,系统会依据此策略自动中止演练并回滚故障。
        来自:
      • vLLM NPU单机PD分离
        本节介绍如何创建vLLM NPU单机PD分离任务。 前置条件 1. 确认智算套件已经安装并且全部运行中。 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档]。 操作步骤 创建任务 进入智算套件,AI应用列表,在线推理菜单,创建AI应用。 基本信息 应用类型:vLLM 开启PD分离选择 静态PD分离 配置信息 推理类型选择单机,推理框架、框架版本、推理模型、模型版本根据实际情况选择。简单的示例: 推理框架:ascendvllm 框架版本:v0.11.0rc2 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 队列:选择存在且资源足够的的队列 Prefill CPU,内存,共享内存不填,NPU填:4。 Decode CPU,内存,共享内存不填,NPU填:4。 点击确认完成创建。
        来自:
        帮助文档
        智算套件
        用户指南
        应用管理
        在线推理
        创建推理应用
        vLLM NPU单机PD分离
      • 配置Kafka数据转储至OBS
        本节介绍如何配置Kafka数据转储至OBS。 本章节介绍如何创建转储的Smart Connect任务,通过Smart Connect任务可以将Kafka实例中的数据转储至OBS中,实现消息数据的备份。 源Kafka实例中的数据会实时同步到转储文件中。 约束与限制 一个实例最多创建18个Smart Connect任务。 Smart Connect任务创建成功后,不支持修改任务参数。 前提条件 已开启Smart Connect。 已创建Kafka实例,且实例状态为“运行中”。 已创建的OBS桶和Kafka实例需要在同一个区域。 配置Kafka数据转储至OBS 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、单击Kafka实例名称,进入实例详情页面。 5、在左侧导航栏单击“Smart Connect”,进入Smart Connect任务列表页面。 6、单击“创建Smart Connect任务”,进入“创建smart connect”页面。 7、在“connect任务名称”中,输入Smart Connect任务的名称,用于区分不同的Smart Connect任务。任务名称需要符合命名规则:长度为4~64个字符,只能由英文字母、数字、中划线、下划线组成。 8、在“预置类型”中,选择“转储”。 9、在“源端配置”中,保持默认设置。 10、在“Topic配置”中,设置以下参数。 表11 Topic配置参数说明 参数 参数说明 正则表达式 表示以正则表达式的方式订阅Topic,并进行转储。 输入/选择 输入/选择待转储的Topic名称,支持选择多个Topic,以逗号“,”分隔。最多输入/选择20个Topic。 11、在“目标端配置”中,设置以下参数。 表12 目标端参数说明 参数 参数说明 转储启动偏移量 支持以下两种转储启动偏移量: 最早:最小偏移量,即读取最早的数据。 最新:最大偏移量,即获取最新的数据。 数据转储周期 两次转储的时间间隔,单位:秒,默认配置为300秒。 若某个时间段内无数据,则此时间段不会生成打包文件 AK 访问密钥ID。 SK 与访问密钥ID结合使用的密钥。 转储地址 设置存储Topic数据的OBS桶的名称。 选择:在下拉列表中选择已创建的OBS桶名称,或者单击“创建转储地址”,新创建一个OBS桶。 输入:输入已创建的OBS桶名称,或者单击“创建转储地址”,新创建一个OBS桶。输入的OBS桶必须和Kafka实例在同一个区域。 转储目录 OBS中存储Topic的目录,多级目录可以用“/”进行分隔。 时间目录格式 数据将存储在转储目录下的时间目录中,时间目录是按时间格式作为层级的目录。例如,当选择的时间目录格式精确到日时,存储目录为:“桶名称/转储目录/年/月/日”。 记录分隔符 在下拉列表中选择一种分隔符,分隔不同的转储记录 存储Key 是否转储Key,开启表示转储Key,关闭表示不转储Key。 说明 消息进行转储时,不支持以Key作为文件名。 12、单击“立即创建”,跳转到Smart Connect任务列表页面,页面右上角显示“创建xxx任务成功”。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        配置Kafka数据转储至OBS
      • 使用云主机打造 Moltbot 飞书私人助理
        步骤3:在云服务器上为Moltbot服务配置飞书插件 Moltbot 默认不内置飞书 Channel,需要额外安装插件。这里使用开源插件:++ %E4%B8%AD%E6%96%87++。安装流程如下: 1. 在云服务器内运行插件安装命令: plaintext clawdbot plugins install @m1hengclawd/feishu 2. 安装完成后,将飞书机器人的配置参数写入Moltbot的配置文件。 plaintext clawdbot config set channels.feishu.appId "[飞书的APP ID]" clawdbot config set channels.feishu.appSecret "[飞书的APP Secret]" clawdbot config set channels.feishu.enabled true 以上参数所在位置: 3. 配置完成后,重新启动Moltbot的Gateway服务。 plaintext clawdbot gateway restart 注意 若云主机使用的是【Moltbotv2026.1.243CtyunOS25.07】镜像,则重启Gateway服务时,需替换为以下命令执行: plaintext nohup clawdbot gateway & 4. 添加事件订阅 注意 事件订阅必须在Moltbot添加飞书配置并启动后,才可以创建,否则无法创建成功。 选择订阅方式为长连接 添加事件,具体添加项见下表: 事件 说明 im.message.receivev1 接收消息(必需) im.message.messagereadv1 消息已读回执 im.chat.member.bot.addedv1 机器人进群 im.chat.member.bot.deletedv1 机器人被移出群 配置完成后,进行发版 5. 飞书机器人已创建成功,现在可以在飞书中和机器人对话,校验Moltbot功能是否正常。
        来自:
      • 租户简介
        资源池 YARN任务队列支持一种调度策略,称为标签调度(Label Based Scheduling)。通过此策略,YARN任务队列可以关联带有特定节点标签(Node Label)的NodeManager,使YARN任务在指定的节点运行,实现任务的调度与使用特定硬件资源的需求。例如,需要使用大量内存的YARN任务,可以通过标签关联具有大量内存的节点上运行,避免性能不足影响业务。 在MRS集群中,租户从逻辑上对YARN集群的节点进行分区,使多个NodeManager形成一个资源池。YARN任务队列通过配置队列容量策略,与指定的资源池进行关联,可以更有效地使用资源池中的资源,且互不影响。 MRS Manager中最多支持50个资源池。系统默认包含一个“Default”资源池。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        租户管理
        租户简介
      • 删除资源池
        本章节主要介绍翼MapReduce的删除资源池操作。 操作场景 根据业务需要,资源池不再使用时,管理员可以通过FusionInsight Manager进行删除资源池。 前提条件 集群中任何一个队列不能使用待删除资源池为默认资源池,删除资源池前需要先取消默认资源池,请参见配置队列。 集群中任何一个队列不能在待删除资源池中配置过资源分布策略,删除资源池前需要先清除策略,请参见清除队列容量配置。 操作步骤 1. 登录FusionInsight Manager。 2. 选择“租户资源 > 资源池”。 3. 在资源池列表指定资源池所在行的“操作”列,单击“删除”。 4. 在弹出窗口中单击“确定”。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        使用Superior调度器的租户业务
        管理资源
        删除资源池
      • SQL编辑器
        序号 页签/按键 页签/按键名称 描述 1 数据库 显示已有的数据库及其下所有的表。 单击数据库名,将显示该数据库中的表。 单击表名,将在表名下显示该表中的元数据,最多可显示20个元数据。 双击表名,将在作业编辑窗口自动输入SQL查询语句。 2 队列 显示已有的队列。 3 模板 内置的SQL样例模板,目前包含22条标准的TPCH查询语句。 4 创建 包括创建队列、数据库和表。 具体操作请分别参考《 5 刷新 包括刷新已有的队列、数据库和表列表。 6 搜索 可输入关键字查找对应的数据库和表。
        来自:
        帮助文档
        数据湖探索
        用户指南
        SQL编辑器
      • vLLM GPU单机PD分离
        本节介绍如何创建 vLLM GPU单机PD分离任务。 前置条件 1. 确认智算套件已经安装并且全部运行中 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(GPU,CPU,内存,rdma/rdmashareddevicea) [参考创建队列的文档] 操作步骤 创建任务 进入智算套件,AI应用列表,在线推理菜单,创建AI应用 基本信息 应用类型:vLLM 开启PD分离选择:静态PD分离 推理类型选择:单机 配置信息 推理框架,框架版本,推理模型,模型版本根据实际情况选择。 简单示例: 推理框架: nvidiavllm 框架版本:v0.11.2 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 资源:CPU,内存,共享内存可以不填 选择 GPU:4,rdma/rdmashareddevicea:1 队列:选择存在且资源足够的的队列 Prefill
        来自:
        帮助文档
        智算套件
        用户指南
        应用管理
        在线推理
        创建推理应用
        vLLM GPU单机PD分离
      • 如何提高消息处理效率
        重视消息生产与消费的确认过程 消息生产(发送) Kafka非常重视消息生产确认过程,它提供了可靠的消息传递保证。下面是Kafka在消息生产确认方面的一些关键特性和机制: 同步发送和异步发送:Kafka提供了同步发送和异步发送两种方式。在同步发送中,生产者会等待服务器确认消息已成功写入到所有副本中,然后才会返回确认。这种方式可以确保消息的可靠性,但会影响吞吐量。而在异步发送中,生产者会立即返回确认,不等待服务器的响应。这种方式可以提高吞吐量,但消息的可靠性可能会有所降低。 消息复制机制:Kafka使用多个副本来保证消息的可靠性。在消息发送过程中,生产者将消息写入到主副本,并将消息复制到其他副本。只有当所有副本都成功写入消息后,生产者才会返回确认。这样可以确保即使主副本发生故障,仍然可以从其他副本中读取到消息。 ISR机制:Kafka使用ISR(InSync Replicas)机制来保证消息的可靠性。ISR是指与主副本保持同步的副本集合。只有ISR中的副本成功写入消息后,生产者才会返回确认。如果某个副本与主副本的同步延迟超过一定阈值,那么它将被移出ISR,不再参与消息的确认过程,直到与主副本同步。 消息持久化:Kafka将消息持久化到磁盘,以确保即使发生故障,消息也不会丢失。消息被写入到日志文件中,并通过索引来提供高效的读取和检索。 可配置的确认级别:Kafka提供了可配置的消息确认级别。确认级别可以设置为0、1或all。在确认级别为0时,生产者不会等待服务器的确认,直接返回确认。在确认级别为1时,生产者会等待主副本的确认。在确认级别为all时,生产者会等待所有副本的确认。确认级别的选择可以根据应用的需求和性能要求进行调整。 总之,Kafka通过同步发送、消息复制、ISR机制、消息持久化和可配置的确认级别等机制,重视消息生产确认过程,以确保消息的可靠性和一致性。这些机制使得Kafka成为一个可靠的分布式消息系统。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        如何提高消息处理效率
      • 云审计服务支持的DLI操作列表说明
        操作名称 资源类型 事件名称 创建数据库 database createDatabase 删除数据库 database deleteDatabase 修改数据库所有者 database alterDatabaseOwner 创建表 table createTable 删除表 table deleteTable 导出表数据 table exportData 导入表数据 table importData 修改表的所有者 table alterTableOwner 创建队列 queue createQueue 删除队列 queue dropQueue 队列授权 queue shareQueue 修改队列网段 queue replaceQueue 重启队列 queue queueActions 扩容/缩容队列 queue queueActions 提交作业(SQL) queue submitJob 取消作业(SQL) queue cancelJob 授权obs桶给DLI服务 obs obsAuthorize 检查SQL语法 job checkSQL 新建作业 job createJob 更新作业 job updateJob 删除作业 job deleteJob 购买cu时套餐包 order orderPackage 冻结资源 resource freezeResource 解冻资源 resource unfreezeResource 终止资源 resource deleteResource 资源清理 resource cleanResource 数据授权 data dataAuthorize 跨项目数据授权 data authorizeProjectData 导出查询结果 data storeJobResult 保存SQL模板 sqlTemplate saveSQLTemplate 更新SQL模板 sqlTemplate updateSQLTemplate 删除SQL模板 sqlTemplate deleteSQLTemplate 新建Flink模板 flinkTemplate createStreamTemplate 更新Flink模板 flinkTemplate createStreamTemplate 删除Flink模板 flinkTemplate deleteStreamTemplate 创建数据上传任务 uploader createUploadJob 获取数据上传任务鉴权 uploader getUploadAuthInfo 提交上传任务数据 uploader commitUploadJob 创建认证信息并上传证书 authInfo uploadAuthInfo 更新认证信息 authInfo updateAuthInfop 删除认证信息 authInfo deleteAuthInfo 更新配额 quota updateQuota 上传资源包 pkgResource uploadResources 删除资源包 pkgResource deleteResource 创建(经典型)跨源连接 datasource createDatasourceConn 删除(经典型)跨源连接 datasource deleteDatasourceConn 重新激活经典型跨源连接 datasource reactivateDSConnection 创建增强型跨源连接 datasource createConnection 删除增强型跨源连接 datasource getConnection 绑定队列 datasource associateQueueToDatasourceConn 解绑队列 datasource disassociateQueueToDatasourceConn 修改主机信息 datasource updateHostInfo 添加路由 datasource addRoute 删除路由 datasource deleteRoute 创建主题 smn createTopic 创建授权DLI agency createAgencyV2 创建批处理作业 batch createBatch 取消批处理作业 batch cancelBatch 创建会话 session createSession 删除会话 session deleteSession 创建语句 statement createStatement 取消语句执行 statement cancelStatement 创建全局变量 globalVar createGlobalVariable 删除全局变量 globalVar deleteGlobalVariable 修改全局变量 globalVar updateGlobalVariable
        来自:
        帮助文档
        数据湖探索
        用户指南
        其他常用操作
        云审计服务支持的DLI操作列表说明
      • 1
      • ...
      • 16
      • 17
      • 18
      • 19
      • 20
      • ...
      • 238
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      AI Store

      公共算力服务

      应用托管

      一站式智算服务平台

      推荐文档

      修改自动备份策略

      快速登录

      用户登陆

      产品规格

      如何申请发票?

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号