云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      消息队列RabbitMQ版_相关内容
      • 计费类
        按需计费的DLI队列,如果没有提交作业运行就不计费? 按需计费的DLI队列(非专属资源)仅在队列运行作业时计费,按队列的实际CU计费,请注意是队列的实际CUs,非作业运行CUs。 以小时为单位进行结算,不足一小时按一小时计费,小时数按整点计算。 按需计费的DLI队列(专属资源),无论是否运行作业,自创建起按自然小时收费。 数据湖队列什么情况下是空闲状态? 队列空闲状态是指在DLI 作业管理中,该队列下均无SQL 作业运行,或者 Flink 作业运行、Spark 作业运行。 即一个自然小时内无作业运行,该自然小时为空闲状态。不会进行计费。 通常按需计费的队列,在空闲1h后计算资源会被释放,再次使用时,需要重新分配计算资源,可能会耗费5~10min时间。 按需计费以小时为单位进行结算。不足一小时按一小时计费,小时数按整点计算。 例如 12:10 ~12:30、12:10 ~12:55 期间使用,则收取1个小时的费用。 如何购买30cus规格资源? 这种情况,请购买2个16cus规格的队列,不会对业务造成影响。 关于如何购买队列,请参考“创建队列”。 怎样查看DLI的数据扫描量? 1. 登录DLI管理控制台。 2. 选择“作业管理 > SQL作业”。 3. 筛选执行队列为default队列,查看相应的作业。 4. 单击展开作业,查看已扫描的数据。
        来自:
        帮助文档
        数据湖探索
        常见问题
        计费类
      • 弹性资源池CU设置
        CU设置常见问题 当队列的CU总和等于弹性资源池最小CU时,即弹性资源池当前CU等于最小CU时,怎样修改弹性资源池内现有队列的CU最小值? 解决方案: 1.通过调大现有队列的CU最大值,使弹性资源池当前CU大于等于目标最小CU(目标最小CU即计划调整后的队列最小CU值总和)。 说明 如果弹性资源池最大CU等于最小CU,请先设置增大弹性资源池的最大CU值。 2.设置弹性资源池的最小CU。 3.调整弹性资源池内现有队列的最小CU。 当队列的CU总和等于弹性资源池最小CU时,即弹性资源池当前CU等于最小CU时,怎样在弹性资源池内添加队列? 解决方案: 1.通过调大现有队列的CU最大值,使弹性资源池当前CU大于等于目标最小CU(目标最小CU即计划调整后的队列最小CU值总和)。 说明 如果弹性资源池最大CU等于最小CU,请先设置增大弹性资源池的最大CU值。 2.设置弹性资源池的最小CU。 3.在资源池内新增队列。 4.复原 ▪第一步:通过调整现有队列的CU最大值,使弹性资...中调整的队列CU最大值。
        来自:
        帮助文档
        数据湖探索
        用户指南
        弹性资源池
        弹性资源池基本操作
        弹性资源池CU设置
      • 动态资源
        本章节主要介绍翼MapReduce的动态资源操作。 简介 Yarn是大数据集群中的分布式资源管理服务,大数据集群为Yarn分配资源,资源总量可配置。Yarn内部为任务队列进一步分配和调度计算资源。对于Mapreduce、Spark、Flink和Hive的任务队列,计算资源完全由Yarn来分配和调度。 Yarn任务队列是计算资源分配的基本单位。 对于租户,通过Yarn任务队列申请到的资源是动态资源。用户可以动态创建并修改任务队列的配额,可以查看任务队列的使用状态和使用统计。 资源池 现代企业IT经常会面对纷繁复杂的集群环境和上层需求。例如以下业务场景: 集群异构,集群中各个节点的计算速度、存储容量和网络性能存在差异,需要把复杂应用的所有任务按照需求,合理地分配到各个计算节点上。 计算分离,多个部门需要数据共享,但是需要把计算完全分离在不同的计算节点上。 这就要求对计算资源的节点进一步分区。 资源池用来指定动态资源的配置。Yarn任务队列和资源池关联,可实现资源的分配和调度。 一个租户只能设置一个默认资源池。用户通过绑定租户相关的角色,来使用该租户资源池的资源。若需要使用多个资源池的资源,可通过绑定多个租户相关的角色实现。 调度机制 Yarn动态资源支持标签调度(Label Based Scheduling)策略,此策略通过为计算节点(Yarn NodeManager)创建标签(Label),将具有相同标签的计算节点添加到同一个资源池中,Yarn根据任务队列对资源的需求,将任务队列和有相应标签的资源池动态关联。 例如,集群中有40个以上的节点,根据各节点的硬件和网络配置,分别用Normal、HighCPU、HighMEM、HighIO为四类节点创建标签,添加到四个资源池中,资源池中的各节点性能如下表所示。 不同资源池中的各节点性能 标签名 节点数 硬件和网络配置 添加到 关联 Normal 10 一般 资源池A 普通的任务队列 HighCPU 10 高性能CPU 资源池B 计算密集型的任务队列 HighMEM 10 大量内存 资源池C 内存密集型的任务队列 HighIO 10 高性能网络 资源池D IO密集型的任务队列 任务队列只能使用所关联的资源池里的计算节点。 普通的任务队列关联资源池A,使用硬件和网络配置一般的Normal节点。 计算密集型的任务队列关联资源池B,使用具有高性能CPU的HighCPU节点。 内存密集型的任务队列关联资源池C,使用具有大量内存的HighMEM节点。 IO密集型的任务队列关联资源池D,使用具有高性能网络的HighIO节点。 Yarn任务队列与特定的资源池关联,可以更有效地使用资源,保证节点性能充足且互不影响。 FusionInsight Manager中最多支持添加50个资源池。系统默认包含一个默认资源池。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        多租户介绍
        技术原理
        动态资源
      • ALM-18023 Yarn任务挂起数超过阈值
        参数名称 参数含义 来源 产生告警的集群名称。 队列名 产生告警的队列名。 队列指标名 产生告警的队列指标名。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-18023 Yarn任务挂起数超过阈值
      • 购买类常见问题
        本节介绍分布式消息服务Kafka计费类常见问题 可以购买哪些版本? 不同资源池可购买的版本、规格不一致,具体请查看产品规格说明 (1)华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3 可以选购Kafka引擎,选择主机类型、节点规格、节点数和存储空间。 (2)芜湖2、上海7、重庆2、乌鲁木齐27、石家庄20、内蒙6、北京5 可以选购高级版和基础版两个版本。 到期后如何续费? 在集群列表中点击“续费”,进入购买时长页面,购买成功后自动续费。 手动续订:对于包年/包月订购的分布式缓存服务,用户在资源到期前进行续费操作,可以延长原有资源到期时间,避免资源到期后冻结或超过保留期后被系统回收。详细操作请参考费用中心续订管理手动续订。 自动续订:自动续订仅针对采用包月、包年计费模式的资源,详细操作请参考费用中心续订管理自动续订。 产品订购时可选资源池节点不一致? 已上线资源池节点的剩余容量达到一定比例后,为确保老客户权益,将不再面向新客户开放,产品订购时的可选资源节点范围以实际为准。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        计费与购买类
        购买类常见问题
      • 应用场景
        适用场景 客户在应用托管中部署自研应用/第三方模型,与现有弹性云主机、数据库等云资源联动协同,实现完整复杂业务流程。 产品优势 资源协同,性能高效:共池内网打通,应用托管与弹性云主机、数据库、消息队列等云服务实现低延迟、高带宽内网通信,同时内网访问更具安全保障 业务整合成本低:已有公有云用户可直接复用弹性云主机、数据库等云上资源,无需额外迁移 / 重构,快速搭建完整业务架构,降低整合成本 部署灵活,场景覆盖广:支持自定义模型服务、MCP Server、智能体应用、自定义业务应用等多类型部署,结合丰富的云产品,满足业务的全场景需求 Aone 赋能应用与企业内网网络打通 适用场景 当企业同时使用公有云的应用托管服务和企业内网的各类系统时,需要实现两者之间的安全网络连通 产品优势 网络连通性优势:Aone 打通公有云应用与企业内网网络,保障安全稳定,实现公有云应用本地式访问企业内网资源,破解跨网资源访问壁垒 资源整合优势:整合公有云的应用托管能力和企业内网系统资源,实现资源的高效利用和协同工作,提升企业整体 IT 架构的运行效率:安全性优势 在打通网络的同时,保障了企业内网资源的安全访问,避免了因网络开放带来的安全风险,满足企业对数据和系统安全性的高要求
        来自:
        帮助文档
        应用托管
        产品介绍
        应用场景
      • 产品组件
        OpenSearch Dashboards OpenSearch Dashboards提供了直观的可用于创建、共享、交互式的开发、运维数据分析平台。与OpenSearch搭配使用,并提供角色基础访问控制能力。文内或简称为Dashboards。 支持多用户角色的权限管理 支持包括甘特图在内的多种数据呈现方式 支持多种数据统计方式 支持高阶的索引管理能力 支持通知告警功能 支持基于SQL的查询能力 支持CSV、PDF、Excel等文件的报告生成功能 Logstash Logstash是数据管道服务,通过可扩展的输入、过滤和输出体系,实时采集、转换和加载多源异构数据,并灵活对接各类存储与分析平台,是ELK(Elastic Stack)生态的核心组件之一。天翼云提供的全托管的Logstash服务,支持一键部署、可视化管道配置和数据管道集中管理。 支持文件、数据库、消息队列等多种数据源采集 支持灵活的数据处理,如字段提取、数据脱敏等 内置健康检查机制,支持通过API或可视化界面监控数据管道运行状态 Cerebro Cerebro 是一个功能强大且易于使用的云搜索服务管理工具,适合开发、运维和数据分析等多种场景。通过Cerebro可以对实例进行Web可视化管理,如监控实时的磁盘、集群负载、内存使用率等,通过其直观的界面和丰富的功能,用户可以更高效地管理和监控云搜索实例。云搜索服务兼容开源Cerebro,适配0.9.4。 支持可视化数据管理 支持监控实例实时负载
        来自:
        帮助文档
        云搜索服务
        产品介绍
        产品组件
      • 创建实例
        安全组 安全组可重复使用,您也可以根据实际情况使用不同的安全组,请根据实际需要进行配置。 创建安全组的操作指导,请参考虚拟私有云创建安全组。 若需要为安全组添加规则,请参考虚拟私有云安全组添加安全组规则。 弹性云主机 用户若需要自己客户应用接入RocketMQ发送、消费消息,需先购买弹性云主机并确保和RocketMQ实例在同一VPC下。创建操作说明请参见创建弹性云主机。 订购实例 实例介绍 RocketMQ实例订购支持用户自定义规格和自定义特性,采用物理隔离的方式部署。租户独占RocketMQ实例,可根据业务需要可定制相应规格的RocketMQ实例。在新的资源池节点上,还支持选择主机类型和存储规格等丰富用户选项。 操作步骤 1、在产品详情页点击立即开通按钮,或者进入消息管理控制台创建实例,进入订购分布式消息RocketMQ页面。 2、点击创建实例进入对应页面,左上角选择目标资源池。 1)填写实例名称,系统默认实例名称,用户可直接修改。 2)选择引擎类型,目前默认选择RocketMQ引擎,完全兼容开源客户端的高性能低延时的消息队列。 3)选择计费模式:包年包月/按需计费,两种模式说明参见计费模式。 4)购买时长按照计费模式选择变化: 计费模式为包年包月,可选择购买时长16个月、1年。该模式提供自动续期功能,勾选后可以自动续期购买时长:16个月、1年。 计费模式为按需计费,则该选项隐藏无需选择。 5)部署方式有单可用区和多可用区两个选项,目前仅支持单可用区和3可用区部署,单可用区部署请选中任意一个AZ;多可用区部署请选中3个AZ,系统会自动将Broker节点平均分配至各可用区。 6)设置主备节点对数,可输入1~16。主备节点通常是指主题(Topic)的生产者和消费者之间的角色切换。当主节点发生故障或不可用时,备节点可以自动接管并继续提供服务。这种主备节点的设计可以确保系统的稳定性和可靠性。 7)主机类型为计算增强型。计算增强型云主机独享宿主机的CPU资源,实例间无CPU争抢,并且没有进行资源超配,同时搭载全新网络加速引擎,实现接近物理服务器的强劲稳定性能。 8)选择实例规格,分布式消息服务RocketMQ提供计算增强型2C4G、4C8G等一系列规格,各规格详细说明参见弹性云主机规格。 9)选择存储空间,包括磁盘类型和空间。 磁盘类型提供高IO/超高IO。高IO:适用于主流的高性能、高可靠应用场景。超高IO:适用于超高IOPS、超大带宽需求的读写密集型应用场景。了解更多磁盘类型说明参见云硬盘规格。 磁盘空间以100G起步,可以以100倍数增加磁盘空间。 10)选择已有虚拟私有云,若无虚拟私有云,点击创建跳转到虚拟私有云页面新增,了解更多内容参见虚拟私有云。 11)选择已有子网,若无子网,点击创建跳转到子网页面新增。 12)选择已有安全组,若无安全组,点击创建跳转到安全组页面新增。 13) 填写完上述信息后,单击“下一步”,进入费用确认页面。 14)确认实例信息无误后,提交请求。 15)在实例列表页面,查看RocketMQ实例是否创建成功。创建实例大约需要3到15分钟,此时实例状态为“创建中”。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        创建实例
      • 产品规格
        本节介绍分布式消息服务Kafka的产品规格,以便您正确理解和使用。 Kafka实例规格 (1)以下规格适用于 华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3 节点 注意 通用型规格已调整为白名单特性,如需了解该规格参数请联系技术支持。 单机版实例面向用户体验和业务测试场景,无法保证性能和高可用。如果需要在生产环境使用Kafka实例,建议购买集群版实例。 集群版 Intel计算增强型 实例规格 代理个数 单个代理TPS 单个代理分区上限 单个代理建议主题数 单个代理建议消费组数 单个代理客户端总连接数上限 存储空间范围 单个代理流量规格(MB/S) kafka.2u4g.cluster 350 30000 250 250 20 2000 300500000GB 100 kafka.4u8g.cluster 350 100000 500 500 100 4000 300500000GB 200 kafka.8u16g.cluster 350 150000 1000 1000 150 4000 300500000GB 375 kafka.12u24g.cluster 350 200000 1500 1500 200 4000 300500000GB 625 kafka.16u32g.cluster 350 250000 2000 2000 200 4000 300500000GB 750 kafka.24u48g.cluster 350 250000 2000 2000 200 4000 300500000GB 1125 kafka.32u64g.cluster 350 250000 2000 2000 200 4000 300500000GB 1500 kafka.48u96g.cluster 350 250000 2000 2000 200 4000 300500000GB 2250 kafka.64u128g.cluster 350 250000 2000 2000 200 4000 300500000GB 3000
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        产品规格
      • 修改配置参数
        本文主要介绍 修改配置参数。 操作场景 分布式消息服务Kafka为实例、Topic、消费者提供了几个常用配置参数的默认值,您可以根据实际业务需求,在控制台自行修改参数值。其他在控制台未列出的配置参数,请参考Kafka配置进行修改。 1.1.0版本实例的参数都为静态参数,2.3.0/2.7版本实例的参数分为动态参数和静态参数: 动态参数:动态参数修改成功后,无需重启实例,立即生效。 静态参数:静态参数修改成功后,需要手动重启实例才能生效。 说明 部分老实例不支持修改配置参数,具体以控制台为准,此时请联系客服解决。 前提条件 Kafka实例的状态为“运行中”时,才能修改配置参数。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在“配置参数”页签,在待修改参数所在行,单击“编辑”,修改配置参数。1.1.0版本实例的参数说明如下表所示,2.3.0/2.7版本实例的参数说明如下表所示。 表动态参数说明(1.1.0版本) 参数 参数说明 参数范围 默认值 auto.create.groups.enable 是否开启自动创建消费组功能。 true/false true 表 静态参数说明(1.1.0版本) 参数 参数说明 参数范围 默认值 min.insync.replicas 当producer将acks设置为“all”(或“1”)时,此配置指定必须确认写入才能被认为成功的副本的最小数量。 1 ~ 3 1 message.max.bytes 单条消息的最大长度(单位:字节)。 0 ~ 10485760 10485760 unclean.leader.election.enable 指示是否启用不在ISR集合中的副本选为领导者作为最后的手段,即使这样做可能导致数据丢失。 true/false true connections.max.idle.ms 此参数用来指定在多少毫秒之后,关闭空闲的连接。 5000 ~ 600000 600000 log.retention.hours 日志文件最大保存时间。单位为小时。如果Topic已经设置了老化时间,则此参数对此Topic不生效。仅在Topic未设置老化时间时,此参数才对此Topic生效。 1 ~ 168 72 max.connections.per.ip 每个IP允许的最大连接数。超过此连接数的连接请求将被丢弃。 100 ~ 20000 1000 group.max.session.timeout.ms consumer允许的最大会话超时时间,单位为ms。超时时间越长,consumer就能在心跳探测周期内有更多时间处理消息,但也会使故障检测花费更长时间。 6000 ~ 1800000 1800000 default.replication.factor 自动创建Topic时的默认副本个数。 1 ~ 3 3 num.partitions 自动创建Topic时的默认分区数。 1 ~ 100 3 group.min.session.timeout.ms consumer允许的最小会话超时时间,单位为ms。超时时间越短,consumer的心跳探测越频繁,可以使故障检测更快,但会导致broker被抢占更多的资源。 6000 ~ 300000 6000 表动态参数说明(2.3.0/2.7版本) 参数 参数说明 参数范围 默认值 min.insync.replicas 当producer将acks设置为“all”(或“1”)时,此配置指定必须确认写入才能被认为成功的副本的最小数量。 1 ~ 3 1 message.max.bytes 单条消息的最大长度(单位:字节)。 0 ~ 10485760 10485760 auto.create.groups.enable 是否开启自动创建消费组功能。 true/false true max.connections.per.ip 每个IP允许的最大连接数。超过此连接数的连接请求将被丢弃。 100 ~ 20000 1000 unclean.leader.election.enable 指示是否启用不在ISR集合中的副本选为领导者作为最后的手段,即使这样做可能导致数据丢失。 true/false true 表静态参数说明(2.3.0/2.7版本) 参数 参数说明 参数范围 默认值 connections.max.idle.ms 此参数用来指定在多少毫秒之后,关闭空闲的连接。 5000 ~ 600000 600000 log.retention.hours 日志文件最大保存时间。单位为小时。如果Topic已经设置了老化时间,则此参数对此Topic不生效。仅在Topic未设置老化时间时,此参数才对此Topic生效。 1 ~ 168 72 group.max.session.timeout.ms consumer允许的最大会话超时时间,单位为ms。超时时间越长,consumer就能在心跳探测周期内有更多时间处理消息,但也会使故障检测花费更长时间。 6000 ~ 1800000 1800000 default.replication.factor 自动创建Topic时的默认副本个数。 1 ~ 3 3 num.partitions 自动创建Topic时的默认分区数。 1 ~ 100 3 group.min.session.timeout.ms consumer允许的最小会话超时时间,单位为ms。超时时间越短,consumer的心跳探测越频繁,可以使故障检测更快,但会导致broker被抢占更多的资源。 6000 ~ 300000 6000 说明 如果需要批量修改参数,单击“批量编辑”,可以一次性编辑多个动态参数或静态参数的运行值。 如果需要恢复默认值,在待修改参数后,单击“恢复默认”。 步骤 6 单击“保存”,完成参数的修改。 说明 动态参数修改成功后,无需重启实例,立即生效。 静态参数修改成功后,需要手动重启实例才能生效。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        修改配置参数
      • 变更实例规格
        扩容/缩容代理规格的过程 在扩容/缩容代理规格的过程中,代理采用滚动重启的方式进行实例变更,具体过程如下(以3个代理为例介绍): 1. 停止Broker 0的Kafka进程 2. 扩容/缩容Broker 0的规格 3. 重启Broker 0的Kafka进程 4. 重复1~3,扩容/缩容Broker 1的规格。 5. 重复1~3,扩容/缩容Broker 2的规格。 图 扩容/缩容代理规格过程 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 在实例所在行,单击“更多 > 变更规格”,进入“分布式消息服务Kafka变更规格”页面。 步骤 5 根据实际情况选择扩容存储空间、代理数量、代理规格、基准带宽,或者缩容代理规格。 老规格实例扩容步骤如下: 扩容基准带宽。 在“规格”中,选择扩容后的带宽,单击“下一步”。确认扩容信息无误后,单击“提交”。 在实例列表页面的“规格”中查看扩容后的带宽大小。 说明 扩容带宽是通过扩容代理实现的,原来代理不受影响,业务也不受影响。 新创建的Topic才会分布在新代理上,原有Topic还分布在原有代理上,造成分区分布不均匀。通过 已开启公网访问的实例,在扩容基准带宽时,需要为新扩容的代理设置弹性IP地址。 扩容基准带宽,可以扩大总分区数。 扩容存储空间。 在“存储空间”中,选择扩容后的存储空间大小,单击“下一步”。确认扩容信息无误后,单击“提交”。 在实例列表页面的“可用存储空间”中查看扩容后的存储空间大小。 说明 扩容存储空间不会影响业务。 可用存储空间实际存储空间用于存储日志和ZK的数据的存储空间格式化磁盘的损耗。 例如,实际扩容存储空间到700GB,用于存储日志和ZK的数据的存储空间为100GB,格式化磁盘损耗7GB,那么扩容后的可用存储空间为593GB。 新规格实例扩容步骤如下: 扩容存储空间。 在“变更配置”中,选择“存储空间”,在“单个代理存储空间”中,选择扩容后的单个代理的存储空间大小,单击“下一步”。确认扩容信息无误后,单击“提交”。 在实例列表页面的“可用存储空间”中查看扩容后的总存储空间大小(即扩容后的单个代理的存储空间代理个数)。 说明 扩容存储空间不会影响业务。 可用存储空间实际存储空间用于存储日志和ZK的数据的存储空间格式化磁盘的损耗。 例如,实际扩容存储空间到700GB,用于存储日志和ZK的数据的存储空间为100GB,格式化磁盘损耗7GB,那么扩容后的可用存储空间为593GB。 扩容代理数量。 在“变更配置”中,选择“代理数量”,在“代理数量”中,选择扩容后的代理个数,单击“下一步”。确认扩容信息无误后,单击“提交”。 在实例列表页面的“规格”中查看扩容后的代理个数。 说明 扩容代理数量不会影响原来的代理,业务也不受影响。 新创建的Topic才会分布在新代理上,原有Topic还分布在原有代理上,造成分区分布不均匀。通过 已开启公网访问的实例,在扩容代理数量时,需要为新扩容的代理设置弹性IP地址。 扩容代理数量,可以扩大总分区数。 扩容/缩容代理规格。 在“变更配置”中,选择“代理规格”,在“代理规格”中,选择扩容/缩容后的代理规格,单击“下一步”。确认扩容/缩容信息无误后,单击“提交”。 在实例列表页面的“规格”中查看扩容/缩容后的代理规格。 说明 扩容/缩容代理规格的过程中,节点会重启,可能造成闪断,生产客户端需要配置重试机制。 若Topic为单副本,扩容/缩容期间无法对该Topic生产消息或消费消息。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        变更实例规格
      • 创建管道
        参数 说明 管道名称 自定义管道名称,实例内不可重复 管道描述 作业管道的描述信息,非必填 管道工作线程数 并行执行管道的Filters和Outputs阶段的工作线程数。 管道批处理大小 每个批次处理的最大事件数量 管道批处理延迟 当管道批处理大小不满足时,每个批次最大的等待时间,单位为毫秒 队列类型 用于事件缓冲的排队模型,可选值为: memory:基于内存的队列 persisted:基于磁盘的持久化队列 队列最大字节数 当选择 persisted 队列类型时,队列中可存放的最大字节数量,需确保该值小于实例单节点的磁盘容量 队列检查点写入数 当选择 persisted 队列类型时,在强制执行检查点时已写入的最大的事件数量,若设置为0,则表示无限制
        来自:
        帮助文档
        云搜索服务
        用户指南
        Logstash实例的加装与使用
        Logstash管道管理
        创建管道
      • 检测并修复风险入口
        一键自动修复 1. 登录服务器安全卫士(原生版)控制台。 2. 在左侧导航栏,选择“风险管理 > 漏洞扫描”,进入漏洞扫描页面。 3. 勾选漏洞列表中所有需要修复的漏洞,单击漏洞列表左上角的“批量修复”,一键批量修复漏洞。 4. 在修复对话框中,确认待修复的漏洞数量和影响资产数量、选择修复所需软件源。 您可以在修复对话框中查看修复命令、查看影响服务器数量。软件源支持清华软件源、华为云软件源、阿里云软件源,也可以自配置软件源。若选择自配置软件源,请务必确认已在服务器上配置好对应操作系统发行版的软件源(如 yum、zypper、aptget 或 emerge 等包管理工具对应的软件源)。 5. 单击“确定”,开始自动修复漏洞。 6. 修复完成后,建议您立即重新扫描漏洞,验证修复结果。 手动修复漏洞 您可以参考漏洞详情页面的修复建议,登录服务器手动修复漏洞。 说明 漏洞修复完成后需要手动重启服务器,否则系统仍可能为您推送漏洞消息。 不同的漏洞请根据修复建议依次进行修复。 1. 登录服务器安全卫士(原生版)控制台。 2. 在左侧导航栏,选择“风险管理 > 漏洞扫描”,进入漏洞扫描页面。 3. 单击“漏洞名称”链接、或操作列的“查看详情”,跳转至漏洞详情页面。 4. 在漏洞详情页面可以看到漏洞修复建议。 5. 登录漏洞影响的服务器,根据修复建议进行修复。 6. 修复完成后,建议您立即重新扫描漏洞,验证修复结果。
        来自:
        帮助文档
        服务器安全卫士(原生版)
        最佳实践
        云上勒索病毒防护实践
        防护措施
        检测并修复风险入口
      • 删除队列
        本文为您介绍如何在科研助手中删除队列。 删除步骤 1. 登录科研助手管理控制台。 2. 在控制台左侧导航栏中,选择【资源配额】中的【队列管理】。 3. 选择一个队列,在右边单击【删除】。 4. 在二次确认的弹框输入框中输入“确认删除“,并且点击【确认 】完成删除。队列下没有作业任务和开发机任务时才可删除成功。
        来自:
        帮助文档
        科研助手
        用户指南
        资源配额
        队列管理
        删除队列
      • 权限管理概述
        用户 数据工程师A (游戏数据分析) 数据工程师B (音乐数据分析) 队列 队列A(队列使用权限) 队列B(队列使用权限) 数据(表) gameTable(表管理和使用权限) musicTable(表管理和使用权限) 数据(表) userTable(表管理和使用权限) userTable(表查询权限)
        来自:
        帮助文档
        数据湖探索
        用户指南
        权限管理
        权限管理概述
      • ALM-18024 Yarn任务挂起内存量超阈值
        参数名称 参数含义 来源 产生告警的集群名称。 队列名 产生告警的队列名。 队列指标名 产生告警的队列指标名。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-18024 Yarn任务挂起内存量超阈值
      • Lettuce
        参数 类型 默认值 说明 autoReconnect boolean true 连接断开后,是否自动发起重连, 建议值:true pingBeforeActivateConnection boolean true 连接创建后,是否通过ping/pong校验连接可用性, 建议值:true cancelCommandsOnReconnectFailure boolean true 连接重连失败时,是否取消队列中的命令, 建议值:false disconnectedBehavior DisconnectedBehavior DisconnectedBehavior.DEFAULT 连接断开时的行为, 建议值:ACCEPTCOMMANDS DEFAULT:当autoReconnect为true时,允许命令进入队列等待,当autoReconnect为false时,禁止命令进入队列等待 ACCPETCOMMANDS:允许命令进入队列等待 REJECTCOMMANDS:禁止命令进入队列等待 socketOptions SocketOptions 网络配置项
        来自:
        帮助文档
        分布式缓存服务Redis版
        快速入门
        连接实例
        多语言连接
        Java客户端
        Lettuce
      • 使用场景一:创建弹性资源池并运行作业
        创建弹性资源池 1.登录DLI管理控制台,在左侧导航栏单击“资源管理 > 弹性资源池”,可进入弹性资源池管理页面。 2.在弹性资源池管理界面,单击界面右上角的“购买弹性资源池”。 3. 在“购买弹性资源池”界面,填写具体的弹性资源池参数,具体参数填写参考如下。 −名称:填写具体的弹性资源池名称。例如设置为:pooltest。 −CU范围:弹性资源池扩缩容的CU范围。 −网段:配置弹性资源池网段。例如当前配置为172.16.0.0/18。 −其他参数根据需要选择和配置。 详细的弹性资源池创建流程可以参考创建弹性资源池。 4.参数填写完成后,单击“立即购买”,确认配置信息无误后,单击“提交”完成弹性资源池创建。 5.弹性资源池创建任务提交后,会在弹性资源池管理界面的“状态”列显示当前资源池的创建状态,当状态显示为“可使用”时表示资源池可以正常使用。 添加队列到弹性资源池 1.在已创建的弹性资源池的“操作”列,单击“添加队列”进入弹性资源池添加的队列的操作界面。 2.首先配置弹性资源池队列的基本信息,具体参数参考如下。 −名称:添加的队列的名称。 −类型:根据作业需要选择队列类型。本示例选择为:通用队列。 SQL队列类型:用于运行Spark SQL和Trino作业。 通用队列类型:用于运行Flink和Spark Jar作业。 −其他参数请根据需要配置。 3.配置完基本参数后,单击“下一步”,在队列的扩缩容策略配置界面,修改扩缩容策略配置:最小CU:64、最大CU:64。 4.单击“确定”完成添加队列操作。
        来自:
        帮助文档
        数据湖探索
        用户指南
        弹性资源池
        使用前必读
        使用场景一:创建弹性资源池并运行作业
      • 配置Kafka/DMS Kafka源端参数
        参数 说明 取值样例 Topics 支持单个或多个topic。 est1,est2 偏移量参数 从Kafka拉取数据时的初始偏移量: 最新:最大偏移量,即拉取最新的数据。 最早:最小偏移量,即拉取最早的数据。 已提交:拉取已提交的数据。 时间范围:拉取时间范围内的数据。 最新 是否持久运行 用户自定义是否永久运行。 是 消费组ID 用户指定消费组ID。 如果是从DMS Kafka导出数据,专享版请任意输入,标准版请输入有效的消费组ID。 sumergroup 数据格式 解析数据时使用的格式: 二进制格式:适用于文件迁移场景,不解析数据内容原样传输。 CSV格式:以CSV格式解析源数据。 l JSON:以JSON格式解析源数据。 CDC(DRSJSON):以DRSJSON格式解析源数据。 二进制格式 字段分隔符 默认为空格,使用Tab键作为分隔符请输入“t”。 , 最大消息数/poll 可选参数,每次向Kafka请求数据限制最大请求记录数。 100 最大时间间隔/poll 可选参数,向Kafka请求数据的最大时间间隔。 100
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        配置作业源端参数
        配置Kafka/DMS Kafka源端参数
      • 如何查看当前购买产品的产品规格
        本节介绍如何查看当前购买的产品规格。 购买、续订、升级扩容后可以通过产品信息页面查看所购买产品的规格,同时个人消息中心以及用户绑定的手机也能够收到相关的购买成功提示短信。 查看购买后的WAF规格方式如下: 查看云SaaS型产品信息 1. 登录天翼云控制中心。 2. 单击页面顶部的区域选择框,选择区域。 3. 在产品服务列表页,选择“安全 > Web应用防火墙(原生版)”。 4. 在左侧导航栏,选择“系统管理 > 查看产品信息”,选择“云SAAS型”页签。 5. 在产品信息页面,可以查看实例版本、到期时间、实例规格等信息,并支持对实例进行管理。 说明 购买成功后需要等待一段时间相关规格才能刷新,预计等待1~2分钟左右。 查看独享型产品信息 1. 登录天翼云控制中心。 2. 单击页面顶部的区域选择框,选择区域。 3. 在产品服务列表页,选择“安全 > Web应用防火墙(原生版)”。 4. 在左侧导航栏,选择“系统管理 > 查看产品信息”,选择“独享型”页签。 5. 单击目标实例操作列的“查看产品详情”。 6. 在产品信息页面,可以查看实例版本、实例名称、实例ID、到期时间、实例规格等信息,并支持对实例进行管理。 说明 购买成功后需要等待一段时间相关规格才能刷新,预计等待1~2分钟左右。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        常见问题
        计费购买类
        如何查看当前购买产品的产品规格
      • 测试地址联通性
        本章节主要介绍测试地址连通性。 可用于测试普通场景中DLI队列与用户指定对端地址之间的连同性,或者跨源连接场景中DLI队列与跨源连接绑定的对端地址之间连通性。具体操作如下: 1. 在“队列管理”页面,选择需要测试地址连通性的队列,单击“操作”列“更多”中的“测试地址连通性”。 2. 在“测试地址连通性”页面填写需要测试的地址。支持域名和ip,可指定端口。 3. 单击“测试”。 如果测试地址可连通,页面上将提示地址可达。 如果测试地址不可连通,页面上将提示地址不可达,请检查网络配置后重试。检查网络配置即检查所测试的VPC对等连接或跨源连接是否处于已激活状态。
        来自:
      • 使用Elasticsearch、Kibana实例以及Logstash搭建日志分析平台
        本文介绍如何使用云搜索Elasticsearch、Kibana、Logstash实例搭建日志分析平台。 使用ELK Stack(Elasticsearch、Logstash、Kibana、Beats)进行日志管理是一种流行的开源解决方案,用于集中式日志收集、存储、分析和可视化。ELK Stack可以从分布式系统中采集和聚合日志,帮助运维和开发人员更好地理解系统的运行状态、排查问题并监控关键业务指标。 本文将使用Filebeat、Logstash、Elasticsearch、Kibana搭建一个简单的日志分析平台,其中需要自行部署Filebeat并且打通和天翼云云搜索Elasticsearch、Kibana以及Logstash实例之间的网络。 ELK Stack组件 Elasticsearch 是一个分布式搜索引擎,作为ELK堆栈的核心,它负责存储和索引日志数据。Elasticsearch提供强大的全文搜索、过滤和分析功能,可以快速处理大规模数据并允许实时查询。 Logstash 是一个数据处理管道工具,负责从各种输入源收集数据,进行过滤、处理并将其输出到 Elasticsearch。Logstash 支持多种数据源(如文件、数据库、消息队列),并且能够通过过滤器对数据进行处理,比如解析、格式转换等。 Kibana 是一个数据可视化和分析工具,允许用户在浏览器中直观地查询和展示Elasticsearch 中存储的日志数据。Kibana提供多种图表、仪表盘和地图,可以帮助用户监控系统、分析日志、生成报表等。 Beats是一组轻量级数据收集器,用于将各种类型的数据发送到Elasticsearch或Logstash进行索引和分析。其中Filebeat是 ELK Stack 中的一个轻量级日志数据收集器,用于收集日志文件数据。它监视指定的日志文件或位置,并将其发送到Elasticsearch或Logstash以进行存储和分析。
        来自:
        帮助文档
        云搜索服务
        最佳实践
        使用Elasticsearch、Kibana实例以及Logstash搭建日志分析平台
      • 租户与资源概述
        本章节主要介绍翼MR Manager的租户与资源特性。 翼MR Manager提供的租户与资源主要包含:LDAP租户管理、Kerberos安全凭证、YARN队列管理、HBase数据库管理。 前置操作 使用租户与管理功能,需要进入Manager页面,操作步骤如下: 1. 登录翼MR管理控制台。 2. 单击“我的集群”,单击指定的集群名称,进入集群信息页面。 3. 单击“翼MR Manager”tab,单击“前往翼MR Manager”。 租户与资源功能介绍 LDAP租户管理 进入到翼MR Manager以后,点击菜单“租户与资源 > LDAP租户管理”,进入LDAP租户管理页面。如图所示: 支持查看LDAP中的租户和租户组。 支持新增租户、租户组。 支持为租户关联租户组、租户组关联租户以及取消关联关系。 支持以租户为维度的Principal管理以及Keytab的分发。 Kerberos安全凭证 进入到翼MR Manager以后,点击菜单“租户与资源 > Kerberos安全凭证”,进入Kerberos安全凭证页面。如图所示: 支持新建Principal、删除Principal。 支持Keytab分发与下载,并支持查看Keytab的分发记录。 YARN队列管理 进入到翼MR Manager以后,点击菜单“租户与资源 > YARN队列管理”,进入YARN队列管理页面。如图所示: 支持YARN队列新建、编辑与删除。 支持YARN队列启动与停止。 支持YARN队列容量设置和YARN队列授权。 支持YARN队列capacityscheduler.xml的全局属性配置。 支持YARN队列的同步生效并支持查看同步生效记录。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        翼MR Manager操作指导
        租户与资源
        租户与资源概述
      • 购买终端节点
        服务后缀 服务说明 zos dns msgc crs apm lts faas gts 全局事务:该服务由天翼云全局事务服务提供,全局事务服务是一款专为实现分布式环境下高性能事务一致性而设计的服务工具。它可以与MySQL、PostgreSQL等数据源,以及Spring Cloud、Dubbo等RPC框架和消息队列等中间件产品配合混合使用,以支持用户各种分布式数据库事务、多库事务、消息事务和服务链路级事务的组合需要 prome 应用性能监控:Prometheus监控为云上托管Prometheus服务,可为您的容器集群提供多种开箱即用的预置监控大盘与监控规则,实现免搭建的高效运维场景。 ags Agent沙箱:Agent 沙箱提供安全、弹性、可扩展的云端沙箱运行环境。在使用Agent沙箱产品时,通过连接该终端节点服务,可实现在内网调用沙箱服务。
        来自:
        帮助文档
        VPC终端节点
        用户指南
        终端节点管理
        购买终端节点
      • 常用操作与系统权限关系
        资源 操作 说明 DLI FullAccess DLI ReadOnlyAccess Tenant Administrator DLI Service Admin 队列 DROPQUEUE 删除队列 √ × √ √ 队列 SUBMITJOB 提交作业 √ × √ √ 队列 CANCELJOB 终止作业 √ × √ √ 队列 RESTART 重启队列 √ × √ √ 队列 GRANTPRIVILEGE 队列的赋权 √ × √ √ 队列 REVOKEPRIVILEGE 队列权限的回收 √ × √ √ 队列 SHOWPRIVILEGES 查看其他用户具备的队列权限 √ × √ √ 数据库 DROPDATABASE 删除数据库 √ × √ √ 数据库 CREATETABLE 创建表 √ × √ √ 数据库 CREATEVIEW 创建视图 √ × √ √ 数据库 EXPLAIN 将SQL语句解释为执行计划 √ × √ √ 数据库 CREATEROLE 创建角色 √ × √ √ 数据库 DROPROLE 删除角色 √ × √ √ 数据库 SHOWROLES 显示角色 √ × √ √ 数据库 GRANTROLE 绑定角色 √ × √ √ 数据库 REVOKEROLE 解除角色绑定 √ × √ √ 数据库 SHOWUSERS 显示所有角色和用户的绑定关系 √ × √ √ 数据库 GRANTPRIVILEGE 数据库的赋权 √ × √ √ 数据库 REVOKEPRIVILEGE 数据库权限的回收 √ × √ √ 数据库 SHOWPRIVILEGES 查看其他用户具备的数据库权限 √ × √ √ 数据库 DISPLAYALLTABLES 显示数据库中的表信息 √ × √ √ 数据库 DISPLAYDATABASE 显示数据库信息 √ × √ √ 数据库 CREATEFUNCTION 创建函数 √ × √ √ 数据库 DROPFUNCTION 删除函数 √ × √ √ 数据库 SHOWFUNCTIONS 显示所有函数 √ × √ √ 数据库 DESCRIBEFUNCTION 显示函数详情 √ × √ √ 表 DROPTABLE 删除表 √ × √ √ 表 SELECT 查询表 √ × √ √ 表 INSERTINTOTABLE 插入 √ × √ √ 表 ALTERTABLEADDCOLUMNS 添加列 √ × √ √ 表 INSERTOVERWRITETABLE 重写 √ × √ √ 表 ALTERTABLERENAME 重命名表 √ × √ √ 表 ALTERTABLEADDPARTITION 在分区表中添加分区 √ × √ √ 表 ALTERTABLERENAMEPARTITION 重命名表分区 √ × √ √ 表 ALTERTABLEDROPPARTITION 删除分区表的分区 √ × √ √ 表 SHOWPARTITIONS 显示所有分区 √ × √ √ 表 ALTERTABLERECOVERPARTITION 恢复表分区 √ × √ √ 表 ALTERTABLESETLOCATION 设置分区路径 √ × √ √ 表 GRANTPRIVILEGE 表的赋权 √ × √ √ 表 REVOKEPRIVILEGE 表权限的回收 √ × √ √ 表 SHOWPRIVILEGES 查看其他用户具备的表权限 √ × √ √ 表 DISPLAYTABLE 显示表 √ √ √ √ 表 DESCRIBETABLE 显示表信息 √ × √ √
        来自:
        帮助文档
        数据湖探索
        用户指南
        权限管理
        常用操作与系统权限关系
      • 创建方式简介
        本章节主要介绍创建翼MapReduce服务的方式。 用户可以通过点击翼MapReduce产品页的“立即开通”或翼MR控制台内的“创建集群”进入订购页面,按需完成软件、硬件与基础配置,通过确认订单并支付,完成集群创建。支付后我们将为您尽快拉起集群,您可前往翼MR控制台查看集群的创建进度。 创建数据湖集群:数据湖集群提供更高效、灵活的集群管理,更快地运行大数据的计算引擎,更好地提供数据分析能力,帮助您更加方便快捷的对数据湖的计算、存储资源进行构建和管理。 创建数据分析集群:数据分析集群使用开源的MPP架构的OLAP分析引擎,支持亚秒级的数据查询和多表join,帮助您更加快捷的进行数据分析工作。 创建数据服务集群:数据服务集群提供高度可靠性、可扩展性的数据服务以满足您的数据需求。 创建云搜索集群:云搜索集群通过分布式计算和存储系统,为结构化/非结构化数据提供低成本、高性能及可靠性的检索、分析服务能力,帮助您更方便的检索大规模数据集。 创建实时数据流集群:实时数据流集群提供高效的流式计算、消息队列等组件能力,支持实时数据ETL和日志采集分析的业务需求。 创建自定义集群:自定义集群提供丰富灵活的服务搭配,支持自行选择业务所需服务。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        配置集群
        创建方式简介
      • 配置DLI源端参数
        参数名 说明 取值样例 资源队列 选择目的表所属的资源队列。 DLI的default队列无法在迁移作业中使用,您需要在DLI中新建SQL队列。 cdm 数据库名称 写入数据的数据库名称。 dli 表名 写入数据的表名。 cardetail 分区 导入前清空数据,如果设置为true时,呈现此参数。 表示分区信息。 year2020,locationsun
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        配置作业源端参数
        配置DLI源端参数
      • 创建并提交Spark SQL作业
        创建队列 队列是使用DLI服务的基础,执行SQL作业前需要先创建队列。 DLI有预置的可用队列“default”。 用户也可根据需要自己创建队列。 a. 登录DLI管理控制台 b. 在DLI管理控制台,单击左侧导航栏中的“SQL编辑器”,可进入SQL作业“数据库”页面。 c. 在左侧导航栏,选择队列页签,单击右侧的创建队列。 创建队列详细介绍请参考《数据湖探索用户指南》>《创建队列》。 创建数据库 在进行数据查询之前还需要创建一个数据库,例如db1。 说明 “default”为内置数据库,不能创建名为“default”的数据库。 1.在DLI管理控制台,单击左侧导航栏中的“SQL编辑器”,可进入SQL作业“数据库”页面。 2.在“SQL编辑器”页面右侧的编辑窗口中,输入如下SQL语句,单击“执行”。阅读并同意隐私协议,单击“确定”。 create database db1 数据库创建成功后,左侧单击“”刷新数据库页面,新建建的数据库db1会在“数据库”列表中出现。 说明 在DLI管理控制台第一次单击“执行”操作时,需要阅读隐私协议,确认同意后才能执行作业,且后续“执行”操作将不会再提示阅读隐私协议。
        来自:
        帮助文档
        数据湖探索
        快速入门
        创建并提交Spark SQL作业
      • 退订
        本章节主要介绍数据湖探索(DLI)队列的退订操作。 按需计费 按需购买的队列无需退订,直接删除即可。 提示 : 退订前建议您做好数据备份 。 1.登录天翼云官网,进入控制中心; 2.进入控制中心,选择资源池,选择“数据湖探索”; 3.进入“队列管理”页面,找到需要退订的队列,在队列“操作”项下,点击“删除”即可;
        来自:
        帮助文档
        数据湖探索
        计费说明
        退订
      • 处理漏洞
        手动修复漏洞 您可以参考漏洞详情页面的修复建议,登录服务器手动修复漏洞。 说明 漏洞修复完成后需要手动重启服务器,否则系统仍可能为您推送漏洞消息。 不同的漏洞请根据修复建议依次进行修复。 执行以下步骤,查看漏洞修复建议: 1. 登录服务器安全卫士(原生版)控制台。 2. 在左侧导航栏,选择“风险管理 > 漏洞扫描”,进入漏洞扫描页面。 3. 单击“漏洞公告”链接、或操作列的“立即处理”,跳转至漏洞详情页面。 4. 在漏洞列表单击操作列的“更多”,查看漏洞的修复建议。 忽略漏洞 某些漏洞只在特定条件下存在风险,比如某漏洞必须通过开放端口进行入侵,如果主机系统并未开放该端口,则该漏洞不存在危害。如果评估后确认某漏洞暂时无害,可以忽略该漏洞。 说明 当漏洞处理状态为“未修复”、“修复失败”、“修复成功”、“修复成功待重启”时,可执行“忽略”操作。 1. 登录服务器安全卫士(原生版)控制台。 2. 在左侧导航栏,选择“风险管理 > 漏洞扫描”,进入漏洞扫描页面。 3. 勾选漏洞列表中所有需要忽略的漏洞,单击漏洞列表左上角的“批量忽略”,一键批量忽略漏洞。 4. 在弹出的对话框中,确认忽略的漏洞数量和影响服务器数量后,单击“确定”。 漏洞忽略后将不再提示,您可在漏洞列表中选择已忽略漏洞进行取消忽略操作。
        来自:
        帮助文档
        服务器安全卫士(原生版)
        用户指南
        风险管理
        漏洞扫描
        处理漏洞
      • Portal提交作业
        配置项 说明 作业名称 输入作业的名称。 队列名称 选择运行作业的队列。 请求节点数量 1.选择扩容节点加入的队列。 2.可创建新的队列,并将节点扩容在新队列中。 单任务核数 用来执行该作业的核数。 单节点任务数 选择该队列单节点能运行的作业数。 最大运行时间 该作业最大可运行时间,到此时间作业会自动停止。 作业工作路径 选择该作业的工作路径。 作业脚本 向调度器提交的作业执行命令,可以是脚本文件,也可以是一段命令文本。您可以通过直接使用Slurm命令或编写Slurm脚本之后统一提交的方式。
        来自:
        帮助文档
        弹性高性能计算 E-HPC
        用户指南
        提交作业
        Portal提交作业
      • 配置中心
        参数 说明 pipeline.workers 并行执行管道的Filters+Outputs阶段的工作线程数,默认值为CPU核数,建议取值为120之间。 pipeline.batch.size 单个工作线程在尝试执行其Filters和Outputs之前将从inputs收集的最大事件数,该值较大通常更有效,但会增加内存开销,默认为125。 pipeline.batch.delay 创建管道事件批时,在将过小的批调度到管道工作线程之前,等待每个事件的时间(以毫秒为单位),默认值为50。 queue.type 用于事件缓冲的内部队列模型。memory为基于内存的传统队列,persisted为基于磁盘的ACKed持久化队列,默认值为memory。 queue.checkpoint.writes 如果使用持久化队列,则表示强制执行检查点之前写入的最大事件数,默认值为1024。 queue.maxbytes 如果使用持久化队列,则表示持久化队列的总容量,确保磁盘的容量大于该值,默认值为1024。 单位:MB。
        来自:
        帮助文档
        云搜索服务
        用户指南
        Logstash
        Logstash集群配置
        配置中心
      • 1
      • ...
      • 14
      • 15
      • 16
      • 17
      • 18
      • ...
      • 238
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      轻量型云主机

      弹性伸缩服务 AS

      公共算力服务

      应用托管

      一站式智算服务平台

      智算一体机

      知识库问答

      人脸检测

      推荐文档

      术语解释

      创建阈值规则

      常见问题

      创建只读实例

      全面了解天翼云⑨:远程桌面无法复制粘贴

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号