云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      消息队列RocketMQ版_相关内容
      • 创建私有镜像前云主机需要完成哪些初始化配置?
        操作系统 相关配置项 参考链接 Windows 设置网卡属性为DHCP 开启远程桌面连接功能 安装Guest OS driver,包括PV driver和UVP VMtools驱动 (可选)安装CloudbaseInit工具 (可选)开启网卡多队列 (可选)配置IPv6地址 Linux 清理网络规则文件 设置网卡属性为DHCP 安装原生的XEN和KVM驱动 修改grub文件的磁盘标识方式为UUID 修改fstab文件的磁盘标识方式为UUID 清除“/etc/fstab”中非系统盘的自动挂载信息 (可选)安装CloudInit工具 (可选)开启网卡多队列 (可选)配置IPv6地址
        来自:
        帮助文档
        镜像服务 IMS
        常见问题
        镜像优化类
        创建私有镜像前云主机需要完成哪些初始化配置?
      • 创建工作空间
        前言 工作空间是息壤一站式智算服务平台的顶层逻辑概念,为企业和团队提供统一的计算资源管理及人员权限管理能力,为AI开发者提供支持团队协作的全流程开发工具以及AI资产管理能力。息壤一站式智算服务平台具有一个默认工作空间,用户也可以根据自身需要单独创建工作空间。 工作空间与队列/资源配额以及工作空间成员进行各项任务之间的整体关系如下图: 1. 先由主账号或角色为IAM管理员的子账号先创建空间 2. 创建空间后,再关联队列h或资源配额(目的是确定工作空间所使用的计算资源) 3. 再进行成员管理(将需要在工作空间内进行作业的成员加入进来并分配对应角色) 4. 最后空间成员可以在工作空间内基于队列资源进行相关作业,如使用开发机、创建训练任务等。 工作空间创建 前置条件 账号为主账号或者角色为IAM管理员的子账号 操作步骤 1. 打开【工作空间管理】菜单,点击【创建工作空间】按钮 2. 在【创建工作公开】弹窗按规则依次填写“工作空间名称”、“工作空间描述”,再点击“确认”按钮,工作空间即创建成功 3. 在【工作空间管理】页面可以查看创建的工作空间
        来自:
        帮助文档
        训推服务
        用户指南
        管理中心
        工作空间管理
        创建工作空间
      • 日志触发器
        配置项 操作 示例 触发器类型 选择日志触发器。 日志触发器 名称 填写自定义的触发器名称。 alstrigger 版本或别名 默认值为 LATEST ,支持选择任意函数版本或函数别名。 LATEST 日志项目 选择目标日志项目。 日志单元 选择目标日志单元。 调用方式 选择函数调用方式。 同步调用 :指触发器消息Event投递到函数是同步调用,会等待函数响应后继续下一个消息投递。 异步调用 :指触发器消息Event投递到函数是异步调用,不会等待函数响应,可以快速消费事件。 同步调用
        来自:
        帮助文档
        函数计算
        用户指南
        事件触发
        事件总线类触发器
        日志触发器
      • 功能类
        本文介绍科研助手的功能类常见问题。 部署业务前有哪些前置准备工作? 首次使用科研助手服务,用户需要先创建资源池和队列,作业、开发环境等都需要归属到队列内。如需要使用自定义镜像功能,需提前登录容器镜像服务(CRS)设置访问凭证并创建私有组织。 科研助手的开发环境可以提供哪些快捷工具? 当前可提供Jupyter和VSCode在线代码编辑器,同时用户可自行安装所需的其他插件。 调试和查错常见问题 1. 如何进行开发调试? 科研助手提供了开发环境,可在开发环境进行单机调试。 2. 如果程序执行失败怎么调试? 程序失败时可以通过查看作业和实例事件获取更多的作业运行信息。如果问题还未能解决,请联系售后技术支持。
        来自:
        帮助文档
        科研助手
        常见问题
        功能类
      • 认证与访问控制
        介绍分布式消息服务Kafka认证与访问控制方式 分布式消息服务Kafka支持CTIAM身份认证和多种访问控制,多维度保障您数据的安全。 身份认证 CTIAM 统一身份认证(Identity and Access Management, 简称:CTIAM)是提供用户进行权限管理的基础服务,可以帮助您安全的控制天翼云服务和资源的访问及操作权限,包括:用户身份认证、权限分配、访问控制等功能。具体介绍请参考统一身份认证产品介绍。 您可以创建IAM用户,并为其设置关联分布式消息服务Kafka实例权限,该用户就可以通过用户名和密码访问授权的实例资源。具体请参见统一身份认证快速入门创建IAM用户。 访问控制 权限控制 购买分布式消息服务Kafka实例之后,您可以使用CTIAM为企业中的员工设置不同的访问权限,以达到不同员工之间的权限隔离,通过CTIAM进行精细的权限管理。 VPC和子网 虚拟私有云(Virtual Private Cloud,VPC)为分布式消息服务Kafka构建隔离、私密的虚拟网络环境,提升数据库的安全性,并简化用户的网络部署。您可以完全掌控自己的专有网络,VPC丰富的功能帮助您灵活管理云上网络,包括创建子网、设置安全组和网络ACL、管理路由表、申请弹性公网IP和带宽等。通过子网与其他网络隔离,独享网络资源,提高网络安全性。具体内容请参见虚拟私有云用户指南创建虚拟私有云和子网 。 安全组 安全组是一个逻辑上的分组,可以为同一个虚拟私有云内具有相同安全保护需求并相互信任的Kafka实例提供相同的访问策略。您可以通过为数据库实例设置安全组,开通需访问Kafka实例的IP地址和端口,来保证保障其运行环境的安全性和稳定性。具体请参见配置安全组
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        安全
        认证与访问控制
      • 重试机制
        本章介绍函数工作流在同步调用或异步调用执行失败时如何重试。 函数在同步调用或异步调用执行失败时,您可以参见以下重试机制进行操作。 同步调用 同步调用执行失败,建议您自行尝试重试。 异步调用 异步调用可在界面配置最大重试次数和消息最大有限期,具体配置方法请参见配置函数异步。函数平台会根据您配置的最大重试次数和消息最大有限期(最大有限期为24小时),进行重试。重试次数和配置的最大重试次数一致,重试有效期和配置的消息最大有效期一致。
        来自:
        帮助文档
        函数工作流
        用户指南
        调用函数
        重试机制
      • 存储桶内无对象,为什么还会产生公网流出流量费用
        本文介绍存储桶内无对象,为什么还会产生公网流出流量费用。 存储桶中如无对象,但账单体现公网流出流量费用,常见原因如下(包括但不限于): 流量每小时结算一次,在这一个小时中您或被授权账号向桶中上传对象后又删除了该对象,结算时您看到桶内无对象,但实际已产生流量。 对桶的操作,如设置桶ACL、设置生命周期,请求中均会携带消息体,会产生流量。 对媒体存储发送请求失败,返回4xx错误(403除外),会同时返回消息体,该消息体会产生流量。
        来自:
        帮助文档
        媒体存储
        常见问题
        计费常见问题
        存储桶内无对象,为什么还会产生公网流出流量费用
      • 恢复HDFS业务数据
        操作步骤 1.在FusionInsight Manager,选择“运维 > 备份恢复 > 备份管理”。 2.在任务列表指定任务的“操作”列,选择“更多 > 查询历史”,打开备份任务执行历史记录。 在弹出的窗口中,在指定一次执行成功记录的“备份路径”列,单击“查看”,打开此次任务执行的备份路径信息,查找以下信息: “备份对象”表示备份的数据源。 “备份路径”表示备份文件保存的完整路径。 选择正确的项目,在“备份路径”手工选中备份文件的完整路径并复制。 3.在FusionInsight Manager,选择“运维 > 备份恢复 > 恢复管理”。 4.单击“创建”。 5.在“任务名称”填写恢复任务的名称。 6.在“恢复对象”选择待操作的集群。 7.在“恢复配置”,勾选“业务数据”下的“HDFS”。 8.在“HDFS”的“路径类型”,选择一个备份目录的类型。 备份目录支持以下类型: “RemoteHDFS”:表示将备份文件保存在备集群的HDFS目录。 选择此参数值,还需要配置以下参数: “源端NameService名称”:填写备份数据集群的NameService名称。可以输入集群内置的远端集群的NameService名称:haclusterX,haclusterX1,haclusterX2,haclusterX3,haclusterX4;也可输入其他已配置的远端集群NameService名称。 “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “源端NameNode IP地址”:填写备集群NameNode业务平面IP地址,支持主节点或备节点。 “源端路径”:填写备集群保存备份数据的完整HDFS路径。例如,“ 备份路径/备份任务名数据源任务创建时间 ”。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。 “恢复点列表”:单击“刷新”,然后选择一个备集群上已备份的HDFS目录。 “目标NameService名称”:选择备份目录对应的目标NameService名称。默认值为“hacluster”。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “NFS”:表示备份文件通过NFS协议保存在NAS中。选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “源端路径”:填写备份文件在NAS服务器中保存的完整路径。例如,“ 备份路径/备份任务名数据源任务创建时间”。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。 “恢复点列表”:单击“刷新”,然后选择一个备集群上已备份的HDFS目录。 “目标NameService名称”:选择备份目录对应的目标NameService名称。默认值为“hacluster”。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “CIFS”:表示备份文件通过CIFS协议保存在NAS中。选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “端口号”:填写CIFS协议连接NAS服务器使用的端口号,默认值为“445”。 “用户名”:填写配置CIFS协议时设置的用户名。 “密码”:填写配置CIFS协议时设置的密码。 “源端路径”:填写备份文件在NAS服务器中保存的完整路径。例如,“ 备份路径/备份任务名数据源任务创建时间”。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。 “恢复点列表”:单击“刷新”,然后选择一个备集群上已备份的HDFS目录。 “目标NameService名称”:选择备份目录对应的目标NameService名称。默认值为“hacluster”。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “SFTP”:表示备份文件通过SFTP协议保存到服务器中。 选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写备份数据的服务器IP地址。 “端口号”:填写SFTP协议连接备份服务器使用的端口号,默认值为“22”。 “用户名”:填写使用SFTP协议连接服务器时的用户名。 “密码”:填写使用SFTP协议连接服务器时的密码。 “源端路径”:填写备份文件在备份服务器中保存的完整路径。例如,“ 备份路径/备份任务名数据源任务创建时间/版本号数据源任务执行时间.tar.gz ”。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。 “恢复点列表”:单击“刷新”,然后选择一个备集群上已备份的HDFS目录。 “目标NameService名称”:选择备份目录对应的目标NameService名称。默认值为“hacluster”。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 9.在“数据配置”中的“备份数据”列根据业务需要勾选一个或多个需要恢复的已备份数据,并在“目标路径”列,指定备份数据恢复后的位置。 “目标路径”建议选择一个与目的端路径不同的新路径。 10.单击“校验”查看恢复任务的配置是否正确。 如果队列名称不正确,校验失败。 如果不存在指定的恢复目录,校验失败。 11.单击“确定”保存。 12.在恢复任务列表已创建任务的“操作”列,单击“执行”,开始执行恢复任务。 恢复成功后进度显示为绿色。 恢复成功后此恢复任务不支持再次执行。 如果恢复任务在第一次执行时由于某些原因未执行成功,在排除错误原因后单击“重试”,重试恢复任务。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        恢复数据
        恢复HDFS业务数据
      • 自建Apache Kafka事件源
        参数 类型 示例值 描述 topic String source1 Topic名称。 offset Integer 1 消费位点。 key String test 消息Key值。 value Object Hello,Kafka! 消息体,默认以JSON格式编码。
        来自:
        帮助文档
        事件总线
        用户指南
        事件流
        事件源
        自建Apache Kafka事件源
      • 新建指标
        参数名 说明 指标名称 业务指标的名称,只能包含中文、英文字母、数字、“”,且长度为1~64个字符。 数据连接 从下拉列表中选择已创建的数据连接。 说明 支持的数据连接类型:DWS、PostgreSQL、MRS Hive、DLI和MySql。 指标都是基于数据连接的,所以在建立指标之前需要先到元数据管理模块中建立数据连接。 数据库/队列 选择指标运行的数据库。 说明 当数据源为DLI时,需要选择运行的队列。 描述 为更好的识别业务指标 ,此处加以描述信息。描述信息长度不能超过4096个字符。 所属目录 业务指标的存储目录,可选择已创建的目录。 来源类型 支持“自定义”。 用户自定义SQL语句,定义指标的来源。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据质量
        业务指标监控
        新建指标
      • 事件源概述
        事件源是事件的来源,负责将生产的事件发布到事件总线。 事件总线EventBridge支持以下事件源: 天翼云官方事件源 作为事件源接入时,只要开通相应的天翼云服务,就可以自动接入事件总线EventBridge。通过配置预定义的事件源与事件规则,实现从事件源发布事件到云服务专用总线,经过事件模式过滤后把事件路由到事件目标。 自定义事件源 作为事件源接入时,您可以配置自定义应用事件源,使用SDK接入事件总线EventBridge。通过创建自定义总线、配置事件规则,把自定义应用产生的事件发布到自定义总线,经过事件模式过滤后把事件路由到事件目标。 作为事件源接入时,您可以配置消息类事件提供方,把事件主动拉取到事件总线EventBridge。例如,当您配置事件提供方为分布式消息服务Kafka时,事件总线EventBridge会把分布式消息服务Kafka对应资源产生的消息主动拉取到自定义总线中,经过事件模式过滤后把事件路由到事件目标。
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件源
        事件源概述
      • 数据库安全审计等保最佳实践
        参数名称 参数说明 取值样例 启动任务 启动当前任务的开关。 消息通知 生成报表后是否发送通知。 消息通知主题 “消息通知”选择开启时在此项选择预设的消息通知主题。 报表类型 选择报表生成的周期类型。 l 日报:若每天审计日志量超过1000万条,建议选择日报。 l 周报:若每天的审计日志量超过1万但不超过1000万条,建议选择周报。 l 月报:若每天审计日志量不超过1万条,可以选择月报。 周报 执行方式 计划任务创建后执行的次数。 l 周期执行:按照报表类型循环周期性执行。 l执行一次:计划任务执行一次之后不再执行。 周期执行 执行时间 目标任务执行的具体时间点,可选择24小时内的任一整点时间。 创建任务后紫铜自动执行,建议选择在工作负载较低的时间段,如:凌晨。 2点 数据库 选择需要执行目标任务的数据库,可选择全部数据库,也可选择具体的单个数据库。 全部数据库
        来自:
        帮助文档
        数据库安全
        最佳实践
        数据库安全审计等保最佳实践
      • ALM-18026 Yarn上运行失败的任务数超过阈值
        本章节主要介绍ALM18026 Yarn上运行失败的任务数超过阈值的告警。 告警解释 告警模块按60秒周期检测Yarn root队列上失败的应用的数量,当root队列上该监控周期内新增的运行失败的应用的数量超过50时,且连续发生3次以上,触发该告警。 告警属性 告警ID 告警级别 是否自动清除 18026 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 Trigger Condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 大量应用任务运行失败。 运行失败的任务需要重新提交。 可能原因 任务出于某种错误运行失败。 处理步骤 检查告警详情 1.在FusionInsight Manager界面,选择“运维 > 告警 > 告警”,打开告警页面。 2.查看“Yarn上运行失败的任务数超过阈值”告警详情中的“附加信息”,确认监控阈值是否设置过小。 是,执行步骤3。 否,执行步骤4。 3.选择“运维 > 告警 > 阈值设置 > 待操作集群的名称 > Yarn > 其它 > root队列下失败的任务数”,修改该监控的阈值。执行步骤6。 4.选择“集群 > 待操作集群的名称 > 服务 > Yarn > ResourceManager(主)”,进入ResourceManager的WebUI页面。 5.单击“Applications”下的“FAILED”,单击最上面的任务。查看“Diagnostics”对应的描述信息,根据定位的任务失败原因,处理相关问题。 6.等待3分钟,查看该告警是否消除。 是,处理完毕。 否,执行步骤7。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-18026 Yarn上运行失败的任务数超过阈值
      • 导入数据至DLI表的方式
        本章节主要介绍导入数据至DLI表的方式。 通过OBS导入数据 在DLI管理控制台,将存储在OBS服务上的数据导入DLI表中入口有两个,分别在“数据管理”>“库表管理”>“表管理”页面和“SQL编辑器”页面。具体操作请参考导入数据。 通过CDM导入数据 通过数据迁移服务(CDM)将OBS上的数据导入到DLI,导入需要创建CDM队列。 具体操作请参见《数据治理中心 DataArts Studio用户指南》中的的“OBS数据迁移到DLI服务”章节。 在操作过程中请注意以下关键配置: DLI所在的VPC与CDM队列的VPC一致。 需要创建两个连接,即DLI连接,OBS连接。 传输数据的文件格式支持“CSV格式”和“JSON格式”。
        来自:
        帮助文档
        数据湖探索
        用户指南
        其他常用操作
        导入数据至DLI表的方式
      • 设置作业优先级
        本章节主要介绍如何设置作业优先级。 操作场景 在实际作业运行中,由于作业的重要程度以及紧急程度不同,需要重点保障重要和紧急的作业正常运行,因此需要满足它们正常运行所需的计算资源。 DLI提供的设置作业优先级功能,可以对每个Spark作业、Spark SQL作业以及Flink作业设置作业优先级,当资源不充足时,可以优先满足优先级较高的作业的计算资源。 说明 只有运行在弹性资源池上的作业支持设置作业优先级。 弹性资源池上的SQL作业支持作业优先级。 Spark 2.4.5及以上版本的作业支持设置作业优先级。 Flink 1.12及以上版本的作业支持设置作业优先级。 使用须知 对于每个作业都允许设置优先级,其取值为110,数值越大表示优先级越高。优先满足高优先级作业的计算资源,即若高优先级作业计算资源不足,则会减少低优先级作业的计算资源 通用队列上运行的Flink作业优先级默认为5。 通用队列上运行的Spark作业的优先级默认为3。 SQL队列上运行的作业优先级默认为3。 作业优先级的调整需要停止作业进行编辑,并提交运行才能生效。 对于Flink作业,请参考开启Flink作业动态扩缩容设置flink.dli.job.scale.enabletrue开启动态扩缩容功能,再设置作业优先级。 Flink作业优先级的调整需要停止编辑作业并重新提交才能生效。
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业管理
        设置作业优先级
      • 将DLI数据导出至OBS
        参数名称 描述 数据库 当前表所在的数据库。 表名称 当前表名称。 数据格式 导出数据的文件格式。当前只支持json格式。 队列 选择队列。 压缩格式 导出数据的压缩方式,选择如下压缩方式。 none bzip2 deflate gzip 存储路径 输入或选择OBS路径。 导出路径必须为OBS桶中不存在的文件夹,即用户需在OBS目标路径后创建一个新文件夹。 文件夹名称不能包含下列特殊字符: / : ? " < >l,并且不能以“.”开头和结尾。 导出方式 导出数据的保存方式。 随导出创建指定路径:指定的导出目录必须不存在,如果指定目录已经存在,系统将返回错误信息,无法执行导出操作。 覆盖指定路径:在指定目录下新建文件,会删除已有文件。 表头:无/有 设置导出数据是否含表头。
        来自:
        帮助文档
        数据湖探索
        用户指南
        数据管理
        库表管理
        将DLI数据导出至OBS
      • Websocket接入
        messages { height: 300px; border: 1px solid ccc; padding: 10px; overflowy: auto; marginbottom: 10px; } .message { marginbottom: 5px; padding: 5px; background: f5f5f5; } .controls { marginbottom: 20px; } input, button { padding: 8px; marginright: 5px; } 浏览器 MQTT 客户端 连接 断开 订阅 发布 // 全局变量 let client null; // DOM 元素 const connectBtn document.getElementById('connectBtn'); const disconnectBtn document.getElementById('disconnectBtn'); const subscribeBtn document.getElementById('subscribeBtn'); const publishBtn document.getElementById('publishBtn'); const messagesDiv document.getElementById('messages'); // 添加消息到界面 function addMessage(text, isError false) { const messageDiv document.createElement('div'); messageDiv.className 'message'; messageDiv.style.color isError ? 'red' : 'black'; messageDiv.textContent [${new Date().toLocaleTimeString()}] ${text}; messagesDiv.appendChild(messageDiv); messagesDiv.scrollTop messagesDiv.scrollHeight; } // 连接MQTT服务器 connectBtn.addEventListener('click', () > { const brokerUrl document.getElementById('brokerUrl').value; const username document.getElementById('username').value; const password document.getElementById('password').value; if (!brokerUrl) { addMessage('请输入MQTT服务器地址', true); return; } // 连接选项 const options { username: username undefined, password: password undefined // 对于WebSocket连接,路径通常包含在URL中 // 例如: wss://broker.example.com/mqtt // 如果需要单独设置: // wsOptions: { // path: '/mqtt' // }, }; addMessage(正在连接到: ${brokerUrl}); try { client mqtt.connect(brokerUrl, options); // 连接成功 client.on('connect', () > { addMessage('连接成功'); connectBtn.disabled true; disconnectBtn.disabled false; subscribeBtn.disabled false; publishBtn.disabled false; }); // 接收消息 client.on('message', (topic, message) > { addMessage(收到消息 [${topic}]: ${message.toString()}); }); // 错误处理 client.on('error', (err) > { addMessage(错误: ${err.message}, true); }); // 断开连接 client.on('close', () > { addMessage('连接已关闭'); connectBtn.disabled false; disconnectBtn.disabled true; subscribeBtn.disabled true; publishBtn.disabled true; }); } catch (err) { addMessage(连接失败: ${err.message}, true); } }); // 断开连接 disconnectBtn.addEventListener('click', () > { if (client) { addMessage('正在断开连接...'); client.end(); } }); // 订阅主题 subscribeBtn.addEventListener('click', () > { const topic document.getElementById('subscribeTopic').value; if (topic && client) { client.subscribe(topic, (err) > { if (err) { addMessage(订阅失败: ${err.message}, true); } else { addMessage(已订阅主题: ${topic}); } }); } }); // 发布消息 publishBtn.addEventListener('click', () > { const topic document.getElementById('publishTopic').value; const message document.getElementById('publishMessage').value; if (topic && message && client) { client.publish(topic, message); addMessage(已发布消息到 [${topic}]: ${message}); document.getElementById('publishMessage').value ''; } });
        来自:
        帮助文档
        分布式消息服务MQTT
        最佳实践
        Websocket接入
      • 续费、到期与欠费
        本节介绍了分布式消息服务RabbitMQ续费、到期与欠费内容。 到期前续费 手动续订:对于包年/包月订购的分布式缓存服务,用户在资源到期前进行续费操作,可以延长原有资源到期时间,避免资源到期后冻结或超过保留期后被系统回收。详细操作请参考费用中心续订管理手动续订。 自动续订:自动续订仅针对采用包月、包年计费模式的资源,详细操作请参考费用中心续订管理自动续订。 到期处理 到期后,分布式消息服务RabbitMQ进入保留期,您将不能正常访问及使用天翼云分布式消息服务RabbitMQ服务,已开通的实例资源将予以保留。 若您在到期后15天内续费,自资源续订解冻开始,计算新的服务有效期,按照新的服务有效期计算费用; 若到期15天后您仍未续费,RabbitMQ实例资源将被释放 欠费原因 在按需计费的模式下帐号的余额不足。 按需欠费资源冻结规则 欠费后,资源进入保留期,您将不能正常访问及使用分布式消息服务RabbitMQ,已开通的实例资源将予以保留。 若您在保留期内充值,充值后系统会自动扣减欠费金额。 若保留期到期您仍未充值,RabbitMQ实例资源将被释放。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        计费说明
        续费、到期与欠费
      • 日志通知
        配置项 说明 名称 Syslog接收接口的配置名称。 服务器地址 Syslog服务器地址,可为IP或者域名。 端口 Syslog服务器端口,默认为端口为514。 发送协议 选择日志传输的协议类型,支持UDP或TCP。 是否发送消息头 决定是否在日志数据前添加自定义Syslog消息头(含主机名及用户名)。 内容协议格式 定义日志数据的格式,默认为RFC3164。 报文默认主机名 可以指定日志中使用的默认主机名。 报文默认应用名 可以指定日志中使用的默认应用程序名。 程序模块编码 Syslog协议RFC5424 规定,消息中必须包含“程序模块编码”,Syslog服务端使用该编码区分发送消息的程序来源。与服务器端配置保持一致即可。 严重等级 选择向Syslog服务器发送告警所标记的严重等级。等级分为:Emergency、Alert、Critical、Error、Warning、Notice、Informational、Debug。 与服务器端配置保持一致即可。 审计日志模板 发送审计日志信息的模板,可修改默认模板,具体字段请依据填写说明编辑。 告警日志模板 发送告警日志信息的模板,可修改默认模板,具体字段请依据填写说明编辑。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据库安全网关操作指导
        通知发送
        日志通知
      • 产品咨询类
        采取措施 收到与磁盘使用率有关的告警时,可以调查磁盘空间消耗,查看是否可以从集群节点中删除数据或是将数据存档到其他系统以释放空间,或者扩容磁盘。 收到与集群健康状态有关的告警时,可以查看集群的分片分配是否正常以及Shard是否已丢失,在Cerebro上查看进程是否发生重启。 云搜索服务有哪些存储选项? 云搜索服务采用EVS和本地磁盘存储用户的索引。在集群创建过程中,用户可指定EVS的类型及规格(即卷大小)。 支持EVS类型有普通I/O、高I/O、超高I/O。 针对不同的ECS,其对应的EVS卷大小限制根据创建集群选择的节点规格而定。 云搜索服务存储容量的上限是多少? 创建集群过程中,最少可创建1个节点,最多可创建200个节点,其中每个节点(对应一个ECS)可挂载一定数量的EVS。可参考不同ECS挂载EVS卷大小的不同,计算出云搜索服务存储容量的总大小,EVS卷大小根据创建集群选择的节点规格而定。 有哪些工具可以使用云搜索服务? 管理云搜索服务,或使用其搜索引擎的API,提供了如下三种方式。可以基于已构建好的请求消息发起请求。 curl curl是一个命令行工具,用来执行各种URL操作和信息传输。curl充当的是HTTP客户端,可以发送HTTP请求给服务端,并接收响应消息。curl适用于接口调试。 编码 通过编码调用接口,组装请求消息,并发送处理请求消息。 REST客户端 Mozilla Firefox、Google Chrome都为REST提供了图形化的浏览器插件,发送处理请求消息。
        来自:
        帮助文档
        云搜索服务
        常见问题
        产品咨询类
      • PahoSubscriber监控
        指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) uri serviceUri PahoSubscriber连接的MQTT服务端uri ENUM LAST PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) msgType 报文类型 发送的报文类型 ENUM LAST PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) concurrentMax 最大并发 最大并发 INT MAX PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) errorCount 错误次数 错误次数 INT SUM PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) invokeCount 调用次数 调用次数 INT SUM PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) lastError 错误信息 错误信息 STRING LAST PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) maxTime 最大响应时间 最大响应时间 INT MAX PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) totalTime 总响应时间 总响应时间 INT SUM PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) range1 010ms 响应时间在010ms范围请求数 INT SUM PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) range3 100500ms 响应时间在100500ms范围请求数 INT SUM PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) range4 5001000ms 响应时间在5001000ms范围请求数 INT SUM PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) range5 110s 响应时间在110s范围请求数 INT SUM PahoSubscriber接收Publish报文监控(message,PahoSubscriber接收Publish报文监控。) range6 10s以上 响应时间在10s以上请求数 INT SUM PahoSubscriber接收Publish报文节点维度监控(uriMessage,PahoSubscriber接收Publish报文监控。) uri serviceUri PahoSubscriber连接的MQTT服务端uri ENUM LAST PahoSubscriber接收Publish报文节点维度监控(uriMessage,PahoSubscriber接收Publish报文监控。) errorCount 错误次数 错误次数 INT SUM PahoSubscriber接收Publish报文节点维度监控(uriMessage,PahoSubscriber接收Publish报文监控。) invokeCount 调用次数 调用次数 INT SUM PahoSubscriber接收Publish报文节点维度监控(uriMessage,PahoSubscriber接收Publish报文监控。) totalTime 总响应时间 总响应时间 INT SUM 异常(exception,PahoSubscriber调用的异常信息统计。) exceptionType 异常类型 异常类型 ENUM LAST 异常(exception,PahoSubscriber调用的异常信息统计。) causeType 异常类 发生异常的类 ENUM LAST 异常(exception,PahoSubscriber调用的异常信息统计。) count 次数 该异常的发生次数 INT SUM 异常(exception,PahoSubscriber调用的异常信息统计。) message 异常消息 该异常产生的异常消息 STRING LAST 异常(exception,PahoSubscriber调用的异常信息统计。) stackTrace 异常堆栈 该异常产生的堆栈信息 CLOB LAST PahoSubscriber主题维度监控(clientReceive,PahoSubscriber主题维度监控。) clientId clientId clientId ENUM LAST PahoSubscriber主题维度监控(clientReceive,PahoSubscriber主题维度监控。) topic 主题 主题 ENUM LAST PahoSubscriber主题维度监控(clientReceive,PahoSubscriber主题维度监控。) msgReceivedCount 消息接收次数 消息接收次数 INT SUM PahoSubscriber主题维度监控(clientReceive,PahoSubscriber主题维度监控。) bytesReceived 消息接收字节数 消息接收字节数 INT SUM PahoSubscriber版本(version,PahoSubscriber版本。) version 版本 版本 STRING LAST PahoSubscriber主题汇总(total,PahoSubscriber主题汇总信息统计。) msgReceivedCount 消息接收次数 总消息接收次数 INT SUM PahoSubscriber主题汇总(total,PahoSubscriber主题汇总信息统计。) bytesReceived 消息接收字节数 总消息接收字节数 INT SUM
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        物联网
        PahoSubscriber监控
      • 开启告警通知
        本节介绍如何开启告警通知。 通过对攻击日志进行通知设置,WAF可将仅记录和拦截的攻击日志通过用户设置的接收通知方式(例如邮件或短信)发送给用户。 前提条件 已开通消息通知服务。 约束条件 在设置时间间隔内,当攻击次数大于或等于您设置的阈值时才会发送告警通知。 操作步骤 1. 登录管理控制台。 2. 单击页面顶部的区域选择框,选择区域。 3. 单击页面左上角的“服务列表”,选择“安全 > Web应用防火墙(独享版)”。 4. 在左侧导航树中,选择“系统管理 > 告警通知”,进入“告警通知”页面。 5. 单击“添加通知”,配置告警通知参数。 参数 参数说明 通知类型 选择告警通知的类型: 防护事件:WAF可将仅记录和拦截的攻击日志通过用户设置的接收通知方式(例如邮件或短信)发送给用户。 通知名称 自定义该条告警的名称。 通知描述 可选参数,备注该条告警的用途。 企业项目 在下拉框中选择企业项目,该通知在选择的企业项目下生效。 通知群组 单击下拉列表选择已创建的主题或者单击“查看主题”创建新的主题,用于配置接收告警通知的终端。 告警频率 在设置时间间隔内,当攻击次数大于或等于您设置的阈值时才会发送告警通知。 事件类型 设置告警的事件类型,系统默认选择“全部”,用户也可以单击“自定义”,勾选需要告警的事件类型。 6. 配置完成后,单击“确认”,告警通知设置成功。 如果需要关闭该告警通知,在目标告警所在行的的“操作”列,单击“关闭”。 如果需要删除该告警通知,在目标告警所在行的的“操作”列,单击“删除”。 如果需要修改该告警通知,在目标告警所在行的的“操作”列,单击“修改”。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        系统管理
        开启告警通知
      • 创建Spark作业
        本章节主要介绍创建Spark作业。 Spark作业编辑页面支持执行Spark作业,为用户提供全托管式的Spark计算服务。 在总览页面,单击Spark作业右上角的“创建作业”,或在Spark作业管理页面,单击右上角的“创建作业”,均可进入Spark作业编辑页面。 进入Spark作业编辑页面,页面会提示系统将创建DLI临时数据桶。该桶用于存储使用DLI服务产生的临时数据,例如:作业日志、作业结果等。如果不创建该桶,将无法查看作业日志。桶名称为系统默认。 如果不需要创建DLI临时数据桶,并且希望不再收到该提示,可以勾选“下次不再提示”并单击“取消”。 前提条件 1.请先将所要依赖的程序包通过“数据管理>程序包管理”页面上传至对应的OBS桶中。具体操作请参考创建程序包。 2.创建Spark作业,访问其他外部数据源时,如访问OpenTSDB、HBase、Kafka、DWS、RDS、ES、CloudTable、DCS Redis、DDS Mongo等,需要先创建跨源连接,打通作业运行队列到外部数据源之间的网络。 当前Spark作业支持访问的外部数据源详情请参见跨源连接和跨源分析概述。 创建跨源连接操作请参见增强型跨源连接。 创建完跨源连接后,可以通过“资源管理 > 队列管理”页面,单击“操作”列“更多”中的“测试地址连通性”,验证队列到外部数据源之间的网络连通是否正常。详细操作可以参考测试地址联通性。
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业管理
        Spark作业管理
        创建Spark作业
      • ALM-18025 Yarn被终止的任务数超过阈值
        本章节主要介绍ALM18025 Yarn被终止的任务数超过阈值的告警。 告警解释 告警模块按60秒周期检测Yarn root队列上被终止的应用的数量,当root队列上该监控周期内新增的被终止的应用的数量超过50,且连续发生3次以上时,触发该告警。 告警属性 告警ID 告警级别 是否自动清除 18025 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 Trigger Condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 大量应用任务被强制终止。 可能原因 人为强制终止大量任务。 系统出于某种错误终止任务。 处理步骤 检查告警详情 1.在FusionInsight Manager界面,选择“运维 > 告警 > 告警”,打开告警页面。 2.查看“Yarn被终止的任务数超过阈值”告警详情中的“附加信息”,确认监控阈值是否设置过小。 是,执行步骤3。 否,执行步骤4。 3.选择“运维 > 告警 > 阈值设置 > 待操作集群的名称 > Yarn > 其它 > root队列下被杀死的任务数”,修改该监控的阈值。执行步骤6。 4.选择“集群 > 待操作集群的名称 > 服务 > Yarn > ResourceManager(主)”,进入ResourceManager的WebUI页面。 5.单击“Applications”下的“KILLED”,单击最上面的任务。查看“Diagnostics”对应的描述信息,根据定位的任务被终止的详情(例如:被某用户终止)处理相关问题。 6.等待3分钟,查看该告警是否消除。 是,处理完毕。 否,执行步骤7。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-18025 Yarn被终止的任务数超过阈值
      • 异常
        本文主要介绍异常 异常监控项是对应用的异常日志进行监控,比如java的日志异常监控,一旦用户采用log系统打印日志,就会被采集上来。具体的异常采集类型会根据不同的采集器类型有变化。 查看异常日志 步骤 1 登录管理控制台。 步骤 2 单击左侧,选择“应用性能管理 APM”,进入APM服务页面。 步骤 3 在左侧导航栏选择“应用监控 > 指标”。 步骤 4 在界面左侧树单击待查看接口调用的环境后的。 步骤 5 单击“异常”,切换至异常页签。页面默认展示所“全部实例”的“异常日志”异常日志信息。 异常指标包括:类名、异常类型、日志类型、总次数、消息以及以及异常堆栈。请参照下表 日志版本指标包括:logType以及版本。 图 异常监控数据 表 指标说明 指标集 参数 说明 ::: 异常 类名 发生异常的所在类 异常 异常类型 该异常的类型 异常 日志类型 该异常打印所属的日志类型 异常 次数 异常发生的次数 异常 异常消息 该异常产生的异常消息 异常 异常堆栈 该异常产生的异常堆栈 日志版本 日志类型 日志类型 日志版本 日志版本 日志类型对应的版本 单击蓝色数值,可以查看所选时间段内该线程的趋势图。 单击“消息”列的蓝色文字,可以查看消息的详细内容,包括:时间和消息内容。 单击“异常堆栈”列的“查看详情”可以查看异常的详细信息。 单击“异常堆栈”列的“历史信息”可以查看该类名的历史异常堆栈列表。 单击“版本”列的蓝色文字,可以查看该版本的日志详情。 步骤 6 在异常页签选择您想要查看的“实例名称”,并选择“异常日志”,可以查看该实例在对应采集器下的应用异常监控数据。 图 选择实例、异常日志
        来自:
        帮助文档
        应用性能管理
        用户指南
        应用指标监控
        应用监控详情
        异常
      • 恢复HBase业务数据
        操作步骤 1.在FusionInsight Manager,选择“运维 > 备份恢复 > 备份管理”。 2.在任务列表指定任务的“操作”列,选择“更多 > 查询历史”,打开备份任务执行历史记录。 在弹出的窗口中,在指定一次执行成功记录的“备份路径”列,单击“查看”,打开此次任务执行的备份路径信息,查找以下信息: “备份对象”表示备份的数据源。 “备份路径”表示备份文件保存的完整路径。 选择正确的项目,在“备份路径”手工选中备份文件的完整路径并复制。 3.在FusionInsight Manager,选择“运维 > 备份恢复 > 恢复管理”。 4.单击“创建”。 5.在“任务名称”填写恢复任务的名称。 6.在“恢复对象”选择待操作的集群。 7.在“恢复配置”,勾选“业务数据”下的“HBase”。 8.在“HBase”的“路径类型”,选择一个备份目录的类型。 备份目录支持以下类型: “RemoteHDFS”:表示将备份文件保存在备集群的HDFS目录。选择此参数值,还需要配置以下参数: “源端NameService名称”:填写备份数据集群的NameService名称。可以输入集群内置的远端集群的NameService名称:haclusterX,haclusterX1,haclusterX2,haclusterX3,haclusterX4;也可输入其他已配置的远端集群NameService名称。 “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “源端NameNode IP地址”:填写备集群NameNode业务平面IP地址,支持主节点或备节点。 “源端路径”:表示备份文件在HDFS中保存的完整路径。例如“ 备份路径/备份任务名数据源任务创建时间 ”。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。 “恢复点列表”:单击“刷新”,然后选择一个备集群上已备份的HDFS目录。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “NFS”:表示将备份文件通过NFS协议保存在NAS中。选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “源端路径”:填写备份文件在NAS服务器中保存的完整路径。例如,“ 备份路径/备份任务名数据源任务创建时间 ”。 “队列名称”:填写备份任务执行时使用的Yarn队列的名称。 “恢复点列表”:单击“刷新”,然后选择一个备集群上已备份的HDFS目录。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “CIFS”:表示将备份文件通过CIFS协议保存在NAS中。选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “端口号”:填写CIFS协议连接NAS服务器使用的端口号,默认值为“445”。 “用户名”:填写配置CIFS协议时设置的用户名。 “密码”:填写配置CIFS协议时设置的密码。 “源端路径”:填写备份文件在NAS服务器中保存的完整路径。例如,“ 备份路径/备份任务名数据源任务创建时间”。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。 “恢复点列表”:单击“刷新”,然后选择一个备集群上已备份的HDFS目录。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “SFTP”:表示备份文件通过SFTP协议保存在服务器中。 选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写备份数据的服务器IP地址。 “端口号”:填写SFTP协议连接备份服务器使用的端口号,默认值为“22”。 “用户名”:填写使用SFTP协议连接服务器时的用户名。 “密码”:填写使用SFTP协议连接服务器时的密码。 “源端路径”:填写备份文件在备份服务器中保存的完整路径。例如,“ 备份路径/备份任务名数据源任务创建时间/版本号数据源任务执行时间.tar.gz ”。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。 “恢复点列表”:单击“刷新”,然后选择一个备集群上已备份的HDFS目录。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 9.在“数据配置”中的“备份数据”列根据业务需要勾选一个或多个需要恢复的已备份数据,并在“目标名称空间”列,指定备份数据恢复的命名空间。 “目标名称空间”建议选择一个备份命名空间不同的位置。 10.在“强制覆盖”选择“true”,表示存在同名数据表时强制恢复备份的所有数据,如果数据表中存在备份后新增加的数据,那恢复后将丢失这些数据。选择“false”表示存在同名表时不执行恢复任务。 11.单击“校验”查看恢复任务的配置是否正确。 如果队列名称不正确,校验失败。 如果不存在指定的命名空间,校验失败。 如果不满足强制覆盖的条件,校验失败。 12.单击“确定”保存。 13.在恢复任务列表已创建任务的“操作”列,单击“执行”,开始执行恢复任务。 恢复成功后进度显示为绿色。 恢复成功后此恢复任务不支持再次执行。 如果恢复任务在第一次执行时由于某些原因未执行成功,在排除错误原因后单击“重试”,重试恢复任务。 14.检查是否是在全新安装,或者重新安装HBase的环境中恢复了HBase数据。 是,需要管理员在FusionInsight Manager上根据原有的业务规划重新设置角色的权限。 否,任务结束。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        恢复数据
        恢复HBase业务数据
      • Java开发环境搭建
        开发环境 Maven Apache Maven 2.5及以上版本,可至Maven官方网站下载。 JDK Java Development Kit 1.8及以上版本,可至Oracle官方网站下载。 安装后注意配置JAVA的环境变量。 IntelliJ IDEA 获取并安装IntelliJ IDEA,可至IntelliJ IDEA官方网站下载。 操作步骤 1. 下载Demo包kafkajavademo.zip 下载后解压,有如下文件: 表1 KAFKA Demo文件清单 文件名 路径 说明 ::: JavaKafkaConfigurer.java .srcmainjavajavaDemo 读取Kafka配置文件。 KafkaConsumerDemo.java .srcmainjavajavaDemo 消费消息。 KafkaMultiConsumerDemo.java .srcmainjavajavaDemo 批量消费消息。 KafkaProducerDemo.java .srcmainjavajavaDemo 生产消息。 kafka.properties .srcmainresources kafka配置参数 pom.xml . maven配置文件,包含Kafka客户端引用。 2. 打开IntelliJ IDEA,导入Demo。Demo是一个Maven构建的Java工程,因此需要配置JDK环境,以及IDEA的Maven插件。 3. 修改Kafka配置信息。 修改kafka.properties 修改demo文件中的属性变量
        来自:
        帮助文档
        分布式消息服务Kafka
        开发指南
        Java
        Java开发环境搭建
      • 推送历史
        本节主要介绍如何在智能视图服务控制台查看推送历史。 在推送历史列表中,可以查看到历史推送记录,支持多种筛选方式查看。 快捷筛选:通过左上角的今天、近3天和自定义时间快捷筛选时间。 高级筛选:点击【高级筛选】,可通过策略名称、策略描述、用户组、推送方式、消息类型和消息内容进行查询。
        来自:
        帮助文档
        智能视图服务
        用户指南
        消息推送
        推送历史
      • 控制台说明
        端口统计 统计客户所有域名的总的tcp端口数、udp端口数。 产品计费 展示客户使用的应用加速产品的计费方式。 信息中心 该区域分为公告、域名消息。 公告:显示更新说明、版本发布、天翼云CDN相关动态等信息。 域名消息:显示域名的操作信息。
        来自:
        帮助文档
        应用加速(文档停止维护)
        用户指南
        控制台说明
      • Java客户端接入示例
        生产消息 import java.util.ArrayList; import java.util.List; import java.util.Properties; import java.util.concurrent.Future; import org.apache.kafka.clients.CommonClientConfigs; import org.apache.kafka.clients.producer.KafkaProducer; import org.apache.kafka.clients.producer.ProducerConfig; import org.apache.kafka.clients.producer.ProducerRecord; import org.apache.kafka.clients.producer.RecordMetadata; import org.apache.kafka.common.config.SslConfigs; public class KafkaProducerDemo { public static void main(String args[]) { //加载kafka.properties Properties kafkaProperties JavaKafkaConfigurer.getKafkaProperties(); Properties props new Properties(); //设置接入点,请通过控制台获取对应Topic的接入点 props.put(ProducerConfig.BOOTSTRAPSERVERSCONFIG, kafkaProperties.getProperty("bootstrap.servers")); //设置SSL根证书的路径,请记得将XXX修改为自己的路径 props.put(SslConfigs.SSLTRUSTSTORELOCATIONCONFIG, kafkaProperties.getProperty("ssl.truststore.location")); //根证书store的密码,保持不变 props.put(SslConfigs.SSLTRUSTSTOREPASSWORDCONFIG, "c24f5210"); //接入协议,目前支持使用SSL协议接入 props.put(CommonClientConfigs.SECURITYPROTOCOLCONFIG, "SSL"); //Kafka消息的序列化方式 props.put(ProducerConfig.KEYSERIALIZERCLASSCONFIG, "org.apache.kafka.common.serialization.StringSerializer"); props.put(ProducerConfig.VALUESERIALIZERCLASSCONFIG, "org.apache.kafka.common.serialization.StringSerializer"); //请求的最长等待时间 props.put(ProducerConfig.MAXBLOCKMSCONFIG, 30 1000); //设置客户端内部重试次数 props.put(ProducerConfig.RETRIESCONFIG, 5); //设置客户端内部重试间隔 props.put(ProducerConfig.RECONNECTBACKOFFMSCONFIG, 3000); //hostname校验改成空 props.put(SslConfigs.SSLENDPOINTIDENTIFICATIONALGORITHMCONFIG, ""); //构造Producer对象,注意,该对象是线程安全的,一般来说,一个进程内一个Producer对象即可; //如果想提高性能,可以多构造几个对象,但不要太多,最好不要超过5个 KafkaProducer producer new KafkaProducer (props); //构造一个Kafka消息 String topic kafkaProperties.getProperty("topic"); //消息所属的Topic,请在控制台申请之后,填写在这里 String value "this is the message's value"; //消息的内容 try { //批量获取 futures 可以加快速度, 但注意,批量不要太大 List > futures new ArrayList >(128); for (int i 0; i kafkaMessage new ProducerRecord (topic, value + ": " + i); Future metadataFuture producer.send(kafkaMessage); futures.add(metadataFuture); } producer.flush(); for (Future future: futures) { //同步获得Future对象的结果 try { RecordMetadata recordMetadata future.get(); System.out.println("Produce ok:" + recordMetadata.toString()); } catch (Throwable t) { t.printStackTrace(); } } } catch (Exception e) { System.out.println("error occurred"); e.printStackTrace(); } } }
        来自:
        帮助文档
        分布式消息服务Kafka
        开发指南
        Java
        Java客户端接入示例
      • 计费模式
        本文为您介绍分布式消息服务MQTT的计费模式。 目前天翼云分布式消息服务MQTT提供包周期(包年/包月)、按需2种计费模式供您灵活选择,使用越久越便宜。 下表列出两种模式的区别: 计费模式 包年/包月 按需计费 付费方式 预付费按照订单的购买周期结算。 后付费按照云服务器实际使用时长计费。 计费周期 按订单的购买周期计费。 按小时结算。 实例升级 暂不支持实例升级。 暂不支持实例升级。 更改计费模式 不支持变更为按需资源。 不支持变更为包周期资源。 变更规格 暂不支持变更实例规格。 暂不支持变更实例规格。 适用场景 适用于可预估资源使用周期的场景,价格比按需计费模式更优惠。对于长期使用者,推荐该方式。 适用于消息资源需求波动的场景,可以随时开通,随时删除。 包周期(包年/包月):天翼云提供包月和包年的购买模式。这种购买方式相对于按需付费则能够提供更大的折扣,对于长期使用者,推荐该方式。包周期计费按照订单的购买周期来进行结算。 按需计费:这种购买方式比较灵活,可以即开即停,支持秒级计费。实例从“开通”开启计费到“删除”结束计费,按实际购买时长(精确到秒)计费。 计费模式变更 :天翼云分布式消息服务MQTT目前不支持计费模式变更。
        来自:
        帮助文档
        分布式消息服务MQTT
        计费说明
        计费模式
      • 概述
        本文主要介绍云日志服务的投递概述。 天翼云云日志服务可以将日志单元中的数据投递到天翼云对象存储ZOS与分布式消息服务kafka,以满足归档或者计算的需求。 转储至对象存储ZOS 您将云主机和云服务的日志数据上报至云日志服务后,可对日志存储时长进行设置,默认存储时间为365天,超出存储时间后,日志数据将会被自动清理。若您需要长期存储日志数据进行日志持久化,可使用日志转储功能,将日志数据转储至对象存储中进行长期保存。具体操作请查看转储至对象存储ZOS。 说明 日志转储的实时性较弱,通常为5分钟~30分钟。数据延迟依赖于存储系统。 关于对象存储更多内容,请参考对象存储产品文档。 转储至分布式消息服务kafka 云日志服务采集到数据后,支持将数据转储至对天翼云分布式消息服务kafka,用于实时流计算等场景。具体操作请查看转储至分布式消息服务kafka。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志转储
        概述
      • 1
      • ...
      • 26
      • 27
      • 28
      • 29
      • 30
      • ...
      • 241
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      GPU云主机

      轻量型云主机

      天翼云CTyunOS系统

      AI Store

      公共算力服务

      应用托管

      科研助手

      推荐文档

      篡改防护

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号