活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      文档中心

      翼MapReduce

      翼MapReduce

        • 产品动态
        • 产品简介
        • 产品定义
        • 产品优势
        • 功能特性
        • 多租户
        • 安全增强
        • 组件Web UI便捷访问
        • 可靠性增强
        • 作业管理
        • 自定义引导操作
        • 企业项目管理
        • 元数据
        • 集群管理
        • 应用场景
        • 术语解释
        • 与其他产品的关系
        • 权限管理
        • 约束与限制
        • 计费说明
        • 资源节点
        • 产品规格
        • 产品价格
        • 计费模式
        • 购买
        • 变更
        • 续订
        • 退订
        • 快速入门
        • 如何使用翼MapReduce
        • 创建集群
        • 上传示例数据和程序
        • 添加作业
        • 从零开始使用Kerberos认证集群
        • 删除集群
        • 用户指南
        • 准备用户
        • 创建MRS操作用户
        • 创建MRS自定义策略
        • IAM用户同步MRS说明
        • 配置集群
        • 创建方式简介
        • 快速创建集群
        • 快速创建Hadoop分析集群
        • 快速创建HBase查询集群
        • 快速创建Kafka流式集群
        • 快速创建ClickHouse集群
        • 快速创建实时分析集群
        • 创建自定义集群
        • 创建自定义拓扑集群
        • 添加集群标签
        • 授权安全通信
        • 配置弹性伸缩规则
        • 管理数据连接
        • 配置数据连接
        • 配置Ranger数据连接
        • 配置Hive数据连接
        • 通过引导操作安装第三方软件
        • 查看失败的集群操作任务
        • 查看历史集群信息
        • 管理集群
        • 登录集群
        • MRS集群节点简介
        • 登录集群节点
        • 如何确认Manager的主备管理节点
        • 集群概览
        • 集群列表简介
        • 查看集群状态
        • 查看集群基本信息
        • 查看集群补丁信息
        • 查看和定制集群监控指标
        • 管理组件和主机监控
        • 集群运维
        • 导入导出数据
        • 切换集群子网
        • 配置消息通知
        • 健康检查
        • 远程运维
        • 查看MRS服务操作日志
        • 删除集群
        • 节点管理
        • 扩容集群
        • 缩容集群
        • 管理主机(节点)操作
        • 隔离主机
        • 取消隔离主机
        • 作业管理
        • MRS作业简介
        • 运行MapReduce作业
        • 运行SparkSubmit作业
        • 运行HiveSql作业
        • 运行SparkSql作业
        • 运行Flink作业
        • 运行Kafka作业
        • 查看作业配置信息和日志
        • 停止作业
        • 删除作业
        • 使用OBS加密数据运行作业
        • 配置作业消息通知
        • 组件管理
        • 对象管理简介
        • 查看配置
        • 管理服务操作
        • 配置服务参数
        • 配置服务自定义参数
        • 同步服务配置
        • 管理角色实例操作
        • 配置角色实例参数
        • 同步角色实例配置
        • 退服和入服角色实例
        • 启动及停止集群
        • 同步集群配置
        • 导出集群的配置数据
        • 支持滚动重启
        • 告警管理
        • 查看告警列表
        • 查看事件列表
        • 查看与手动清除告警
        • 补丁管理
        • 补丁操作指导
        • 滚动补丁
        • 修复隔离主机补丁
        • 租户管理
        • 使用前须知
        • 租户简介
        • 添加租户
        • 添加子租户
        • 删除租户
        • 管理租户目录
        • 恢复租户数据
        • 添加资源池
        • 修改资源池
        • 删除资源池
        • 配置队列
        • 配置资源池的队列容量策略
        • 清除队列配置
        • 引导操作
        • 引导操作简介
        • 准备引导操作脚本
        • 查看执行记录
        • 添加引导操作
        • 修改引导操作
        • 删除引导操作
        • 使用MRS客户端
        • 安装客户端
        • 安装客户端(3.x及之后版本)
        • 安装客户端(3.x之前版本)
        • 更新客户端
        • 更新客户端(3.x及之后版本)
        • 更新客户端(3.x之前版本)
        • 各组件客户端使用实践
        • 使用ClickHouse客户端
        • 使用Flink客户端
        • 使用Flume客户端
        • 使用HBase客户端
        • 使用HDFS客户端
        • 使用Hive客户端
        • 使用Impala客户端
        • 使用Kafka客户端
        • 使用Kudu客户端
        • 使用Oozie客户端
        • 使用Storm客户端
        • 使用Yarn客户端
        • 配置存算分离
        • 存算分离简介
        • 配置存算分离集群(委托方式)
        • 配置存算分离集群(AKSK方式)
        • 使用存算分离集群
        • Flink对接OBS文件系统
        • Flume对接OBS文件系统
        • HDFS客户端对接OBS文件系统
        • Hive对接OBS文件系统
        • MapReduce对接OBS文件系统
        • Spark2x对接OBS文件系统
        • Sqoop对接外部存储系统
        • Hudi对接OBS文件系统
        • 访问MRS集群上托管的开源组件Web页面
        • 开源组件Web站点
        • 开源组件端口列表
        • 通过专线访问
        • 通过弹性公网IP访问
        • 通过Windows弹性云主机访问
        • 创建连接MRS集群的SSH隧道并配置浏览器
        • 访问集群Manager
        • 访问FusionInsight Manager(MRS 3.x及之后版本)
        • 访问MRS Manager(MRS 2.x及之前版本)
        • FusionInsight Manager操作指导(适用于3.x)
        • 从这里开始
        • FusionInsight Manager入门指导
        • 查询FusionInsight Manager版本号
        • 登录管理系统
        • 登录管理节点
        • 主页
        • 主页概述
        • 管理监控指标数据报表
        • 主机管理
        • 主机管理页面
        • 查看主机列表
        • 查看主机概览
        • 查看主机进程及资源
        • 主机维护操作
        • 启动、停止主机上的所有实例
        • 执行主机健康检查
        • 分配机架
        • 隔离主机
        • 导出主机信息
        • 资源概况
        • 分布
        • 趋势
        • 集群
        • 主机
        • 运维
        • 告警
        • 告警与事件概述
        • 配置阈值
        • 配置告警屏蔽状态
        • 日志
        • 在线检索日志
        • 下载日志
        • 健康检查
        • 查看健康检查任务
        • 管理健康检查报告
        • 修改健康检查配置
        • 备份恢复设置
        • 创建备份任务
        • 创建恢复任务
        • 其他任务管理说明
        • 审计
        • 审计管理页面概述
        • 配置审计日志转储
        • 租户资源
        • 多租户介绍
        • 简介
        • 技术原理
        • 多租户管理页面概述
        • 相关模型
        • 资源概述
        • 动态资源
        • 存储资源
        • 多租户使用
        • 使用说明
        • 流程概述
        • 使用Superior调度器的租户业务
        • 创建租户
        • 添加租户
        • 添加子租户
        • 添加用户并绑定租户的角色
        • 管理租户
        • 管理租户目录
        • 恢复租户数据
        • 删除租户
        • 管理资源
        • 添加资源池
        • 修改资源池
        • 删除资源池
        • 配置队列
        • 配置资源池的队列容量策略
        • 清除队列容量配置
        • 管理全局用户策略
        • 使用Capacity调度器的租户业务
        • 创建租户
        • 添加租户
        • 添加子租户
        • 添加用户并绑定租户的角色
        • 管理租户
        • 管理租户目录
        • 恢复租户数据
        • 删除租户
        • Capacity Scheduler模式下清除租户非关联队列
        • 管理资源
        • 添加资源池
        • 修改资源池
        • 删除资源池
        • 配置队列
        • 配置资源池的队列容量策略
        • 清除队列容量配置
        • 切换调度器
        • 系统设置
        • 权限设置
        • 用户管理
        • 创建用户
        • 修改用户信息
        • 导出用户信息
        • 锁定用户
        • 解锁用户
        • 删除用户
        • 修改用户密码
        • 初始化用户密码
        • 导出认证凭据文件
        • 用户组管理
        • 角色管理
        • 安全策略
        • 配置密码策略
        • 配置私有属性
        • 对接设置
        • 配置SNMP北向参数
        • 配置Syslog北向参数
        • 配置监控指标数据转储
        • 导入证书
        • OMS管理
        • OMS维护页面概述
        • 修改OMS服务配置参数
        • 部件管理
        • 查看部件包
        • 集群管理
        • 配置客户端
        • 安装客户端
        • 使用客户端
        • 更新已安装客户端的配置
        • 管理集群
        • 集群管理概述
        • 滚动重启集群
        • 管理配置过期
        • 下载客户端
        • 修改集群属性
        • 管理集群配置
        • 静态服务池
        • 静态服务资源
        • 配置集群静态资源
        • 查看集群静态资源
        • 客户端管理
        • 管理客户端
        • 批量升级客户端
        • 批量刷新hosts文件
        • 管理服务
        • 服务管理概述
        • 其他服务管理操作
        • 服务详情概述
        • 执行角色实例主备倒换
        • 资源监控
        • 采集堆栈信息
        • 切换Ranger鉴权
        • 服务配置
        • 修改服务配置参数
        • 修改服务自定义配置参数
        • 集群互信管理
        • 集群互信概述
        • 修改Manager系统域名
        • 配置跨Manager集群互信
        • 配置跨集群互信后的用户权限
        • 配置定时备份告警与审计信息
        • 管理实例
        • 实例管理概述
        • 入服与退服实例
        • 管理实例配置
        • 查看实例配置文件
        • 实例组
        • 管理实例组
        • 查看实例组信息
        • 配置实例组参数
        • 修改FusionInsight Manager添加的路由表
        • 切换维护模式
        • 例行维护
        • 日志管理
        • 关于日志
        • Manager日志清单
        • 配置日志级别与文件大小
        • 配置审计日志本地备份数
        • 查看角色实例日志
        • 备份恢复管理
        • 备份恢复简介
        • 备份数据
        • 备份OMS数据
        • 备份DBService数据
        • 备份HBase元数据
        • 备份HBase业务数据
        • 备份NameNode数据
        • 备份HDFS业务数据
        • 备份Hive业务数据
        • 备份Kafka元数据
        • 恢复数据
        • 恢复OMS数据
        • 恢复DBService数据
        • 恢复HBase元数据
        • 恢复HBase业务数据
        • 恢复NameNode数据
        • 恢复HDFS业务数据
        • 恢复Hive业务数据
        • 恢复Kafka元数据
        • 启用集群间拷贝功能
        • 管理本地快速恢复任务
        • 修改备份任务
        • 查看备份恢复任务
        • 安全管理
        • 安全概述
        • 权限模型
        • 权限机制
        • 认证策略
        • 鉴权策略
        • 用户帐号一览表
        • 默认权限信息一览
        • FusionInsight Manager安全功能
        • 帐户管理
        • 帐户安全设置
        • 解锁LDAP用户和管理帐户
        • 解锁系统内部用户
        • 修改集群组件鉴权配置开关
        • 使用普通模式集群用户在非集群节点登录
        • 修改系统用户密码
        • 修改admin密码
        • 修改操作系统用户密码
        • 修改系统内部用户密码
        • 修改Kerberos管理员密码
        • 修改OMS Kerberos管理员密码
        • 修改LDAP管理员和LDAP用户密码(含OMS LDAP)
        • 修改LDAP管理帐户密码
        • 修改组件运行用户密码
        • 修改默认数据库用户密码
        • 修改OMS数据库管理员密码
        • 修改OMS数据库访问用户密码
        • 修改组件数据库用户密码
        • 修改DBService数据库omm用户密码
        • 证书管理
        • 更换CA证书
        • 更换HA证书
        • 安全加固
        • 加固策略
        • 配置受信任IP访问LDAP
        • 加密HFile和WAL内容
        • 安全配置
        • 配置HBase允许修改操作的IP地址白名单
        • 更新集群密钥
        • 加固LDAP
        • 配置Kafka数据传输加密
        • 配置HDFS数据传输加密
        • 配置Controller与Agent间通信加密
        • 更新omm用户ssh密钥
        • 安全维护
        • 帐户维护建议
        • 密码维护建议
        • 日志维护建议
        • 安全声明
        • 告警参考(适用于MRS 3.x版本)
        • ALM-12001 审计日志转储失败
        • ALM-12004 OLdap资源异常
        • ALM-12005 OKerberos资源异常
        • ALM-12006 节点故障
        • ALM-12007 进程故障
        • ALM-12010 Manager主备节点间心跳中断
        • ALM-12011 Manager主备节点同步数据异常
        • ALM-12014 设备分区丢失
        • ALM-12015 设备分区文件系统只读
        • ALM-12016 CPU使用率超过阈值
        • ALM-12017 磁盘容量不足
        • ALM-12018 内存使用率超过阈值
        • ALM-12027 主机PID使用率超过阈值
        • ALM-12028 主机D状态进程数超过阈值
        • ALM-12033 慢盘故障
        • ALM-12034 周期备份任务失败
        • ALM-12035 恢复任务失败后数据状态未知
        • ALM-12038 监控指标转储失败
        • ALM-12039 OMS数据库主备不同步
        • ALM-12040 系统熵值不足
        • ALM-12041 关键文件权限异常
        • ALM-12042 关键文件配置异常
        • ALM-12045 网络读包丢包率超过阈值
        • ALM-12046 网络写包丢包率超过阈值
        • ALM-12047 网络读包错误率超过阈值
        • ALM-12048 网络写包错误率超过阈值
        • ALM-12049 网络读吞吐率超过阈值
        • ALM-12050 网络写吞吐率超过阈值
        • ALM-12051 磁盘Inode使用率超过阈值
        • ALM-12052 TCP临时端口使用率超过阈值
        • ALM-12053 主机文件句柄使用率超过阈值
        • ALM-12054 证书文件失效
        • ALM-12055 证书文件即将过期
        • ALM-12057 元数据未配置周期备份到第三方服务器的任务
        • ALM-12061 进程使用率超过阈值
        • ALM-12062 OMS参数配置同集群规模不匹配
        • ALM-12063 磁盘不可用
        • ALM-12064 主机随机端口范围配置与集群使用端口冲突
        • ALM-12066 节点间互信失效
        • ALM-12067 tomcat资源异常
        • ALM-12068 acs资源异常
        • ALM-12069 aos资源异常
        • ALM-12070 controller资源异常
        • ALM-12071 httpd资源异常
        • ALM-12072 floatip资源异常
        • ALM-12073 cep资源异常
        • ALM-12074 fms资源异常
        • ALM-12075 pms资源异常
        • ALM-12076 gaussDB资源异常
        • ALM-12077 omm用户过期
        • ALM-12078 omm密码过期
        • ALM-12079 omm用户即将过期
        • ALM-12080 omm密码即将过期
        • ALM-12081 ommdba用户过期
        • ALM-12082 ommdba用户即将过期
        • ALM-12083 ommdba密码即将过期
        • ALM-12084 ommdba密码过期
        • ALM-12085 服务审计日志转储失败
        • ALM-12087 系统处于升级观察期
        • ALM-12089 节点间网络互通异常
        • ALM-12101 AZ不健康
        • ALM-12102 AZ高可用组件未按容灾需求部署
        • ALM-12110 获取ECS临时ak/sk失败
        • ALM-13000 ZooKeeper服务不可用
        • ALM-13001 ZooKeeper可用连接数不足
        • ALM-13002 ZooKeeper直接内存使用率超过阈值
        • ALM-13003 ZooKeeper进程垃圾回收(GC)时间超过阈值
        • ALM-13004 ZooKeeper堆内存使用率超过阈值
        • ALM-13005 ZooKeeper中组件顶层目录的配额设置失败
        • ALM-13006 Znode数量或容量超过阈值
        • ALM-13007 ZooKeeper客户端可用连接数不足
        • ALM-13008 ZooKeeper Znode数量使用率超出阈值
        • ALM-13009 ZooKeeper Znode容量使用率超出阈值
        • ALM-13010 配置quota的目录Znode使用率超出阈值
        • ALM-14000 HDFS服务不可用
        • ALM-14001 HDFS磁盘空间使用率超过阈值
        • ALM-14002 DataNode磁盘空间使用率超过阈值
        • ALM-14003 丢失的HDFS块数量超过阈值
        • ALM-14006 HDFS文件数超过阈值
        • ALM-14007 NameNode堆内存使用率超过阈值
        • ALM-14008 DataNode堆内存使用率超过阈值
        • ALM-14009 Dead DataNode数量超过阈值
        • ALM-14010 NameService服务异常
        • ALM-14011 DataNode数据目录配置不合理
        • ALM-14012 Journalnode数据不同步
        • ALM-14013 NameNode FsImage文件更新失败
        • ALM-14014 NameNode进程垃圾回收(GC)时间超过阈值
        • ALM-14015 DataNode进程垃圾回收(GC)时间超过阈值
        • ALM-14016 DataNode直接内存使用率超过阈值
        • ALM-14017 NameNode直接内存使用率超过阈值
        • ALM-14018 NameNode非堆内存使用率超过阈值
        • ALM-14019 DataNode非堆内存使用率超过阈值
        • ALM-14020 HDFS目录条目数量超过阈值
        • ALM-14021 NameNode RPC处理平均时间超过阈值
        • ALM-14022 NameNode RPC队列平均时间超过阈值
        • ALM-14023 总副本预留磁盘空间所占比率超过阈值
        • ALM-14024 租户空间使用率超过阈值
        • ALM-14025 租户文件对象使用率超过阈值
        • ALM-14026 DataNode块数超过阈值
        • ALM-14027 DataNode磁盘故障
        • ALM-14028 待补齐的块数超过阈值
        • ALM-14029 单副本的块数超过阈值
        • ALM-16000 连接到HiveServer的session数占最大允许数的百分比超过阈值
        • ALM-16001 Hive数据仓库空间使用率超过阈值
        • ALM-16002 Hive SQL执行成功率低于阈值
        • ALM-16003 Background线程使用率超过阈值
        • ALM-16004 Hive服务不可用
        • ALM-16005 Hive服务进程堆内存使用超出阈值
        • ALM-16006 Hive服务进程直接内存使用超出阈值
        • ALM-16007 Hive GC 时间超出阈值
        • ALM-16008 Hive服务进程非堆内存使用超出阈值
        • ALM-16009 Map数超过阈值
        • ALM-16045 Hive数据仓库被删除
        • ALM-16046 Hive数据仓库权限被修改
        • ALM-16047 HiveServer已从Zookeeper注销
        • ALM-16048 Tez或者Spark库路径不存在
        • ALM-17003 Oozie服务不可用
        • ALM-17004 Oozie堆内存使用率超过阈值
        • ALM-17005 Oozie非堆内存使用率超过阈值
        • ALM-17006 Oozie直接内存使用率超过阈值
        • ALM-17007 Oozie进程垃圾回收(GC)时间超过阈值
        • ALM-18000 Yarn服务不可用
        • ALM-18002 NodeManager心跳丢失
        • ALM-18003 NodeManager不健康
        • ALM-18008 ResourceManager堆内存使用率超过阈值
        • ALM-18009 JobHistoryServer堆内存使用率超过阈值
        • ALM-18010 ResourceManager进程垃圾回收(GC)时间超过阈值
        • ALM-18011 NodeManager进程垃圾回收(GC)时间超过阈值
        • ALM-18012 JobHistoryServer进程垃圾回收(GC)时间超过阈值
        • ALM-18013 ResourceManager直接内存使用率超过阈值
        • ALM-18014 NodeManager直接内存使用率超过阈值
        • ALM-18015 JobHistoryServer直接内存使用率超过阈值
        • ALM-18016 ResourceManager非堆内存使用率超过阈值
        • ALM-18017 NodeManager非堆内存使用率超过阈值
        • ALM-18018 NodeManager堆内存使用率超过阈值
        • ALM-18019 JobHistoryServer非堆内存使用率超过阈值
        • ALM-18020 Yarn任务执行超时
        • ALM-18021 Mapreduce服务不可用
        • ALM-18022 Yarn队列资源不足
        • ALM-18023 Yarn任务挂起数超过阈值
        • ALM-18024 Yarn任务挂起内存量超阈值
        • ALM-18025 Yarn被终止的任务数超过阈值
        • ALM-18026 Yarn上运行失败的任务数超过阈值
        • ALM-19000 HBase服务不可用
        • ALM-19006 HBase容灾同步失败
        • ALM-19007 HBase GC时间超出阈值
        • ALM-19008 HBase服务进程堆内存使用率超出阈值
        • ALM-19009 HBase服务进程直接内存使用率超出阈值
        • ALM-19011 RegionServer的Region数量超出阈值
        • ALM-19012 HBase系统表目录或文件丢失
        • ALM-19013 region处在RIT状态的时长超过阈值
        • ALM-19014 在ZooKeeper上的容量配额使用率严重超过阈值
        • ALM-19015 在ZooKeeper上的数量配额使用率超过阈值
        • ALM-19016 在ZooKeeper上的数量配额使用率严重超过阈值
        • ALM-19017 在ZooKeeper上的容量配额使用率超过阈值
        • ALM-19018 HBase合并队列超出阈值
        • ALM-19019 HBase容灾等待同步的HFile文件数量超过阈值
        • ALM-19020 HBase容灾等待同步的wal文件数量超过阈值
        • ALM-20002 Hue服务不可用
        • ALM-24000 Flume服务不可用
        • ALM-24001 Flume Agent异常
        • ALM-24003 Flume Client连接中断
        • ALM-24004 Flume读取数据异常
        • ALM-24005 Flume传输数据异常
        • ALM-24006 Flume Server堆内存使用率超过阈值
        • ALM-24007 Flume Server直接内存使用率超过阈值
        • ALM-24008 Flume Server非堆内存使用率超过阈值
        • ALM-24009 Flume Server垃圾回收(GC)时间超过阈值
        • ALM-24010 Flume证书文件非法或已损坏
        • ALM-24011 Flume证书文件即将过期
        • ALM-24012 Flume证书文件已过期
        • ALM-24013 Flume MonitorServer证书文件非法或已损坏
        • ALM-24014 Flume MonitorServer证书文件即将过期
        • ALM-24015 Flume MonitorServer证书文件已过期
        • ALM-25000 LdapServer服务不可用
        • ALM-25004 LdapServer数据同步异常
        • ALM-25005 Nscd服务异常
        • ALM-25006 Sssd服务异常
        • ALM-25500 KrbServer服务不可用
        • ALM-26051 Storm服务不可用
        • ALM-26052 Storm服务可用Supervisor数量小于阈值
        • ALM-26053 Storm Slot使用率超过阈值
        • ALM-26054 Nimbus堆内存使用率超过阈值
        • ALM-27001 DBService服务不可用
        • ALM-27003 DBService主备节点间心跳中断
        • ALM-27004 DBService主备数据不同步
        • ALM-27005 数据库连接数使用率超过阈值
        • ALM-27006 数据目录磁盘空间使用率超过阈值
        • ALM-28001 Spark服务不可用(2.x及以前版本)
        • ALM-27007 数据库进入只读模式
        • ALM-29000 Impala服务不可用
        • ALM-29004 Impalad进程内存占用率超过阈值
        • ALM-29005 Impalad JDBC连接数超过阈值
        • ALM-29006 Impalad ODBC连接数超过阈值
        • ALM-29100 Kudu服务不可用
        • ALM-29104 Tserver进程内存占用率超过阈值
        • ALM-29106 Tserver进程CPU占用率过高
        • ALM-29107 Tserver进程内存使用百分比超过阈值
        • ALM-38000 Kafka服务不可用
        • ALM-38001 Kafka磁盘容量不足
        • ALM-38002 Kafka堆内存使用率超过阈值
        • ALM-38004 Kafka直接内存使用率超过阈值
        • ALM-38005 Broker进程垃圾回收(GC)时间超过阈值
        • ALM-38006 Kafka未完全同步的Partition百分比超过阈值
        • ALM-38007 Kafka默认用户状态异常
        • ALM-38008 Kafka数据目录状态异常
        • ALM-38009 Broker磁盘IO繁忙
        • ALM-38010 存在单副本的Topic
        • ALM-43001 Spark2x服务不可用
        • ALM-43006 JobHistory2x进程堆内存使用超出阈值
        • ALM-43007 JobHistory2x进程非堆内存使用超出阈值
        • ALM-43008 JobHistory2x进程直接内存使用超出阈值
        • ALM-43009 JobHistory2x进程GC时间超出阈值
        • ALM-43010 JDBCServer2x进程堆内存使用超出阈值
        • ALM-43011 JDBCServer2x进程非堆内存使用超出阈值
        • ALM-43012 JDBCServer2x进程直接内存使用超出阈值
        • ALM-43013 JDBCServer2x进程GC时间超出阈值
        • ALM-43017 JDBCServer2x进程Full GC次数超出阈值
        • ALM-43018 JobHistory2x进程Full GC次数超出阈值
        • ALM-43019 IndexServer2x进程堆内存使用超出阈值
        • ALM-43020 IndexServer2x进程非堆内存使用超出阈值
        • ALM-43021 IndexServer2x进程直接内存使用超出阈值
        • ALM-43022 IndexServer2x进程GC时间超出阈值
        • ALM-43023 IndexServer2x进程Full GC次数超出阈值
        • ALM-44004 Presto Coordinator资源组排队任务超过阈值
        • ALM-44005 Presto Coordinator进程垃圾收集时间超出阈值
        • ALM-44006 Presto Worker进程垃圾收集时间超出阈值
        • ALM-45175 OBS元数据接口调用平均时间超过阈值
        • ALM-45176 OBS元数据接口调用成功率低于阈值
        • ALM-45177 OBS数据读操作接口调用成功率低于阈值
        • ALM-45178 OBS数据写操作接口调用成功率低于阈值
        • ALM-45275 Ranger服务不可用
        • ALM-45276 RangerAdmin状态异常
        • ALM-45277 RangerAdmin堆内存使用率超过阈值
        • ALM-45278 RangerAdmin直接内存使用率超过阈值
        • ALM-45279 RangerAdmin非堆内存使用率超过阈值
        • ALM-45280 RangerAdmin垃圾回收(GC)时间超过阈值
        • ALM-45281 UserSync堆内存使用率超过阈值
        • ALM-45282 UserSync直接内存使用率超过阈值
        • ALM-45283 UserSync非堆内存使用率超过阈值
        • ALM-45284 UserSync垃圾回收(GC)时间超过阈值
        • ALM-45285 TagSync堆内存使用率超过阈值
        • ALM-45286 TagSync直接内存使用率超过阈值
        • ALM-45287 TagSync非堆内存使用率超过阈值
        • ALM-45288 TagSync垃圾回收(GC)时间超过阈值
        • ALM-45425 ClickHouse服务不可用
        • ALM-45426 ClickHouse服务在ZooKeeper的数量配额使用率超过阈值
        • ALM-45427 ClickHouse服务在ZooKeeper的容量配额使用率超过阈值
        • ALM-45736 Guardian服务不可用
        • MRS Manager操作指导(适用于2.x及之前)
        • MRS Manager简介
        • 查看集群运行任务
        • 监控管理
        • 系统概览
        • 管理服务和主机监控
        • 管理资源分布
        • 配置监控指标转储
        • 告警管理
        • 查看与手动清除告警
        • 配置监控与告警阈值
        • 配置Syslog北向参数
        • 配置SNMP北向参数
        • 对象管理
        • 对象管理简介
        • 查看配置
        • 管理服务操作
        • 配置服务参数
        • 配置服务自定义参数
        • 同步服务配置
        • 管理角色实例操作
        • 配置角色实例参数
        • 同步角色实例配置
        • 退服和入服务角色实例
        • 管理主机操作
        • 隔离主机
        • 取消隔离主机
        • 启动及停止集群
        • 同步集群配置
        • 导出集群的配置数据
        • 日志管理
        • 关于日志
        • Manager日志清单
        • 查看及导出审计日志
        • 导出服务日志
        • 配置审计日志导出参数
        • 健康检查管理
        • 执行健康检查
        • 查看并导出检查报告
        • 配置健康检查报告保存数
        • 管理健康检查报告
        • DBService健康检查指标项说明
        • Flume 健康检查指标项说明
        • HBase健康检查指标项说明
        • Host健康检查指标项说明
        • HDFS健康检查指标项说明
        • Hive健康检查指标项说明
        • Kafka健康检查指标项说明
        • KrbServer健康检查指标项说明
        • LdapServer健康检查指标项说明
        • Loader健康检查指标项说明
        • MapReduce健康检查指标项说明
        • OMS健康检查指标项说明
        • Spark健康检查指标项说明
        • Storm健康检查指标项说明
        • Yarn健康检查指标项说明
        • ZooKeeper健康检查指标项说明
        • 静态服务池管理
        • 查看静态服务池状态
        • 配置静态服务池
        • 租户管理
        • 租户简介
        • 添加租户
        • 添加子租户
        • 删除租户
        • 管理租户目录
        • 恢复租户数据
        • 添加资源池
        • 修改资源池
        • 删除资源池
        • 配置队列
        • 配置资源池的队列容量策略
        • 清除队列配置
        • 备份与恢复
        • 备份与恢复简介
        • 备份元数据
        • 恢复元数据
        • 修改备份任务
        • 查看备份恢复任务
        • 安全管理
        • 未开启Kerberos认证集群中的默认用户清单
        • 开启Kerberos认证集群中的默认用户清单
        • 修改操作系统用户密码
        • 修改admin密码
        • 修改Kerberos管理员密码
        • 修改LDAP管理员和LDAP用户密码
        • 修改组件运行用户密码
        • 修改OMS数据库管理员密码
        • 修改OMS数据库数据访问用户密码
        • 修改组件数据库用户密码
        • 更换HA证书
        • 更新集群密钥
        • 权限管理
        • 创建角色
        • 创建用户组
        • 创建用户
        • 修改用户信息
        • 锁定用户
        • 解锁用户
        • 删除用户
        • 修改操作用户密码
        • 初始化系统用户密码
        • 下载用户认证文件
        • 修改密码策略
        • MRS多用户权限管理
        • MRS集群中的用户与权限
        • 开启Kerberos认证集群中的默认用户清单
        • 创建角色
        • 创建用户组
        • 创建用户
        • 修改用户信息
        • 锁定用户
        • 解锁用户
        • 删除用户
        • 修改操作用户密码
        • 初始化系统用户密码
        • 下载用户认证文件
        • 修改密码策略
        • 配置跨集群互信
        • 配置并使用互信集群的用户
        • 配置MRS多用户访问OBS细粒度权限
        • 补丁操作指导
        • 安装与卸载补丁
        • 支持滚动补丁
        • 修复隔离主机补丁
        • 支持滚动重启
        • 安全性说明
        • 集群(未启用Kerberos认证)安全配置建议
        • 安全认证原理和认证机制
        • 高危操作一览表
        • 附录
        • MRS 3.x版本操作注意事项
        • 最佳实践
        • 数据分析
        • 使用Hive加载HDFS数据并分析图书评分情况
        • 通过Flink作业处理OBS数据
        • 常见问题
        • 计费类
        • 购买类
        • 操作类
        • 集群创建类
        • 帐号密码类
        • 帐号权限类
        • 客户端使用类
        • Web页面访问类
        • 监控告警类
        • 性能优化类
        • 作业开发类
        • 集群升级/补丁
        • 集群访问类
        • 大数据业务开发
        • API使用类
        • 集群管理类
        • Kerberos使用
        • 元数据管理
        • 文档下载
        • 翼MapReduce服务用户操作指南
        • 翼MapReduce服务组件操作指南
        • 翼MapReduce服务故障排除
        • 相关协议
        • 天翼云翼MapReduce服务协议
          无相关产品

          本页目录

          帮助中心翼MapReduce常见问题操作类大数据业务开发
          大数据业务开发
          更新时间 2023-12-01 00:23:10
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接
          最近更新时间: 2023-12-01 00:23:10
          分享文章
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接
          本章节主要介绍操作类问题中有关大数据业务开发的问题。

          MRS是否支持同时运行多个Flume任务?

          Flume客户端可以包含多个独立的数据流,即在一个配置文件properties.properties中配置多个Source、Channel、Sink。这些组件可以链接以形成多个流。

          例如在一个配置中配置两个数据流,示例如下:

          server.sources = source1 source2 
          server.sinks = sink1 sink2 
          server.channels = channel1 channel2 
           
          #dataflow1  
          server.sources.source1.channels = channel1 
          server.sinks.sink1.channel = channel1 
           
          #dataflow2 
          server.sources.source2.channels = channel2 
          server.sinks.sink2.channel = channel2
          

          如何修改FlumeClient的日志为标准输出日志?

          1.登录Flume客户端安装节点。

          2.进入Flume客户端安装目录,假设Flume客户端安装路径为“/opt/FlumeClient”,可以执行以下命令。

          cd /opt/FlumeClient/fusioninsight-flume-1.9.0/bin
          

          3.执行 ./flume-manage.sh stop force 命令,停止FlumeClient。

          4.执行vi ../conf/log4j.properties命令,打开log4j.properties文件,修改“flume.root.logger”的取值为“${flume.log.level},console”。

          5.执行 ./flume-manage.sh start force 命令,重启FlumeClient。

          6.修改完成后,请检查docker配置信息是否正确。

          Hadoop组件jar包位置和环境变量的位置在哪里?

          • hadoopstreaming.jar位置在 /opt/share/hadoop-streaming- * 目录下。其中*由Hadoop版本决定。
          • jdk环境变量:/opt/client/JDK/component_env
          • Hadoop组件的环境变量位置:/opt/client/HDFS/component_env
          • Hadoop客户端路径:/opt/client/HDFS/hadoop

          HBase支持的压缩算法有哪些?

          HBase目前支持的压缩算法有snappy、lz4和gz。

          MRS是否支持通过Hive的HBase外表将数据写入到HBase?

          不支持。

          Hive on HBase只支持查询,不支持更改数据。

          如何查看HBase日志?

          1.使用root用户登录集群的Master节点。

          2.执行su - omm命令,切换到omm用户。

          3.执行 cd /var/log/Bigdata/hbase/ 命令,进入到“/var/log/Bigdata/hbase/”目录,即可查看HBase日志信息。

          HBase表如何设置和修改数据保留期?

          • 创建表时指定:

          创建t_task_log表,列族f, TTL设置86400秒过期。

          create 't_task_log',{NAME => 'f', TTL=>'86400'}
          
          • 在已有表的基础上指定:
          alter "t_task_log",NAME=>'data',TTL=>'86400' #设置TTL值,作用于列族data
          

          如何修改HDFS的副本数?

          搜索并修改“dfs.replication”的值,合理修改这个数值,该参数取值范围为1~16,重启HDFS实例。

          如何修改HDFS主备倒换类?

          当MRS 3.x版本集群使用HDFS连接NameNode报类org.apache.hadoop.hdfs.server.namenode.ha.AdaptiveFailoverProxyProvider无法找到时,是由于MRS 3.x版本集群HDFS的主备倒换类默认为该类,可通过如下方式解决。

          • 方式一:添加hadoop-plugins-xxx.jar到程序的classpath或者lib目录中。

          hadoop-plugins-xxx.jar包一般在HDFS客户端目录下:$HADOOP_HOME/share/hadoop/common/lib/hadoop-plugins-8.0.2-302023.jar

          • 方式二:将HDFS的如下配置项修改为开源类:

          dfs.client.failover.proxy.provider.hacluster=org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider

          DynamoDB的number在Hive表中用什么类型比较好?

          Hive支持smallint。

          推荐使用smallint类型。

          HiveDriver是否支持对接dbcp2?

          Hive driver不支持对接dbcp2数据库连接池。dbcp2数据库连接池调用isValid方法检查连接是否可用,而Hive对于这个方法的实现就是直接报错。

          用户A如何查看用户B创建的Hive表?

          MRS 3.x之前版本

          1.登录MRS Manager,选择“系统设置 > 权限配置 > 角色管理”。

          2.单击“添加角色”,输入“角色名称”和“描述”。

          3.在“权限”的表格中选择“Hive > Hive Read Write Privileges”。

          4.在数据库列表中单击用户B创建的表所在的数据库名称,显示用户B创建的表。

          5.在用户B创建的表的“权限”列,勾选“Select”。

          6.单击“确定”,返回“角色”。

          7.选择“系统设置 > 用户管理”,在用户A所在的行,单击“修改”,为用户A绑定新创建的角色,单击“确定”,等待5分钟左右即可访问到用户B创建的表。

          MRS 3.x及之后版本

          1.登录FusionInsight Manager,选择“集群 > 服务 > Hive > 更多”,查看“启用Ranger鉴权”是否置灰。

          −是,执行9。

          −否,执行2-8。

          2.登录FusionInsight Manager,选择“系统 > 权限 > 角色”。

          3.单击“添加角色”,输入“角色名称”和“描述”。

          4.在“配置资源权限”的表格中选择“待操作集群的名称 > Hive > Hive读写权限”。

          5.在数据库列表中单击用户B创建的表所在的数据库名称,显示用户B创建的表。

          6.在用户B创建的表的“权限”列,勾选“查询”。

          7.单击“确定”,返回“角色”。

          8.单击“用户”,在用户A所在行,单击“修改”,为用户A绑定新创建的角色,单击“确定”,等待5分钟左右即可访问到用户B创建的表。

          9.添加Hive的Ranger访问权限策略:

          a.使用Hive管理员用户登录FusionInsight Manager,选择“集群 > 服务 > Ranger”,单击“Ranger WebUI”右侧的链接进入Ranger管理界面。

          b.在首页中单击“HADOOP SQL”区域的组件插件名称,例如“Hive”。

          c.在“Access”页签单击“Add New Policy”,添加Hive权限控制策略。

          d.在“Create Policy”页面填写如下内容:

          -Policy Name:策略名称,例如:table_test_hive。

          -database:填写或选择用户B创建的表所在的数据库,例如:default。

          -table:填写或选择用户B创建的表,例如:test。

          -column:填写并选择对应的列,例如:*。

          -在“Allow Conditions”区域,单击“Select User”下选择框选择用户A,单击“Add Permissions”,勾选“select”。

          -单击“Add”。

          10.添加HDFS的Ranger访问权限策略:

          a.使用rangeradmin用户登录FusionInsight Manager,选择“集群 > 服务 > Ranger”,单击“Ranger WebUI”右侧的链接进入Ranger管理界面。

          b.在首页中单击“HDFS”区域的组件插件名称,例如“hacluster”。

          c.单击“Add New Policy”,添加HDFS权限控制策略。

          d.在“Create Policy”页面填写如下内容:

          -Policy Name:策略名称,例如:tablehdfs_test。

          -Resource Path:配置用户B创建的表所在的HDFS路径,例如:/user/hive/warehouse/ 数据库名称 /表名

          -在“Allow Conditions”区域,单击“Select User”下选择框选择用户A,单击“Add Permissions”,勾选“Read”和“Execute”。

          -单击“Add”。

          11.在策略列表可查看策略的基本信息。等待策略生效后,用户A即可查看用户B创建的表。

          Hive查询数据是否支持导出?

          Hive查询数据支持导出,请参考如下语句进行导出:

          insert overwrite local directory "/tmp/out/" row format delimited fields terminated by "\t" select * from table;
          

          Hive使用beeline-e执行多条语句报错如何处理?

          MRS 3.x版本Hive使用beeline执行 beeline -e "use default;show tables;" 命令报错:

          Error while compiling statement: FAILED: ParseException line 1:11 missing EOF at ';' near 'default' (state=42000,code=40000)
          

          处理方法:

          • 方法一:使用beeline --entirelineascommand=false -e "use default;show tables; "命令。
          • 方法二:

          a. 在Hive客户端如“/opt/Bigdata/client/Hive”目录下修改component_env文件,修改

          export CLIENT_HIVE_ENTIRELINEASCOMMAND=true为export CLIENT_HIVE_ENTIRELINEASCOMMAND=false。

          修改component_env文件

          图1-2 修改component_env文件.png

          b. 执行如下命令验证配置。

          source /opt/Bigdata/client/bigdata_env
          beeline -e "use default;show tables;"
          

          添加Hive服务后,提交hivesql/hivescript作业失败如何处理?

          该问题是由于提交作业的用户所在用户组绑定的MRS CommonOperations策略权限在同步到Manager中后没有Hive相关权限,处理方法如下:

          1.添加Hive服务完成。

          2.登录IAM服务控制台,创建一个用户组,该用户组所绑定策略和提交作业用户所在用户组权限相同。

          3.将提交作业的用户添加到新用户组中。

          4.刷新MRS控制台集群详情页面,“IAM用户同步”会显示“未同步”。

          5.单击“IAM用户同步”右侧的“同步”。同步状态在MRS控制台页面选择“操作日志”查看当前用户是否被修改。

          • 是,则可以重新提交Hive作业。
          • 否,则检视上述步骤是否全部已执行完成。

          -是,请联系运维人员处理

          -否,请等待执行完成后再提交Hive作业。

          Hue下载的Excel无法打开如何处理?

          说明

          本案例适用于MRS 3.x之前版本。

          1.以root用户登录任意一个Master节点,切换到omm用户。

          su - omm
          

          2.使用如下命令查看当前节点是否为OMS主节点。

          sh ${BIGDATA_HOME}/om-0.0.1/sbin/status-oms.sh
          

          回显active即为主节点,否则请登录另一个Master节点。

          oms主节点

          图1-3 oms主节点.png

          3.进入“{BIGDATA_HOME}/Apache-httpd-*/conf”目录。

          cd ${BIGDATA_HOME}/Apache-httpd-*/conf
          

          4.打开httpd.conf文件。

          vim httpd.conf
          

          5.在文件中搜索21201,并删除文件中的如下内容。proxy_ip和proxy_port对应实际环境中的值。

          ProxyHTMLEnable On 
          SetEnv PROXY_PREFIX=https://[proxy_ip]:[proxy_port] 
          ProxyHTMLURLMap (https?:\/\/[^:]*:[0-9]*.*) ${PROXY_PREFIX}/proxyRedirect=$1 RV
          

          待删除内容

          图1-4 待删除内容.png

          6.退出并保存修改。

          7.再次打开httpd.conf文件,搜索 proxy_hue_port ,并删除如下内容。

          ProxyHTMLEnable On 
          SetEnv PROXY_PREFIX=https://[proxy_ip]:[proxy_port] 
          ProxyHTMLURLMap (https?:\/\/[^:]*:[0-9]*.*) ${PROXY_PREFIX}/proxyRedirect=$1 RV
          

          待删除内容

          图1-5 待删除内容.png

          8.退出并保存修改。

          9.执行如下命令重启httpd。

          sh ${BIGDATA_HOME}/Apache-httpd-*/setup/restarthttpd.sh
          

          10.检查备Master节点上的httpd.conf文件是否已修改,若已修改则处理完成,若未修改,参考上述步骤进行修改备Master节点的httpd.conf文件,无需重启httpd。

          11.重新下载Excel即可打开。

          Hue连接hiveserver,不释放session,报错over max user connections如何处理?

          适用版本:MRS 3.1.0及之前的MRS 3.x版本。

          1.修改两个Hue节点的以下文件:

          /opt/Bigdata/FusionInsight_Porter_8. /install/FusionInsight-Hue- /hue/apps/beeswax/src/beeswax/models.py

          2.修改文件中的396和404行的值

          q = self.filter(owner=user, application=application).exclude(guid='').exclude(secret='')
          

          改为

          q = self.filter(owner=user, application=application).exclude(guid=None).exclude(secret=None)
          

          报错over max user connections如何处理.png

          如何重置Kafka数据?

          删除Kafka topic信息即重置Kafka数据,具体命令请参考:

          • 删除topic:
            kafka-topics.sh --delete --zookeeper ZooKeeper集群业务IP:2181/kafka --topic topicname
            
          • 查询所有topic:
            kafka-topics.sh --zookeeper ZooKeeper集群业务IP:2181/kafka --list
            

          执行删除命令后topic数据为空则此topic会立刻被删除,如果有数据则会标记删除,后续Kafka会自行进行实际删除。

          Kafka目前支持的访问协议类型有哪些?

          当前支持4种协议类型的访问:PLAINTEXT、SSL、SASL_PLAINTEXT、SASL_SSL。

          消费Kafka Topic时报错“Not Authorized to access group XXX”如何处理?

          该问题是由于集群的Ranger鉴权和集群自带的ACL鉴权冲突导致。Kafka集群使用自带的ACL进行权限访问控制,且集群的Kafka服务也开启Ranger鉴权控制时,该组件所有鉴权将由Ranger统一管理,原鉴权插件设置的权限将会失效,导致ACL权限授权未生效。可通过关闭Kafka的Ranger鉴权并重启Kafka服务来处理该问题。操作步骤如下:

          1.登录FusionInsight Manager页面,选择“集群 > Kafka”。

          2.在服务“概览”页面右上角单击“更多”,选择“停用Ranger鉴权”。在弹出的对话框中输入密码,单击“确定”,操作成功后单击“完成”。

          3.在服务“概览”页面右上角单击“更多”,选择“重启服务”,重启Kafka服务。

          Kudu支持的压缩算法有哪些?

          Kudu目前支持的压缩算法有 snappy 、lz4和 zlib ,默认是 lz4 。

          如何查看Kudu日志?

          1.登录集群的Master节点。

          2.执行su - omm命令,切换到omm用户。

          3.执行 cd /var/log/Bigdata/kudu/ 命令,进入到“/var/log/Bigdata/kudu/”目录,即可查看Kudu日志信息。

          新建集群Kudu服务异常如何处理?

          查看Kudu服务异常日志

          1.登录MRS管理控制台。

          2.单击集群名称进入集群详情页面。

          3.选择“组件管理 > Kudu > 实例”,找到异常实例所属的IP。

          若集群详情页面没有“组件管理”页签,请先完成IAM用户同步(在集群详情页的“概览”页签,单击“IAM用户同步”右侧的“同步”进行IAM用户同步)。

          4.登录异常实例IP所在节点,查看Kudu日志。

          cd /var/log/Bigdata/Kudu 
          [root@node-master1AERu kudu]# ls 
          healthchecklog  runninglog  startlog
          

          其中healthchecklog目录保存Kudu健康检查日志,startlog保存启动日志,runninglog保存Kudu进程运行日志。

          [root@node-master1AERu logs]# pwd 
          /var/log/Bigdata/kudu/runninglog/master/logs 
          [root@node-master1AERu logs]# ls -al 
          kudu-master.ERROR   kudu-master.INFO   kudu-master.WARNING
          

          运行日志分ERROR、INFO、WARNING三类, 每类会单独打印到相应的文件中,通过cat命令即可查看。

          已知Kudu服务异常处理

          日志/var/log/Bigdata/kudu/runninglog/master/logs/kudu-master.INFO出现异常打印:

          "Unable to init master catalog manager: not found: Unable to initialize catalog manager: Failed to initialize sys tables async: Unable to load consensus metadata for tablet 0000000000000000000000: xxx"
          

          如果该异常是Kudu服务初次安装时出现,可能是KuduMaster没能同时启动,造成数据不一样导致启动失败。可以通过如下步骤清空数据目录,重启Kudu服务解决。若非初次安装,清空数据目录会造成数据丢失,请先进行数据迁移再进行数据目录清空操作慎重操作。

          1.查找数据目录fs_data_dir, fs_wal_dir, fs_meta_dir。

          find  /opt -name master.gflagfile
          cat /opt/Bigdata/FusionInsight_Kudu_*/*_KuduMaster/etc/master.gflagfile | grep fs_
          

          2.在集群详情页面选择“组件管理 > Kudu”,单击“停止服务”。

          3.在所有KuduMaster、KuduTserver的节点清空Kudu 数据目录,如下命令以两个数据盘为例,具体命令请以实际情况为准。

          rm -Rvf /srv/Bigdata/data1/kudu, rm -Rvf /srv/Bigdata/data2/kudu
          

          4.在集群详情页面选择“组件管理 > Kudu”,选择“更多 > 重启服务”。

          5.查看Kudu服务状态和日志。

          OpenTSDB是否支持Python的接口?

          OpenTSDB基于HTTP提供了访问其的RESTful接口,而RESTful接口本身具有语言无关性的特点,凡是支持HTTP请求的语言都可以对接OpenTSDB,所以OpenTSDB支持Python的接口。

          Presto如何配置其他数据源?

          本指导以mysql为例。

          • MRS 1.x及MRS 3.x版本。

          1.登录MRS管理控制台。

          2.单击集群名称进入集群详情页面。

          3.选择“组件管理 > Presto”。设置“参数类别”为“全部配置”,进入Presto配置界面修改参数配置。

          4.搜索“connector-customize”配置。

          5.按照配置项说明填写对应参数。

          名称:mysql.connector.name

          值:mysql

          6.填写connector-customize参数名称和参数值。

          名称 值 参数说明
          mysql.connection-url jdbc:mysql://xxx.xxx.xxx.xxx:3306 数据库连接池
          mysql.connection-user xxxx 数据库登录用户名
          mysql.connection-password xxxx 数据库密码

          7.重启Presto服务。

          8.启用Kerberos认证的集群,执行以下命令连接本集群的Presto Server。

          presto_cli.sh --krb5-config-path {krb5.conf文件路径} --krb5-principal {用户principal} --krb5-keytab-path {user.keytab文件路径} --user {presto用户名}
          

          i.登录Presto后执行show catalogs命令,确认可以查询Presto的数据源列表mysql。

          确认可以查询Presto的数据源列表mysql.png

          执行show schemas from mysql命令即可查询mysql数据库。

          • MRS 2.x版本。

          1.创建mysql.properties配置文件,内容如下:

          connector.name=mysql

          connection-url=jdbc:mysql://mysqlIp:3306

          connection-user=用户名

          connection-password=密码

          说明

          l  mysqlIp为mysql实例ip,需要和mrs网络互通 。

          l  用户名和密码为登录mysql的用户名和密码。

          2.分别上传配置文件到master节点(Coordinator实例所在节点)的/opt/Bigdata/MRS_Current/1_14_Coordinator/etc/catalog/和core节点的/opt/Bigdata/MRS_Current/1_14_Worker/etc/catalog/目录下(路径以集群实际路径为准),文件属组改为omm:wheel。

          3.重启Presto服务。

          MRS如何连接spark-shell?

          1.用root用户登录集群Master节点。

          2.配置环境变量。

          source 客户端安装目录/bigdata_env
          

          3.如果当前集群已启用Kerberos认证,执行以下命令认证当前用户。如果当前集群未启用Kerberos认证,则无需执行此命令。

          kinit MRS集群业务用户
          

          例如:

          −“机机”用户请执行:kinit -kt user.keytab sparkuser

          −“人机”用户请执行:kinit sparkuser

          4.执行如下命令连接Spark组件的客户端。

          spark-shell
          

          MRS如何连接spark-beeline?

          1.用root用户登录集群Master节点。

          2.配置环境变量。

          source 客户端安装目录/bigdata_env
          

          3.如果当前集群已启用Kerberos认证,执行以下命令认证当前用户。如果当前集群未启用Kerberos认证,则无需执行此命令。

          kinit MRS集群业务用户
          

          例如:

          −“机机”用户请执行:kinit -kt user.keytab sparkuser

          −“人机”用户请执行:kinit sparkuser

          4.执行如下命令连接Spark组件的客户端。

          spark-beeline
          

          5.在spark-beeline中执行命令,例如在obs://mrs-word001/table/目录中创建表test。

          create table test(id int) location 'obs://mrs-word001/table/';
          

          6.执行如下命令查询所有表,返回结果中存在表test,即表示访问OBS成功。

          show tables;
          

          Spark验证返回已创建的表名

          图1-6 Spark验证返回已创建的表名.png

          7.使用“Ctrl + C”退出spark beeline。

          SparkJob对应的运行日志保存在哪里?

          • spark job没有完成的任务日志保存在Core节点的/srv/BigData/hadoop/data1/nm/containerlogs/。
          • spark job完成的任务日志保存在HDFS的/tmp/logs/ 用户名 /logs。

          MRS的Storm集群提交任务时如何指定日志路径?

          客户可以根据自己的需求,修改MRS的流式Core节点上的/opt/Bigdata/MRS_XXX /1_XX _Supervisor/etc/worker.xml文件,将标签filename的值设定为客户需要的路径,然后在Manager页面重启对应实例。

          建议客户尽量不要修改MRS默认的日志配置,可能会造成日志系统异常。

          如何检查Yarn的ResourceManager配置是否正常?

          本案例适用于MRS 3.x之前版本。

          登录MRS Manager页面,选择“服务管理 > Yarn > 实例”。

          1.分别单击两个ResourceManager名称,选择“更多 > 同步配置”,并选择不勾选“重启配置过期的服务或实例。”。

          2.单击“是”进行配置同步。

          3.以root用户分别登录Master节点。

          4.执行 cd /opt/Bigdata/MRS_Current/ _ _ResourceManager/etc_UPDATED/ 命令进入etc_UPDATED目录。

          5.执行grep '.queues' capacity-scheduler.xml -A2找到配置的所有队列,并检查队列和Manager页面上看到的队列是否一一对应。

          root-default在Manager页面隐藏,在页面看不到属于正常现象。

          root-default在Manager页面隐藏,在页面看不到属于正常现象.png

          6.执行grep '.capacity' capacity-scheduler.xml -A2找出各队列配置的值,检查每个队列配置的值是否和Manager上看到的一致。并检查所有队列配置的值的总和是否是100。

          • 是,则说明配置正常。
          • 否,则说明配置异常,请执行后续步骤修复。

          7.登录MRS Manager页面,选择“主机管理”。

          8.查找主Master节点,主机名称前带实心五角星的Master节点即为主Master节点。

          9.以root用户登录主Master节点。

          10.执行su - omm切换到omm用户。

          11.执行sh /opt/Bigdata/om-0.0.1/sbin/restart-controller.sh重启Controller。

          请在Manager页面没有其他操作后重启Controller,重启Controller对大数据组件业务无影响。

          12.重新执行步骤1~步骤7同步ResourceManager的配置并检查配置是否正常。

          配置同步完成后Manager页面可能显示配置过期,该显示不影响业务,是由于组件没有加载最新的配置,待后续组件重启的时会自动加载。

          如何修改Clickhouse服务的allow_drop_detached配置项?

          用root用户登录Clickhouse客户端所在节点。

          1.进入客户端目录,配置环境变量。

          cd /opt/客户端安装目录
          source bigdata_env
          

          2.如果当前集群已启用Kerberos认证,执行以下命令认证当前用户。如果当前集群未启用Kerberos认证,则无需执行此命令。

          kinit MRS集群用户
          

          说明

          该用户必须具有Clickhouse管理员权限。

          3.执行命令clickhouse client --host 192.168.42.90 --secure -m ,其中192.168.42.90为ClickHouseServer实例节点IP,执行结果如下:

          [root@server-2110082001-0017 hadoopclient]# clickhouse client --host 192.168.42.90 --secure -m 
          ClickHouse client version 21.3.4.25. 
          Connecting to 192.168.42.90:21427. 
          Connected to ClickHouse server version 21.3.4 revision 54447.
          

          4.执行命令修改allow_drop_detached的值。

          例如:设置allow_drop_detached=1

          set allow_drop_detached=1;
          

          5.执行如下命令查看allow_drop_detached的值:

          SELECT * FROM system.settings WHERE name = 'allow_drop_detached';
          

          步骤 5执行如下命令查看allow_drop_detached的值.png

          6.执行命令 q; 退出clickhouse client。

          执行Spark任务报内存不足告警如何处理?

          问题现象

          执行Spark任务就会报内存不足告警,告警id:18022,可用内存会陡降到0。

          处理步骤

          在SQL脚本前设置executor参数,限制executor的核数和内存。

          例如设置如下:

          set hive.execution.engine=spark; 
          set spark.executor.cores=2; 
          set spark.executor.memory=4G; 
          set spark.executor.instances=10;
          

          参数值大小请根据实际业务情况调整。

          ClickHouse系统表日志过大,如何添加定期删除策略?

          问题现象

          客户使用ClickHouse,系统表产生的日志过大,一次性删除会耗费较长时间,客户可以添加定期删除策略,即添加TTL。

          处理步骤

          在ClickHouse客户端给TTL的系统表执行如下语句:

          alter table system.表名 modify TTL event_date + INTERVAL 保留天数 day;
          
          注意

          该语句只是配置运行SQL节点的系统表的TTL,若所有节点都需要配置,则需要到每个节点上都执行该语句,但不建议使用on cluster语句,避免ClickHouse一直运行下去。

          上述语句建议在低峰期运行,由于数据量较大,这个操作可能会比较慢。

          SparkSQL访问Hive分区表启动Job前耗时较长如何处理?

          问题背景

          使用SparkSql访问Hive的一个数据存放于OBS的一个分区表,但是运行速度却很慢,并且会大量调用OBS的查询接口。

          SQL样例:

          select a,b,c from test where b=xxx
          

          原因分析

          按照设定,任务应该只扫描b=xxx的分区,但是查看任务日志可以发现,实际上任务却扫描了所有的分区再来计算b=xxx的数据,因此任务计算的很慢。并且因为需要扫描所有文件,会有大量的OBS请求发送。

          MRS默认开启基于分区统计信息的执行计划优化,相当于自动执行Analyze Table(默认开启的设置方法为spark.sql.statistics.fallBackToHdfs=true,可通过配置为false关闭)。开启后,SQL执行过程中会扫描表的分区统计信息,并作为执行计划中的代价估算,例如对于代价评估中识别的小表,会广播小表放在内存中广播到各个节点上,进行join操作,大大节省shuffle时间。 此开关对于Join场景有较大的性能优化,但是会带来OBS调用量的增加。

          处理步骤

          在SparkSQL中设置以下参数后再运行:

          set spark.sql.statistics.fallBackToHdfs=false;
          

          或者在启动之前使用--conf设置这个值为false:

          --conf spark.sql.statistics.fallBackToHdfs=false
          

          spark.yarn.executor.memoryOverhead设置不生效如何处理?

          问题现象

          Spark任务需要调整executor的overhead内存,设置了参数spark.yarn.executor.memoryOverhead=4096,但实际计算的时候依旧按照默认值1024申请资源。

          原因分析

          从Spark 2.3版本开始,推荐使用新参数spark.executor.memoryOverhead设置executor的overhead内存大小,如果任务两个参数都设置,则spark.yarn.executor.memoryOverhead的值不生效,以spark.executor.memoryOverhead的值为最终值。

          同样的参数还有driver的overhead内存设置:spark.driver.memoryOverhead

          解决步骤

          使用新版本参数设置executor的overhead内存:

          spark.executor.memoryOverhead=4096
          

          连接ClickHouse服务端异常报错“code: 516”如何处理?

          问题现象

          使用clickhouse client命令连接ClickHouse服务端,报错:

          ClickHouse exception, code: 516, host: 192.168.0.198, port: 8443; Code: 516, e.displayText() = DB::Exception: clickDevelopuser: Authentication failed: password is incorrect or there is no user with such name
          

          原因分析

          执行连接ClickHouse服务端命令时,用户名或者密码错误。

          解决步骤

          在执行连接ClickHouse服务端命令时,请输入正确的用户名或者密码。

          文档反馈

          建议您登录后反馈,可在建议与反馈里查看问题处理进度

          鼠标选中文档,精准反馈问题

          选中存在疑惑的内容,即可快速反馈问题,我们会跟进处理

          知道了

          上一篇 :  集群访问类
          下一篇 :  API使用类
          搜索 关闭
          ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
          公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
          备案 京公网安备11010802043424号 京ICP备 2021034386号
          ©2025天翼云科技有限公司版权所有
          京ICP备 2021034386号
          备案 京公网安备11010802043424号
          增值电信业务经营许可证A2.B1.B2-20090001
          用户协议 隐私政策 法律声明