爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      【运维与安装】hadoop 3.3.1 高可用 + simple认证 +队列设置

      首页 知识中心 服务器 文章详情页

      【运维与安装】hadoop 3.3.1 高可用 + simple认证 +队列设置

      2025-03-12 09:31:27 阅读次数:7

      HDFS,xml,配置,队列

      本文通过配置hadoop相关文件实现HDFS、YARN的集群以及高可用。其他例如:队列配置、simple安全认证等见我的其他文章。
       
      队列配置:Hadoop(3.3.1): Capacity Scheduler:通过设置资源队列来满足不同业务之间的资源隔离、队列的弹性以及队列权限

      simple安全认证:Authentication for Hadoop(3.3.1) HTTP web-consoles : Hadoop的simple认证 不是银弹

      1. 集群规划

      三个节点的集群规划
      【运维与安装】hadoop 3.3.1 高可用 + simple认证 +队列设置

      注意:
      因为 ZKFC 需要监控 NameNode 服务,从而完成故障自动转移,因此 ZKFC 需要和 NameNode 在同一台主机,如果它们不在同一台主机,那么 ZKFC 和 NameNode 可能出现网络故障,从而导致无法进行有效监控。 

      配置概述:

      hadoop-env.sh:配置jdk环境变量
      core-site.xml:   1. 指定hdfs的访问入口,namenode的访问入口;
                        2. 临时文件
      
      hdfs-site.xml     1. 指定nn管理数据的存储目录
      		          2. 指定dn数据存储的存储目录
      		          3. 指定数据存储副本个数
      		          4. 指定snn运行节点地址,和nn不同节点
      mapred-site.xml   1.指定资源调用框架为yarn
      
      yarn-site.xml     1.指定snn节点
                        2.指定Yarn集群为mr程序提供shuffle服务
                        
      workers	          1.指定datanode节点
      

       

      2. 配置env

      环境变量:

      配置环境变量
      /etc/profile
      export HADOOP_HOME=${hadoop-3.3.1_home}
      export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
      
      source /etc/profile
      hadoop version
      
      cd ${hadoop-3.3.1_home}/etc/hadoop
      
      vi hadoop-env.sh
      export JAVA_HOME=/opt/jdk1.8.0_73
      

       

      3. etc下的配置

      core-site.xml

      core-site下有这些核心配置

      1. HA相关配置:nameservice、journalnode、zk等
      2. hdfs的权限检查、hadoop的临时路径等
      <?xml version="1.0" encoding="UTF-8"?>
      <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
      
      
      <configuration>
          <!-- 指定hdfs的访问入口:1.分布式可以配置:hdfs://hadoop01:9000;
                            2.高可用中两个namenode:这里配置的代表两个namenode,nameservice 组名(访问时不一定是谁) -->
      
          <property>
              <name>fs.defaultFS</name>
              <value>hdfs://mycluster</value>
          </property>
          
          <property>
              <name>ha.zookeeper.quorum</name>
              <value>10.0.8.31:18127</value>
          </property>
          <property>
              <name>hadoop.zk.address</name>
              <value>10.0.8.31:18127</value>
          </property>
          <!--HA 相关配置-->
          <property>
              <name>ha.zookeeper.auth</name>
              <value>@/uoms/app/hadoop-3.3.1/etc/hadoop/secret/zk-auth</value>
          </property>
          <property>
              <name>hadoop.zk.auth</name>
              <value>@/uoms/app/hadoop-3.3.1/etc/hadoop/secret/zk-auth</value>
          </property>
          <property>
              <name>hadoop.zk.acl</name>
              <value>@/uoms/app/hadoop-3.3.1/etc/hadoop/secret/zk-acl</value>
          </property>
          <property>
              <name>ha.zookeeper.acl</name>
              <value>@/uoms/app/hadoop-3.3.1/etc/hadoop/secret/zk-acl</value>
          </property>
          <property>
              <name>dfs.journalnode.edits.dir</name>
              <value>/uoms/appData/hadoop/journalnode</value>
              <description>journalnode服务器存储目录</description>
          </property>
      
          <!--  是否在HDFS中开启权限检查,默认为true-->
          <property>
              <name>dfs.permissions.enabled</name>
              <value>false</value>
          </property>
          <!-- hadoop文件系统依赖的基本配置,很多配置路径都依赖它 -->
          <property>
              <name>hadoop.tmp.dir</name>
              <value>/uoms/appData/hadoop/tmp</value>
          </property>
      </configuration>
      
      
      

       

      hdfs-site.xml

      hdfs-site.xml主要配置了HDFS的一些功能

      1.基础配置:namenode 、journalnode、datanode的数据存储目录、权限检查关闭、
      2. HDFS的HA配置:namenodes相关:nameservices、端口、journalnode元数据存储位置,开启 NameNode 失败自动切换 (active的切换)等功能
      3. Namenode向JournalNode发起的ipc连接请求的重试间隔时间和重试次数
      4. 客户端对HDFS操作时,连接到ANN的方式

      <?xml version="1.0" encoding="UTF-8"?>
      <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
      
      <!-- Put site-specific property overrides in this file. -->
      
      <configuration>
      
          <!--    当为true时,namenode连接datanode的地址必须解析成主机名。 -->
          <property>
              <name>dfs.namenode.datanode.registration.ip-hostname-check</name>
              <value>false</value>
          </property>
      
          <property>
              <name>dfs.permissions.enable</name>
              <value>false</value>
              <description>关闭权限检查</description>
          </property>
      
          <!--指定 hdfs 的 nameservice 为 mycluster,需要和 core-site.xml 中保持一致-->
          <property>
              <name>dfs.nameservices</name>
              <value>mycluster</value>
              <description>服务的逻辑名称</description>
          </property>
          <!-- mycluster 下面有两个 NameNode,分别是 nn1,nn2 -->
          <property>
              <name>dfs.ha.namenodes.mycluster</name>
              <value>nn1,nn2</value>
              <description>服务中每个NameNode的唯一标识符</description>
          </property>
      
          <!--  两个nn的http和rpc接口  -->
          <property>
              <name>dfs.namenode.rpc-address.mycluster.nn1</name>
              <value>10.0.8.31:18136</value>
              <description>nn1的NameNode监听的标准RPC地址</description>
          </property>
      
          <property>
              <name>dfs.namenode.rpc-address.mycluster.nn2</name>
              <value>10.0.8.32:18136</value>
              <description>nn2的NameNode监听的标准RPC地址</description>
          </property>
      
          <property>
              <name>dfs.namenode.http-address.mycluster.nn1</name>
              <value>10.0.8.31:18137</value>
              <description>nn1的NameNode监听的标准HTTP地址</description>
          </property>
      
          <property>
              <name>dfs.namenode.http-address.mycluster.nn2</name>
              <value>10.0.8.32:18137</value>
              <description>nn2的NameNode监听的标准HTTP地址</description>
          </property>
      
      
          <property>
              <name>dfs.replication</name>
              <value>3</value>
              <description>hdfs文件副本数</description>
          </property>
      
          <!--配置namenode 、journalnode、datanode的数据存储目录 -->
          <property>
              <name>dfs.namenode.name.dir</name>
              <value>file:/uoms/appData/hadoop/namenode</value>
              <description>namenode数据地址</description>
          </property>
      
          <property>
              <name>dfs.journalnode.edits.dir</name>
              <value>/uoms/appData/hadoop/journalnode</value>
              <description>journalnode服务器存储目录</description>
          </property>
      
          <property>
              <name>dfs.datanode.data.dir</name>
              <value>file:/uoms/appData/hadoop/datanode</value>
              <description>datanode数据地址</description>
          </property>
      
          <!-- ==========================================   -->
          <!-- HA相关   -->
          <!-- 指定 NameNode 的 edits 元数据在 JournalNode 上的存放位置  -->
          <property>
              <name>dfs.namenode.shared.edits.dir</name>
              <value>qjournal://10.0.8.34:18138;10.0.8.31:18138;10.0.8.32:18138/mycluster</value>
              <description>
                  该配置的机器是journalnode启动的机器。标识NameNode将在其中写入/读取编辑内容的JN组的URI,指定NameNode元数据在JournalNode上的存放位置
                  QJM方式是采用journalnode来共享edits文件
              </description>
          </property>
      
          <!--  JournalNode HTTP服务器监听的地址和端口。如果端口为0,那么服务器将在自由端口启动。-->
          <property>
              <name>dfs.journalnode.http-address</name>
              <value>0.0.0.0:18139</value>
          </property>
          <!-- JournalNode HTTPS服务器监听的地址和端口。如果端口为0,那么服务器将在自由端口启动。   -->
          <property>
              <name>dfs.journalnode.rpc-address</name>
              <value>0.0.0.0:18138</value>
          </property>
      
      
          <!--Namenode向JournalNode发起的ipc连接请求的重试间隔时间和重试次数-->
          <property>
              <name>ipc.client.connect.max.retries</name>
              <value>100</value>
              <description>Indicates the number of retries a client will make to establish
                  a server connection.
              </description>
          </property>
      
      
          <property>
              <name>ipc.client.connect.retry.interval</name>
              <value>10000</value>
              <description>Indicates the number of milliseconds a client will wait for
                  before retrying to establish a server connection.
              </description>
          </property>
      
      
          <!-- 开启 NameNode 失败自动切换 (active的切换)-->
          <property>
              <name>dfs.ha.automatic-failover.enabled</name>
              <value>true</value>
          </property>
      
          <!-- 配置隔离机制(防止脑裂)方法,多个机制用换行分割,即每个机制暂用一行-->
          <property>
              <name>dfs.ha.fencing.methods</name>
              <value>
                  sshfence
                  shell(/bin/true)
              </value>
              <description>
                  这些列表将用于在故障转移期间隔离Active NameNode
                  配置隔离机制,即同一时刻只能有一台服务器对外响应
                  该sshfence选项SSH到目标节点,然后杀该服务的TCP端口上侦听的过程。
                  为了使该防护选项起作用,它必须能够在不提供密码的情况下SSH到目标节点。
                  因此,还必须配置dfs.ha.fencing.ssh.private-key-files
              </description>
          </property>
          <!-- 使用 sshfence 隔离机制时需要 ssh 免登陆:即失效转移时使用的秘钥文件。 -->
          <property>
              <name>dfs.ha.fencing.ssh.private-key-files</name>
              <value>/commonuser/.ssh/id_rsa</value>
              <description>使用隔离机制时需要ssh无秘钥登录</description>
          </property>
      
      
          <!-- 客户端对HDFS操作时,连接到ANN的方式 -->
          <property>
              <name>dfs.client.failover.proxy.provider.mycluster</name>
              <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
              <description>访问代理类失败自动切换实现方式</description>
          </property>
      
      
      </configuration>
      
      

       

      yarn-site.xml

      主要配置了一些yarn的功能:

      1.基础配置:yarn的资源检查、内存和cpu等设置、
      2. Yarn的HA相关:RM自动恢复、故障转移、rm相关ip/端口指定、zk、rm与ApplicationMaster、NodeManager通讯配置
      3. nodemanager:失败重启、state目录、mapReduce等调度资源

      <?xml version="1.0"?>
      <!--
        Licensed under the Apache License, Version 2.0 (the "License");
        you may not use this file except in compliance with the License.
        You may obtain a copy of the License at
      
          http:///licenses/LICENSE-2.0
      
        Unless required by applicable law or agreed to in writing, software
        distributed under the License is distributed on an "AS IS" BASIS,
        WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
        See the License for the specific language governing permissions and
        limitations under the License. See accompanying LICENSE file.
      -->
      <configuration>
      
          <!--  基础配置   -->
          <!-- ==================================== -->
          <property>
              <name>yarn.nodemanager.vmem-check-enabled</name>
              <value>false</value>
              <description>是否在任务启动前检查实际资源是否足够</description>
          </property>
          <property>
              <name>yarn.nodemanager.resource.cpu-vcores</name>
              <value>8</value>
          </property>
          <property>
              <name>yarn.nodemanager.resource.memory-mb</name>
              <value>8192</value>
          </property>
      
          <property>
              <name>yarn.scheduler.maximum-allocation-vcores</name>
              <value>4</value>
              <description>提交一个任务允许申请的最大cpu核数</description>
          </property>
      
          <property>
              <name>yarn.scheduler.maximum-allocation-mb</name>
              <value>8192</value>
              <description>提交一个任务允许申请的最大内存</description>
          </property>
      
          <property>
              <name>yarn.nodemanager.vmem-pmem-ratio</name>
              <value>2.1</value>
              <description>虚拟内存使用率</description>
          </property>
      
          <property>
              <name>yarn.resourcemanager.am.max-attempts</name>
              <value>10</value>
              <description>
                  application 最大的执行次数.
              </description>
          </property>
          <!-- ==================================== -->
      
      
      
      
          <!--  HA相关  -->
          <!-- ==================================== -->
          <property>
              <name>yarn.resourcemanager.ha.enabled</name>
              <value>true</value>
              <description>开启rm的HA</description>
          </property>
          <property>
              <description>启用RM Restart自动恢复功能</description>
              <name>yarn.resourcemanager.recovery.enabled</name>
              <value>true</value>
          </property>
          <!--失败转移默认开启-->
          <property>
              <name>yarn.resourcemanager.ha.automatic-failover.enabled</name>
              <value>true</value>
              <description>开启故障转移</description>
          </property>
      
          <property>
              <name>yarn.resourcemanager.cluster-id</name>
              <value>mycluster</value>
          </property>
      
          <!-- rm的名字   -->
          <property>
              <name>yarn.resourcemanager.ha.rm-ids</name>
              <value>rm1,rm2</value>
          </property>
          <!-- 指定 RM 的地址(或主机名) -->
          <property>
              <name>yarn.resourcemanager.hostname.rm1</name>
              <value>10.0.8.34</value>
          </property>
          <property>
              <name>yarn.resourcemanager.hostname.rm2</name>
              <value>10.0.8.31</value>
          </property>
      
          <!-- 指定 zk 集群地址:主备切换依赖于zk -->
          <property>
              <name>yarn.resourcemanager.zk-address</name>
              <value>10.0.8.31:18127</value>
          </property>
      
          <property>
              <description>
                  用于resourcemanager状态存储(到zookeeper)的类,默认为org.apache.hadoop.yarn.server.resourcemanager.recovery.FileSystemRMStateStore,
                  基于Hadoop文件系统的实现。还可以为org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore,
                  该类为基于ZooKeeper的实现
              </description>
              <name>yarn.resourcemanager.store.class</name>
              <value>org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore</value>
          </property>
      
          <!--ResourceManager对外web ui地址。用户可通过该地址在浏览器中查看集群各类信息。-->
          <property>
              <name>yarn.resourcemanager.webapp.address.rm1</name>
              <value>10.0.8.34:18132</value>
          </property>
          <property>
              <name>yarn.resourcemanager.webapp.address.rm2</name>
              <value>10.0.8.31:18132</value>
          </property>
      
          <!--    ResourceManager 对ApplicationMaster暴露的访问地址。ApplicationMaster通过该地址向RM申请资源、释放资源等。-->
          <property>
              <name>yarn.resourcemanager.scheduler.address.rm1</name>
              <value>10.0.8.34:18133</value>
          </property>
          <property>
              <name>yarn.resourcemanager.scheduler.address.rm2</name>
              <value>10.0.8.31:18133</value>
          </property>
      
          <!-- ResourceManager 对NodeManager暴露的地址.。NodeManager通过该地址向RM汇报心跳,领取任务等。   -->
          <property>
              <name>yarn.resourcemanager.resource-tracker.address.rm1</name>
              <value>10.0.8.34:18134</value>
          </property>
          <property>
              <name>yarn.resourcemanager.resource-tracker.address.rm2</name>
              <value>10.0.8.31:18134</value>
          </property>
      
          <!--ResourceManager 对管理员暴露的访问地址。管理员通过该地址向RM发送管理命令等。-->
          <property>
              <name>yarn.resourcemanager.admin.address.rm1</name>
              <value>10.0.8.34:18135</value>
          </property>
          <property>
              <name>yarn.resourcemanager.admin.address.rm2</name>
              <value>10.0.8.31:18135</value>
          </property>
          <!-- ==================================== -->
      
      
      
      
          <!-- nodemanager相关设置   -->
          <!-- ==================================== -->
          <property>
              <description>启用nodemanager Restart功能,默认false</description>
              <name>yarn.nodemanager.recovery.enabled</name>
              <value>true</value>
          </property>
      
          <property>
              <description>node manager可以保存state信息的本地文件系统目录</description>
              <name>yarn.nodemanager.recovery.dir</name>
              <value>/uoms/appData/hadoop/yarn/tmp/yarn-nm-recovery</value>
          </property>
      
          <property>
              <description>明确设置yarn.nodemanager.address 端口号</description>
              <name>yarn.nodemanager.address</name>
              <value>${yarn.nodemanager.hostname}:18131</value>
          </property>
      
          <!-- 要运行 MapReduce 程序必须配置的附属服务,为shuffle提供资源调度 -->
          <property>
              <name>yarn.nodemanager.aux-services</name>
              <value>mapreduce_shuffle</value>
          </property>
          <property>
              <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
              <value>org.apache.hadoop.mapred.ShuffleHandler</value>
          </property>
      
      
      </configuration>
      
      

       
       

      4. 相关初始化命令

      安装包远程发送

      scp -r hadoop-2.7.7 hadoop02:/opt/
      scp -r hadoop-2.7.7 hadoop03:/opt/
      
      1)启动zk (三台分别依次启动)
      zkServer.sh start
      
      2)三台分别启动journalnode QJM (hadoop内置的)(同步元数据的所以要先启动)
      hadoop-daemon.sh start journalnode
      
      
      3)格式化namenode 选择一个namenode节点
      hadoop namenode -format
      
      4)将hadoop01的元数据  远程发送到另一个namenode
       scp -r /home/hadoop/data/hadoopdata/dfs hadoop02:/home/hadoop/data/hadoopdata  
      
      
      5)格式化zkfc 
      格式化的原因:使zkfc和zookeeper通信,在zookeeper中创建存储namenode状态信息的znode 
      在一个namenode上执行即可
      a、删除所有无用的节点:
      zkCli.sh  
      rmr /节点名
      quit
      	
      b、格式化
      hdfs zkfc -formatZK
      Successfully created /hadoop-ha/bd1906 in ZK.
      

       

      5. 启动

      启动hdfs 
      start-dfs.sh 任意节点
      
      启动yarn
      其中一个rm节点启动
      start-yarn.sh 
      
      另一个 resourcemanager单独启动 resourcemanager
      yarn-daemon.sh start resourcemanager
      
      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.csdn.net/hiliang521/article/details/126606571,作者:roman_日积跬步-终至千里,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:【基础理论】hadoop基础(二):Yarn系统性介绍:Yarn的基础架构、工作机制、作业提交过程、调度器等

      下一篇:【linux常用操作一】文件管理、文本处理

      相关文章

      2025-05-19 09:04:44

      FinalShell 配置SSH密钥登陆

      FinalShell 配置SSH密钥登陆

      2025-05-19 09:04:44
      密钥 , 服务器 , 配置
      2025-05-16 09:15:24

      WCF 配置文件分解

      WCF 配置文件分解

      2025-05-16 09:15:24
      localhost , WCF , 地址 , 服务 , 配置
      2025-05-16 09:15:17

      BFS解决拓扑排序(1)_课程表

      BFS解决拓扑排序(1)_课程表

      2025-05-16 09:15:17
      lt , 课程 , 队列
      2025-05-16 09:15:17

      Linux系统基础-多线程超详细讲解(5)_单例模式与线程池

      Linux系统基础-多线程超详细讲解(5)_单例模式与线程池

      2025-05-16 09:15:17
      单例 , 线程 , 队列
      2025-05-14 10:03:13

      AJAX-事件循环(超详细过程)

      JS有一个基于事件循环的并发模型,事件循环负责执行代码、收集和处理事件以及执行队列中的子任务。

      2025-05-14 10:03:13
      代码 , 任务 , 出栈 , 异步 , 执行 , 调用 , 队列
      2025-05-14 10:03:13

      数据结构-队列

      队列是仅限在一端进行插入,另一端进行删除的线性表。

      2025-05-14 10:03:13
      元素 , 入队 , 出队 , 链表 , 队列
      2025-05-14 09:51:15

      java怎么对线程池做监控

      对Java线程池进行监控是确保系统性能和稳定性的重要部分。监控线程池可以帮助我们了解线程池的状态,如当前活跃线程数、任务队列长度、已完成任务数等。

      2025-05-14 09:51:15
      Java , 方法 , 监控 , 示例 , 线程 , 队列
      2025-05-09 09:30:05

      【Linux 从基础到进阶】防火墙策略配置(iptables、firewalld、ufw)

      防火墙是保护系统受网络攻击的第一道防线。通过合理配置防火墙策略,可以有效地控制网络流量、过滤不必要的连接,并增强系统的安全性。

      2025-05-09 09:30:05
      iptables , 数据包 , 配置 , 防火墙
      2025-05-09 08:50:35

      SpringBoot学习(1)

      Spring Boot是Spring提供的一个子项目,用于快速构建Spring应用程序。

      2025-05-09 08:50:35
      Spring , 依赖 , 应用程序 , 部署 , 配置 , 配置文件
      2025-05-09 08:20:32

      基于IDEA的Maven简单工程创建及结构分析

      通过一个 mvn 命令直接让我们创建一个 Maven 的脚手架。

      2025-05-09 08:20:32
      java , Maven , xml , 创建 , 文件 , 文件夹 , 项目
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5250055

      查看更多

      最新文章

      FinalShell 配置SSH密钥登陆

      2025-05-19 09:04:44

      WCF 配置文件分解

      2025-05-16 09:15:24

      【Linux 从基础到进阶】防火墙策略配置(iptables、firewalld、ufw)

      2025-05-09 09:30:05

      springboot系列教程(十七):自定义启动页,项目打包指定运行环境

      2025-05-07 09:09:26

      【Linux 从基础到进阶】IPv6配置与管理

      2025-05-06 09:18:49

      【Hive】使用Ambari修改 默认队列

      2025-04-23 08:18:38

      查看更多

      热门文章

      redis-配置主从-实际操作-over

      2023-03-29 10:07:52

      The type org.springframework.context.ConfigurableApplicationContext cannot be resolved. It is indire

      2022-12-28 07:22:30

      QT配置文件类封装

      2023-03-14 09:17:29

      redis-配置说明-重要的几个配置

      2023-03-29 10:07:17

      nginx【2】配置文件

      2023-04-27 07:57:16

      vim配置

      2023-05-06 09:03:13

      查看更多

      热门标签

      服务器 linux 虚拟机 Linux 数据库 运维 网络 日志 数据恢复 java python 配置 nginx centos mysql
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      DHCP服务器的搭建与应用(高级版2.0)

      yarn 日志聚合

      nginx结合前后端分离项目springboot+vue的配置

      【Hive基础】hive常见操作速查

      redis-配置主从-实际操作-over

      fusuma配置

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号