爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      截止今天学习大数据技术的笔记

      首页 知识中心 大数据 文章详情页

      截止今天学习大数据技术的笔记

      2024-04-23 09:44:00 阅读次数:51

      hadoop,hive,Kafka

      Hadoop

      启动zookeeper

      bin/zkServer.sh start

      bin/zkServer.sh stop

      启动Hadoop

      第一步:hadoop102

      sbin/start-dfs.sh

      第二步:hadoop103

      sbin/start-yarn.sh

      第一步:hadoop103

      sbin/stop-yarn.sh

      第二步:hadoop102

      sbin/stop-dfs.sh

      启动hbase

      bin/hbase-daemon.sh start master

      bin/hbase-daemon.sh start regionserver

      bin/hbase-daemon.sh stop master

      bin/hbase-daemon.sh stop regionserver

      bin/start-hbase.sh

      bin/stop-hbase.sh

      软连接

      ln -s /opt/module/hadoop-3.1.3/etc/hadoop/core-site.xml /opt/module/hbase131/conf/core-site.xml

      ln -s /opt/module/hadoop-3.1.3/etc/hadoop/hdfs-site.xml /opt/module/hbase131/conf/hdfs-site.xml

      Web端查看HDFS的NameNode,HDFS上存储的数据信息

      http://hadoop102:9870

      Web端查看YARN的ResourceManager

      浏览器中查看YARN上运行的Job信息

      ​​http://hadoop103:8088​​

      查看JobHistory

      ​​http://hadoop102:19888/jobhistory​​

      截止今天学习大数据技术的笔记

      截止今天学习大数据技术的笔记

      截止今天学习大数据技术的笔记

      myhadoop.sh start

      myhadoop.sh stop

      jpsall

      Group name: ddl

        Commands: alter, alter_async, alter_status, create, describe, disable, disable_all, drop, drop_all, enable, enable_all, exists, get_table, is_disabled, is_enabled, list, locate_region, show_filters

      Group name: dml

        Commands: append, count, delete, deleteall, get, get_counter, get_splits, incr, put, scan, truncate, truncate_preserve

        Group name: namespace

        Commands: alter_namespace, create_namespace, describe_namespace, drop_namespace, list_namespace, list_namespace_tables

      截止今天学习大数据技术的笔记

      l  进入hbase shell空间

      bin/hbase shell

      l  创建 create 'student','info'

      l  插入 put 'student','1001','info:sex','male'

      l  查看scan 'student'  describe ‘student’

      l  put ‘stu’,’1001’,’info1:name’,’zhangsan’

      l       表            rowkey    列族:列名      value

      解决日志 Jar 包冲突

      [atguigu@hadoop102 software]$ mv $HIVE_HOME/lib/log4j-slf4j-impl-2.10.0.jar $HIVE_HOME/lib/log4j-slf4j-impl-2.10.0.bak

      sqoop路径:/opt/module/sqoop

      把指定文件放到hadoop指定路径:hadoop fs -put stu1.txt /user/hive/warehouse/stu

      启动metastore      hive --service metastore

      启动hiveserver2   bin/hive --service hiveserver2

      hive启动(/opt/module/hive):bin/hive

      测试流程:

      ①hive路径下建表:test1

      create table test1

      (InvoiceNo String, StockCode String, Description String, Quantity String, InvoiceDate String, UnitPrice String, CustomerID String, Country String)

      ROW format delimited fields terminated by ',' STORED AS TEXTFILE;

      ②导入数据:

      load data local inpath '/opt/module/data/test.csv' into table test1;

      select * from test1;

      ③进入mysql:mysql -uroot -p000000

      (创建数据库命令:create database company;)

      (进入对应数据库命令:use company;)

      ④将汇总结果导出到MySQL:

      1.建表(可视化建表):

      2.sqoop路径下:

      bin/sqoop export \

      --connect jdbc:mysql://hadoop102:3306/mysql \

      --username root \

      --password 000429 \

      --table test1 \

      --num-mappers 1 \

      --export-dir /user/hive/warehouse/test1 \

      --input-fields-terminated-by ","

      数据没有插入完全(报错):

      Container [pid=3962,containerID=container_1632883011739_0002_01_000002] is running 270113280B beyond the 'VIRTUAL' memory limit. Current usage: 91.9 MB of 1 GB physical memory used; 2.4 GB of 2.1 GB virtual memory used. Killing container.

      截止今天学习大数据技术的笔记

      Sqoop

      导出

      bin/sqoop import \

      --connect jdbc:mysql://hadoop102:3306/company \

      --username root \

      --password 000429 \

      --table staff \

      --target-dir /user/company \

      --delete-target-dir \

      --num-mappers 1 \

      --fields-terminated-by  "\t"

      课堂测试:

      一、hive建表

      create table sale

      (day_id String, sale_nbr String, buy_nbr String, cnt String, round String)

      ROW format delimited fields terminated by ',' STORED AS TEXTFILE;

      二、导入hive表

      load data local inpath '/opt/module/data/sales.csv' into table sale;

       

      截止今天学习大数据技术的笔记

      截止今天学习大数据技术的笔记

      Sqoop:

       查询导入
       bin/sqoop import
       --connect     jdbc:mysql://hadoop102:3306/company
       --username root 
      --password 123456 
      --target-dir /user/company 
      --delete-target-dir 
      --num-mappers 1 
      --fields-terminated-by "\t"
       --query &apos;select name,sex from staff where id<=1 and $CONDITIONS;&apos;

      全部导入
       bin/sqoop import 
      --connect jdbc:mysql://hadoop102:3306/company
       --username root 
      --password 123456 
      --table staff 
      --target-dir /user/company 
      --delete-target-dir
       --num-mappers 1 
      --fields-terminated-by "\t"
      指定列:--columns id,sex
      条件:where ""
      导入到HIVE:
      bin/sqoop import \
      > --connect jdbc:mysql://hadoop102:3306/company \
      > --username root \
      > --password 123456 \
      > --table staff \
      > --num-mappers 1 \
      > --hive-impo
      > --fields-terminated-by "\t" \
      > --hive-overwrite \
      > --hive-table  数据库名.staff_hive
      导出:
      bin/sqoop export 
      --connect  jdbc:mysql://hadoop102:3306/company 
      --username root 
      --password 000429
      --table sale1 
      --num-mappers 1 
      --export-dir /user/hive/warehouse/sale 
      --input-fields-terminated-by ","

      导出整个表到mysql:

      bin/sqoop export \

      --connect jdbc:mysql://hadoop102:3306/company \

      --username root \

      --password 000429 \

      --table sale \

      --num-mappers 1 \

      --export-dir /user/hive/warehouse/sale \

      --input-fields-terminated-by ","

      Mysql建表语句:

      USE `company`;

      CREATE TABLE `sale1` (

        `day_id` VARCHAR(50) COLLATE utf8_bin DEFAULT NULL,

        `sale_nbr` VARCHAR(50) COLLATE utf8_bin DEFAULT NULL,

        `cnt` VARCHAR(50) COLLATE utf8_bin DEFAULT NULL,

        `round` VARCHAR(50) COLLATE utf8_bin DEFAULT NULL

      ) ENGINE=INNODB DEFAULT CHARSET=utf8 COLLATE=utf8_bin;

      CREATE TABLE `sale2` (

        `day_id` varchar(50) COLLATE utf8_bin DEFAULT NULL,

        `sale_nbr` varchar(50) COLLATE utf8_bin DEFAULT NULL,

        `cnt` varchar(50) COLLATE utf8_bin DEFAULT NULL,

        `round` varchar(50) COLLATE utf8_bin DEFAULT NULL

      ) ENGINE=InnoDB DEFAULT CHARSET=utf8 COLLATE=utf8_bin;

      USE `company`;

      CREATE TABLE `sale3` (

        `day_id` VARCHAR(50) COLLATE utf8_bin DEFAULT NULL,

        `sale_nbr` VARCHAR(50) COLLATE utf8_bin DEFAULT NULL,

        `sale_number` VARCHAR(50) COLLATE utf8_bin DEFAULT NULL

      ) ENGINE=INNODB DEFAULT CHARSET=utf8 COLLATE=utf8_bin;

      CREATE TABLE `sale4` (

        `day_id` varchar(50) COLLATE utf8_bin DEFAULT NULL,

        `nbr` varchar(50) COLLATE utf8_bin DEFAULT NULL,

        `buy_cnt` varchar(50) COLLATE utf8_bin DEFAULT NULL,

        `buy_round` varchar(50) COLLATE utf8_bin DEFAULT NULL,

        `sale_cnt` varchar(50) COLLATE utf8_bin DEFAULT NULL,

        `sale_round` varchar(50) COLLATE utf8_bin DEFAULT NULL

      ) ENGINE=InnoDB DEFAULT CHARSET=utf8 COLLATE=utf8_bin;

      查询1:

      INSERT INTO company.`sale1`(

          day_id,

          sale_nbr,

          cnt,

          ROUND

      )SELECT

        day_id,

        sale_nbr,

        SUM(cnt),

        SUM(ROUND)

      FROM

        company.sale

      WHERE sale_nbr LIKE 'C%'

      GROUP BY day_id,sale_nbr;

       

      截止今天学习大数据技术的笔记

      截止今天学习大数据技术的笔记

      查询2

      INSERT INTO company.`sale2`(

          day_id,

          sale_nbr,

          cnt,

          ROUND

      )SELECT

        day_id,

        sale_nbr,

        SUM(cnt),

        SUM(ROUND)

      FROM

        company.sale

      WHERE sale_nbr LIKE 'O%'

      GROUP BY day_id,sale_nbr;

       

      截止今天学习大数据技术的笔记

       

      截止今天学习大数据技术的笔记

      查询3:

      INSERT INTO company.sale3(

          day_id,

          sale_nbr,

          sale_number

      )SELECT

        day_id,

        sale_nbr,

        COUNT(sale_nbr)

      FROM

        company.sale

      WHERE sale_nbr LIKE "O%"

      GROUP BY sale_nbr,

        day_id ;

       

      截止今天学习大数据技术的笔记

      查询4

      买:

      SELECT day_id, buy_nbr,SUM(cnt) AS buy_cnt ,SUM(ROUND) AS buy_round FROM company.sale WHERE (buy_nbr!='PAX') AND (buy_nbr!='') GROUP BY  buy_nbr,day_id;

      卖:

      SELECT day_id, sale_nbr,SUM(cnt) AS sale_cnt,SUM(ROUND) AS sale_round FROM company.sale WHERE sale_nbr LIKE "O%" GROUP BY  sale_nbr,day_id;

      插入:

      INSERT INTO company.`sale4_b`(

          day_id,

          buy_nbr,

          buy_cnt,

          buy_round

      )SELECT day_id, buy_nbr,SUM(cnt) AS buy_cnt ,SUM(ROUND) AS buy_round FROM company.sale WHERE (buy_nbr!='PAX') AND (buy_nbr!='') GROUP BY buy_nbr,day_id;

      插入sale4:

      INSERT INTO company.sale4(

          day_id,

          nbr,

          buy_cnt,

          buy_round,

          sale_cnt,

          sale_round,

          w

      )SELECT

        sale4_b.day_id,

        buy_nbr,

        buy_cnt,

        buy_round,

        sale_cnt,

        sale_round,

        (sale_round-buy_round)

      FROM

        sale4_b

        JOIN sale4_s

      WHERE sale4_b.day_id = sale4_s.day_id

        AND sale4_b.buy_nbr = sale4_s.sale_nbr ;

       

      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.51cto.com/reliableyang/5936698,作者:靠谱杨的挨踢IT生活,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:安卓逆向 -- 算法基础(MD5)

      下一篇:利用bladex+avue实现下拉数据源展示

      相关文章

      2025-04-23 08:18:38

      【Hive】使用Ambari修改 默认队列

      【Hive】使用Ambari修改 默认队列

      2025-04-23 08:18:38
      hive , 修改 , 配置文件 , 队列
      2025-04-18 07:10:38

      hadoop-hdfs简介及常用命令详解(超详细)

      HDFS(Hadoop Distributed File System)是Apache Hadoop生态系统中的分布式文件系统,用于存储和处理大规模数据集。HDFS具有高容错性、高可靠性和高吞吐量的特点,适用于大数据处理和分析场景。

      2025-04-18 07:10:38
      file , hadoop , HDFS , txt , user , 文件 , 目录
      2025-04-15 09:24:56

      深入Kafka:如何保证数据一致性与可靠性?

      幂等性是一个非常重要的概念,特别是在分布式系统中。简单来说,幂等性就是保证在消息重发时,消费者不会重复处理,即使在消费者收到重复消息时,重复处理也要保证最终结果的一致性。

      2025-04-15 09:24:56
      Kafka , Leader , Zookeeper , 控制器 , 消息
      2025-04-15 09:20:07

      Kafka内幕:详解Leader选举与副本同步的那些事儿

      Kafka 的 Leader 选举机制是确保消息高可用性和一致性的关键之一。当某个 Broker 失效时,Kafka 会选举新的 Leader 来继续提供服务。

      2025-04-15 09:20:07
      Kafka , Leader , 副本 , 同步 , 消息
      2025-04-15 09:19:55

      高性能、高可靠性!Kafka的技术优势与应用场景全解析

      Kafka的高吞吐量表现堪称惊人。单机每秒处理几十上百万的消息量,即使存储了TB级别的消息,它依然能够保持稳定的性能。

      2025-04-15 09:19:55
      Kafka , 数据 , 日志 , 消息 , 消费者 , 用户 , 磁盘
      2025-04-14 08:45:56

      【Hadoop】YARN多资源队列配置及使用实践

      【Hadoop】YARN多资源队列配置及使用实践

      2025-04-14 08:45:56
      ci , hadoop , mapreduce , yarn , 大数据
      2025-04-14 08:45:36

      【Kafka】集成案例:与Spark大数据组件的协同应用

      Apache Kafka 是一个分布式流处理平台,主要用于构建实时数据管道和流式应用。Kafka 由 LinkedIn 开发,并于 2011 年开源,目前由 Apache 软件基金会进行管理。它以高吞吐量、低延迟和可扩展性著称。

      2025-04-14 08:45:36
      Kafka , Spark , 实时 , 应用
      2025-03-28 07:40:23

      启动hadoop集群时报错ERROR: Attempting to operate on hdfs namenode as root

      启动hadoop集群时报错ERROR: Attempting to operate on hdfs namenode as root

      2025-03-28 07:40:23
      hadoop , root
      2025-03-28 07:40:23

      hive执行分区修复语句(MSCK REPAIR TABLE)时报FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.

      hive执行分区修复语句(MSCK REPAIR TABLE)时报FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.

      2025-03-28 07:40:23
      hdfs , hive , 分区 , 目录
      2025-03-26 08:43:34

      从零开始掌握Kafka Rebalance和分区分配

      从零开始掌握Kafka Rebalance和分区分配

      2025-03-26 08:43:34
      Kafka , topic , 分区 , 分配 , 消费者
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5237977

      查看更多

      最新文章

      深入Kafka:如何保证数据一致性与可靠性?

      2025-04-15 09:24:56

      【Kafka】集成案例:与Spark大数据组件的协同应用

      2025-04-14 08:45:36

      深入解析:Kafka 为何不支持全面读写分离?

      2025-01-07 09:19:08

      Kafka面试必备:深度解析Replica副本的作用与机制

      2025-01-07 09:18:26

      sqoop 的安装与常用抽数操作

      2024-09-25 10:14:34

      什么是机器学习回归算法?【线性回归、正规方程、梯度下降、正则化、欠拟合和过拟合、岭回归】

      2024-09-25 10:13:57

      查看更多

      热门文章

      第4章 DDL数据定义

      2023-06-14 09:05:39

      hadoop:MapReduce之 shuffle过程详解

      2023-06-15 06:24:14

      17、MapReduce的分区Partition介绍

      2023-06-30 08:14:30

      【Hadoop】MapReduce小文件问题解决方案(SequenceFile,MapFile)

      2023-07-11 08:48:01

      MapReduce 概述及核心思想

      2023-07-24 09:28:34

      MapReduce 工作流介绍​

      2023-07-06 09:39:09

      查看更多

      热门标签

      算法 leetcode python 数据 java 数组 节点 大数据 i++ 链表 golang c++ 排序 django 数据类型
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      17、MapReduce的分区Partition介绍

      MapReduce 概述及核心思想

      Kafka面试必备:深度解析Replica副本的作用与机制

      HDFS安装及常用命令

      深入解析:Kafka 为何不支持全面读写分离?

      Hadoop常用命令

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号