爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      hive 表的常用操作

      首页 知识中心 大数据 文章详情页

      hive 表的常用操作

      2023-05-12 07:21:43 阅读次数:143

      hadoop,hive,大数据


      • 使用load 方式加载数据到Hive 表中,注意分区表加载数据的特殊性
      • 如何保存HiveQL 查询结果:保存到表中,保存到本地文件(注意指定列分隔符)
      • 常见查询练习,如group by、having、join、sort by、order by 等。

      一:hive 表的操作

      1.1.1 hive的库的创建与数据库的查看:

        hive(default)> create database yangyang;
      

      hive 表的常用操作

       hive(default)> use yangyang;
       hive(yangyang)>desc database yangyang;
      

      hive 表的常用操作

      1.1.2 hive 表的创建查看与数据导入

      创建emp 表:

      hive(yangyang)> create table emp(
      empno int,
      ename string,
      job string,
      mgr int,
      hiredate string,
      sal double,
      comm double,
      deptno int
      )
      row format delimited fields terminated by '\t';
      

      hive 表的常用操作

      1.1.3 hive 创建表的三种方式:

      1. 直接在数据库中创建:

      hive(yangyang)>create table dept(
                     deptno int,
                     dname string,
                     loc string
                     )
      row format delimited fields terminated by '\t';
      

      hive 表的常用操作

      2.使用已经存在的数据库进行数据抽取从新生成一张表:

         create table emp2 as select * from emp;
          1.此方法抽取的表数据与表结构都会存在
          2.创建表的时候会执行mapreduce 的后端程序
      

      hive 表的常用操作

      3.创建一张空表带数据结构

       create table emp3 like emp;
      select * from emp3;
      

      hive 表的常用操作 hive 表的常用操作

      1.1.4 hive 数据的导入处理:

      1. 正常空表导入:

      load data local inpath "/home/hadoop/emp.txt" into table emp;  
      load data local inpath "/home/hadoop/dept.txt" into table dept; 
      

      hive 表的常用操作

      2. 从hdfs 中导入数据

      指定 hdfs 目录进行数据导入:
      load data inpath "/user/hive/warehouse/yangyang.db/emp/emp.txt" into table emp3;
      

      hive 表的常用操作

      3. 加载数据进行数据覆盖:

      hdfs dfs -put emp.txt /user
      load data inpath "/user/emp.txt" overwrite into table emp;
      

      hive 表的常用操作

      注释:hive 在导入数据的时候不是空表的时候默认是追加导入append 
          一般在导入重复数据的时会增加overwrite 进行数据覆盖。
      

      4.创建表的时候用select完成

      create table emp5 as select * from emp;
      

      hive 表的常用操作

      5.创建数据用insert into 创建表

      先创建一个空表:
      create table emp4 like emp ;  
      然后插入数据:
      insert into table emp4 select * from emp; 
      

      hive 表的常用操作

      1.1.5hive库的导出:

      1.导出到本地系统:

      insert overwrite local directory '/home/hadoop/exp' 
      row format delimited fields terminated by '\t' select * from emp ;
      

      hive 表的常用操作

      2. 导出到hdfs文件系统上面:

      insert overwrite directory '/emp.txt' select * from emp ;
      

      hive 表的常用操作

      3. 导出文本文件:

        hive -e 'select * from yangyang.emp' >> 1.txt
      

      hive 表的常用操作

      4.采用sqoop 数据导入导出。

      hive 表的查看方式:
      select * from dept;
      select * from emp;
      

      hive 表的常用操作 hive 表的常用操作

      desc formatted dept;
      desc formatted emp;
      

      hive 表的常用操作

      查询前几个字段:
      select emp.ename from emp limit 2;
      

      hive 表的常用操作

      去重复查询:
      select distinct(deptno) from emp limit 2;
      

      hive 表的常用操作

      输出结果进行排序:
      select * from emp order by empno;
      

      hive 表的常用操作

      统计行数:
      select count(empno) from emp; 
      

      hive 表的常用操作

      除去重复统计:
      select count(distinct deptno) from emp;
      

      hive 表的常用操作

      分组统计:
      select deptno,count(ename) from emp group by deptno ;
      

      hive 表的常用操作

      分组统计求最大值:
      select deptno,max(sal) from emp group by deptno ;
      

      hive 表的常用操作

      分组之后过了统计:
      select deptno,count(ename) from emp group by deptno having count(ename)>3;
      

      hive 表的常用操作

      设置mapreduce的个数。
      hive >set mapreduce.job.reduces=3; 
      hive > insert overwrite local directory '/home/hadoop/exp1' 
      row format delimited fields terminated by '\t' select * from emp sort by empno;
      

      hive 表的常用操作 hive 表的常用操作

      1.1.6 关于hive 的排序功能:

       order by
      	    --全局排序   asc  desc
      sort by
      	--局部排序,每个reduce进行排序,全局不排序
      distribute by
      	--类似与分区partition,通常和sort by联合使用
      	--通常sort by放在distribute by之后
      cluster by
      	--相当于distribute by和sort by的结合(分区和排序字段一样)
      
      insert overwrite local directory '/home/hadoop/exp2' 
      row format delimited fields terminated by '\t' select * from emp 
      distribute by deptno sort by empno;
      

      hive 表的常用操作

      hive 的join 查询

      右连接
      select dept.dname,emp.ename from dept right join emp on emp.deptno=dept.deptno ;
      

      hive 表的常用操作

      左连接
      select dept.dname,emp.ename from emp left join dept on emp.deptno=dept.deptno ; 
      

      hive 表的常用操作

      查询是否要走mapreduce 程序:
      <property>
        <name>hive.fetch.task.conversion</name>
        <value>more</value>  <!-- minimal 改成more 更多的命令不走map人deuce-->
        <description>
          Some select queries can be converted to single FETCH task minimizing latency.
          Currently the query should be single sourced not having any subquery and should not have
          any aggregations or distincts (which incurs RS), lateral views and joins.
          1. minimal : SELECT STAR, FILTER on partition columns, LIMIT only
          2. more    : SELECT, FILTER, LIMIT only (TABLESAMPLE, virtual columns)
        </description>
      </property>
      
      select emp.empno,emp.ename from emp;
      

      hive 表的常用操作

      select count(empno) from emp;
      

      hive 表的常用操作

      explain 查看hive命令的更多的解析状态:
      explain  select count(empno) from emp;
      

      hive 表的常用操作 hive 表的常用操作 hive 表的常用操作

      hive 查询中的四个查询
      order by 分组查询 (全局数据的排序/只有一个reduce 输出)
      select * from emp order by empno desc;
      

      hive 表的常用操作 hive 表的常用操作

      sort by  对每个reduce 的内部进行排序 对全局结果来说 是没有排序的
               设置hive中的mapreduce 的数目
               set mapreduce.job.reduces=3
               select * from emp sort by empno asc;
      

      hive 表的常用操作 hive 表的常用操作

      distribute by
      	分区partition
      	类似于MapReduce中分区partition,对数据进行分区,结合sort by进行使用
      	insert overwrite local directory '/root/emp.txt' select * from emp distribute by deptno sort by empno asc ;
          注意事项:
      	distribute by 必须要在sort by  前面。
      

      hive 表的常用操作


      >> cluster by
      	当distribute by和sort by 字段相同时,可以使用cluster by ;
      	insert overwrite local directory '/root/emp.txt' select * from emp cluster by empno ;
      

      hive 表的常用操作

      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.51cto.com/flyfish225/2097253,作者:flyfish225,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:前端项目实战27-增加分页 进行数据重置

      下一篇:SQL查询单表数据之组合(三)

      相关文章

      2025-04-23 08:18:38

      【Hive】使用Ambari修改 默认队列

      【Hive】使用Ambari修改 默认队列

      2025-04-23 08:18:38
      hive , 修改 , 配置文件 , 队列
      2025-04-18 07:10:38

      hadoop-hdfs简介及常用命令详解(超详细)

      HDFS(Hadoop Distributed File System)是Apache Hadoop生态系统中的分布式文件系统,用于存储和处理大规模数据集。HDFS具有高容错性、高可靠性和高吞吐量的特点,适用于大数据处理和分析场景。

      2025-04-18 07:10:38
      file , hadoop , HDFS , txt , user , 文件 , 目录
      2025-04-14 08:45:56

      【Hadoop】YARN多资源队列配置及使用实践

      【Hadoop】YARN多资源队列配置及使用实践

      2025-04-14 08:45:56
      ci , hadoop , mapreduce , yarn , 大数据
      2025-03-31 08:49:58

      Selenium Webdriver 3.X源码分析之核心代码common

      Selenium Webdriver 3.X源码分析之核心代码common

      2025-03-31 08:49:58
      java , python , 大数据 , 编程语言
      2025-03-28 07:40:23

      启动hadoop集群时报错ERROR: Attempting to operate on hdfs namenode as root

      启动hadoop集群时报错ERROR: Attempting to operate on hdfs namenode as root

      2025-03-28 07:40:23
      hadoop , root
      2025-03-28 07:40:23

      hive执行分区修复语句(MSCK REPAIR TABLE)时报FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.

      hive执行分区修复语句(MSCK REPAIR TABLE)时报FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.

      2025-03-28 07:40:23
      hdfs , hive , 分区 , 目录
      2025-03-24 08:47:15

      Python测试开发初稿

      Python测试开发初稿

      2025-03-24 08:47:15
      java , 人工智能 , 大数据 , 编程语言
      2025-03-17 08:27:30

      【配置/认证】Authentication for Hadoop(3.3.1) HTTP web-consoles : Hadoop的simple认证 不是银弹

      【配置/认证】Authentication for Hadoop(3.3.1) HTTP web-consoles : Hadoop的simple认证 不是银弹

      2025-03-17 08:27:30
      hadoop , Hadoop , HTTP , user , web
      2025-03-12 09:31:44

      【基础-配置文件】:hadoop配置文件作用概述ing

      【基础-配置文件】:hadoop配置文件作用概述ing

      2025-03-12 09:31:44
      hadoop , xml , yarn , 配置文件
      2025-03-11 09:35:39

      【002hive基础】hive的库、表与hdfs的组织逻辑

      【002hive基础】hive的库、表与hdfs的组织逻辑

      2025-03-11 09:35:39
      hive , 存储 , 数据 , 视图
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5241472

      查看更多

      最新文章

      手写归并排序

      2025-01-17 09:14:02

      1到100万以内,如何打印99万个不重复的随机数?

      2025-01-17 09:06:45

      sqoop 的安装与常用抽数操作

      2024-09-25 10:14:34

      给定一个无序数组,里面数都是成双数的,只有一个数是成单数的,求这个数?

      2024-09-24 06:30:26

      给定一个无序数组,里面数都是成双数的,只有一个数是成单数的,求这个数?

      2024-09-24 06:30:26

      【JAVA】-- Swing常用组件(JFrame、JDialog、JButton、JCheckBox、JComboBox、JLabel、JRadioButton、JTextField等)

      2024-07-16 10:03:45

      查看更多

      热门文章

      java163-同步方法锁

      2023-03-07 10:04:03

      58如何调出eclipse左边文件栏

      2023-03-13 09:32:12

      java156-序列化

      2023-03-10 10:21:07

      java162-同步对象锁

      2023-03-10 10:21:07

      大数据Spark “蘑菇云”行动第93课:Hive中的内置函数、UDF、UDAF实战

      2023-05-08 10:01:35

      大数据Spark “蘑菇云”行动第94课:Hive性能调优之Mapper和Reducer设置、队列设置和并行执行、JVM重用和动态分区、Join调优

      2023-05-05 09:59:12

      查看更多

      热门标签

      算法 leetcode python 数据 java 数组 节点 大数据 i++ 链表 golang c++ 排序 django 数据类型
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      sqoop 的安装与常用抽数操作

      Elasticsearch exception [type=cluster_block_exception, reason=blocked by: [FORBIDDEN/12/index r【已解决】

      hive 的支持的文件类型与 压缩格式

      58如何调出eclipse左边文件栏

      hdfs datanode通过添加数据盘扩容

      flink写入到kafka 大坑解析。

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号