Hive Tips

在Hive中,某些小技巧可以让我们的Job执行得更快,有时一点小小的改动就可以让性能得到大幅提升,这一点其实跟SQL差不多。

首先,Hive != SQL,虽然二者的语法很像,但是Hive最终会被转化成MapReduce的代码去执行,所以数据库的优化原则基本上都不适用于 Hive。也正因如此,Hive实际上是用来做计算的,而不像数据库是用作存储的,当然数据库也有很多计算功能,但一般并不建议在SQL中大量使用计算,把数据库只当作存储是一个很重要的原则

一、善用临时表

在处理海量数据时我们通常会对很多大表进行操作,基于Hadoop现在的局限性,不能像分布式并行数据库那样很好地在分布式环境利用数据局部性,Hadoop对于大表只能全表扫描并筛选数据,而每一次对大表的扫描都是苦不堪言的。(最后知道真相的我眼泪掉下来。。。)

所以我们会用到在编码中经常用到的重构技巧,提取公共变量,在Hive中,就是创建临时表。

例如:现在要对三个表A、B、C进行处理,Hive QL是:

select T1.*, T2.* from

(select id, name from A) T1

join

(select id, price, feedback, type from B) T2

on T1.id = T2.id;
select T1.*, T2.* from

(select id, type from C) T1

join

(select id, price,feedback, attribute from B) T2

on T1.id = T2.id;

这里A表和C表只会被扫描一次,而B表会被扫描两次,如果B表的数据量很大,那么扫描B表的时间将会占用很大一块。

这里我们可以先创建一个临时表:

create table temp_B as select id, price, feedback, type, attribute from B;

这个表只有B表的部分字段,所以大小会小很多,这里会对B表全表扫一遍。

然后可以用临时表和A、C表做join运算:

select T1.*, T2.* from

(select id, name from A) T1

join

(select id, price, feedback, type from temp_B) T2

on T1.id = T2.id;
select T1.*, T2.* from

(select id, type from C) T1

join

(select id, price,feedback, attribute from temp_B) T2

on T1.id = T2.id;

这样任务的执行速度将会有极大提升!尽管看起来多了一条Hive QL,但是后两个任务需要扫描的数据将会变得很小。

二、一次执行多个COUNT

如果我们要对多种条件进行COUNT,可以利用case语句进行,这样一条Hive QL就可以完成了。

select count(case when type = 1 then 1 end), count(case when type = 2 then 1 end) from table;

三、导出表文件

首先需要用create table在HDFS上生成你所需要的表,当需要从HDFS上将表对应的文件导出到本地磁盘时有两种方式:

1、如果需要保持HDFS上的目录结构,原封不动地复制下来,采用下面的命令:

set hive.exec.compress.output='false';
INSERT OVERWRITE LOCAL DIRECTORY '/home/hesey/directory' select * from table;

这样下载下来的目录中会有很多由Reducer产生的part-*文件。

2、如果想把表的所有数据都下载到一个文件中,则采用下面的命令:

hadoop dfs -getmerge hdfs://hdpnn:9000/hesey/hive/table /home/hesey/table.txt

这样所有文件会由Hadoop合并后下载到本地,最后就只有/home/hesey/table.txt这一个文件。

四、UDF

在Hive中很多时候都需要做一些复杂的计算或者逻辑处理,这时候Hive本身作为一个通用框架没法很好地支持,所以有了UDF(User Defined Function)。

1、使用UDF

(a)如果是已经上传到Hive服务器的UDF,可以直接用

create temporary function dosomething as 'net.hesey.udf.DoSomething';

声明临时函数,然后在下面的Hive QL中就可以调用dosomething这个方法了。

(b)如果是自己编写的UDF,需要在声明临时函数前再加一行:

add jar /home/hesey/foo.jar

这样就可以把自定义的UDF加载进来,然后和(a)一样声明临时函数就可以了。

2、编写UDF

编写UDF十分简单,引入hive-exec包,继承org.apache.hadoop.hive.ql.exec.UDF类,实现evaluate方法即可,方法的输入和输出参数类型就是当你在Hive中调用时的输入和返回值。

例如:

public Text evaluate(final LongWritable number);

(Text和LongWritable是org.apache.hadoop.io下面的类)

这样我们就可以定义自己的函数并方便地在Hive中调用,而不需要写一个重量级的MapReduce。

五、笛卡尔积

Hive本身是不支持笛卡尔积的,不能用select T1.*, T2.* from table_1, table_2这种语法。但有时候确实需要用到笛卡尔积的时候,可以用下面的语法来实现同样的效果:

select T1.*, T2.* from

(select * from table1) T1

join

(select * from table2) T2

on 1=1;

其中on 1=1是可选的,注意在Hive的Strict模式下不能用这种语法,需要先用set hive.mapred.mode=nonstrict;设为非strict模式就可以用了。

六、join的规则

当Hive做join运算时,join前面的表会被放入内存,所以在做join时,最好把小表放在前面,有利于提高性能并防止OOM。

七、排序

在SQL中排序通过ORDER by实现,Hive中也支持这种语法,但是使用ORDER by时最终所有的数据会汇总到一个Reducer上进行排序,可能使得该Reducer压力非常大,任务长时间无法完成。

如果排序只要求保证Value有序而Key可以无序,例如要统计每个用户每笔的交易额从高到低排列,只需要对每个用户的交易额排序,而用户ID本身不需要排序。这种情况采用分片排序更好,语法类似于:

select user_id, amount from table distribute by user_id sort by user_id, amount

这里用到的不是ORDER by,而是distribute bysort by,distribute by标识Map输出时分发的Key。

这样最后排序的时候,相同的user_id和amount在同一个Reducer上被排序,不同的user_id可以同时分别在多个Reducer上排序,相比ORDER by只能在一个Reducer上排序,速度有成倍的提升。

时间: 2024-10-03 16:25:37

Hive Tips的相关文章

Azure 云平台用 SQOOP 将 SQL server 2012 数据表导入 HIVE / HBASE

My name is Farooq and I am with HDinsight support team here at Microsoft. In this blog I will try to give some brief overview of Sqoop in HDinsight and then use an example of importing data from a Windows Azure SQL Database table to HDInsight cluster

hbase+hive应用场景

一.Hive应用场景 本文主要讲述使用 Hive 的实践,业务不是关键,简要介绍业务场景,本次的任务是对搜索日志数据进行统计分析. 集团搜索刚上线不久,日志量并不大 .这些日志分布在 5 台前端机,按小时保存,并以小时为周期定时将上一小时产生的数据同步到日志分析机,统计数据要求按小时更新.这些统计项, 包括关键词搜索量 pv ,类别访问量,每秒访问量 tps 等等. 基于 Hive ,我们将这些数据按天为单位建表,每天一个表,后台脚本根据时间戳将每小时同步过来的 5 台前端机的日志数据合并成一个

Impala 不能同步hive元数据

问题描述 Impala 不能同步hive元数据 我在hive中建立表,再到impala-shell中却找不到该表,只有强制执行invalidate metadata命令后,才能在impala-shell中查找到该表 .impala的statestored,catalogd进程状态都好的.查看日志未发现异常.麻烦大家帮忙看看,谁遇到过类似的问题. 版本:impala2.2 cdh,hive1.1 cdh

配置- hive Communications link failure

问题描述 hive Communications link failure 在hive链接mysql作为数据源的过程中,配置conf下的hive-site.xml 文件,hive是装在Hadoop集群的master上,ip地址是192.168.1.154.mysql直接使用的sudo apt-get install mysql-server 安装的.使用netstat -nat 显示: 结果如下:然后我的hive 配置文件是:把ip地址换成localhost或者127.0.0.1 hive下 s

采集日志到Hive

我们现在的需求是需要将线上的日志以小时为单位采集并存储到 hive 数据库中,方便以后使用 mapreduce 或者 impala 做数据分析.为了实现这个目标调研了 flume 如何采集数据到 hive,其他的日志采集框架尚未做调研. 日志压缩 flume中有个 HdfsSink 组件,其可以压缩日志进行保存,故首先想到我们的日志应该以压缩的方式进行保存,遂选择了 lzo 的压缩格式,HdfsSink 的配置如下: agent-1.sinks.sink_hdfs.channel = ch-1

Hive SQL 练习(这个秒退是怎么回事啊?写了半天 东西都没了,瞬间整个人都凌乱了)

首先将练习用的两张表 上传到hdfs上 命令如下: hadoop fs -put /opt/dep.txt /dep.txt hadoop fs -put /opt/employee.txt /employee.txt 然后开始写练习 创建数据库 create database bs17; use bs17; 创建员工信息表 create table employee( emp_id string ,emp_name string ,status string ,salary string ,s

Hive事物和锁管理

摘自Hive技术文档,锁管理:https://cwiki.apache.org/confluence/display/Hive/Hive+Transactions#HiveTransactions-LockManager 有几个参数需要修改下,使得Hive支持事物和并发: Lock Manager A new lock manager has also been added to Hive, the DbLockManager.  This lock manager stores all loc

40个良好用户界面Tips

1 尽量使用单列而不是多列布局 单列布局能够让对全局有更好的掌控.同时用户也可以一目了然内容.而多列而已则会有分散用户注意力的风险使你的主旨无法很好表达.最好的做法是用一个有逻辑的叙述来引导用户并且在文末给出你的操作按钮. 2 放出礼品往往更具诱惑力 给用户一份精美小礼品这样的友好举动再好不过了.具体来讲,送出礼品也是之有效的获得客户忠诚度的战术,这是建立在人们互惠准则上的.而这样做所带来的好处也是显而易见的,会让你在往后的活动进展(不管是推销,产品更新还是再次搞活动)中更加顺利. 3 合并重复

Hive配置Kerberos认证

关于 Kerberos 的安装和 HDFS 配置 kerberos 认证,请参考 HDFS配置kerberos认证. 关于 Kerberos 的安装和 YARN 配置 kerberos 认证,请参考 YARN配置kerberos认证. 1. 环境说明 系统环境: 操作系统:CentOs 6.6 Hadoop版本:CDH5.4 JDK版本:1.7.0_71 运行用户:root 集群各节点角色规划为: 192.168.56.121 cdh1 NameNode.ResourceManager.HBas