Hive运维中hive-site文件的示例分析

小编给大家分享一下Hive运维中hive-site文件的示例分析,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!

义县网站建设公司成都创新互联公司,义县网站设计制作,有大型网站制作公司丰富经验。已为义县上1000家提供企业网站建设服务。企业网站搭建\外贸营销网站建设要多少钱,请找那个售后服务好的义县做网站的公司定做!

0. hive设置的优先级(从高到低):

1. Hive set命令。

2. 命令行选择 -hiveconf

3. hive-site.xml

4. hive-default.xml

5. hadoop-site.xml(或者是core-site.xml   hdfs-site.xml  mapred-site.xml)

6. hadoop-default.xml(或者是core-default.xml   hdfs-default.xml  mapred-default.xml)。

7. hive的日志信息存放在 /tmp/$USER/hive.log,出错时hadoop的mapred task logs也可以查看,本环境在/tmp/nslab下查看。

     命令:hive  -hiveconf  hive.root.logger=DEBUG,console  将调试信息打印到控制台。

使用set的使用

1. 使用set查看设置的值:

       set hive.enforce.bucketing

2. 只输入一个set,会列出所有的设置。

3. 设置新的属性,格式类似下面:

     set  hive.enforce.bucketing=true;

1. 动态分区:

hive.exec.dynamic.partition

是否打开动态分区。

默认:false

hive.exec.dynamic.partition.mode

打开动态分区后,动态分区的模式,有 strict 和 nonstrict 两个值可选,strict 要求至少包含一个静态分区列,nonstrict 则无此要求。

默认:strict

hive.exec.max.dynamic.partitions

所允许的最大的动态分区的个数。

默认:1000

hive.exec.max.dynamic.partitions.pernode

单个 reduce 结点所允许的最大的动态分区的个数。

默认:100

hive.exec.default.partition.name

默认的动态分区的名称,当动态分区列为''或者null时,使用此名称。''

2. 打印列名, 开启行转列(有待测试)

set hive.cli.print.header=true;            // 打印列名

set hive.cli.print.row.to.vertical=true;   // 开启行转列功能, 前提必须开启打印列名功能

set hive.cli.print.row.to.vertical.num=1; // 设置每行显示的列数

3. 查看hive版本:

set hive.hwi.war.file;

4. 查看hive命令行字符编码:

hive.cli.encoding

Hive 默认的命令行字符编码。

默认: 'UTF8'

5. Hive  Fetch Task执行:

set hive.fetch.task.conversion=more;

对于简单的不需要聚合的类似SELECT from

LIMIT n语句,不需要起MapReduce job,直接通过Fetch task获取数据(数据量过大, 也能 无 返回结果)

类似linux的vi,直接对文本进行操作。

也有点类似shark的列存储的操作: 放在同一个array里面,所以查询数据很快

hive.fetch.task.conversion

Hive 默认的mapreduce操作

默认: minimal

6. MapJoin

旧版本HIVE需要自行在查询/子查询的SELECT关键字后面添加/*+ MAPJOIN(tablelist) */提示优化器转化为MapJoin。高版本只需设置:

set hive.auto.convert.join=true;  

HIVE自行选择小表作为LEFT的左表。

7. Strict Mode:

hive.mapred.mode=true,严格模式不允许执行以下查询:

分区表上没有指定了分区

没有limit限制的order by语句

笛卡尔积:JOIN时没有ON语句

8. 并发执行任务:

设置该参数是控制在同一个sql中的不同的job是否可以同时运行,默认是false

hive.exec.parallel=true ,默认为false

hive.exec.parallel.thread.number=8

9. 负载均衡

hive.groupby.skewindata=true:数据倾斜时负载均衡,当选项设定为true,生成的查询计划会有两个MRJob。第一个MRJob 中,

Map的输出结果集合会随机分布到Reduce中,每个Reduce做部分聚合操作,并输出结果,这样处理的结果是相同的GroupBy Key

有可能被分发到不同的Reduce中,从而达到负载均衡的目的;第二个MRJob再根据预处理的数据结果按照GroupBy Key分布到

Reduce中(这个过程可以保证相同的GroupBy Key被分布到同一个Reduce中),最后完成最终的聚合操作。

10. hive.exec.rowoffset:是否提供虚拟列

11.  set hive.error.on.empty.partition=true;  那么动态分区如果为空,则会报异常

    set hive.error.on.empty.partition = true;
    set hive.exec.dynamic.partition.mode=nonstrict; 
 

   参考地址: http://my.oschina.net/repine/blog/541380

12. hive.merge.mapredfiles:合并小文件

    工作需要合并reduce产生文件:

    set hive.merge.smallfiles.avgsize=67108864;
    set hive.merge.mapfiles=true;
    set hive.merge.mapredfiles=true;
 

    参考地址: http://www.linuxidc.com/Linux/2015-06/118391.htm

1.先在hive-site.xml中设置小文件的标准. 


  hive.merge.smallfiles.avgsize
  536870912
  When the average output file size of a job is less than this number, Hive will start an additional map-reduce job to merge the output files into bigger files.  This is only done for map-only jobs if hive.merge.mapfiles is true, and for map-reduce jobs if hive.merge.mapredfiles is true.


2.为只有map的mapreduce的输出并合并小文件.


  hive.merge.mapfiles
  true
  Merge small files at the end of a map-only job


3.为含有reduce的mapreduce的输出并合并小文件.


  hive.merge.mapredfiles
  true
  Merge small files at the end of a map-reduce job

以上是“Hive运维中hive-site文件的示例分析”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注创新互联行业资讯频道!


标题名称:Hive运维中hive-site文件的示例分析
文章路径:http://ybzwz.com/article/pogjej.html