Hive——安装以及概述

Hive——安装以及概述一、hive的安装 注意:安装hive的前提要安装好MySQL和Hadoop Hadoop安装:https://www.cnblogs.com/lmandcc/p/15306163.html MySQ

Hive——安装以及概述

一、hive的安装

注意:安装hive的前提要安装好MySQL和Hadoop

Hadoop安装:https://www.cnblogs.com/lmandcc/p/15306163.html

MySQL的安装:https://www.cnblogs.com/lmandcc/p/15224657.html

 

安装hive首先需要启动Hadoop

 

1、解压hive的安装包
tar -zxvf apache-hive-1.2.1-bin.tar.gz

修改下目录名称
mv apache-hive-1.2.1-bin hive-1.2.1

2、备份配置文件

cd /usr/local/soft/hive-1.2.1/conf
cp hive-env.sh.template hive-env.sh
cp hive-default.xml.template hive-site.xml

3、修改配置文件
vim hive.env.sh
新加三行配置(路径不同就更具实际情况来):
    HADOOP_HOME=/usr/local/soft/hadoop-2.7.6
    JAVA_HOME=/usr/local/soft/jdk1.8.0_171
    HIVE_HOME=/usr/local/soft/hive-1.2.1

4、修改配置文件
vim hive-site.xml
修改对应的配置参数(注意:是修改不是添加)

 1 <property>
 2                     <name>javax.jdo.option.ConnectionURL</name>
 3                     <value>jdbc:mysql://master:3306/hive?characterEncoding=UTF-8&amp;createDatabaseIfNotExist=true&amp;useSSL=false</value>
 4                 </property>
 5                 <property>
 6                     <name>javax.jdo.option.ConnectionDriverName</name>
 7                     <value>com.mysql.jdbc.Driver</value>
 8                 </property>
 9                 <property>
10                     <name>javax.jdo.option.ConnectionUserName</name>
11                     <value>root</value>
12                 </property>
13                 <property>
14                     <name>javax.jdo.option.ConnectionPassword</name>
15                     <value>123456</value>
16                 </property>
17                 <property>
18                     <name>hive.querylog.location</name>
19                     <value>/usr/local/soft/hive-1.2.1/tmp</value>
20                 </property>
21                 <property>
22                     <name>hive.exec.local.scratchdir</name>
23                     <value>/usr/local/soft/hive-1.2.1/tmp</value>
24                 </property>
25                 <property>
26                     <name>hive.downloaded.resources.dir</name>
27                     <value>/usr/local/soft/hive-1.2.1/tmp</value>
28                 </property>

5、复制mysql连接工具包到hive/lib
cd /usr/local/soft/hive-1.2.1
cp /usr/local/moudle/mysql-connector-java-5.1.49.jar /usr/local/soft/hive-1.2.1/lib/

6、删除hadoop中自带的jline-2.12.jar位置在/usr/local/soft/hadoop-2.7.6/share/hadoop/yarn/lib/jline-2.12.jar
rm -rf /usr/local/soft/hadoop-2.7.6/share/hadoop/yarn/lib/jline-2.12.jar
7、把hive自带的jline-2.12.jar复制到hadoop中 hive中所在位置 /usr/local/soft/hive-1.2.1/lib/jline-2.12.jar
cp /usr/local/soft/hive-1.2.1/lib/jline-2.12.jar /usr/local/soft/hadoop-2.7.6/share/hadoop/yarn/lib/
8、启动
hive

 

二、hive的概述

 1、hive简介

Hive:由Facebook开源用于解决海量结构化日志的数据统计工具。

Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张表,并提供类SQL查询功能。

 

Hive 是建立在 Hadoop 上的数据仓库基础构架。它提供了一系列的工具,可以用来进行数据提取转化加载(ETL ),这是一种可以存储、查询和分析存储在 Hadoop 中的大规模数据的机制。Hive 定义了简单的类 SQL 查询语言,称为 HQL ,它允许熟悉 SQL 的用户查询数据。同时,这个语言也允许熟悉 MapReduce 开发者的开发自定义的 mapper 和 reducer 来处理内建的 mapper 和 reducer 无法完成的复杂的分析工作。

数据仓库,英文名称为Data Warehouse,可简写为DW或DWH。数据仓库,是为企业所有级别的决策制定过程,提供所有类型数据支持的战略集合。它出于分析性报告和决策支持目的而创建。为需要业务智能的企业,提供指导业务流程改进、监视时间、成本、质量以及控制。

 

 

2、Hive本质:将HQL转化成MapReduce程序

 Hive——安装以及概述

 

 

1Hive处理的数据存储在HDFS

2Hive分析数据底层的实现是MapReduce

3执行程序运行在Yarn

 3、hive的优点

1操作接口采用类SQL语法,提供快速开发的能力(简单、容易上手)

2避免了去写MapReduce,减少开发人员的学习成本

3Hive的执行延迟比较高,因此Hive常用于数据分析,对实时性要求不高的场合

4Hive优势在于处理大数据,对于处理小数据没有优势,因为Hive的执行延迟比较高

5Hive支持用户自定义函数,用户可以根据自己的需求来实现自己的函数

4、hive的缺点

 

1HiveHQL表达能力有限

 

1)迭代式算法无法表达

 

2)数据挖掘方面不擅长由于MapReduce数据处理流程的限制,效率更高的算法却无法实现。

 

2Hive的效率比较低

 

1Hive自动生成的MapReduce作业,通常情况下不够智能化

 

2Hive调优比较困难,粒度较粗

 

 

5、Hive架构原理

Hive——安装以及概述

 

 

 

 

 1用户接口:Client

 

CLIcommand-line interface)、JDBC/ODBC(jdbc访问hive)WEBUI(浏览器访问hive

 

2元数据:Metastore

 

元数据包括:表名、表所属的数据库(默认是default)、表的拥有者、列/分区字段、表的类型(是否是外部表)、表的数据所在目录等;

 

默认存储在自带的derby数据库中,推荐使用MySQL存储Metastore

 

3Hadoop

 

使用HDFS进行存储,使用MapReduce进行计算。

 

4驱动器:Driver

 

1)解析器(SQL Parser):将SQL字符串转换成抽象语法树AST,这一步一般都用第三方工具库完成,比如antlr;对AST进行语法分析,比如表是否存在、字段是否存在、SQL语义是否有误。

 

2)编译器(Physical Plan):将AST编译生成逻辑执行计划。

 

3)优化器(Query Optimizer):对逻辑执行计划进行优化。

 

4)执行器(Execution):把逻辑执行计划转换成可以运行的物理计划。对于Hive来说,就是MR/Spark

Hive——安装以及概述

 

 

 

 

Hive通过给用户提供的一系列交互接口,接收到用户的指令(SQL),使用自己的Driver,结合元数据(MetaStore),将这些指令翻译成MapReduce,提交到Hadoop中执行,最后,将执行返回的结果输出到用户交互接口。

 

 

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
转载请注明出处: https://daima100.com/5826.html

(0)
上一篇 2023-04-23
下一篇 2023-04-23

相关推荐

  • flink sql实时计算_flink 编程

    flink sql实时计算_flink 编程一、理想与现实 Apache Flink 是一个分布式流批一体化的开源平台。Flink 的核心是一个提供数据分发、通信以及自动容错的流计算引擎。Flink 在流计算之上构建批处理,并且原生的支持迭代计

    2023-01-31
    168
  • Python升级版本新特性介绍

    Python升级版本新特性介绍Python作为一门高级编程语言,备受程序员们的喜爱,其简洁、易学、高效的特点在广泛的应用场景中得到了体现。Python的版本更新也一直没有停止。本文将为大家介绍Python升级版本的新特性,包括Python 3.8、Python 3.9和Python 3.10等版本中的新功能、新语法、新模块等,希望对各位开发者有所启发。

    2024-09-16
    28
  • 「Flink」理解流式处理重要概念「建议收藏」

    「Flink」理解流式处理重要概念「建议收藏」什么是流式处理呢?这个问题其实我们大部分时候是没有考虑过的,大多数,我们是把流式处理和实时计算放在一起来说的。我们先来了解下,什么是数据流。数据流(事件流)数据流是无边界数据集的抽象我们之前接触的数据

    2023-01-25
    140
  • redistemplate 布隆过滤器_布隆过滤器的误判率是多少

    redistemplate 布隆过滤器_布隆过滤器的误判率是多少布隆过滤器是什么 在做JAVA项目时候用到这个(参考地址),今天咱们就讲一讲 名字就跟每个定律一样,你问为什么叫牛顿定律,因为是牛顿发明或者发现的。 他能做什么?它是将一个二进制向量和函数映射,布隆…

    2023-04-12
    179
  • Python List的高效应用实例

    Python List的高效应用实例Python中的列表(List)是一种灵活且强大的数据结构,它可以存储任何类型的数据,且支持多种操作和方法。在本文中,我们将通过实例展示Python List的高效应用。

    2024-02-05
    92
  • redis专项进阶课_redis项目

    redis专项进阶课_redis项目通过简单的KV数据库理解Redis 分为访问模块,操作模块,索引模块,存储模块 底层数据结构 除了String类型,其他类型都是一个键对应一个集合,键值对的存储结构采用哈希表 哈希表由多个哈希桶组成,

    2023-05-30
    147
  • Redis5新特性Streams作消息队列

    Redis5新特性Streams作消息队列前言 Redis 5 新特性中,Streams 数据结构的引入,可以说它是在本次迭代中最大特性。它使本次 5.x 版本迭代中,Redis 作为消息队列使用时,得到更完善,更强大的原生支持,其中尤为明显

    2023-02-08
    145
  • 利用Python生成随机数

    利用Python生成随机数在Python中,要生成随机数,可以使用random模块。该模块提供了各种生成随机数的方法,如生成随机整数、生成随机浮点数等。

    2024-07-14
    38

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注