「Spark」Spark SQL Thrift Server运行方式

「Spark」Spark SQL Thrift Server运行方式Spark SQL可以使用JDBC/ODBC或命令行接口充当分布式查询引擎。这种模式,用户或者应用程序可以直接与Spark SQL交互,以运行SQL查询,无需编写任何代码。Spark SQL提供两种方

「Spark」Spark SQL Thrift Server运行方式

Spark SQL可以使用JDBC/ODBC或命令行接口充当分布式查询引擎。这种模式,用户或者应用程序可以直接与Spark SQL交互,以运行SQL查询,无需编写任何代码。

Spark SQL提供两种方式来运行SQL:

  • 通过运行Thrift Server
  • 直接执行Spark SQL命令行

运行Thrift Server方式

1、先运行Hive metastore

nohup hive –service metastore &

2、在 hdfs-site.xml 中添加以下配置

<property>
       <name>fs.hdfs.impl.disable.cache</name>
       <value>true</value>
</property>

3、启动Thrift Server

[root@node1 sbin]# pwd
/export/servers/spark-2.2.0-bin-hadoop2.6/sbin

[root@node1 sbin]# ./start-thriftserver.sh –master local[*]
starting org.apache.spark.sql.hive.thriftserver.HiveThriftServer2, logging to /export/servers/spark-2.2.0-bin-hadoop2.6/logs/spark-root-org.apache.spark.sql.hive.thriftserver.HiveThriftServer2-1-node1.out

默认的端口是:10000

注意:启动 Thrift Server 的命令兼容spark-submit的所有命令

4、使用 beeline 连接 Thrift Server

[root@node1 bin]# ./beeline
Beeline version 1.2.1.spark2 by Apache Hive
beeline> !connect jdbc:hive2://node1:10000
Connecting to jdbc:hive2://node1:10000
Enter username for jdbc:hive2://node1:10000: root
Enter password for jdbc:hive2://node1:10000:
20/02/01 22:26:41 INFO jdbc.Utils: Supplied authorities: node1:10000
20/02/01 22:26:41 INFO jdbc.Utils: Resolved authority: node1:10000
20/02/01 22:26:41 INFO jdbc.HiveConnection: Will try to open client transport with JDBC Uri: jdbc:hive2://node1:10000
Connected to: Spark SQL (version 2.2.0)
Driver: Hive JDBC (version 1.2.1.spark2)
Transaction isolation: TRANSACTION_REPEATABLE_READ
0: jdbc:hive2://node1:10000> show databases;
+—————+–+
| databaseName  |
+—————+–+
| default       |
| demo          |
| job_analysis  |
| test          |
+—————+–+
4 rows selected (0.629 seconds)

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
转载请注明出处: https://daima100.com/10106.html

(0)
上一篇 2023-01-25 16:00
下一篇 2023-01-25

相关推荐

  • Python Index Print:优化您的搜索引擎排名

    Python Index Print:优化您的搜索引擎排名现代搜索引擎依赖于搜索引擎算法来确定网站和网页在搜索结果页面中的排名。优化您的网站以提高其在搜索引擎结果页面中的排名是一项复杂的任务。本文将介绍如何使用Python和Index Print技术来优化您的搜索引擎排名。

    2023-12-06
    116
  • 如何卸载anaconda3

    如何卸载anaconda3anaconda是一款Python编程环境及数据科学工具,常用于数据挖掘和数据分析。在使用anaconda的过程中,可能会遇到一些问题或者需要更改版本,因此需要卸载anaconda。本文将从多个方面介绍如何卸载anaconda3。

    2024-04-28
    74
  • Redis学习笔记(二十一) 事务

    Redis学习笔记(二十一) 事务文章开始啰嗦两句,写到这里共21篇关于redis的琐碎知识,没有过多的写编程过程中redis的应用,着重写的是redis命令、客户端、服务器以及生产环境搭建用到的主从、哨兵、集群实现原理,如果你真的能

    2023-03-11
    150
  • 基于Python的慢性病数据复杂条件查重方法实现及改进「终于解决」

    基于Python的慢性病数据复杂条件查重方法实现及改进「终于解决」近期因为工作需要,对原来的SAS慢性病监测数据季报审核程序进行了Python的重构,在重写的过程中,发现查重部分特别有意思,写出来和大家分享一下。 在网上说起查重,大部分的搜索结果是用pandas里…

    2023-03-28
    157
  • python随笔之(Python笔记)

    python随笔之(Python笔记)今天看到一篇文章,讲述的是几个提升python性能的项目:传送门

    2023-12-01
    108
  • HBase BucketAllocatorException 异常剖析

    HBase BucketAllocatorException 异常剖析近日,观察到HBase集群出现如下WARN日志: 2020 04 18 16:17:03,081 WARN [regionserver/xxx BucketCacheWriter 1] bucket.

    2023-02-20
    175
  • 初识MongoDB(1)「建议收藏」

    初识MongoDB(1)「建议收藏」基本简介 MongoDB是一个介于关系数据库和非关系数据库之间的产品,是非关系数据库当中功能最丰富,最像关系数据库的,语法有点类型javascript面向对象的查询语言,它是一个买你想几核的,模式自由

    2023-03-26
    766
  • 用 Python 对数字取两位小数

    用 Python 对数字取两位小数在日常计算中,数字保留两位小数已经能满足大部分需求。例如,金融交易中的金额或股票价格,保留两位小数就已经足以表达出价值的精度。而 Python 作为一种可广泛使用的编程语言,提供了简易的方法进行数字格式化,使程序员能够轻松地将数字四舍五入并保留两位小数。

    2024-06-12
    56

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注