Impala Shell命令「终于解决」

Impala Shell命令「终于解决」整理自尚硅谷Impala笔记,并动手尝试。 一、Impala 的外部Shell 选项 描述 -h, –help 显示帮助信息 -v or –version 显示版本信息 -i hostname …

Impala Shell命令

整理自尚硅谷Impala笔记,并动手尝试。

 

一、Impala 的外部Shell

选项 描述
-h, –help 显示帮助信息
-v or –version 显示版本信息

-i hostname 或者 –impalad=hostname

指定连接运行 impalad 守护进程的主机。默认端口是
21000。

【-q】 query 或者–query=query

从命令行中传递一个 shell 命令。执行完这一语句后
shell 会立即退出。

【-f】 query_file 或者–query_file=query_file

传递一个文件中的 SQL 查询。文件内容必须以分号分隔

【-o】 filename 或者 –output_file filename

保存所有查询结果到指定的文件。通常用于保存在命令行
使用 -q 选项执行单个查询时的查询结果。
【-c】 查询执行失败时继续执行
-d default_db 或者 –database=default_db 指定启动后使用的数据库,与建立连接后使用 use 语句
选择数据库作用相同,如果没有指定,那么使用 default
数据库

【-r】或者 –refresh_after_connect

建立连接后刷新 Impala 元数据

【-p】 或者 –show_profiles

对 shell 中执行的每一个查询,显示其查询执行计划
-B–delimited 去格式化输出??
–output_delimiter=character 指定分隔符
–print_header 打印列名

【1】从命令行中传递一个 shell 命令。执行完这一语句后shell 会立即退出。

[root@CM-Agent-202 ~]# impala-shell -q “select * from wx.wx_test2”;

 

【2】传递一个文件中的 SQL 查询。文件内容必须以分号分隔 -f

查询执行失败时继续执行 -c

【注意】在HDFS用户创建文件(select * from wx.wx_test3; 会报错
[hdfs@hadoop103 ~]$ vim impala.sql【默认创建到本地/var/lib/hadoop-hdfs/impala.sql】
select * from wx.wx_test2;
select * from wx.wx_test3; 
select * from wx.wx_test2;
[hdfs@hadoop103 ~]$ impala-shell -f impala.sql;【报错】
[hdfs@hadoop103 ~]$ impala-shell -c -f impala.sql;
 【报错继续】

【3】建立连接后刷新 Impala 元数据

[hdfs@hadoop103 ~]$ impala-shell -r

【4】对 shell 中执行的每一个查询,显示其查询执行计划

[hdfs@hadoop103 ~]$ impala-shell -p
[hadoop103:21000] > select * from wx.wx_test2;

输出相当多内容

【5】保存所有查询结果到指定的文件。通常用于保存在命令行使用 -q 选项执行单个查询时的查询结果。

[root@CM-Agent-202 ~]# impala-shell -q “select * from wx.wx_test2” -o output.txt

在root下执行,文件保存在服务器本地/root/output.txt 有格式

在hdfs下执行,文件保存在服务器本地/var/lib/hadoop-hdfs/output.txt 有格式

[root@CM-Agent-202 hadoop-hdfs]# vi /var/lib/hadoop-hdfs/output.txt

+—-+——+
| id | name |
+—-+——+
| 1 | jack |
| 2 | tom |
+—-+——+

[root@CM-Agent-202 ~]# impala-shell -B -q “select * from wx.wx_test2” -o output1.txt 
[root@CM-Agent-202 ~]# vi /root/output1.txt

1 jack
2 tom
10 10
 

[root@CM-Agent-202 ~]# impala-shell -B -q “select * from wx.wx_test2” -o output2.txt –output_delimiter=#
[root@CM-Agent-202 ~]# vi /root/output2.txt

1#jack
2#tom
10#10

 

 

二、Impala的内部Shell

选项 描述
help 显示帮助信息
explain <sql> 显示执行计划
profile (查询完成后执行) 查询最近一次查询的底层信息
shell <shell> 不退出 impala-shell 执行 shell 命令
version 显示版本信息(同于 impala-shell -v)
connect 连接 impalad 主机,默认端口 21000(同于 impala-shell -i)
refresh <tablename> 增量刷新元数据库
invalidate metadata 全量刷新元数据库(慎用)(同于 impala-shell -r)
history 历史命令

impala-shell

【1】查看执行计划

[CM-Agent-202:21000] > explain select * from wx.wx_test2;
Query: explain select * from wx.wx_test2
+————————————————————————————+
| Explain String                                                                     |
+————————————————————————————+
| Max Per-Host Resource Reservation: Memory=0B                                       |
| Per-Host Resource Estimates: Memory=32.00MB                                        |
| WARNING: The following tables are missing relevant table and/or column statistics. |
| wx.wx_test2                                                                        |
|                                                                                    |
| PLAN-ROOT SINK                                                                     |
| |                                                                                  |
| 01:EXCHANGE [UNPARTITIONED]                                                        |
| |                                                                                  |
| 00:SCAN HDFS [wx.wx_test2]                                                         |
|    partitions=1/1 files=4 size=47B                                                 |
+————————————————————————————+
Fetched 11 row(s) in 0.02s
[CM-Agent-202:21000] > 

【2】 查询最近一次查询的底层信息
[CM-Agent-202:21000] > select count(*) from wx.wx_test2;
Query: select count(*) from wx.wx_test2
Query submitted at: 2020-03-26 11:16:51 (Coordinator: http://CM-Agent-202:25000)
Query progress can be monitored at: http://CM-Agent-202:25000/query_plan?query_id=234ba07a5c6d9c63:b815c42300000000
+———-+
| count(*) |
+———-+
| 10       |
+———-+
Fetched 1 row(s) in 0.12s
[CM-Agent-202:21000] > profile;
Query Runtime Profile:
Query (id=234ba07a5c6d9c63:b815c42300000000):
  Summary:
    Session ID: f42f30a75af19b5:d8b7e8c86c3eeb8
    Session Type: BEESWAX

此处省略10000字不止。。。

        CodeGen:(Total: 32.017ms, non-child: 32.017ms, % non-child: 100.00%)
           – CodegenTime: 1.003ms
           – CompileTime: 4.948ms
           – LoadTime: 0.000ns
           – ModuleBitcodeSize: 1.95 MB (2039944)
           – NumFunctions: 22 (22)
           – NumInstructions: 267 (267)
           – OptimizationTime: 8.977ms
           – PeakMemoryUsage: 133.50 KB (136704)
           – PrepareTime: 17.536ms

【3】不退出 impala-shell 执行 shell 命令

 查看 hdfs linux 文件系统
[CM-Agent-202:21000] >  shell hadoop fs -ls /;
Found 6 items
drwxr-xr-x   – hbase hbase               0 2020-03-23 11:18 /hbase
drwxrwxr-x   – solr  solr                0 2020-03-12 13:03 /solr
drwxrwxrwt   – hdfs  supergroup          0 2020-03-23 14:26 /tmp
drwxrwxrwx   – hdfs  supergroup          0 2020-03-20 20:17 /user
drwxrwxrwx   – hdfs  supergroup          0 2020-03-19 17:07 /wx
drwxr-xr-x   – hdfs  supergroup          0 2020-03-12 16:35 /yxh
——–
Executed in 3.53s

[CM-Agent-202:21000] > shell ls -al ./;
总用量 412
dr-xr-x—. 11 root root   4096 3月  26 11:12 .
dr-xr-xr-x. 22 root root   4096 3月  26 11:18 ..
-rw——-.  1 root root   1624 4月  10 2018 anaconda-ks.cfg
-rw——-.  1 root root  24387 3月  25 18:48 .bash_history
-rw-r–r–.  1 root root     18 12月 29 2013 .bash_logout

 

【4】 刷新指定表的元数据,hive中新增数据。
hive> load data local inpath “/opt/module/datas/student.txt” into table
student;
[hadoop103:21000] > select * from student;
[hadoop103:21000] > refresh student;
[hadoop103:21000] > select * from student;

 

【5】 查看历史命令

[CM-Agent-202:21000] > history;
[1]: show databases;
[2]: quit;
[3]: select * from wx.wx_test2; 
[4]: select * from wx.wx_test2; 
[5]: quit;
[6]:  select * from wx.wx_test2; 
[7]: quit;
[8]: explain select * from wx.wx_test2;
[9]: select count(*) from wx.wx_test2;
[10]: select count(*) from wx.wx_test2;
[11]: profile;
[12]:  shell hadoop fs -ls /;
[13]: shell ls -al ./;
[14]: shell ls -al ./user;
[15]: history;
[16]: history;
[CM-Agent-202:21000] > history;
[1]: show databases;
[2]: quit;
[3]: SELECT F_GNMC,COUNT(1) AS count FROM  SYS_OPLOG
where F_USER=”9999″
GROUP BY F_GNMC
order by count desc
limit 5;
[4]: SELECT F_GNMC,COUNT(1) AS count FROM  wx.SYS_OPLOG
where F_USER=”9999″
GROUP BY F_GNMC
order by count desc
limit 5;
[5]: quit;
[6]:  select * from wx.wx_test2; 
[7]: quit;
[8]: explain select * from wx.wx_test2;
[9]: select count(*) from wx.wx_test2;
[10]: select count(*) from wx.wx_test2;
[11]: profile;
[12]:  shell hadoop fs -ls /;
[13]: shell ls -al ./;
[14]: shell ls -al ./user;
[15]: history;
[16]: history;

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
转载请注明出处: https://daima100.com/9345.html

(0)
上一篇 2023-02-10
下一篇 2023-02-10

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注