apache 大数据_hadoop开发教程

apache 大数据_hadoop开发教程一、Azkaban API概述 通常,企业里一般不用使用web UI去设置或者执行任务,只是单纯的在页面上查看任务或者排查问题,更多的是通过Azkaban API去提交执行任务计划。Azkaban提供

大数据Hadoop之——Azkaban API详解

目录
  • 一、Azkaban API概述
  • 二、Azkaban API具体使用
    • 1)Authenticate(登录认证)
    • 2)Fetch user Projects(获取项目列表)
    • 3)Create a Project(创建一个项目)
    • 4)Delete a Project(删除一个项目)
    • 5)Upload a Project Zip(上传项目zip文件)
    • 6)Fetch Flows of a Project(获取项目的所有工作流flowId)
    • 7)Fetch Jobs of a Flow(获取一个工作流的详情)
    • 8)Fetch Executions of a Flow(获取工作流的执行列表)
    • 9)Fetch Running Executions of a Flow(获取正在执行的工作流)
    • 10)Execute a Flow(立即执行工作流)
    • 11)Cancel a Flow Execution(取消工作流执行)
    • 12)Flexible scheduling using Cron(定时调度工作流【重点】)
    • 13)Fetch a Schedule(获取调度任务)
    • 14)Unschedule a Flow(取消工作流的定时任务)
    • 15)Fetch Logs of a Project(获取项目日志)
    • 16)Fetch Execution Job Logs(获取执行任务日志)
    • 17)设置SLA报警
    • 18)Fetch a SLA

一、Azkaban API概述

通常,企业里一般不用使用web UI去设置或者执行任务,只是单纯的在页面上查看任务或者排查问题,更多的是通过Azkaban API去提交执行任务计划。Azkaban提供了一些常用的API操作,可以通过curl或其他HTTP请求客户端访问。但是API调用都需要首先进行适当的身份验证。官方文档:https://azkaban.readthedocs.io/en/latest/ajaxApi.html

Azkaban 基本部分包括环境部署可以参考我之前的文章:大数据Hadoop之——任务调度器Azkaban(Azkaban环境部署)

二、Azkaban API具体使用

目前在这个版本的大多数api中,它不检查请求头。但是最好还是加上请求头。请求头如下:

Content-Type:     application/x-www-form-urlencoded
X-Requested-With: XMLHttpRequest

1)Authenticate(登录认证)

这个API帮助验证用户并提供会话保持,会返回session.id,默认情况下,会话超时时间为24小时(一天)

请求格式如下:

Method: POST
Request URL: /?action=login
Parameter Location: Request body

请求参数如下:

参数 描述
action=login 固定参数
用户名 Azkaban 登录用户名
密码 Azkaban 登录密码
【示例】
$ curl -k -X POST --data "action=login&username=azkaban&password=azkaban" https://localhost:8443

## 提取session.id,注意每次请求返回的session.id都不一样
$ curl -sk -X POST --data "action=login&username=azkaban&password=azkaban" https://localhost:8443|jq "."session.id""|sed "s/"//g"

apache 大数据_hadoop开发教程

设置.session.id的两种方式

  • 简单地作为请求参数添加
  • 通过cookie设置:azkaban.browser.session.id

下面两个HTTP请求是等价的:

#【温馨提示】执行下面两个api是必须得提前创建了`project:HelloWorld`和`flow:helloworld`
# a) Provide session.id parameter directly
$ curl -k --get --data "session.id=b2528ee7-0189-46d3-9a68-e03ea00ad480&ajax=fetchflowgraph&project=HelloWorld&flow=helloworld" https://localhost:8443/manager

# b) Provide azkaban.browser.session.id cookie
$ curl -k --get -b "azkaban.browser.session.id=b2528ee7-0189-46d3-9a68-e03ea00ad480" --data "ajax=fetchflowgraph&project=HelloWorld&flow=helloworld" https://localhost:8443/manager

apache 大数据_hadoop开发教程

2)Fetch user Projects(获取项目列表)

请求格式如下:

Method: GET
Request URL: /index?ajax=fetchuserprojects
Parameter Location: Request Query

请求参数如下:

参数 描述
session.id 用户的session.id
ajax=fetchuserprojects 固定参数
user (可选) 要列出项目的用户名。默认情况下,获取登录用户的项目列表。

【示例】

# --get等价于-G,-X GET,默认就是GET请求,下面三个请求等价
$ curl -k --get --data "ajax=fetchuserprojects&user=azkaban&session.id=b2528ee7-0189-46d3-9a68-e03ea00ad480" https://localhost:8443/index

$ curl -k -X GET -G --data "ajax=fetchuserprojects&user=azkaban&session.id=b2528ee7-0189-46d3-9a68-e03ea00ad480" https://localhost:8443/index

# user默认就是session.id对应的用户
$ curl -k -G --data "ajax=fetchuserprojects&session.id=b2528ee7-0189-46d3-9a68-e03ea00ad480" https://localhost:8443/index

apache 大数据_hadoop开发教程

3)Create a Project(创建一个项目)

请求格式如下:

Method: POST
Request URL: /manager?action=create
Parameter Location: Request Query

请求参数如下:

参数 描述
session.id 用户的session.id
action=create 固定参数
name 项目名称
description 项目描述

【示例】

$ curl -k -X POST --data "session.id=b2528ee7-0189-46d3-9a68-e03ea00ad480&name=test001&description=create a azkaban project" https://localhost:8443/manager?action=create

apache 大数据_hadoop开发教程

4)Delete a Project(删除一个项目)

请求格式如下:

Method: GET
Request URL: /manager?delete=true
Parameter Location: Request Query

请求参数如下:

参数 描述
session.id 用户的session.id
delete=true 表示删除项目操作的固定参数
project 要删除的项目名称

【示例】

$ curl -k --get --data "session.id=b2528ee7-0189-46d3-9a68-e03ea00ad480&delete=true&project=test001" https://localhost:8443/manager

apache 大数据_hadoop开发教程

5)Upload a Project Zip(上传项目zip文件)

请求格式如下:

Method: POST
Content-Type: multipart/mixed
Request URL: /manager?ajax=upload
Parameter Location: Request Body

请求参数如下:

参数 描述
session.id 用户的session.id
ajax=upload 固定参数
project 要上传的项目名称
file 项目压缩文件。类型应该设置为application/zipapplication/x-zip-compressed
# 先创建项目
$ curl -k -X POST --data "session.id=b2528ee7-0189-46d3-9a68-e03ea00ad480&name=test001&description=create a azkaban project" https://localhost:8443/manager?action=create

# 准备好zip文件,长传项目zip文件
$ curl -k -i -X POST --form "session.id=b2528ee7-0189-46d3-9a68-e03ea00ad480" --form "ajax=upload" --form "file=@projects/test001.zip;type=application/zip" --form "project=test001" https://localhost:8443/manager

apache 大数据_hadoop开发教程

6)Fetch Flows of a Project(获取项目的所有工作流flowId)

请求格式如下:

Method: GET
Request URL: /manager?ajax=fetchprojectflows
Parameter Location: Request Query String

请求参数如下:

参数 描述
session.id 用户的session.id
ajax=fetchprojectflows 固定参数
project 要获取工作流对应的项目名称

【示例】

$ curl -k --get --data "session.id=b2528ee7-0189-46d3-9a68-e03ea00ad480&ajax=fetchprojectflows&project=test001" https://localhost:8443/manager

apache 大数据_hadoop开发教程

7)Fetch Jobs of a Flow(获取一个工作流的详情)

请求格式如下:

Method: GET
Request URL: /manager?ajax=fetchflowgraph
Parameter Location: Request Query String

请求参数如下:

Method: GET
Request URL: /manager?ajax=fetchflowgraph
Parameter Location: Request Query String

请求参数如下:

参数 描述
session.id 用户的session.id
ajax=fetchflowgraph 固定参数
project 要获取的项目名称
flow 要获取的项目的工作流id,上一个接口获取的flowId
【示例】
# 获取flowId
$ curl -k --get --data "session.id=b2528ee7-0189-46d3-9a68-e03ea00ad480&ajax=fetchprojectflows&project=test001" https://localhost:8443/manager
# 获取工作流的具体信息
$ curl -k --get --data "session.id=b2528ee7-0189-46d3-9a68-e03ea00ad480&ajax=fetchflowgraph&project=test001&flow=test001" https://localhost:8443/manager

apache 大数据_hadoop开发教程

8)Fetch Executions of a Flow(获取工作流的执行列表)

请求格式如下:

Method: GET
Request URL: /manager?ajax=fetchFlowExecutions
Parameter Location: Request Query String

请求参数如下:

参数 描述
session.id 用户的session.id
ajax=fetchFlowExecutions 固定参数
project 项目名称
flow flowId
start 返回列表的起始位置
length 返回列表的最大长度。例如,如果起始位置是2,长度是10,那么返回的列表将包括执行索引:[2,3,4,5,6,7,8,9,10,11]

【示例】
这里设置每分钟调度一次
apache 大数据_hadoop开发教程

其实获取的就是下图的列表信息
apache 大数据_hadoop开发教程

获取最新执行的3条记录,请求示例如下:

$ curl -k --get --data "session.id=b2528ee7-0189-46d3-9a68-e03ea00ad480&ajax=fetchFlowExecutions&project=test001&flow=test001&start=0&length=3" https://localhost:8443/manager

apache 大数据_hadoop开发教程

9)Fetch Running Executions of a Flow(获取正在执行的工作流)

请求格式如下:

Method: GET
Request URL: /executor?ajax=getRunning
Parameter Location: Request Query String

请求参数如下:

参数 描述
session.id 用户的session.id
ajax=getRunning 固定参数
project 项目名称
flow flowId

【示例】

$ curl -k --data "session.id=b2528ee7-0189-46d3-9a68-e03ea00ad480&ajax=getRunning&project=test001&flow=test001" https://localhost:8443/executor

apache 大数据_hadoop开发教程

10)Execute a Flow(立即执行工作流)

请求格式如下:

Method: POST
Request URL: /executor?ajax=executeFlow
Parameter Location: Request Query String

请求参数如下:

参数 描述
session.id 用户的session.id
ajax=executeFlow 固定参数
project 项目名称
flow flowId

【示例】

$ curl -k -X POST --data "session.id=b2528ee7-0189-46d3-9a68-e03ea00ad480&ajax=executeFlow&project=test001&flow=test001" https://localhost:8443/executor

apache 大数据_hadoop开发教程
apache 大数据_hadoop开发教程

11)Cancel a Flow Execution(取消工作流执行)

请求格式如下:

Method: GET
Request URL: /executor?ajax=cancelFlow
Parameter Location: Request Query String

请求参数如下:

参数 描述
session.id 用户的session.id
ajax=cancelFlow 固定参数
execid Execution id
【示例】
$ curl -k --data "session.id=b2528ee7-0189-46d3-9a68-e03ea00ad480&ajax=cancelFlow&execid=78" https://localhost:8443/executor

apache 大数据_hadoop开发教程
apache 大数据_hadoop开发教程

12)Flexible scheduling using Cron(定时调度工作流【重点】)

这个API调用通过一个cron Expression调度一个流。Cron是一个已经被广泛使用了很长一段时间的UNIX工具,我们使用Quartz库来解析Cron表达式。所有的cron时间表都遵循azkaban web服务器中定义的时区(时区ID由java.util.TimeZone.getDefault(). getid()获得)

请求格式如下:

Method: POST
Request URL: /schedule?ajax=scheduleCronFlow
Parameter Location: Request Query String

请求参数如下:

参数 描述
session.id 用户的session.id
ajax=scheduleCronFlow 固定参数
projectName 工程名称
flow flowId
cronExpression CRON表达式是由6或7个用空格分隔的字段组成的字符串,表示一组时间,跟linux系统上的crontab一样。在Azkaban ,我们Quartz Cron Format。

【示例】

  • ? 表示占位符。比如? ? * * * *,如果在8:25启动的话,就会被解析成25 8 * * * *
  • # 用于指定本月的第n个XXX日。例如,day-of-week字段中的“6#3”的值表示“该月的第三个星期五”(第6天=星期五,“#3”=该月的第三个星期五)。其他例子:“2#1”=这个月的第一个星期一,“4#5”=这个月的第五个星期三。请注意,如果您指定了“#5”,而当月的给定周中没有5天,那么当月将不会发生,会到下个月。
### 定时任务表达式解释0 23/30 5,7-10 ? * 6#3 2023
# 0:表示0秒,固定的
# 23/30:23分之后每半个小时执行一次,当然还得更加后面表达式而定
# 5,7-10:5,7,8,9,10这四个整点,每半个小时执行一次
# ?:占位符,根据其它时间而定
# *:每月
# 6#3:表示周,该月的第三个星期五,如果当月没有,则到下个月
# 2023:可选,默认是每年
### 重复执行是修改覆盖
$ curl -k -d ajax=scheduleCronFlow -d projectName=test001 -d flow=test001 --data-urlencode cronExpression="0 23/30 5,7-10 ? * 6#3 2023" -b "azkaban.browser.session.id=b2528ee7-0189-46d3-9a68-e03ea00ad480" https://localhost:8443/schedule

apache 大数据_hadoop开发教程

通过下图可能更好的理解cron表示式
apache 大数据_hadoop开发教程
apache 大数据_hadoop开发教程

重复执行修改
apache 大数据_hadoop开发教程
apache 大数据_hadoop开发教程

13)Fetch a Schedule(获取调度任务)

请求格式如下:

Method: GET
Request URL: /schedule?ajax=fetchSchedule
Parameter Location: Request Query String

请求参数如下:

参数 描述
session.id 用户的session.id
ajax=fetchSchedule 固定参数
projectId 项目的id
flowId flowId
# 获取projectId 和 flowId 
$ curl -k --get --data "session.id=b2528ee7-0189-46d3-9a68-e03ea00ad480&ajax=fetchprojectflows&project=test001" https://localhost:8443/manager

# Fetch a Schedule
$ curl -k --get --data "session.id=b2528ee7-0189-46d3-9a68-e03ea00ad480&ajax=fetchSchedule&projectId=19&flowId=test001" https://localhost:8443/scheule

apache 大数据_hadoop开发教程

14)Unschedule a Flow(取消工作流的定时任务)

请求格式如下:

Method: POST
Request URL: /schedule?action=removeSched
Parameter Location: Request Query String

请求参数如下:

参数 描述
session.id 用户的session.id
action=removeSched 固定参数
scheduleId 调度任务id

【示例】

$ curl -k https://localhost:8443/schedule -d "action=removeSched&scheduleId=8" -b azkaban.browser.session.id=b2528ee7-0189-46d3-9a68-e03ea00ad480 https://localhost:8443/schedule

apache 大数据_hadoop开发教程

15)Fetch Logs of a Project(获取项目日志)

请求格式如下:

Method: GET
Request URL: /manager?ajax=fetchProjectLogs
Parameter Location: Request Query String

请求参数如下:

参数 描述
session.id 用户的session.id
ajax=fetchProjectLogs 固定参数
project 项目名称

【示例】

$ curl -k --get --data "session.id=b2528ee7-0189-46d3-9a68-e03ea00ad480&ajax=fetchProjectLogs&project=test001" https://localhost:8443/manager

apache 大数据_hadoop开发教程

16)Fetch Execution Job Logs(获取执行任务日志)

请求格式如下:

Method: GET
Request URL: /executor?ajax=fetchExecJobLogs
Parameter Location: Request Query String

请求参数如下:

参数 描述
session.id 用户的session.id
ajax=fetchExecJobLogs 固定参数
execid execid
jobId jobId,其实就是flow文件里的job name
offset 日志数据的偏移量
length 日志数据的长度。例如,如果偏移量设置为10,长度为1000,则返回的日志将从第10个字符开始,长度为1000(如果剩余的日志长度小于1000,则小于1000)

【示例】

# 获取job id也就是job name
$ curl -k --data "session.id=b2528ee7-0189-46d3-9a68-e03ea00ad480&ajax=fetchexecflow&execid=105" https://localhost:8443/executor
# 获取日志
$ curl -k --data "session.id=b2528ee7-0189-46d3-9a68-e03ea00ad480&ajax=fetchExecJobLogs&execid=105&jobId=jobA&offset=0&length=100" https://localhos:8443/executor

apache 大数据_hadoop开发教程

17)设置SLA报警

请求格式如下:

Method: POST
Request URL: /schedule?ajax=setSla
Parameter Location: Request Query String
$ curl -k -d "ajax=setSla&scheduleId=9&slaEmails=a@example.com;b@example.com&settings[0]=aaa,SUCCESS,5:00,true,false&settings[1]=bbb,SUCCESS,10:00,false,true" -b "azkaban.browser.session.id=b2528ee7-0189-46d3-9a68-e03ea00ad480" https://localhost:8443/schedule

apache 大数据_hadoop开发教程
apache 大数据_hadoop开发教程

这个API在企业里用的不多,在web UI上操作更方便直观 ,稍微了解就行。

18)Fetch a SLA

这个API也是用的不多,在web UI上查看更方便,了解即可。

请求格式如下:

Method: GET
Request URL: /schedule?ajax=slaInfo
Parameter Location: Request Query String

【示例】

$ curl -k --get --data "session.id=b2528ee7-0189-46d3-9a68-e03ea00ad480&ajax=slaInfo&scheduleId=9" https://localhost:8443/schedule

apache 大数据_hadoop开发教程

【温馨提示】这里为了方便都是通过curl方式去测试,其实在公司环境中,更多的可能是用python、或者java等高级语言去调用Azkaban API。这里只是列出了常见的API接口,尤其是上面第12个接口Flexible scheduling using Cron用的是最多的。更多Azkaban API接口使用,请查看官方文档。

未完待续,请小伙伴耐心等待~

原文地址:https://www.cnblogs.com/liugp/archive/2022/05/16/16278800.html

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
转载请注明出处: https://daima100.com/5252.html

(0)
上一篇 2023-05-17 10:30
下一篇 2023-05-17

相关推荐

  • redis 哨兵「建议收藏」

    redis 哨兵「建议收藏」哨兵作用 哨兵(sentinel) 是一个分布式系统,是程序高可用性的一个保障。用于监视任意多个主服务器,以及这些主服务器属下的所有从服务器,当出现故障时通过投票机制选择新的master并将所有sla

    2023-03-13
    142
  • day09-1存储引擎[亲测有效]

    day09-1存储引擎[亲测有效]存储引擎 1.基本介绍 基本介绍 MySQL的表类型由存储引擎(Storage Engines)决定,主要包括MyISAM、innoDB、Memory等 MySQL数据表主要支持六种类型,分别是:CS

    2023-06-09
    135
  • Python比较符号:使用正确符号简化您的代码!

    Python比较符号:使用正确符号简化您的代码!Python比较符号用于比较两个值,返回一个布尔值True或False。常见的比较符号如下:

    2024-01-31
    101
  • Python 缩进规则

    Python 缩进规则Python 是一门解释性语言,在语言设计方面采用了缩进的方式来指示代码块。Python 应该是最注重缩进风格的语言之一,没有之一。Python 代码的缩进不仅是语法的一部分,还能够让代码具有更好的可读性,这也是 Python 能够成为首选编程语言之一的原因之一。

    2024-06-14
    63
  • mysql 锁详解_请简述MySQL中三种锁的特点

    mysql 锁详解_请简述MySQL中三种锁的特点正文内容 模拟准备–如何模拟高并发访问一个脚本:apache安装文件的bin/ab.exe可以模拟并发量 -c 模拟多少并发量 -n 一共请求多少次 http://请求的脚本 例如:cmd: ap…

    2023-03-16
    157
  • python训练营第一周(python训练营怎么样)

    python训练营第一周(python训练营怎么样)网络爬虫又称网络蜘蛛、网络蚂蚁、网络机器人等,可以自动化浏览网络中的信息,当然浏览信息的时候需要按照我们制定的规则进行,这些规则我们称之为网络爬虫算法。使用Python可以很方便地编写出爬虫程序,进行互联网信息的自动化检索。

    2023-11-18
    134
  • Python面向对象编程:创建类及其实例对象

    Python面向对象编程:创建类及其实例对象Python作为一门面向对象编程语言,具有强大的面向对象特性,其中最基本的是创建类和其实例对象。本文将从多个方面对Python面向对象编程中的创建类及其实例对象做详细的阐述。

    2023-12-17
    102
  • mysql 实现全连接[通俗易懂]

    mysql 实现全连接[通俗易懂]mysql不支持全连接,但可以通过左外连接+ union+右外连接实现

    2022-12-16
    133

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注