python esb_elasticsearch 教程

python esb_elasticsearch 教程python elasticsearch_dsl模块 在整理elasticsearch_dsl模块过程中,着实让我头大。 个人感觉就是资料太少而且很乱,不成体系,接口很多,没有规范。 此文凑合着看,以

python elasticsearch_dsl模块

python elasticsearch_dsl模块

在整理elasticsearch_dsl模块过程中,着实让我头大。
个人感觉就是资料太少而且很乱,不成体系,接口很多,没有规范。
此文凑合着看,以后有时间后加以修改。
还有一些部分官方文档都没有说清楚,以后弄懂了再补充。

简介

elasticsearch-dsl是基于elasticsearch-py封装实现的,提供了更简便的操作elasticsearch的方法。

安装

pip install elasticsearch_dsl

连接elasticsearch

使用connections.create_connection()进行连接,根据源码:

# alias是设置的别名
conn = self._conns[alias] = Elasticsearch(**kwargs)
return conn

我们知道,create_connection的参数应该与elasticsearch.Elasticsearch是相一致的。详见此文档:Python Elasticsearch Client。

下面做一下简单的连接工作:

from elasticsearch_dsl import connections, Search


es = connections.create_connection(hosts=["localhost:9200"], timeout=20)

除此之外,还可以通过alias给连接设置别名,后续可以通过别名来引用该连接,默认别名为default

from elasticsearch_dsl import connections

connections.create_connection(alias="my_new_connection", hosts=["localhost:9200"], timeout=60)

使用别名后这样用:

from elasticsearch_dsl import connections, Search, Q


es = connections.create_connection(alias="eaaa", hosts=["localhost:9200"])

e = Search(using="eaaa").index("account").query()

for i in e:
    print(i.to_dict())

elasticsearch_dsl.Search

search对象代表整个搜索请求,包括:queries、filters、aggregations、sort、pagination、additional parameters、associated client。
API被设置为可链接的即和用.连续操作。search对象是不可变的,除了聚合,对对象的所有更改都将导致创建包含该更改的浅表副本。

当初始化Search对象时,你可以传递elasticsearch客户端作为using的参数。比如:

from elasticsearch_dsl import connections, Search


es = connections.create_connection(hosts=["localhost:9200"], timeout=20)
s = Search(using=es)

当然,不传也没关系,后面可以在指定。
一般使用:

from elasticsearch_dsl import connections, Search


es = connections.create_connection(hosts=["localhost:9200"], timeout=20)

s = Search(using=es).query("match", firstname="Hattie")
# 这样写也行
# s = Search(using=es).query({"match": {"firstname": "Hattie"}})

for i in s:
    print(i.to_dict())
	

""" 结果: {"account_number": 6, "balance": 5686, "firstname": "Hattie", "lastname": "Bond", "age": 36, "gender": "M", "address": "671 Bristol Street", "employer": "Netagy", "email": "hattiebond@netagy.com", "city": "Dante", "state": "TN"} """

执行execute方法将请求发送给elasticsearch:
response = s.execute()

上面的例子没有调用execute()是因为我们调用了循环,在search对象是一个可迭代对象,它的源码:

def __iter__(self):
	""" Iterate over the hits. """
	return iter(self.execute())

所以我们不需要执行execute()方法,
迭代后可以通过to_dict()方法将Search对象序列化为一个dict对象,这样可以方便调试。

  • query方法
    查询,参数可以是Q对象,也可以是query模块中的一些类,还可以是自已写上如何查询。
  • filter方法
    如果你想要在过滤上下文中添加查询,可以使用filter()函数来使之变的简单。
    
    s = Search()
    s = s.filter("terms", tags=["search", "python"])

    在背后,这会产生一个bool查询,并将指定的条件查询放入其filter分支,等价与下面的操作:

    s = Search()
    s = s.query("bool", filter=[Q("terms", tags=["search", "python"])])

    s = Search()
    s = s.filter("terms", tags=["search", "python"])
    
    
    # 过滤,在此为范围过滤,range是方法,timestamp是所要查询的field的名字,gte意为大于等于,lt意为小于,根据需要设定即可(似乎过滤只能接受数字形式的内容,如果是文本就会返回空)
    # 关于term和match的区别,term是精确匹配,match会模糊化,会进行分词,返回匹配度分数,(term查询字符串之接受小写字母,如果有大写会返回空即没有命中,match则是不区分大小写都可以进行查询,返回结果也一样)
    
    # 例1:范围查询
    s = s.filter("range", timestamp={"gte": 0, "lt": time.time()}).query("match", country="in")
    # 例2:普通过滤
    res_3 = s.filter("terms", balance_num=["39225", "5686"]).execute()

  • index方法
    指定索引
  • usring方法
    指定哪个elasticsearch

注意:
当调用.query()方法多次时,内部会使用&操作符:

s = s.query().query()
print(s.to_dict())
# {"query": {"bool": {...}}}

elasticsearch_dsl.query

该库为所有的Elasticsearch查询类型都提供了类。以关键字参数传递所有的参数,最终会把参数序列化后传递给Elasticsearch,这意味着在原始查询和它对应的dsl之间有这一个清理的一对一的映射。


from elasticsearch_dsl import connections, Search
from elasticsearch_dsl.query import MultiMatch, Match, MatchAll, Filtered, Term, Terms, Prefix

es = connections.create_connection(hosts=["localhost:9200"], timeout=20)



# 相对与{"multi_match": {"query": "ha", "fields": ["firstname", "lastname"]}}
m1 = MultiMatch(query="Ha", fields=["firstname", "lastname"])

# 相当于{"match": {"firstname": {"query": "Hughes"}}}
m2 = Match(firstname={"query": "Hughes"})


s = s.query(m2)

for i in s:
    print(i.to_dict())

这个库里面还有很多类,对应着dsl的查询方式,可以自己点击去看看。

elasticsearch_dsl.Q

使用快捷方式Q通过命名参数或者原始dict类型数据来构建一个查询实例。

from elasticsearch_dsl import connections, Search, Q


es = connections.create_connection(hosts=["localhost:9200"], timeout=20)
# q = Q("match", city="Summerfield")
q = Q("multi_match", query="Summerfield", fields=["city", "firstname"])


s = Search(using=es).index("account")
s = s.query(q)

for i in s:
    print(i.to_dict())

可以看到,Q的格式一般是Q("查询类型", 字段="xxx")Q("查询类型", query="xxx", fields=["字段1", "字段2"])

查询对象可以通过逻辑运算符组合起来:

Q("match", title="python") | Q("match", title="django")
# {"bool": {"should": [...]}}

Q("match", title="python") & Q("match", title="django")
# {"bool": {"must": [...]}}

~Q("match", title="python")
# {"bool": {"must_not": [...]}}

比如:

from elasticsearch_dsl import Q, Search
# q = Q("multi_match", query="123.244.101.255", fields=["clientip", "timestamp"])
q = Q("match", clientip="123.244.101.255") | Q("match", clientip="42.248.168.61")

s = Search().query(q)

for item in s:
    print(item.clientip)

嵌套类型

有时候你想要引用一个在其他字段中的字段,例如多字段(title.keyword)或者在一个json文档中的address.city。为了方便,Q允许你使用双下划线‘__’代替关键词参数中的‘.’

s = Search()
s = s.filter("term", category__keyword="Python")
s = s.query("match", address__city="prague")

查询

简单的例子:

from elasticsearch_dsl import Search
from elasticsearch import Elasticsearch

es_object = Elasticsearch(["url:9200"], sniffer_timeout=60, timeout=30)

# 获取es中所有的索引
# 返回类型为字典,只返回索引名
es_object.cat.indices(format="json", h="index")

# 查询多个索引
es_s_object = Search(using=es_object, index=["log-2018-07-31", "log-2018-07-30", "log-2018-07-29"])

# 查询一个索引
es_s_object = Search(using=es_object, index="log-2018-07-31")

# 条件查询1
es_r_object = es_s_object.filter("range", timestamp={"gte": 1532879975, "lt": 1532880095})

# 条件查询2
es_r_object = es_r_object.filter("term", title="12345")

# 结果转换为字典
es_r_dict = es_r_object.execute().to_dict()

数据准备

  1. 下载示例数据
    点击这里查看官方的示例数据,下载” accounts.zip”。

  2. 创建索引

    
    
    from elasticsearch import Elasticsearch
    
    es = Elasticsearch(host="localhost", port=9200)
    
    body = {
    	"mappings": {
    		"properties": {
    			"account_number": {
    				"type": "integer"
    			},
    			"balance": {
    				"type": "integer"
    			},
    			"firstname": {
    				"type": "text"
    			},
    			"lastname": {
    				"type": "text"
    			},
    			"age": {
    				"type": "integer"
    			},
    			"gender": {
    				"type": "keyword"
    			},
    			"address": {
    				"type": "text"
    			},
    			"employer": {
    				"type": "text"
    			},
    			"email": {
    				"type": "text"
    			},
    			"city": {
    				"type": "text"
    			},
    			"state": {"type": "text"}
    
    		}
    	}
    }
    # 创建 index
    es.indices.create(index="account", body=body)

  3. 把数据写入文档中

accounts.zip解压目录下,执行命令:

curl -H "Content-Type: application/json" -XPOST "localhost:9200/account/_doc/_bulk?pretty" --data-binary @accounts.json

Windows平台:注意是否有curl命令,git bash自带,PowerShell好像也有

开始查询

我随便出的题,尽量让一些常用的查询方式用到,主要是用于加深印象的。

  1. 余额在15000到20000的顾客
  2. 余额在20000到30000的男性顾客
  3. state为WY,28岁或38岁的女性顾客
  4. 地址中有Street,年龄不在20-30的女顾客
  5. 按照年龄聚合,并且计算每个年龄的平均余额
  6. 按照年龄聚合,求20到30岁不同性别的平均余额

如何使用聚合,可以在文章的”其它方法”中的“聚合”中查看

# 1. 余额在15000到2000的顾客
from elasticsearch_dsl import connections, Search, Q

es = connections.create_connection(hosts=["localhost:9200"])
s = Search(using=es, index="account")

q = Q("range", balance={"gte": 15000, "lte": 20000})
s1 = s.query(q)

print("共查到%d条数据" % s1.count())

for i in s1[90:]:
    print(i.to_dict())

# 2. 余额在20000到30000的男性顾客
from elasticsearch_dsl import connections, Search, Q

es = connections.create_connection(hosts=["localhost:9200"])
s = Search(using=es, index="account")

# 确定多少钱
q1 = Q("range", balance={"gte": 20000, "lte": 30000})
# 确定为男性
q2 = Q("term", gender="M")
# and
q = q1 & q2
s1 = s.query(q)

print("共查到%d条数据" % s1.count())

for i in s1:
    print(i.to_dict())

# 3. state为WY,28岁或38岁的女性顾客
from elasticsearch_dsl import connections, Search, Q

es = connections.create_connection(hosts=["localhost:9200"])
s = Search(using=es, index="account")

# state为WY
q1 = Q("match", state="WY")

# 28或38的女性
q2 = Q("bool", must=[Q("terms", age=[28, 38]), Q("term", gender="F")])

# and
q = q1 & q2
s1 = s.query(q)

print("共查到%d条数据" % s1.count())

for i in s1:

    print(i.to_dict())


# ############ 第二种写法 #############################

from elasticsearch_dsl import connections, Search, Q

es = connections.create_connection(hosts=["localhost:9200"])
s = Search(using=es, index="account")

# state为WY
q1 = Q("match", state="WY")

q2 = Q("term", age=28) | Q("term", age=38)

# 多次query就是& ==> and 操作
s1 = s.query(q1).query(q2)

print("共查到%d条数据" % s1.count())

for i in s1:
    print(i.to_dict())

# 4. 地址中有Street,年龄不在20-30的女顾客
from elasticsearch_dsl import connections, Search, Q

es = connections.create_connection(hosts=["localhost:9200"])
s = Search(using=es, index="account")

# 地址中有Street且为女性
q1 = Q("match", address="Street") & Q("match", gender="F")

# 年龄在20-30
q2 = Q("range", age={"gte": 20, "lte": 30})

# 使用filter过滤
# query和filter的前后关系都行
s1 = s.query(q1).filter(q2)

print("共查到%d条数据" % s1.count())

# scan()列出全部数据
for i in s1.scan():
    print(i.to_dict())

# 5. 按照年龄聚合,并且计算每个年龄的平均余额
from elasticsearch_dsl import connections, Search, A, Q

es = connections.create_connection(hosts=["localhost:9200"])
s = Search(using=es, index="account")

# 先用年龄聚合,然后拿到返平均数
# size指定最大返回多少条数据,默认10条
# 实质上account的数据中,age分组没有100个这么多

a = A("terms", field="age", size=100).metric("age_per_balance", "avg", field="balance")

s.aggs.bucket("res", a)


# 执行并拿到返回值
response = s.execute()


# res是bucket指定的名字
# response.aggregations.to_dict是一个
# {"doc_count_error_upper_bound": 0, "sum_other_doc_count": 463, "buckets": [{"...
# 的数据,和用restful查询的一样

for i in response.aggregations.res:
    print(i.to_dict())

# 6. 按照年龄聚合,求20到30岁不同性别的平均余额

from elasticsearch_dsl import connections, Search, A, Q

es = connections.create_connection(hosts=["localhost:9200"])
s = Search(using=es, index="account")

# 这次就用这种方法
# range 要注意指定ranges参数和from to
a1 = A("range", field="age", ranges={"from": 20, "to": 21})
a2 = A("terms", field="gender")
a3 = A("avg", field="balance")


s.aggs.bucket("res", a1).bucket("gender_group", a2).metric("balance_avg", a3)

# 执行并拿到返回值
response = s.execute()

# res是bucket指定的名字
for i in response.aggregations.res:
    print(i.to_dict())
s = s.query("match", age=41)

""" {"key": "20.0-21.0", "from": 20.0, "to": 21.0, "doc_count": 44, "gender_group": {"doc_count_error_upper_bound": 0, "sum_other_doc_count": 0, "buckets": [{"key": "M", "doc_count": 27, "balance_avg": {"value": 29047.444444444445}}, {"key": "F", "doc_count": 17, "balance_avg": {"value": 25666.647058823528}}]}} """

写一下总结
由于account的数据是随机生成的,很多都没有共同的数据,本来想用一下multi_match,结果发现没有条件。
列子中,用到了match, term, filter, range, bool,虽然有很多查询方式没用上,但是应该都差不多这样用。
在使用过程中,我发现使用Q这个类构造查询方式实质上就和直接使用elasticsearchd-dsl一样(指的是格式上)。
假如是数组,如:bool的must、terms,那么就要字段=[ ]
假如是字典,如:range,那么就要字段={xxx: yyy, .... }
假如是单值,如:term、match,那么就要字段=值
假如查的是多个字段,如:multi_mathc,那么就要加上query="要查的值", fields=["字段1", "字段2", ...]
然后各个条件的逻辑关系,可以通过多次query和filter或直接用Q(“bool”, must=[Q…], should=[Q…])再加上& | ~表示

假如忘记了,该查询方式是否有数组、字典或直接就等于一个值的话
可以看一看这篇文章中对应查询方式的记录:DSL高级检索(Query)

其它方法

排序

要指定排序顺序,可以使用.order()方法。

s = Search().sort(
    "category",
    "-title",
    {"lines" : {"order" : "asc", "mode" : "avg"}}
)

分页

要指定from、size,使用slicing API:

s = s[10:20]
# {"from": 10, "size": 10}

要访问匹配的所有文档,可以使用scan()函数,scan()函数使用scan、scroll elasticsearch API:

for hit in s.scan():
    print(hit.title)

需要注意的是这种情况下结果是不会被排序的。

高亮

要指定高亮的通用属性,可以使用highlight_options()方法:

s = s.highlight_options(order="score")
可以通过highlight()方法来为了每个单独的字段设置高亮:

s = s.highlight("title")
# or, including parameters:
s = s.highlight("title", fragment_size=50)
然后,响应中的分段将在每个结果对象上以.meta.highlight.FIELD形式提供,其中将包含分段列表:

response = s.execute()
for hit in response:
    for fragment in hit.meta.highlight.title:
        print(fragment)

聚合

你可以是使用A快捷方式来定义一个聚合。


from elasticsearch_dsl import A

A("terms", field="tags")
# {"terms": {"field": "tags"}}

为了实现聚合嵌套,你可以使用.bucket()、.metirc()以及.pipeline()方法。
bucket ["bʌkɪt] 即为分组,其中第一个参数是分组的名字,自己指定即可,第二个参数是方法,第三个是指定的field。
metric ["metrɪk]也是同样,metric的方法有sum、avg、max、min等等,但是需要指出的是有两个方法可以一次性返回这些值,stats和extended_stats,后者还可以返回方差等值。

a = A("terms", field="category")
# {"terms": {"field": "category"}}

a.metric("clicks_per_category", "sum", field="clicks").bucket("tags_per_category", "terms", field="tags")
# {
# "terms": {"field": "category"},
# "aggs": {
# "clicks_per_category": {"sum": {"field": "clicks"}},
# "tags_per_category": {"terms": {"field": "tags"}}
# }
# }


# 例1
s.aggs.bucket("per_country", "terms", field="timestamp").metric("sum_click", "stats", field="click").metric("sum_request", "stats", field="request")

# 例2
s.aggs.bucket("per_age", "terms", field="click.keyword").metric("sum_click", "stats", field="click")

# 例3
s.aggs.metric("sum_age", "extended_stats", field="age")

# 例4
s.aggs.bucket("per_age", "terms", field="country.keyword")
# 最后依然是要execute,此处注意s.aggs的操作不能用变量接收(如res=s.aggs的操作就是错误的),聚合的结果会在res中显示

# 例5
a = A("range", field="account_number", ranges=[{"to": 10}, {"from": 11, "to": 21}])

res = s.execute()

要向Search对象添加聚合,请使用.aggs属性作为顶级聚合:

s = Search()
a = A("terms", field="category")
s.aggs.bucket("category_terms", a)
# {
# "aggs": {
# "category_terms": {
# "terms": {
# "field": "category"
# }
# }
# }
# }

要么

s = Search()
s.aggs.bucket("articles_per_day", "date_histogram", field="publish_date", interval="day")
    .metric("clicks_per_day", "sum", field="clicks")
    .pipeline("moving_click_average", "moving_avg", buckets_path="clicks_per_day")
    .bucket("tags_per_day", "terms", field="tags")

s.to_dict()
# {
# "aggs": {
# "articles_per_day": {
# "date_histogram": { "interval": "day", "field": "publish_date" },
# "aggs": {
# "clicks_per_day": { "sum": { "field": "clicks" } },
# "moving_click_average": { "moving_avg": { "buckets_path": "clicks_per_day" } },
# "tags_per_day": { "terms": { "field": "tags" } }
# }
# }
# }
# }

您可以按名称访问现有的key(类似字典的方式):

s = Search()
s.aggs.bucket("per_category", "terms", field="category")
s.aggs["per_category"].metric("clicks_per_category", "sum", field="clicks")
s.aggs["per_category"].bucket("tags_per_category", "terms", field="tags")

可以通过aggregations属性来访问聚合结果


for tag in response.aggregations.per_tag.buckets:
    print(tag.key, tag.max_lines.value)
	

删除

可以通过调用Search对象上的delete方法而不是execute来实现删除匹配查询的文档,如下:

s = Search(index="i").query("match", title="python")
response = s.delete()

参考:
elasticsearch-dsl配置、使用、查询
查询操作实例
包含用类的形式使用elasticsearch-dsl
Elasticserch与Elasticsearch_dsl用法
【Python】Elasticsearch和elasticsearch_dsl
python3中的elasticsearch_dsl(例子)

我的github
我的博客
我的笔记

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
转载请注明出处: https://daima100.com/6050.html

(0)
上一篇 2023-04-18
下一篇 2023-04-18

相关推荐

  • spark-sql中视图关联表结果不匹配问题

    spark-sql中视图关联表结果不匹配问题在sparkSQL 中将计算结果保存为视图,关联其他表后出现结果匹配错误,通过分析发现,是因为sql语句中使用了表达式 row_number() over(order by 1) 其实该表达式并没有执

    2023-03-16
    107
  • linux redis部署_redis部署安装

    linux redis部署_redis部署安装redis在linux上的部署 1.在官网下载Linux版本redis 2.拷贝到linux服务器上,解压到指定目录 3.解压后得到redis文件夹 移动到自己知道的文件位置 4.注:redis是c语

    2023-05-06
    101
  • 【StoneDB研发日志】列式存储 delete方案调研

    【StoneDB研发日志】列式存储 delete方案调研MySQL删除数据的方式 以MySQL 5.7为例,数据库删除数据的方式一共有以下三种: delete truncate drop 以上三种方式都可以删除数据,但是使用场景是不同的。 对于整个表进行删

    2023-05-31
    103
  • k8s集群部署方案_docker redis集群

    k8s集群部署方案_docker redis集群作者:颜博 青云科技数据库研发工程师 目前从事 PostgreSQL 产品开发工作,热衷于 PostgreSQL 数据库的学习和研究 上一期我们介绍了 PG 集群复制管理工具 repmgr,能够轻松的

    2023-04-30
    91
  • 巨杉数据库怎么查表_巨杉数据库和tidb

    巨杉数据库怎么查表_巨杉数据库和tidb7月15日,“大湾区首届数字新金融高峰论坛暨广州市数字金融协会揭牌活动”在广州圆满举行。SequoiaDB 巨杉数据库作为国内领先的金融级分布式数据库厂商,受邀参与本次峰会,同时喜获多项认可: 巨杉…

    2023-03-22
    102
  • if函数判断周末_SQL日期语句大全

    if函数判断周末_SQL日期语句大全小朋友作业操碎心,看代码: use test; delimiter $$ create procedure pre12() BEGIN declare issunday int; declare d…

    2022-12-19
    96
  • Oracle入门学习五「建议收藏」

    Oracle入门学习五「建议收藏」学习视频: https://www.bilibili.com/video/BV1tJ411r7EC?p=35 数据的完整性:保证插入表格的数据必须正确。包括实体完整性、区域完整性、引用完整性

    2023-02-24
    105
  • Python字符串索引:利用数字找到特定字符

    Python字符串索引:利用数字找到特定字符Python是一种高级编程语言,具有简单易读、高效、可扩展和免费等优势,在大数据、人工智能、物联网等方面都有广泛应用。字符串是Python中一个重要的数据类型,它们是基本的文本数据类型。在Python中,通过索引来获取特定字符是字符串操作中的一项基本技能。

    2024-01-03
    58

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注