pythonelasticsearch_dsl模块

database

python elasticsearch_dsl模块

在整理elasticsearch_dsl模块过程中,着实让我头大。

个人感觉就是资料太少而且很乱,不成体系,接口很多,没有规范。

此文凑合着看,以后有时间后加以修改。

还有一些部分官方文档都没有说清楚,以后弄懂了再补充。

简介

elasticsearch-dsl是基于elasticsearch-py封装实现的,提供了更简便的操作elasticsearch的方法。

安装

pip install elasticsearch_dsl

连接elasticsearch

使用connections.create_connection()进行连接,根据源码:

# alias是设置的别名

conn = self._conns[alias] = Elasticsearch(**kwargs)

return conn

我们知道,create_connection的参数应该与elasticsearch.Elasticsearch是相一致的。详见此文档:Python Elasticsearch Client。

下面做一下简单的连接工作:

from elasticsearch_dsl import connections, Search

es = connections.create_connection(hosts=["localhost:9200"], timeout=20)

除此之外,还可以通过alias给连接设置别名,后续可以通过别名来引用该连接,默认别名为default

from elasticsearch_dsl import connections

connections.create_connection(alias="my_new_connection", hosts=["localhost:9200"], timeout=60)

使用别名后这样用:

from elasticsearch_dsl import connections, Search, Q

es = connections.create_connection(alias="eaaa", hosts=["localhost:9200"])

e = Search(using="eaaa").index("account").query()

for i in e:

print(i.to_dict())

elasticsearch_dsl.Search

search对象代表整个搜索请求,包括:queries、filters、aggregations、sort、pagination、additional parameters、associated client。

API被设置为可链接的即和用.连续操作。search对象是不可变的,除了聚合,对对象的所有更改都将导致创建包含该更改的浅表副本。

当初始化Search对象时,你可以传递elasticsearch客户端作为using的参数。比如:

from elasticsearch_dsl import connections, Search

es = connections.create_connection(hosts=["localhost:9200"], timeout=20)

s = Search(using=es)

当然,不传也没关系,后面可以在指定。

一般使用:

from elasticsearch_dsl import connections, Search

es = connections.create_connection(hosts=["localhost:9200"], timeout=20)

s = Search(using=es).query("match", firstname="Hattie")

# 这样写也行

# s = Search(using=es).query({"match": {"firstname": "Hattie"}})

for i in s:

print(i.to_dict())

"""

结果:

{"account_number": 6, "balance": 5686, "firstname": "Hattie", "lastname": "Bond", "age": 36, "gender": "M", "address": "671 Bristol Street", "employer": "Netagy", "email": "hattiebond@netagy.com", "city": "Dante", "state": "TN"}

"""

执行execute方法将请求发送给elasticsearch:

response = s.execute()

上面的例子没有调用execute()是因为我们调用了循环,在search对象是一个可迭代对象,它的源码:

def__iter__(self):

"""

Iterate over the hits.

"""

return iter(self.execute())

所以我们不需要执行execute()方法,

迭代后可以通过to_dict()方法将Search对象序列化为一个dict对象,这样可以方便调试。

  • query方法

    查询,参数可以是Q对象,也可以是query模块中的一些类,还可以是自已写上如何查询。

  • filter方法
    如果你想要在过滤上下文中添加查询,可以使用filter()函数来使之变的简单。

    s = Search()

    s = s.filter("terms", tags=["search", "python"])

    在背后,这会产生一个bool查询,并将指定的条件查询放入其filter分支,等价与下面的操作:

    s = Search()

    s = s.query("bool", filter=[Q("terms", tags=["search", "python"])])

    s = Search()

    s = s.filter("terms", tags=["search", "python"])

    # 过滤,在此为范围过滤,range是方法,timestamp是所要查询的field的名字,gte意为大于等于,lt意为小于,根据需要设定即可(似乎过滤只能接受数字形式的内容,如果是文本就会返回空)

    # 关于term和match的区别,term是精确匹配,match会模糊化,会进行分词,返回匹配度分数,(term查询字符串之接受小写字母,如果有大写会返回空即没有命中,match则是不区分大小写都可以进行查询,返回结果也一样)

    # 例1:范围查询

    s = s.filter("range", timestamp={"gte": 0, "lt": time.time()}).query("match", country="in")

    # 例2:普通过滤

    res_3 = s.filter("terms", balance_num=["39225", "5686"]).execute()

  • index方法

    指定索引

  • usring方法

    指定哪个elasticsearch

注意:

当调用.query()方法多次时,内部会使用&操作符:

s = s.query().query()

print(s.to_dict())

# {"query": {"bool": {...}}}

elasticsearch_dsl.query

该库为所有的Elasticsearch查询类型都提供了类。以关键字参数传递所有的参数,最终会把参数序列化后传递给Elasticsearch,这意味着在原始查询和它对应的dsl之间有这一个清理的一对一的映射。

from elasticsearch_dsl import connections, Search

from elasticsearch_dsl.query import MultiMatch, Match, MatchAll, Filtered, Term, Terms, Prefix

es = connections.create_connection(hosts=["localhost:9200"], timeout=20)

# 相对与{"multi_match": {"query": "ha", "fields": ["firstname", "lastname"]}}

m1 = MultiMatch(query="Ha", fields=["firstname", "lastname"])

# 相当于{"match": {"firstname": {"query": "Hughes"}}}

m2 = Match(firstname={"query": "Hughes"})

s = s.query(m2)

for i in s:

print(i.to_dict())

这个库里面还有很多类,对应着dsl的查询方式,可以自己点击去看看。

elasticsearch_dsl.Q

使用快捷方式Q通过命名参数或者原始dict类型数据来构建一个查询实例。

from elasticsearch_dsl import connections, Search, Q

es = connections.create_connection(hosts=["localhost:9200"], timeout=20)

# q = Q("match", city="Summerfield")

q = Q("multi_match", query="Summerfield", fields=["city", "firstname"])

s = Search(using=es).index("account")

s = s.query(q)

for i in s:

print(i.to_dict())

可以看到,Q的格式一般是Q("查询类型", 字段="xxx")Q("查询类型", query="xxx", fields=["字段1", "字段2"])

查询对象可以通过逻辑运算符组合起来:

Q("match", title="python") | Q("match", title="django")

# {"bool": {"should": [...]}}

Q("match", title="python") & Q("match", title="django")

# {"bool": {"must": [...]}}

~Q("match", title="python")

# {"bool": {"must_not": [...]}}

比如:

from elasticsearch_dsl import Q, Search

# q = Q("multi_match", query="123.244.101.255", fields=["clientip", "timestamp"])

q = Q("match", clientip="123.244.101.255") | Q("match", clientip="42.248.168.61")

s = Search().query(q)

for item in s:

print(item.clientip)

嵌套类型

有时候你想要引用一个在其他字段中的字段,例如多字段(title.keyword)或者在一个json文档中的address.city。为了方便,Q允许你使用双下划线‘__’代替关键词参数中的‘.’

s = Search()

s = s.filter("term", category__keyword="Python")

s = s.query("match", address__city="prague")

查询

简单的例子:

from elasticsearch_dsl import Search

from elasticsearch import Elasticsearch

es_object = Elasticsearch(["url:9200"], sniffer_timeout=60, timeout=30)

# 获取es中所有的索引

# 返回类型为字典,只返回索引名

es_object.cat.indices(format="json", h="index")

# 查询多个索引

es_s_object = Search(using=es_object, index=["log-2018-07-31", "log-2018-07-30", "log-2018-07-29"])

# 查询一个索引

es_s_object = Search(using=es_object, index="log-2018-07-31")

# 条件查询1

es_r_object = es_s_object.filter("range", timestamp={"gte": 1532879975, "lt": 1532880095})

# 条件查询2

es_r_object = es_r_object.filter("term", title="12345")

# 结果转换为字典

es_r_dict = es_r_object.execute().to_dict()

数据准备

  1. 下载示例数据

    点击这里查看官方的示例数据,下载" accounts.zip"。

  2. 创建索引

    from elasticsearch import Elasticsearch

    es = Elasticsearch(host="localhost", port=9200)

    body = {

    "mappings": {

    "properties": {

    "account_number": {

    "type": "integer"

    },

    "balance": {

    "type": "integer"

    },

    "firstname": {

    "type": "text"

    },

    "lastname": {

    "type": "text"

    },

    "age": {

    "type": "integer"

    },

    "gender": {

    "type": "keyword"

    },

    "address": {

    "type": "text"

    },

    "employer": {

    "type": "text"

    },

    "email": {

    "type": "text"

    },

    "city": {

    "type": "text"

    },

    "state": {"type": "text"}

    }

    }

    }

    # 创建 index

    es.indices.create(index="account", body=body)

  3. 把数据写入文档中

accounts.zip解压目录下,执行命令:

curl -H "Content-Type: application/json" -XPOST "localhost:9200/account/_doc/_bulk?pretty" --data-binary @accounts.json

Windows平台:注意是否有curl命令,git bash自带,PowerShell好像也有

开始查询

我随便出的题,尽量让一些常用的查询方式用到,主要是用于加深印象的。

  1. 余额在15000到20000的顾客
  2. 余额在20000到30000的男性顾客
  3. state为WY,28岁或38岁的女性顾客
  4. 地址中有Street,年龄不在20-30的女顾客
  5. 按照年龄聚合,并且计算每个年龄的平均余额
  6. 按照年龄聚合,求20到30岁不同性别的平均余额

如何使用聚合,可以在文章的"其它方法"中的“聚合”中查看

# 1. 余额在15000到2000的顾客

from elasticsearch_dsl import connections, Search, Q

es = connections.create_connection(hosts=["localhost:9200"])

s = Search(using=es, index="account")

q = Q("range", balance={"gte": 15000, "lte": 20000})

s1 = s.query(q)

print("共查到%d条数据" % s1.count())

for i in s1[90:]:

print(i.to_dict())

# 2. 余额在20000到30000的男性顾客

from elasticsearch_dsl import connections, Search, Q

es = connections.create_connection(hosts=["localhost:9200"])

s = Search(using=es, index="account")

# 确定多少钱

q1 = Q("range", balance={"gte": 20000, "lte": 30000})

# 确定为男性

q2 = Q("term", gender="M")

# and

q = q1 & q2

s1 = s.query(q)

print("共查到%d条数据" % s1.count())

for i in s1:

print(i.to_dict())

# 3. state为WY,28岁或38岁的女性顾客

from elasticsearch_dsl import connections, Search, Q

es = connections.create_connection(hosts=["localhost:9200"])

s = Search(using=es, index="account")

# state为WY

q1 = Q("match", state="WY")

# 28或38的女性

q2 = Q("bool", must=[Q("terms", age=[28, 38]), Q("term", gender="F")])

# and

q = q1 & q2

s1 = s.query(q)

print("共查到%d条数据" % s1.count())

for i in s1:

print(i.to_dict())

# ############ 第二种写法 #############################

from elasticsearch_dsl import connections, Search, Q

es = connections.create_connection(hosts=["localhost:9200"])

s = Search(using=es, index="account")

# state为WY

q1 = Q("match", state="WY")

q2 = Q("term", age=28) | Q("term", age=38)

# 多次query就是& ==> and 操作

s1 = s.query(q1).query(q2)

print("共查到%d条数据" % s1.count())

for i in s1:

print(i.to_dict())

# 4. 地址中有Street,年龄不在20-30的女顾客

from elasticsearch_dsl import connections, Search, Q

es = connections.create_connection(hosts=["localhost:9200"])

s = Search(using=es, index="account")

# 地址中有Street且为女性

q1 = Q("match", address="Street") & Q("match", gender="F")

# 年龄在20-30

q2 = Q("range", age={"gte": 20, "lte": 30})

# 使用filter过滤

# query和filter的前后关系都行

s1 = s.query(q1).filter(q2)

print("共查到%d条数据" % s1.count())

# scan()列出全部数据

for i in s1.scan():

print(i.to_dict())

# 5. 按照年龄聚合,并且计算每个年龄的平均余额

from elasticsearch_dsl import connections, Search, A, Q

es = connections.create_connection(hosts=["localhost:9200"])

s = Search(using=es, index="account")

# 先用年龄聚合,然后拿到返平均数

# size指定最大返回多少条数据,默认10条

# 实质上account的数据中,age分组没有100个这么多

a = A("terms", field="age", size=100).metric("age_per_balance", "avg", field="balance")

s.aggs.bucket("res", a)

# 执行并拿到返回值

response = s.execute()

# res是bucket指定的名字

# response.aggregations.to_dict是一个

# {"doc_count_error_upper_bound": 0, "sum_other_doc_count": 463, "buckets": [{"...

# 的数据,和用restful查询的一样

for i in response.aggregations.res:

print(i.to_dict())

# 6. 按照年龄聚合,求20到30岁不同性别的平均余额

from elasticsearch_dsl import connections, Search, A, Q

es = connections.create_connection(hosts=["localhost:9200"])

s = Search(using=es, index="account")

# 这次就用这种方法

# range 要注意指定ranges参数和from to

a1 = A("range", field="age", ranges={"from": 20, "to": 21})

a2 = A("terms", field="gender")

a3 = A("avg", field="balance")

s.aggs.bucket("res", a1).bucket("gender_group", a2).metric("balance_avg", a3)

# 执行并拿到返回值

response = s.execute()

# res是bucket指定的名字

for i in response.aggregations.res:

print(i.to_dict())

s = s.query("match", age=41)

"""

{"key": "20.0-21.0", "from": 20.0, "to": 21.0, "doc_count": 44, "gender_group":

{"doc_count_error_upper_bound": 0, "sum_other_doc_count": 0, "buckets":

[{"key": "M", "doc_count": 27, "balance_avg": {"value": 29047.444444444445}},

{"key": "F", "doc_count": 17, "balance_avg": {"value": 25666.647058823528}}]}}

"""

写一下总结

由于account的数据是随机生成的,很多都没有共同的数据,本来想用一下multi_match,结果发现没有条件。

列子中,用到了match, term, filter, range, bool,虽然有很多查询方式没用上,但是应该都差不多这样用。

在使用过程中,我发现使用Q这个类构造查询方式实质上就和直接使用elasticsearchd-dsl一样(指的是格式上)。

假如是数组,如:bool的must、terms,那么就要字段=[ ]

假如是字典,如:range,那么就要字段={xxx: yyy, .... }

假如是单值,如:term、match,那么就要字段=值

假如查的是多个字段,如:multi_mathc,那么就要加上query="要查的值", fields=["字段1", "字段2", ...]

然后各个条件的逻辑关系,可以通过多次query和filter或直接用Q("bool", must=[Q...], should=[Q...])再加上& | ~表示

假如忘记了,该查询方式是否有数组、字典或直接就等于一个值的话

可以看一看这篇文章中对应查询方式的记录:DSL高级检索(Query)

其它方法

排序

要指定排序顺序,可以使用.order()方法。

s = Search().sort(

"category",

"-title",

{"lines" : {"order" : "asc", "mode" : "avg"}}

)

分页

要指定from、size,使用slicing API:

s = s[10:20]

# {"from": 10, "size": 10}

要访问匹配的所有文档,可以使用scan()函数,scan()函数使用scan、scroll elasticsearch API:

for hit in s.scan():

print(hit.title)

需要注意的是这种情况下结果是不会被排序的。

高亮

要指定高亮的通用属性,可以使用highlight_options()方法:

s = s.highlight_options(order="score")

可以通过highlight()方法来为了每个单独的字段设置高亮:

s = s.highlight("title")

# or, including parameters:

s = s.highlight("title", fragment_size=50)

然后,响应中的分段将在每个结果对象上以.meta.highlight.FIELD形式提供,其中将包含分段列表:

response = s.execute()

for hit in response:

for fragment in hit.meta.highlight.title:

print(fragment)

聚合

你可以是使用A快捷方式来定义一个聚合。

from elasticsearch_dsl import A

A("terms", field="tags")

# {"terms": {"field": "tags"}}

为了实现聚合嵌套,你可以使用.bucket()、.metirc()以及.pipeline()方法。

bucket ["bʌkɪt] 即为分组,其中第一个参数是分组的名字,自己指定即可,第二个参数是方法,第三个是指定的field。

metric ["metrɪk]也是同样,metric的方法有sum、avg、max、min等等,但是需要指出的是有两个方法可以一次性返回这些值,stats和extended_stats,后者还可以返回方差等值。

a = A("terms", field="category")

# {"terms": {"field": "category"}}

a.metric("clicks_per_category", "sum", field="clicks").bucket("tags_per_category", "terms", field="tags")

# {

# "terms": {"field": "category"},

# "aggs": {

# "clicks_per_category": {"sum": {"field": "clicks"}},

# "tags_per_category": {"terms": {"field": "tags"}}

# }

# }

# 例1

s.aggs.bucket("per_country", "terms", field="timestamp").metric("sum_click", "stats", field="click").metric("sum_request", "stats", field="request")

# 例2

s.aggs.bucket("per_age", "terms", field="click.keyword").metric("sum_click", "stats", field="click")

# 例3

s.aggs.metric("sum_age", "extended_stats", field="age")

# 例4

s.aggs.bucket("per_age", "terms", field="country.keyword")

# 最后依然是要execute,此处注意s.aggs的操作不能用变量接收(如res=s.aggs的操作就是错误的),聚合的结果会在res中显示

# 例5

a = A("range", field="account_number", ranges=[{"to": 10}, {"from": 11, "to": 21}])

res = s.execute()

要向Search对象添加聚合,请使用.aggs属性作为顶级聚合:

s = Search()

a = A("terms", field="category")

s.aggs.bucket("category_terms", a)

# {

# "aggs": {

# "category_terms": {

# "terms": {

# "field": "category"

# }

# }

# }

# }

要么

s = Search()

s.aggs.bucket("articles_per_day", "date_histogram", field="publish_date", interval="day")

.metric("clicks_per_day", "sum", field="clicks")

.pipeline("moving_click_average", "moving_avg", buckets_path="clicks_per_day")

.bucket("tags_per_day", "terms", field="tags")

s.to_dict()

# {

# "aggs": {

# "articles_per_day": {

# "date_histogram": { "interval": "day", "field": "publish_date" },

# "aggs": {

# "clicks_per_day": { "sum": { "field": "clicks" } },

# "moving_click_average": { "moving_avg": { "buckets_path": "clicks_per_day" } },

# "tags_per_day": { "terms": { "field": "tags" } }

# }

# }

# }

# }

您可以按名称访问现有的key(类似字典的方式):

s = Search()

s.aggs.bucket("per_category", "terms", field="category")

s.aggs["per_category"].metric("clicks_per_category", "sum", field="clicks")

s.aggs["per_category"].bucket("tags_per_category", "terms", field="tags")

可以通过aggregations属性来访问聚合结果:

for tag in response.aggregations.per_tag.buckets:

print(tag.key, tag.max_lines.value)

删除

可以通过调用Search对象上的delete方法而不是execute来实现删除匹配查询的文档,如下:

s = Search(index="i").query("match", title="python")

response = s.delete()

参考:

elasticsearch-dsl配置、使用、查询

查询操作实例

包含用类的形式使用elasticsearch-dsl

Elasticserch与Elasticsearch_dsl用法

【Python】Elasticsearch和elasticsearch_dsl

python3中的elasticsearch_dsl(例子)

我的github

我的博客

我的笔记

posted @

2021-07-08 12:15 

忞翛 

阅读(1

评论(0

编辑 

收藏 

举报

刷新评论刷新页面返回顶部

Copyright © 2021 忞翛


Powered by .NET 5.0 on Kubernetes

以上是 pythonelasticsearch_dsl模块 的全部内容, 来源链接: utcz.com/z/535746.html

回到顶部