es 入门
**注意事项-------使用ealsticsearch要配置java的开发环境JDK(1.8以上)
ealsticsearch: 索引(Index) 类型(type) 文档(Document) 字段(Fields)
关系型数据库: 数据库 表 行 列
from elasticsearch import Elasticsearch
默认host为localhost,port为9200.但也可以指定host与port
es = Elasticsearch("http://127.0.0.1:9200")
插入数据,index,doc_type名称可以自定义,id可以根据需求赋值,body为内容
es.index(index="my_index",doc_type="test_type",id=0,body={"name":"python","addr":"深圳"})
es.index(index="my_index",doc_type="test_type",id=1,body={"name":"java","addr":"北京"})
同样是插入数据,create() 方法需要我们指定 id 字段来唯一标识该条数据,而 index() 方法则不需要,如果不指定 id,会自动生成一个 id
es.create(index="my_index",doc_type="test_type",id=1,body={"name":"python","addr":"深圳"})
删除指定的index、type、id的文档
es.delete(index='indexName', doc_type='typeName', id=1)
删除index
es.indices.delete(index='news', ignore=[400, 404])
query = {'query': {'match_all': {}}}# 查找所有文档
query1 = {'query': {'match': {'sex': 'famale'}}}# 删除性别为女性的所有文档
query2 = {'query': {'range': {'age': {'lt': 11}}}}# 删除年龄小于11的所有文档
query3 = {'query': {'term': {'name': 'jack'}}}# 查找名字叫做jack的所有文档
删除所有文档
es.delete_by_query(index="my_index",doc_type="test_type",body=query)
get:获取指定index、type、id所对应的文档
es.get(index="my_index",doc_type="test_type",id=1)
search:查询满足条件的所有文档,没有id属性,且index,type和body均可为None
result = es.search(index="my_index",doc_type="test_type",body=query)
print(result'hits'[0])# 返回第一个文档的内容
update:更新指定index、type、id所对应的文档
更新的主要点:
1. 需要指定 id
2. body={"doc": } , 这个doc是必须的
es.update(index="my_index",doc_type="test_type",id=1,body={"doc":{"name":"python1","addr":"深圳1"}})
---查询所有数据
# 搜索所有数据
es.search(index="my_index",doc_type="test_type")
或者
body = {
"query":{
"match_all":{}
}
}
es.search(index="my_index",doc_type="test_type",body=body)
---term与terms
term
body = {
"query":{
"term":{
"name":"python"
}
}
}
查询name="python"的所有数据
es.search(index="my_index",doc_type="test_type",body=body)
terms
body = {
"query":{
"terms":{
"name":[
"python","android"
]
}
}
}
搜索出name="python"或name="android"的所有数据
es.search(index="my_index",doc_type="test_type",body=body)
---match与multi_match
match:匹配name包含python关键字的数据
body = {
"query":{
"match":{
"name":"python"
}
}
}
查询name包含python关键字的数据
es.search(index="my_index",doc_type="test_type",body=body)
multi_match:在name和addr里匹配包含深圳关键字的数据
body = {
"query":{
"multi_match":{
"query":"深圳",
"fields":["name","addr"]
}
}
}
查询name和addr包含"深圳"关键字的数据
es.search(index="my_index",doc_type="test_type",body=body)
---ids
body = {
"query":{
"ids":{
"type":"test_type",
"values":[
"1","2"
]
}
}
}
搜索出id为1或2d的所有数据
es.search(index="my_index",doc_type="test_type",body=body)
---复合查询bool
body = {
"query":{
"bool":{
"must":[
{
"term":{
"name":"python"
}
},
{
"term":{
"age":18
}
}
]
}
}
}
获取name="python"并且age=18的所有数据
es.search(index="my_index",doc_type="test_type",body=body)
---切片式查询
body = {
"query":{
"match_all":{}
}
"from":2 # 从第二条数据开始
"size":4 # 获取4条数据
}
从第2条数据开始,获取4条数据
es.search(index="my_index",doc_type="test_type",body=body)
---范围查询
body = {
"query":{
"range":{
"age":{
"gte":18, # >=18
"lte":30 # <=30
}
}
}
}
查询18<=age<=30的所有数据
es.search(index="my_index",doc_type="test_type",body=body)
---前缀查询
body = {
"query":{
"prefix":{
"name":"p"
}
}
}
查询前缀为"赵"的所有数据
es.search(index="my_index",doc_type="test_type",body=body)
---通配符查询
body = {
"query":{
"wildcard":{
"name":"*id"
}
}
}
查询name以id为后缀的所有数据
es.search(index="my_index",doc_type="test_type",body=body)
---排序
body = {
"query":{
"match_all":{}
}
"sort":{
"age":{ # 根据age字段升序排序
"order":"asc" # asc升序,desc降序
}
}
}
---filter_path
响应过滤
只需要获取_id数据,多个条件用逗号隔开
es.search(index="my_index",doc_type="test_type",filter_path=["hits.hits._id"])
获取所有数据
es.search(index="my_index",doc_type="test_type",filter_path=["hits.hits._*"])
---count
执行查询并获取该查询的匹配数
获取数据量
es.count(index="my_index",doc_type="test_type")
---度量类聚合
获取最小值
body = {
"query":{
"match_all":{}
},
"aggs":{ # 聚合查询
"min_age":{ # 最小值的key
"min":{ # 最小
"field":"age" # 查询"age"的最小值
}
}
}
}
搜索所有数据,并获取age最小的值
es.search(index="my_index",doc_type="test_type",body=body)
---获取最大值
body = {
"query":{
"match_all":{}
},
"aggs":{ # 聚合查询
"max_age":{ # 最大值的key
"max":{ # 最大
"field":"age" # 查询"age"的最大值
}
}
}
}
搜索所有数据,并获取age最大的值
es.search(index="my_index",doc_type="test_type",body=body)
---获取和
body = {
"query":{
"match_all":{}
},
"aggs":{ # 聚合查询
"sum_age":{ # 和的key
"sum":{ # 和
"field":"age" # 获取所有age的和
}
}
}
}
搜索所有数据,并获取所有age的和
es.search(index="my_index",doc_type="test_type",body=body)
---获取平均值
body = {
"query":{
"match_all":{}
},
"aggs":{ # 聚合查询
"avg_age":{ # 平均值的key
"sum":{ # 平均值
"field":"age" # 获取所有age的平均值
}
}
}
}
搜索所有数据,获取所有age的平均值
es.search(index="my_index",doc_type="test_type",body=body)
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
MaxCompute自定义extractor访问OSS文本文件DateTime类型数据
根据产品文档《访问OSS非结构化数据》,自定义Extractor访问OSS。github项目详见:TextExtractor。 一、问题 该extractor在读取非结构化数据时,如果字段存在DateTime类型(例如:2019-10-27 19:44:36),会出现如下报错: FAILED: ODPS-0123131:User defined function exception - Traceback: java.lang.IllegalArgumentException at java.sql.Date.valueOf(Date.java:143) at com.aliyun.odps.udf.example.text.TextExtractor.textLineToRecord(TextExtractor.java:194) at com.aliyun.odps.udf.example.text.TextExtractor.extract(TextExtractor.java:153) at com.aliyun.odps.udf.ExtractorHandler.extrac...
- 下一篇
阿里HBase高可用8年“抗战”回忆录 | 11月5号栖夜读
点击订阅云栖夜读日刊,专业的技术干货,不容错过! 阿里专家原创好文 1.阿里HBase高可用8年“抗战”回忆录 2017年开始阿里HBase走向公有云,我们有计划的在逐步将阿里内部的高可用技术提供给外部客户,目前已经上线了同城主备,将作为我们后续高可用能力发展的一个基础平台。本文分四个部分回顾阿里HBase在高可用方面的发展:大集群、MTTF&MTTR、容灾、极致体验,希望能给大家带来一些共鸣和思考。阅读更多》》 2.今日头条在消息服务平台和容灾体系建设方面的实践与思考 本篇文章整理自今日头条的沈辉在 RocketMQ 开发者沙龙中的演讲,主要和大家分享一下,RocketMQ 在微服务架构下的实践和容灾体系建设。沈辉是今日头条的架构师,主要负责 RocketMQ 在头条的落地以及架构设计,参与消息系统的时间大概一年左右。阅读更多》》 3.阿里巴巴 Kubernetes 应用管理实践中的经验与教训 云原生时代,Kubernetes 的重要性日益凸显。然而,大多数互联网公司在 Kubernetes 上的探索并非想象中顺利,Kubernetes 自带的复杂性足以让一批开发者望而却步。...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Red5直播服务器,属于Java语言的直播服务器
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- Jdk安装(Linux,MacOS,Windows),包含三大操作系统的最全安装
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- Linux系统CentOS6、CentOS7手动修改IP地址
- CentOS7,CentOS8安装Elasticsearch6.8.6
- CentOS8编译安装MySQL8.0.19
- CentOS关闭SELinux安全模块
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- SpringBoot2整合Redis,开启缓存,提高访问速度