首页 > 编程知识 正文

elasticsearch集群原理,凌志es240保险丝盒图解

时间:2023-05-05 19:41:24 阅读:144425 作者:2265

摘要自上而下、自下而上介绍电子搜索的基本工作原理,试图回答以下问题。

为什么我的搜索与http://www.Sina.com/foo-bar不匹配? 为什么添加更多文件会压缩索引(Index )? 为什么电子搜索要消耗很多内存?*foo-bar*

elasticsearch版本: elasticsearch-2.2.0

http://www.Sina.com/http://www.Sina.com /

版本

内容

云中的白色正方形箱子表示一个节点——节点。

图解ElasticSearch

多个绿色小四边形直接在一个或多个节点上组合以形成ElasticSearch的索引。

云上的集群

在一个索引下,分布在多个节点上的绿色小方块称为切片——Shard。

集群里的盒子

ElasticSearch的Shard本质上是Lucene索引。

Lucene是全文本搜索库,ElasticSearch构建在Lucene之上。 我接下来要说的大部分内容其实是,ElasticSearch是如何基于Lucene工作的。

http://www.Sina.com/http://www.Sina.com /

Lucene有很多小片段,可以将其视为Lucene内部的最小索引。

节点之间

有很多数据结构

invertedindexstoredfieldsdocumentvaluescache

索引里的小方块

Inverted Index主要由两部分组成。

规则的数据词典Dictionary,包含单词Term及其出现频率。 与单词Term对应的Postings (即该单词所在的文档)。 我们搜索时,首先分解搜索的内容,在词典中找到对应的Term,找到与搜索相关的文件内容。

ShardLucene Index

图解Lucene

如果想查找以字符“c”开头的字符,可以很容易地在“二进制搜索”(Binary Search )中在Inverted Index表中找到“choice”、“coming”之类的词(Term )。

Mini索引——segment

如果尝试搜索包含" our "字符的所有单词,系统将扫描整个Inverted Index。 这非常昂贵。

在这种情况下,要进行优化,就会面临如何生成合适的Term的问题。

Segment内部

对于这样的问题,可能有几种可能的解决办法。

* suffix - xiffus *如果想将后缀作为搜索条件,可以进行Term的逆处理。 对于GEO的位置信息,(60.6384,6.5017 )- u4u8gyykk可转换为GEO Hash。 123 - {1-hundreds,12-tens,123}对于简单数字,能够为此生成复用形式的Term

解决拼写错误

一个Python库 为单词生成了一个包含错误拼写信息的树形状态机,解决拼写错误的问题。

Stored Field字段查找

当我们想要查找包含某个特定标题内容的文件时,Inverted Index就不能很好的解决这个问题,所以Lucene提供了另外一种数据结构Stored Fields来解决这个问题。本质上,Stored Fields是一个简单的键值对key-value。默认情况下,ElasticSearch会存储整个文件的JSON source。

Document Values为了排序,聚合

即使这样,我们发现以上结构仍然无法解决诸如:排序、聚合、facet,因为我们可能会要读取大量不需要的信息。

所以,另一种数据结构解决了此种问题:Document Values。这种结构本质上就是一个列式的存储,它高度优化了具有相同类型的数据的存储结构。

为了提高效率,ElasticSearch可以将索引下某一个Document Value全部读取到内存中进行操作,这大大提升访问速度,但是也同时会消耗掉大量的内存空间。

总之,这些数据结构Inverted Index、Stored Fields、Document Values及其缓存,都在segment内部。

搜索发生时

搜索时,Lucene会搜索所有的segment然后将每个segment的搜索结果返回,最后合并呈现给客户。

Lucene的一些特性使得这个过程非常重要:

Segments是不可变的(immutable)Delete? 当删除发生时,Lucene做的只是将其标志位置为删除,但是文件还是会在它原来的地方,不会发生改变Update? 所以对于更新来说,本质上它做的工作是:先删除,然后重新索引(Re-index)随处可见的压缩Lucene非常擅长压缩数据,基本上所有教科书上的压缩方式,都能在Lucene中找到。缓存所有的所有Lucene也会将所有的信息做缓存,这大大提高了它的查询效率。

缓存的故事

当ElasticSearch索引一个文件的时候,会为文件建立相应的缓存,并且会定期(每秒)刷新这些数据,然后这些文件就可以被搜索到。

随着时间的增加,我们会有很多segments,

所以ElasticSearch会将这些segment合并,在这个过程中,segment会最终被删除掉

这就是为什么增加文件可能会使索引所占空间变小,它会引起merge,从而可能会有更多的压缩。

举个栗子

有两个segment将会merge

这两个segment最终会被删除,然后合并成一个新的segment

这时这个新的segment在缓存中处于cold状态,但是大多数segment仍然保持不变,处于warm状态。

以上场景经常在Lucene Index内部发生的。

在Shard中搜索

ElasticSearch从Shard中搜索的过程与Lucene Segment中搜索的过程类似。

与在Lucene Segment中搜索不同的是,Shard可能是分布在不同Node上的,所以在搜索与返回结果时,所有的信息都会通过网络传输。

需要注意的是:

1次搜索查找2个shard = 2次分别搜索shard

对于日志文件的处理

当我们想搜索特定日期产生的日志时,通过根据时间戳对日志文件进行分块与索引,会极大提高搜索效率。

当我们想要删除旧的数据时也非常方便,只需删除老的索引即可。

在上种情况下,每个index有两个shards

如何Scale

shard不会进行更进一步的拆分,但是shard可能会被转移到不同节点上

所以,如果当集群节点压力增长到一定的程度,我们可能会考虑增加新的节点,这就会要求我们对所有数据进行重新索引,这是我们不太希望看到的,所以我们需要在规划的时候就考虑清楚,如何去平衡足够多的节点与不足节点之间的关系。

节点分配与Shard优化

为更重要的数据索引节点,分配性能更好的机器确保每个shard都有副本信息replica

路由Routing

每个节点,每个都存留一份路由表,所以当请求到任何一个节点时,ElasticSearch都有能力将请求转发到期望节点的shard进一步处理。

一个真实的请求

Query

Query有一个类型filtered,以及一个multi_match的查询

Aggregation

根据作者进行聚合,得到top10的hits的top10作者的信息

请求分发

这个请求可能被分发到集群里的任意一个节点

上帝节点

这时这个节点就成为当前请求的协调者(Coordinator),它决定:

根据索引信息,判断请求会被路由到哪个核心节点以及哪个副本是可用的等等

路由

在真实搜索之前

ElasticSearch 会将Query转换成Lucene Query

然后在所有的segment中执行计算

对于Filter条件本身也会有缓存

但queries不会被缓存,所以如果相同的Query重复执行,应用程序自己需要做缓存

所以,

filters可以在任何时候使用query只有在需要score的时候才使用

返回

搜索结束之后,结果会沿着下行的路径向上逐层返回。

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。