[Elasticsearch] 分布式文件存储

时间:2023-01-02 17:46:39

本文翻译自Elasticsearch官方指南的distributed document store一章。

分布式文档存储

在上一章中,我们一直在介绍索引数据和获取数据的方法。可是我们省略了非常多关于数据是怎样在集群中被分布(Distributed)和获取(Fetched)的技术细节。这实际上是有意为之 - 你真的不须要了解数据在ES中是怎样被分布的。它能工作就足够了。

在本章中。我们将会深入到这些内部技术细节中。来帮助你了解你的数据是怎样被存储在一个分布式系统中的。

路由一份文档(Document)到一个分片(Shard)

当你索引一份文档时,它会被保存到一个主要分片(Primary Shard)上。那么ES是怎样知道该文档应该被保存到哪个分片上呢?当我们创建了一份新文档。ES是怎样知道它到底应该保存到分片1或者分片2上的呢?

这个过程不能是随机的,由于将来我们也许还须要获取该文档。实际上,这个过程是通过一个很easy的公式决定的:

shard = hash(routing) % number_of_primary_shards

以上的routing的值是一个随意的字符串,它默认被设置成文档的_id字段。可是也能够被设置成其它指定的值。这个routing字符串会被传入到一个哈希函数(Hash Function)来得到一个数字。然后该数字会和索引中的主要分片数进行模运算来得到余数。这个余数的范围应该总是在0和number_of_primary_shards
- 1
之间,它就是一份文档被存储到的分片的号码。

这就解释了为什么索引中的主要分片数量仅仅能在索引创建时被指定。而且将来都不能在被更改:假设主要分片数量在索引创建后改变了。那么之前的全部路由结果都会变的不对。从而导致文档不能被正确地获取。

用户有时会觉得将主要分片数量固定下来会让将来对索引的水平扩展(Scale Out)变的困难。

实际上,有些技术可以让你依据须要方便地进行水平扩展。我们会在Designing
for scale
中介绍这些技术。

全部的文档API(get, index, delete, buli, update和mget)都接受一个routing參数,它用来定制从文档到分片的映射。

一个特定的routing值可以确保全部相关文档 - 比方属于同样用户的全部文档 - 都会被存储在同样的分片上。

我们会在Designing
for scale
中具体介绍为什么你可能会这样做。

主要分片(Primary Shard)和副本分片(Replica Shard)是怎样交互的

为了解释这个问题。如果我们有一个包括3个节点(Node)的集群(Cluster)。

它含有一个拥有2个主要分片的名为blogs的索引。每一个主要分片有2个副本分片。拥有同样数据的两个分片绝不会被分配到同一个节点上,所以这个集群的构成可能会像下图这样:

[Elasticsearch] 分布式文件存储

我们可以向集群中的随意一个节点发送请求。每一个节点都有足够的能力来处理请求。每一个节点都知道集群中的每份文档的位置,因此可以将请求转发到对应的节点。

在以下的样例中。我们会将全部的请求都发送到节点1上。这个节点被称为请求节点(Requesting Node)。

TIP 当发送请求时。最好採用一种循环(Round-robin)的方式来将请求依次发送到每一个节点上,从而做到分担负载。

文档的创建。索引和删除

创建。索引和删除的请求都是写操作(Write Operations),它们都应该首先在主要分片(Primary Shard)上成功完毕,然后才干被拷贝关联的副本分片(Replica Shard)上。

[Elasticsearch] 分布式文件存储

这个过程如上图所看到的。以下我们列举出图中用来完毕创建,索引和删除文档的每一个步骤:

  1. client(Client)向节点1发送了一个用于创建,索引或是删除的请求。
  2. 节点使用该文档的_id字段来决定了它应该属于分片0。

    因此请求会被转发到节点3。由于分片0的主要分片眼下被分配在节点3上。

  3. 节点3会在文档相应的主要分片上运行这个请求。假设运行成功了,那么它会将该请求并行地转发到相应副本分片所在的节点1和节点2上。一旦全部的副本分片都成功完毕了该请求,那么节点3就会向请求节点(Requesting Node)报告运行成功,然后节点3就行向client发送一个请求运行成功的响应了。

当client接收到了运行成功的响应时,在主要分片和其关联的全部副本分片中,发送的文档已经被成功更新了。至此,你的改动就完毕了。

在这个过程中还存在一些可选的參数用来对此过程进行调整。可能地如以牺牲数据安全的代价来添加性能。由于ES本身已经足够快了,所以这些可选參数非常少被使用。可是为了完整性还是会对它们进行解释:

replication

replication的默认值是sync

它会导致主要分片将等待副本分片上的运行成功响应,然后才会将运行成功响应发送到请求节点。
假设你将replication设置成async,那么它会导致成功响应会在请求在主要分片上成功运行后就会被发送到client。

它仍然会将请求转发到副本分片所在的节点上,仅仅是你将无法得知请求在副本分片上能否成功运行。

提到这个选项的目的是为了让你不要使用它。默认的sync值可以让ES处理各种系统中的数据压力。而使用了async可能会由于发送了过多无需等待其完毕的请求而让ES处于过载的状态。

consistency

默认情况下,主要分片须要通过仲裁(Quorum),即确认大部分分片拷贝(分片拷贝能够使主要分片或者副本分片,两者均可)有效时,才会发起一个写操作。

这样做的目的是为了防止将数据写入到网络中"错误的一側(Wrong Side)"。仲裁的定义例如以下:

int( (primary + number_of_replicas) / 2 ) + 1

consistency的值能够是one(仅主要分片)。all(主要分片和全部副本分片),或者是默认的quorum -
大部分分片拷贝。

注意number_of_replicas是指定在索引设置中的副本分片的数量,不是当前处于活动状态的副本分片数量。假设你在索引中指定了有3个副本分片的话,那么quorum的值就是:

int( (primary + 3 replicas) / 2 ) + 1 = 3

那么当仅仅启动了两个节点时,那么就无法满足quorum。从而导致无法索引或者删除不论什么文档。

timeout

假设没有足够的分片拷贝会怎样呢?ES会等待。希望有很多其它的分片会出现。

默认它会等待1分钟。假设须要能够将这个时间设置的短一些:100表示的是100毫秒。30s表示的是30秒。

NOTE 一个新的索引默认会有1个副本分片。那么为了满足quorum则须要有两个活动的分片拷贝。可是。当ES执行在一个单一节点的集群上时,这些默认设置会阻止用户做不论什么实用的操作(比方索引等写操作)。为了防止这个问题,仅仅有当number_of_replicas大于1时,quorum才须要被满足。

获取文档

文档可以通过主要分片(Primary Shard)或者随意一个副本分片(Replica Shard)获取。

[Elasticsearch] 分布式文件存储

上图展示了获取文档的过程。每一个步骤解释例如以下:

  1. client(Client)发送一个请求到节点1。
  2. 该节点利用文档的_id字段来推断该文档属于分片0。分片0的分片拷贝(主要分片或者是副本分片)存在于全部的3个节点上。

    这一次,它将请求转发到了节点2。

  3. 节点2将文档返回给节点1,节点1随即将文档返回给client。

对于读请求(Read Request),请求节点(Requesting Node)每次都会选择一个不同的分片拷贝来实现负载均衡 - 循环使用全部的分片拷贝。

可能存在这样的情况。当一份文档正在被索引时,该文档在主要分片已经就绪了,可是还未被复制到其它副本分片上。

此时副本分片也许报告文档不存在(译注:此时有读请求来获取该文档),然而主要分片可以成功返回须要的文档 。一旦索引请求返回给用户的响应是成功,那么文档在主要分片以及全部副本分片上都是可用的。

文档的部分更新(Partial Update)

update API会结合读和写来完毕一次部分更新。

[Elasticsearch] 分布式文件存储

以下对部分更新的步骤进行解释:

  1. client发送一个更新请求到节点1。
  2. 节点1将请求转发到节点3,由于主要分片被分配在该节点上。
  3. 节点3从主要分片中获取相应的文档,改动JSON文档中的_source字段,然后试图在该主要分片中对改动后的文档又一次索引(Reindex)。假设该文档已经另外一个进程给改动了,那么它会依据retry_on_conflict设置的次数重试。
  4. 假设节点3可以成功更新文档,它会将新版本号的文档通过并行的方式给转发到副本分片所在的节点1和节点2上,也让它们进行重索引的操作。一旦全部的副本节点也运行成功,节点3就会将这一消息发送给请求节点(Requesting Node。此处就是节点1)。然后请求节点给client返回响应。

update API也可以接受接受routing。'replication','consistency'和'timeout'參数。

基于文档的复制 当一个主要分片将改动转发给它的副本分片时。它不会转达更新请求。它转发的是新版本号的完整文档。须要记住这些转发到副本分片的请求是异步的,也就是说它们到达的顺序和发送的顺序是不确定的。假设ES不过转发改动。那么这些改动就可能以错误地顺序被接受,从而导致数据的损毁。

多文档模式(Multi-Document Patterns)

mget和bulk API的行为模式和单个的文档操作是类似的。

差别主要在于请求节点知道每份文档被保存在那个分片上,因此就行将一个多文档请求(Multi-Document Request)给拆分为针对每一个分片的多文档请求,然后并行地将这些请求转发到相应的节点上。

一旦它从每一个节点上获得了答案,它会将这些答案整理成一个单独的响应并返回给client。

[Elasticsearch] 分布式文件存储

使用一个mget请求来获取多份文档的过程例如以下:

  1. client发送一个mget请求到节点1。
  2. 节点1为每一个分片(能够是主要分片或者副本分片)创建一个mget请求,然后将它们并行地转发到其它分片所在的节点。一旦节点1获得了全部的结果。就会将结果组装成响应最后返回给client。

每份文档都能够设置routing參数,通过传入一个docs数组来完毕。

[Elasticsearch] 分布式文件存储

使用一个bulk请求来完毕对多份文档的创建,索引,删除及更新的过程例如以下:

  1. client发送一个bulk请求到节点1。
  2. 节点1为每一个分片(仅仅能是主要分片)创建一个bulk请求。然后将它们并行地转发到其它主要分片所在的节点。
  3. 主要分片会逐个运行bulk请求中出现的指令。当每一个指令成功完毕后,主要分片会将新的文档(或者删除的)并行地转发到它关联的全部副本分片上,然后运行下一条指令。一旦全部的副本分片对全部的指令都确定其成功了,那么当前节点就会向请求节点(Requesting Node)发送成功的响应。最后请求节点会整理全部的响应并终于发送响应给client。

bulk API也可以在整个请求的顶部接受replicationconsistency參数。在每一个详细的请求中接受routing参数。