Elasticsearch 节点选举、分片及 Recovery

2020-03-14 16:01:06 +08:00
 RedisMasterNode
博客地址: https://blog.2014bduck.com/archives/339

隔了挺长一段时间没有更新博客,主要是因为近段时间忙于业务和刷题,想来刷题除了 Po 题解和 Explanation 也是没有什么特别之处,除非钻研得特别深入,所以(@#$%^&找理由)。

关于 Elasticsearch

Elasticsearch 其实官网的文档特别齐全,所以关于用法没有什么特别好写的,看博客不如 RTFM。但是文档特别全的情况下,很多时候又缺少对一些具体细节的描述,一句话说就是不知其所以然。所以今天写的博客内容理应是无关使用的,不涉及命令与操作,大概会更有意义一些吧。

概述

以 Elasticsearch (下称 ES )集群启动过程作为索引来展开,ES 想要从 Red 转为 Green,需要经历以下过程:

Bully 算法与主节点选举

Bully 算法

特地查了一下 Bully 的意思——“仗势欺人者,横行霸道者”,所以这个霸道选举算法如其名,简单暴力地通过选出 ID 最大的候选者来完成。在 Bully 算法中有几点假设:

它的选举通过以下几类消息:

设想以下场景,集群中存在 ID 为 1、2、3 的节点,通过 Bully 算法选举出了 3 为主节点,此时之前因为网络分区无法联系上的 4 节点加入,通过 Bully 算法成了新的主节点,后续失联的 5 节点加入,同样成为新主节点。这种不稳定的状态在 ES 中通过优化选举发起的条件来解决,当主节点确定后,在失效前不进行新一轮的选举。另外其他分布式应用一样,ES 通过 Quorum 来解决脑裂的问题。

Elasticsearch 主节点选举

ES 的选举与 Bully 算法有所出入,它选举的是ID 最小的节点,当然这并没有太大影响。另外目前版本中 ES 的排序影响因素还有集群状态,对应一个状态版本号,排序中会优先将版本号高的节点放在最前。

在选举过程中有几个概念:

某个节点 ping 所有节点,获取一份节点列表,并将自己加入其中。通过这份列表查看当前活跃的 Master 列表,也就是每个节点认为当前的 Master 节点,加入activeMasters 列表中。同样,通过过滤原始列表中不符合 Master 资格的节点,形成masterCandidates 列表

如果 activeMasters 列表不为空,按照 ES 的(近似) Bully 算法选举自己认为的 Master 节点;如果 activeMasters 列表空,从 masterCandidates 列表中选举,但是此时需要判断当前候选人数是否达到 Quorum。ES 使用具体的比较 Master 的逻辑如下:

/**
 * compares two candidates to indicate which the a better master.
 * A higher cluster state version is better
 * 比较两个候选节点以得出更适合作为 Master 的节点。
 * 优先以集群状态版本作为排序
 *
 * @return -1 if c1 is a batter candidate, 1 if c2.
 * @c1 更合适则返回-1,c2 更合适则返回 1
 */
public static int compare(MasterCandidate c1, MasterCandidate c2) {
    // we explicitly swap c1 and c2 here. the code expects "better" is lower in a sorted
    // list, so if c2 has a higher cluster state version, it needs to come first.
    // 先比较版本
    int ret = Long.compare(c2.clusterStateVersion, c1.clusterStateVersion);
    if (ret == 0) {
        // 比较节点
        ret = compareNodes(c1.getNode(), c2.getNode());
    }
    return ret;
}

/** master nodes go before other nodes, with a secondary sort by id **/
 private static int compareNodes(DiscoveryNode o1, DiscoveryNode o2) {
    if (o1.isMasterNode() && !o2.isMasterNode()) {
        // 如果 o1 是主节点
        return -1;
    }
    if (!o1.isMasterNode() && o2.isMasterNode()) {
        // 如果 o2 是主节点
        return 1;
    }
    // ID 比较
    return o1.getId().compareTo(o2.getId());
}

确定之后进行投票,ES 的投票是通过发送 Join 请求进行的,票数即为当前连接数。

如果临时 Master 为当前节点,则当前节点等待 Quorum 连接数,若配置时间内不满足,则选举失败,进行新一轮选举;若满足,发布新的 clusterState。

如果临时 Master 节点不是本节点,则向 Master 发送 Join 请求,等待回复。Master 如果得到足够票数,会先发布状态再确认请求。

主副分片选举与 Allocation 模块

分片的决策由 Master 节点完成,需要确认的内容包括:

allocators

Allocation 模块中,allocators 负责对分片作出优先选择,例如:

deciders

作出选择后,需要通过 deciders 判断分片是否真的可以指定在这个节点,例如:

主分片选举

分片经过指定节点后有 allocation id,并且有 inSyncAllocationIds 列表记录哪些分片是处于“in-sync”状态的。主分片的选举通过是否处于 in-sync 列表来进行。

在历史版本中,分片有对应的版本号,但是如果使用版本号进行选举,如果拥有最新数据版本的分片还未启动,那么就会有历史版本的分片被选为主分片,例如只有一个活跃分片时它必定会被选为主分片。

通过将 in-sync 列表的分片遍历各个 decider,如果有任一 deny 发生,则拒绝本次分配。决策结束之后可能会有多个节点,取第一个节点上的分片作为主分片。

分片模型

ES 中使用 Sequence ID 标记写操作,以得到索引操作的顺序。现在考虑这种情况:由于网络原因,主分片产生的 SID=145 的操作转发到副分片上,但是没有传达成功,此时主分片被另一个副分片取代,也产生了一个 SID=145 (因为这个副分片最新的 SID 是 144 )的操作,转发给其他副分片。转发过程中,原来网络分区的主分片恢复,它的旧 SID=145 操作继续发送给其他副分片,那么分片副本中就有部分收到了旧主发的 145 操作,部分收到了新主发的 145 操作。

因此,除了 Sequence ID 以外,ES 使用 Primary Terms 来标记主分片,每次新主分片产生时,Primary Terms 加 1,副分片会拒绝旧的 Primary Terms 发来的操作。

主节点为分片分配 Primary Terms、Allocation ID,其中各个满足 in-sync 状态的分片的 Allocation ID 构成 inSyncAllocationIds 列表; Sequence ID 由主分片为写操作分配,副分片拒绝 Primary Terms+Sequence ID 落后的操作。

分片数据 Recovery

ES (大致的)存储模型在官网上有描述有图,所以就不多费时间描述了。

主分片 Recovery

主分片因为处于 in-sync list 中,需要恢复的数据只有未进行 fsync 刷盘的部分,也就是 refresh 之后,变得可被索引,但是没有进行 flush 生成新的 commit point 持久化到磁盘的部分。这部分数据在 translog 中,因此需要将数据从 translog 进行恢复。

经过一系列的校验(是否主分片、分片状态是否异常等)工作后,从分片读取最后一次提交( commit )的段( segment )信息,获取其中版本号,更新当前索引版本。然后验证元信息中的 checksum 和实际值是否匹配,避免分片受损。

根据最后一次 commit 的信息,确认 translog 中哪些数据需要进行 reply,执行具体的写操作,结束后进行 refresh,和正常写操作一样,让数据转移到文件系统缓存中,变得可被索引到,但是没有 fsync。

最后进行一次 refresh 更新分片状态,恢复完毕。

副分片 Recovery

副分片恢复需要根据当前数据状态(进度)决定,如果 Sequence ID 满足,可以直接从主分片的 Translog 中恢复缺失部分;如果不满足,需要拉取主分片的 Lucene 索引和 Translog 进行恢复。

主分片一般先 Recovery,结束后接受新业务的操作,如何保证副分片需要的 Translog 不清理?在最初的 1.x 版本中,ES 阻止 refresh 操作保留 translog,但是这样会产生很大的 translog ;在 2.0-5.x 版本中,引入了 translog.view 的概念,translog 被分为多个文件,维护一个引用文件的列表,同时 recovery 通过 translog.view 获取这些文件的引用,因为文件引用的存在 translog 不能被清理,直到 view 关闭(没有引用)。6.0 版本中引入了 TranslogDeletingPolicy 概念,维护活跃的 translog 文件,通过将 translog 做快照来保持 translog 不被清理。

副分片的恢复由两个阶段构成:

前面提过,如果可以基于 SID 进行恢复,跳过 phase1 ;如果主副分片有同样的 syncid 且 doc 数相同,跳过 phase1。

什么是 syncid ?当分片 5 分钟(可配置)没有写入操作就会被标记为 inactive,执行 synced flush,生成一个 syncid,相同 syncid 意味着分片是相同的 Lucene 索引。

恢复过程中的主副分片一致性

恢复时,因为主副分片恢复时间不一致,主分片先进行 Recovery,然后副分片才能基于主分片进行 Recovery,所以主分片可以工作之后,副分片可能还在恢复中,此时主分片会向副分片发送写请求,因此恢复 reply 与主分片可能会同时(或者不按发生顺序)对同一个 doc 进行操作。ES 中通过 doc 的版本号解决这个问题,当收到一个版本号低于 doc 当前版本号的操作时,会放弃本次操作。对于特定的 doc,只有最新一次操作生效。

总结

Elasticsearch 是个易用又复杂的分布式项目,其中很多分布式相关的设计和思想都值得学习和借鉴。在拉取代码时发现项目体积接近 1GB:

duck@duck-MS-7A34:~/study/tmp$ du -sh elasticsearch/
949M    elasticsearch/

因此其中很多模块都没有了解清楚,希望以后可以保持学习的新鲜感,继续摸索更多的内容。

2545 次点击
所在节点    Elasticsearch
0 条回复

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/652785

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX