111222
全部博文(4)
分类: 系统运维
2021-06-07 16:43:11
一、负载均衡简介
1.1. 大型网站面临的挑战
大型网站都要面对庞大的用户量,高并发,海量数据等挑战。为了提升系统整体的性能,可以采用垂直扩展和水平扩展两种方式。
垂直扩展:在网站发展早期,可以从单机的角度通过增加硬件处理能力,比如 cpu 处理能力,内存容量,磁盘等方面,实现服务器处理能力的提升。但是,单机是有性能瓶颈的,一旦触及瓶颈,再想提升,付出的成本和代价会极高。这显然不能满足大型分布式系统(网站)所有应对的大流量,高并发,海量数据等挑战。
水平扩展:通过集群来分担大型网站的流量。集群中的应用服务器(节点)通常被设计成无状态,用户可以请求任何一个节点,这些节点共同分担访问压力。水平扩展有两个要点:
· 应用集群:将同一应用部署到多台机器上,组成处理集群,接收负载均衡设备分发的请求,进行处理,并返回相应数据。
· 负载均衡:将用户访问请求,通过某种算法,分发到集群中的节点。
1.2. 什么是负载均衡
负载均衡(load balance,简称 lb)是高并发、高可用系统必不可少的关键组件,目标是 尽力将网络流量平均分发到多个服务器上,以提高系统整体的响应速度和可用性。
负载均衡的主要作用如下:
高并发:负载均衡通过算法调整负载,尽力均匀的分配应用集群中各节点的工作量,以此提高应用集群的并发处理能力(吞吐量)。
伸缩性:添加或减少服务器数量,然后由负载均衡进行分发控制。这使得应用集群具备伸缩性。
高可用:负载均衡器可以监控候选服务器,当服务器不可用时,自动跳过,将请求分发给可用的服务器。这使得应用集群具备高可用的特性。
安全防护:有些负载均衡软件或硬件提供了安全性功能,如:黑白名单处理、防火墙,防 ddos 攻击等。
二、负载均衡的分类
支持负载均衡的技术很多,我们可以通过不同维度去进行分类。
2.1 载体维度分类
从支持负载均衡的载体来看,可以将负载均衡分为两类:硬件负载均衡、软件负载均衡
2.1.1硬件负载均衡
硬件负载均衡,一般是在定制处理器上运行的独立负载均衡服务器,价格昂贵,土豪专属。硬件负载均衡的主流产品有:f5 和 a10。
硬件负载均衡的 优点:
· 功能强大:支持全局负载均衡并提供较全面的、复杂的负载均衡算法。
· 性能强悍:硬件负载均衡由于是在专用处理器上运行,因此吞吐量大,可支持单机百万以上的并发。
· 安全性高:往往具备防火墙,防 ddos 攻击等安全功能。
硬件负载均衡的 缺点:
· 成本昂贵:购买和维护硬件负载均衡的成本都很高。
· 扩展性差:当访问量突增时,超过限度不能动态扩容。
2.1.2 软件负载均衡
软件负载均衡,应用最广泛,无论大公司还是小公司都会使用。
软件负载均衡从软件层面实现负载均衡,一般可以在任何标准物理设备上运行。
软件负载均衡的 主流产品 有:nginx、haproxy、lvs。
· lvs 可以作为四层负载均衡器。其负载均衡的性能要优于 nginx。
· haproxy 可以作为 http 和 tcp 负载均衡器。
· nginx、haproxy 可以作为四层或七层负载均衡器。
软件负载均衡的 优点:
扩展性好:适应动态变化,可以通过添加软件负载均衡实例,动态扩展到超出初始容量的能力。
·
· 成本低廉:软件负载均衡可以在任何标准物理设备上运行,降低了购买和运维的成本。
软件负载均衡的 缺点:
· 性能略差:相比于硬件负载均衡,软件负载均衡的性能要略低一些。
2.2 网络通信分类
软件负载均衡从通信层面来看,又可以分为四层和七层负载均衡。
1) 七层负载均衡:就是可以根据访问用户的 http 请求头、url 信息将请求转发到特定的主机。
· dns 重定向
· http 重定向
· 反向代理
2) 四层负载均衡:基于 ip 地址和端口进行请求的转发。
· 修改 ip 地址
· 修改 mac 地址
2.2.1 dns 负载均衡
dns 负载均衡一般用于互联网公司,复杂的业务系统不适合使用。大型网站一般使用 dns 负载均衡作为 第一级负载均衡手段,然后在内部使用其它方式做第二级负载均衡。dns 负载均衡属于七层负载均衡。
dns 即 域名解析服务,是 osi 第七层网络协议。dns 被设计为一个树形结构的分布式应用,自上而下依次为:根域名服务器,一级域名服务器,二级域名服务器,... ,本地域名服务器。显然,如果所有数据都存储在根域名服务器,那么 dns 查询的负载和开销会非常庞大。
因此,dns 查询相对于 dns 层级结构,是一个逆向的递归流程,dns 客户端依次请求本地 dns 服务器,上一级 dns 服务器,上上一级 dns 服务器,... ,根 dns 服务器(又叫权威 dns 服务器),一旦命中,立即返回。为了减少查询次数,每一级 dns 服务器都会设置 dns 查询缓存。
dns 负载均衡的工作原理就是:基于 dns 查询缓存,按照负载情况返回不同服务器的 ip 地址。
dns 重定向的 优点:
使用简单:负载均衡工作,交给 dns 服务器处理,省掉了负载均衡服务器维护的麻烦 提高性能:
可以支持基于地址的域名解析,解析成距离用户最近的服务器地址(类似 cdn 的原理),可以加快访问速度,改善性能;
dns 重定向的 缺点:
可用性差:dns 解析是多级解析,新增/修改 dns 后,解析时间较长;
解析过程中,用户访问网站将失败;
扩展性低:dns 负载均衡的控制权在域名商那里,无法对其做更多的改善和扩展;
维护性差:也不能反映服务器的当前运行状态;支持的算法少;不能区分服务器的差异(不能根据系统与服务的状态来判断负载)。
2.2.2 http 负载均衡
http 负载均衡是基于 http 重定向实现的。http 负载均衡属于七层负载均衡。
http 重定向原理是:根据用户的 http 请求计算出一个真实的服务器地址,将该服务器地址写入 http 重定向响应中,返回给浏览器,由浏览器重新进行访问。
http 重定向的优点:方案简单。
http 重定向的 缺点:
性能较差:每次访问需要两次请求服务器,增加了访问的延迟。 降低搜索排名:使用重定向后,搜索引擎会视为 seo 作弊。 如果负载均衡器宕机,就无法访问该站点。
由于其缺点比较明显,所以这种负载均衡策略实际应用较少。
2.2.3 反向代理负载均衡
反向代理(reverse proxy)方式是指以 代理服务器 来接受网络请求,然后 将请求转发给内网中的服务器,并将从内网中的服务器上得到的结果返回给网络请求的客户端。反向代理负载均衡属于七层负载均衡。
反向代理服务的主流产品:nginx、apache。
正向代理与反向代理有什么区别?
正向代理:发生在 客户端,是由用户主动发起的。vpn软件就是典型的正向代理,客户端通过主动访问代理服务器,让代理服务器获得需要的外网数据,然后转发回客户端。
反向代理:发生在 服务端,用户不知道代理的存在。
反向代理是如何实现负载均衡的呢?以 nginx 为例,如下所示:
首先,在代理服务器上设定好负载均衡规则。然后,当收到客户端请求,反向代理服务器拦截指定的域名或 ip 请求,根据负载均衡算法,将请求分发到候选服务器上。其次,如果某台候选服务器宕机,反向代理服务器会有容错处理,比如分发请求失败 3 次以上,将请求分发到其他候选服务器上。
反向代理的 优点:
1) 多种负载均衡算法:支持多种负载均衡算法,以应对不同的场景需求。
2) 可以监控服务器:基于 http 协议,可以监控转发服务器的状态,如:系统负载、响应时间、是否可用、连接数、流量等,从而根据这些数据调整负载均衡的策略。
反向代理的 缺点:
1) 额外的转发开销:反向代理的转发操作本身是有性能开销的,可能会包括创建连接,等待连接响应,分析响应结果等操作。
2) 增加系统复杂度:反向代理常用于做分布式应用的水平扩展,但反向代理服务存在以下问题,为了解决以下问题会给系统整体增加额外的复杂度和运维成本:
· 反向代理服务如果自身宕机,就无法访问站点,所以需要有 高可用 方案,常见的方案有:主备模式(一主一备)、双主模式(互为主备)。 反向代理服务自身也存在性能瓶颈,随着需要转发的请求量不断攀升,需要有 可扩展 方案。
2.2.4 ip负载均衡
ip 负载均衡是在网络层通过修改请求目的地址进行负载均衡。
如上图所示,ip 均衡处理流程大致为:
客户端请求 192.168.137.10,由负载均衡服务器接收到报文。 负载均衡服务器根据算法选出一个服务节点 192.168.0.1,然后将报文请求地址改为该节点的 ip。 真实服务节点收到请求报文,处理后,返回响应数据到负载均衡服务器。
负载均衡服务器将响应数据的源地址改负载均衡服务器地址,返回给客户端。
ip 负载均衡在内核进程完成数据分发,较反向代理负载均衡有更好的从处理性能。但是,由于所有请求响应都要经过负载均衡服务器,集群的吞吐量受制于负载均衡服务器的带宽。
2.2.5 数据链路层负载均衡
数据链路层负载均衡是指在通信协议的数据链路层修改 mac 地址进行负载均衡。
在 linux 平台上最好的链路层负载均衡开源产品是 lvs (linux virtual server)。lvs 是基于 linux 内核中 netfilter 框架实现的负载均衡系统。netfilter 是内核态的 linux 防火墙机制,可以在数据包流经过程中,根据规则设置若干个关卡(hook 函数)来执行相关的操作。
lvs 的工作流程大致如下:
当用户访问 时,用户数据通过层层网络,最后通过交换机进入 lvs 服务器网卡,并进入内核网络层。 进入 prerouting 后经过路由查找,确定访问的目的 vip 是本机 ip 地址,所以数据包进入到 input 链上;
ipvs 是工作在 input 链上,会根据访问的 vip port 判断请求是否 ipvs 服务,如果是则调用注册的 ipvs hook 函数,进行 ipvs 相关主流程,强行修改数据包的相关数据,并将数据包发往 postrouting 链上;
postrouting 上收到数据包后,根据目标 ip 地址(后端服务器),通过路由选路,将数据包最终发往后端的服务器上。
开源 lvs 版本有 3 种工作模式,每种模式工作原理截然不同,说各种模式都有自己的优缺点,分别适合不同的应用场景,不过最终本质的功能都是能实现均衡的流量调度和良好的扩展性。主要包括三种模式:dr 模式、nat 模式、tunnel 模式。
三、负载均衡算法
负载均衡器的实现可以分为两个部分:
根据负载均衡算法在候选服务器列表选出一个服务器; 将请求数据发送到该服务器上。
负载均衡算法是负载均衡服务核心中的核心。负载均衡产品多种多样,但是各种负载均衡算法原理是共性的。负载均衡算法有很多种,分别适用于不同的应用场景,本文仅介绍最为常见的负载均衡算法的特性及原理:轮询、随机、最小活跃数、源地址哈希、一致性哈希。
注:负载均衡算法的实现,推荐阅读 ,源码讲解非常详细,非常值得借鉴。
3.1 随机
3.1.1 随机算法
随机(random) 算法将请求随机分发到候选服务器。
随机算法 适合服务器硬件相同的场景。学习过概率论的都知道,调用量较小的时候,可能负载并不均匀,调用量越大,负载越均衡。
【示例】随机算法实现示例
负载均衡接口
1. public interface loadbalance
2.
3. n select(list
4.
5. }
负载均衡抽象类
1. public abstract class baseloadbalance
2.
3. @override
4. public n select(list
5. if (collectionutil.isempty(nodes)) {
6. return null;
7. }
8.
9. // 如果 nodes 列表中仅有一个 node,直接返回即可,无需进行负载均衡
10. if (nodes.size() == 1) {
11. return nodes.get(0);
12. }
13.
14. return doselect(nodes, ip);
15. }
16.
17. protected abstract n doselect(list
18.
19. }
服务器节点类
1. public class node implements comparable
2.
3. protected string url;
4.
5. protected integer weight;
6.
7. protected integer active;
8.
9. // ...
10. }
随机算法实现
1. public class randomloadbalance
2.
3. private final random random = new random();
4.
5. @override
6. protected n doselect(list
7. // 在列表中随机选取一个节点
8. int index = random.nextint(nodes.size());
9. return nodes.get(index);
10. }
11.
12. }
3.1.2 加权随机算法
加权随机(weighted random) 算法在随机算法的基础上,按照概率调整权重,进行负载分配。
【示例】加权随机算法实现示例
1. public class weightrandomloadbalance
2.
3. private final random random = threadlocalrandom.current();
4.
5. @override
6. protected n doselect(list
7.
8. int length = nodes.size();
9. atomicinteger totalweight = new atomicinteger(0);
10. for (n node : nodes) {
11. integer weight = node.getweight();
12. totalweight.getandadd(weight);
13. }
14.
15. if (totalweight.get() > 0) {
16. int offset = random.nextint(totalweight.get());
17. for (n node : nodes) {
18. // 让随机值 offset 减去权重值
19. offset -= node.getweight();
20. if (offset < 0) {
21. // 返回相应的 node
22. return node;
23. }
24. }
25. }
26.
27. // 直接随机返回一个
28. return nodes.get(random.nextint(length));
29. }
30.
31. }
3.2 轮询
3.2.1 轮询算法
轮询(round robin)算法的策略是:将请求依次分发到候选服务器。
如下图所示,负载均衡器收到来自客户端的 6 个请求,(1, 3, 5) 的请求会被发送到服务器 1,(2, 4, 6) 的请求会被发送到服务器 2。
该算法适合场景:各服务器处理能力相近,且每个事务工作量差异不大。如果存在较大差异,那么处理较慢的服务器就可能会积压请求,最终无法承担过大的负载。
【示例】轮询算法示例
轮询负载均衡算法实现
1. public class roundrobinloadbalance
2.
3. private final atomicinteger position = new atomicinteger(0);
4.
5. @override
6. protected n doselect(list
7. int length = nodes.size();
8. // 如果位置值已经等于节点数,重置为 0
9. position.compareandset(length, 0);
10. n node = nodes.get(position.get());
11. position.getandincrement();
12. return node;
13. }
14.
15. }
3.2.2 加权轮询算法
加权轮询(weighted round robbin)算法在轮询算法的基础上,增加了权重属性来调节转发服务器的请求数目。性能高、处理速度快的节点应该设置更高的权重,使得分发时优先将请求分发到权重较高的节点上。
如下图所示,服务器 a 设置权重为 5,服务器 b 设置权重为 1,负载均衡器收到来自客户端的 6 个请求,那么 (1, 2, 3, 4, 5) 请求会被发送到服务器 a,(6) 请求会被发送到服务器 b。
【示例】加权轮询算法实现示例
以下实现基于 dubbo 加权轮询算法做了一些简化。
1. public class weightroundrobinloadbalance
2.
3. /**
4. * 60秒
5. */
6. private static final int recycle_period = 60000;
7.
8. /**
9. * node hashcode 到 weightedroundrobin 的映射关系
10. */
11. private concurrentmap
12.
13. /**
14. * 原子更新锁
15. */
16. private atomicboolean updatelock = new atomicboolean();
17.
18. @override
19. protected n doselect(list
20.
21. int totalweight = 0;
22. long maxcurrent = long.min_value;
23.
24. // 获取当前时间
25. long now = system.currenttimemillis();
26. n selectednode = null;
27. weightedroundrobin selectedwrr = null;
28.
29. // 下面这个循环主要做了这样几件事情:
30. // 1. 遍历 node 列表,检测当前 node 是否有相应的 weightedroundrobin,没有则创建
31. // 2. 检测 node 权重是否发生了变化,若变化了,则更新 weightedroundrobin 的 weight 字段
32. // 3. 让 current 字段加上自身权重,等价于 current = weight
33. // 4. 设置 lastupdate 字段,即 lastupdate = now
34. // 5. 寻找具有最大 current 的 node,以及 node 对应的 weightedroundrobin,
35. // 暂存起来,留作后用
36. // 6. 计算权重总和
37. for (n node : nodes) {
38. int hashcode = node.hashcode();
39. weightedroundrobin weightedroundrobin = weightmap.get(hashcode);
40. int weight = node.getweight();
41. if (weight < 0) {
42. weight = 0;
43. }
44.
45. // 检测当前 node 是否有对应的 weightedroundrobin,没有则创建
46. if (weightedroundrobin == null) {
47. weightedroundrobin = new weightedroundrobin();
48. // 设置 node 权重
49. weightedroundrobin.setweight(weight);
50. // 存储 url 唯一标识 identifystring 到 weightedroundrobin 的映射关系
51. weightmap.putifabsent(hashcode, weightedroundrobin);
52. weightedroundrobin = weightmap.get(hashcode);
53. }
54. // node 权重不等于 weightedroundrobin 中保存的权重,说明权重变化了,此时进行更新
55. if (weight != weightedroundrobin.getweight()) {
56. weightedroundrobin.setweight(weight);
57. }
58.
59. // 让 current 加上自身权重,等价于 current = weight
60. long current = weightedroundrobin.increasecurrent();
61. // 设置 lastupdate,表示近期更新过
62. weightedroundrobin.setlastupdate(now);
63. // 找出最大的 current
64. if (current > maxcurrent) {
65. maxcurrent = current;
66. // 将具有最大 current 权重的 node 赋值给 selectednode
67. selectednode = node;
68. // 将 node 对应的 weightedroundrobin 赋值给 selectedwrr,留作后用
69. selectedwrr = weightedroundrobin;
70. }
71.
72. // 计算权重总和
73. totalweight = weight;
74. }
75.
76. // 对 weightmap 进行检查,过滤掉长时间未被更新的节点。
77. // 该节点可能挂了,nodes 中不包含该节点,所以该节点的 lastupdate 长时间无法被更新。
78. // 若未更新时长超过阈值后,就会被移除掉,默认阈值为60秒。
79. if (!updatelock.get() && nodes.size() != weightmap.size()) {
80. if (updatelock.compareandset(false, true)) {
81. try {
82. // 遍历修改,即移除过期记录
83. weightmap.entryset().removeif(item -> now - item.getvalue().getlastupdate() > recycle_period);
84. } finally {
85. updatelock.set(false);
86. }
87. }
88. }
89.
90. if (selectednode != null) {
91. // 让 current 减去权重总和,等价于 current -= totalweight
92. selectedwrr.decreasecurrent(totalweight);
93. // 返回具有最大 current 的 node
94. return selectednode;
95. }
96.
97. // should not happen here
98. return nodes.get(0);
99. }
100.
101. protected static class weightedroundrobin {
102.
103. // 服务提供者权重
104. private int weight;
105. // 当前权重
106. private atomiclong current = new atomiclong(0);
107. // 最后一次更新时间
108. private long lastupdate;
109.
110. public long increasecurrent() {
111. // current = current weight;
112. return current.addandget(weight);
113. }
114.
115. public long decreasecurrent(int total) {
116. // current = current - total;
117. return current.addandget(-1 * total);
118. }
119.
120. public int getweight() {
121. return weight;
122. }
123.
124. public void setweight(int weight) {
125. this.weight = weight;
126. // 初始情况下,current = 0
127. current.set(0);
128. }
129.
130. public atomiclong getcurrent() {
131. return current;
132. }
133.
134. public void setcurrent(atomiclong current) {
135. this.current = current;
136. }
137.
138. public long getlastupdate() {
139. return lastupdate;
140. }
141.
142. public void setlastupdate(long lastupdate) {
143. this.lastupdate = lastupdate;
144. }
145.
146. }
147.
148. }
3.3 最小活跃数
最小活跃数(least active)算法 将请求分发到连接数/请求数最少的候选服务器(目前处理请求最少的服务器)。
· 特点:根据候选服务器当前的请求连接数,动态分配。
· 场景:适用于对系统负载较为敏感或请求连接时长相差较大的场景。
由于每个请求的连接时长不一样,如果采用简单的轮循或随机算法,都可能出现某些服务器当前连接数过大,而另一些服务器的连接过小的情况,这就造成了负载并非真正均衡。虽然,轮询或算法都可以通过加权重属性的方式进行负载调整,但加权方式难以应对动态变化。
例如下图中,(1, 3, 5) 请求会被发送到服务器 1,但是 (1, 3) 很快就断开连接,此时只有 (5) 请求连接服务器 1;(2, 4, 6) 请求被发送到服务器 2,只有 (2) 的连接断开。该系统继续运行时,服务器 2 会承担过大的负载。
最小活跃数算法会记录当前时刻,每个候选节点正在处理的连接数,然后选择连接数最小的节点。该策略能够动态、实时地反应服务器的当前状况,较为合理地将负责分配均匀,适用于对当前系统负载较为敏感的场景。
例如下图中,服务器 1 当前连接数最小,那么新到来的请求 6 就会被发送到服务器 1 上。
加权最小活跃数(weighted least connection)在最小活跃数的基础上,根据服务器的性能为每台服务器分配权重,再根据权重计算出每台服务器能处理的连接数。
最小活跃数算法实现要点:活跃调用数越小,表明该服务节点处理能力越高,单位时间内可处理更多的请求,应优先将请求分发给该服务。在具体实现中,每个服务节点对应一个活跃数 active。初始情况下,所有服务提供者活跃数均为 0。每收到一个请求,活跃数加 1,完成请求后则将活跃数减 1。在服务运行一段时间后,性能好的服务提供者处理请求的速度更快,因此活跃数下降的也越快,此时这样的服务提供者能够优先获取到新的服务请求、这就是最小活跃数负载均衡算法的基本思想。
【示例】最小活跃数算法实现
以下实现基于 dubbo 最小活跃数负载均衡算法做了些许改动。
1. public class leastactiveloadbalance
2.
3. private final random random = new random();
4.
5. @override
6. protected n doselect(list
7. int length = nodes.size();
8. // 最小的活跃数
9. int leastactive = -1;
10. // 具有相同“最小活跃数”的服务者提供者(以下用 node 代称)数量
11. int leastcount = 0;
12. // leastindexs 用于记录具有相同“最小活跃数”的 node 在 nodes 列表中的下标信息
13. int[] leastindexs = new int[length];
14. int totalweight = 0;
15. // 第一个最小活跃数的 node 权重值,用于与其他具有相同最小活跃数的 node 的权重进行对比,
16. // 以检测是否“所有具有相同最小活跃数的 node 的权重”均相等
17. int firstweight = 0;
18. boolean sameweight = true;
19.
20. // 遍历 nodes 列表
21. for (int i = 0; i < length; i ) {
22. n node = nodes.get(i);
23. // 发现更小的活跃数,重新开始
24. if (leastactive == -1 || node.getactive() < leastactive) {
25. // 使用当前活跃数更新最小活跃数 leastactive
26. leastactive = node.getactive();
27. // 更新 leastcount 为 1
28. leastcount = 1;
29. // 记录当前下标值到 leastindexs 中
30. leastindexs[0] = i;
31. totalweight = node.getweight();
32. firstweight = node.getweight();
33. sameweight = true;
34.
35. // 当前 node 的活跃数 node.getactive() 与最小活跃数 leastactive 相同
36. } else if (node.getactive() == leastactive) {
37. // 在 leastindexs 中记录下当前 node 在 nodes 集合中的下标
38. leastindexs[leastcount ] = i;
39. // 累加权重
40. totalweight = node.getweight();
41. // 检测当前 node 的权重与 firstweight 是否相等,
42. // 不相等则将 sameweight 置为 false
43. if (sameweight && i > 0
44. && node.getweight() != firstweight) {
45. sameweight = false;
46. }
47. }
48. }
49.
50. // 当只有一个 node 具有最小活跃数,此时直接返回该 node 即可
51. if (leastcount == 1) {
52. return nodes.get(leastindexs[0]);
53. }
54.
55. // 有多个 node 具有相同的最小活跃数,但它们之间的权重不同
56. if (!sameweight && totalweight > 0) {
57. // 随机生成一个 [0, totalweight) 之间的数字
58. int offsetweight = random.nextint(totalweight);
59. // 循环让随机数减去具有最小活跃数的 node 的权重值,
60. // 当 offset 小于等于0时,返回相应的 node
61. for (int i = 0; i < leastcount; i ) {
62. int leastindex = leastindexs[i];
63. // 获取权重值,并让随机数减去权重值
64. offsetweight -= nodes.get(leastindex).getweight();
65. if (offsetweight <= 0) {
66. return nodes.get(leastindex);
67. }
68. }
69. }
70. // 如果权重相同或权重为0时,随机返回一个 node
71. return nodes.get(leastindexs[random.nextint(leastcount)]);
72. }
73.
74. }
3.4 源地址哈希
源地址哈希(ip hash)算法 根据请求源 ip,通过哈希计算得到一个数值,用该数值在候选服务器列表的进行取模运算,得到的结果便是选中的服务器。
可以保证同一 ip 的客户端的请求会转发到同一台服务器上,用来实现会话粘滞(sticky session)。
特点:保证特定用户总是请求到相同的服务器,若服务器宕机,会话会丢失。
【示例】源地址哈希算法实现示例
1. public class iphashloadbalance
2.
3. @override
4. protected n doselect(list
5. if (strutil.isblank(ip)) {
6. ip = "127.0.0.1";
7. }
8.
9. int length = nodes.size();
10. int index = hash(ip) % length;
11. return nodes.get(index);
12. }
13.
14. public int hash(string text) {
15. return hashutil.fnvhash(text);
16. }
17.
18. }
3.5 一致性哈希
一致性哈希(consistent hash)算法的目标是:相同的请求尽可能落到同一个服务器上。
一致性哈希 可以很好的解决 稳定性问题,可以将所有的 存储节点 排列在 首尾相接 的 hash 环上,每个 key 在计算 hash 后会 顺时针 找到 临接 的 存储节点 存放。而当有节点 加入 或 退出 时,仅影响该节点在 hash环上顺时针相邻的后续节点。
1)相同的请求是指:一般在使用一致性哈希时,需要指定一个 key 用于 hash 计算,可能是:
用户 id 请求方 ip 请求服务名称,参数列表构成的串
2)尽可能是指:服务器可能发生上下线,少数服务器的变化不应该影响大多数的请求。
当某台候选服务器宕机时,原本发往该服务器的请求,会基于虚拟节点,平摊到其它候选服务器,不会引起剧烈变动。
优点:加入 和 删除 节点只影响 哈希环 中 顺时针方向 的 相邻的节点,对其他节点无影响。
缺点:加减节点 会造成 哈希环 中部分数据 无法命中。当使用 少量节点 时,节点变化 将大范围影响 哈希。
环 中 数据映射,不适合 少量数据节点 的分布式方案。普通 的 一致性哈希分区 在增减节点时需要 增加一倍 或 减去一半 节点才能保证 数据 和 负载的均衡。
注意:因为 一致性哈希分区 的这些缺点,一些分布式系统采用 虚拟槽 对 一致性哈希 进行改进,比如 dynamo 系统。
【示例】一致性哈希算法示例
1. public class consistenthashloadbalance
2.
3. private final concurrentmap
4.
5. @suppresswarnings("unchecked")
6. @override
7. protected n doselect(list
8. // 分片数,这里设为节点数的 4 倍
9. integer replicanum = nodes.size() * 4;
10. // 获取 nodes 原始的 hashcode
11. int identityhashcode = system.identityhashcode(nodes);
12.
13. // 如果 nodes 是一个新的 list 对象,意味着节点数量发生了变化
14. // 此时 selector.identityhashcode != identityhashcode 条件成立
15. consistenthashselector
16. if (selector == null || selector.identityhashcode != identityhashcode) {
17. // 创建新的 consistenthashselector
18. selectors.put(ip, new consistenthashselector<>(nodes, identityhashcode, replicanum));
19. selector = (consistenthashselector
20. }
21. // 调用 consistenthashselector 的 select 方法选择 node
22. return selector.select(ip);
23. }
24.
25. /**
26. * 一致性哈希选择器
27. */
28. private static final class consistenthashselector
29.
30. /**
31. * 存储虚拟节点
32. */
33. private final treemap
34.
35. private final int identityhashcode;
36.
37. /**
38. * 构造器
39. *
40. * @param nodes 节点列表
41. * @param identityhashcode hashcode
42. * @param replicanum 分片数
43. */
44. consistenthashselector(list
45. this.virtualnodes = new treemap<>();
46. this.identityhashcode = identityhashcode;
47. // 获取虚拟节点数,默认为 100
48. if (replicanum == null) {
49. replicanum = 100;
50. }
51. for (n node : nodes) {
52. for (int i = 0; i < replicanum / 4; i ) {
53. // 对 url 进行 md5 运算,得到一个长度为16的字节数组
54. byte[] digest = md5(node.get);
55. // 对 digest 部分字节进行 4 次 hash 运算,得到四个不同的 long 型正整数
56. for (int j = 0; j < 4; j ) {
57. // h = 0 时,取 digest 中下标为 0 ~ 3 的4个字节进行位运算
58. // h = 1 时,取 digest 中下标为 4 ~ 7 的4个字节进行位运算
59. // h = 2, h = 3 时过程同上
60. long m = hash(digest, j);
61. // 将 hash 到 node 的映射关系存储到 virtualnodes 中,
62. // virtualnodes 需要提供高效的查询操作,因此选用 treemap 作为存储结构
63. virtualnodes.put(m, node);
64. }
65. }
66. }
67. }
68.
69. public n select(string key) {
70. // 对参数 key 进行 md5 运算
71. byte[] digest = md5(key);
72. // 取 digest 数组的前四个字节进行 hash 运算,再将 hash 值传给 selectforkey 方法,
73. // 寻找合适的 node
74. return selectforkey(hash(digest, 0));
75. }
76.
77. private n selectforkey(long hash) {
78. // 查找第一个大于或等于当前 hash 的节点
79. map.entry
80. // 如果 hash 大于 node 在哈希环上最大的位置,此时 entry = null,
81. // 需要将 treemap 的头节点赋值给 entry
82. if (entry == null) {
83. entry = virtualnodes.firstentry();
84. }
85. // 返回 node
86. return entry.getvalue();
87. }
88.
89. }
90.
91. /**
92. * 计算 hash 值
93. */
94. public static long hash(byte[] digest, int number) {
95. return (((long) (digest[3 number * 4] & 0xff) << 24)
96. | ((long) (digest[2 number * 4] & 0xff) << 16)
97. | ((long) (digest[1 number * 4] & 0xff) << 8)
98. | (digest[number * 4] & 0xff))
99. & 0xffffffffl;
100. }
101.
102. /**
103. * 计算 md5 值
104. */
105. public static byte[] md5(string value) {
106. messagedigest md5;
107. try {
108. md5 = messagedigest.getinstance("md5");
109. } catch (nosuchalgorithmexception e) {
110. throw new illegalstateexception(e.getmessage(), e);
111. }
112. md5.reset();
113. byte[] bytes = value.getbytes(standardcharsets.utf_8);
114. md5.update(bytes);
115. return md5.digest();
116. }
117.
118. }
以上示例基于 dubbo 的一致性哈希负载均衡算法做了一些简化。
四、参考资料
1.
2. 《大型网站技术架构:核心原理与案例分析》
3.
4.
5.
6.
7.
8.