主要从事linux,云原生架构改造,服务网格,elk,python,golang等相关技术。
分类: 架构设计与优化
2015-04-19 17:08:17
点击(此处)折叠或打开
点击(此处)折叠或打开
简要的网络架构如下:
配置lvs server
lvs_tun.sh
点击(此处)折叠或打开
点击(此处)折叠或打开
3.lvs-nat 模式
简要的网络架构如下图:
配置lvs server
lvs_nat.sh
点击(此处)折叠或打开
优点:集群中的物理服务器可以使用任何支持tcp/ip操作系统,物理服务器可以分配internet的保留私有地址,只有负载均衡器需要一个合法的ip地址。
缺点:扩展性有限。当服务器节点(普通pc服务器)数据增长到20个或更多时,负载均衡器将成为整个系统的瓶颈,因为所有的请求包和应答包都需要经过负载均衡器再生。假使tcp包的平均长度是536字节的话,平均包再生延迟时间大约为60us(在pentium处理器上计算的,采用更快的处理器将使得这个延迟时间变短),负载均衡器的最大容许能力为8.93m/s,假定每台物理服务器的平台容许能力为400k/s来计算,负责均衡器能为22台物理服务器计算。
解决办法:即使是是负载均衡器成为整个系统的瓶颈,如果是这样也有两种方法来解决它。一种是混合处理,另一种是采用virtual server via ip tunneling或virtual server via direct routing。如果采用混合处理的方法,将需要许多同属单一的rr dns域。你采用virtual server via ip tunneling或virtual server via direct routing以获得更好的可扩展性。也可以嵌套使用负载均衡器,在最前端的是vs-tunneling或vs-drouting的负载均衡器,然后后面采用vs-nat的负载均衡器。
二、virtual server via ip tunneling(vs-tun)
我们发现,许多internet服务(例如web服务器)的请求包很短小,而应答包通常很大。
优点:负载均衡器只负责将请求包分发给物理服务器,而物理服务器将应答包直接发给用户。所以,负载均衡器能处理很巨大的请求量,这种方式,一台负载均衡能为超过100台的物理服务器服务,负载均衡器不再是系统的瓶颈。使用vs-tun方式,如果你的负载均衡器拥有100m的全双工网卡的话,就能使得整个virtual server能达到1g的吞吐量。
不足:但是,这种方式需要所有的服务器支持"ip tunneling"(ip encapsulation)协议,我仅在linux系统上实现了这个,如果你能让其它操作系统支持,还在探索之中。
三、virtual server via direct routing(vs-dr)
优点:和vs-tun一样,负载均衡器也只是分发请求,应答包通过单独的路由方法返回给客户端。与vs-tun相比,vs-dr这种实现方式不需要隧道结构,因此可以使用大多数操作系统做为物理服务器,其中包括:linux 2.0.36、2.2.9、2.2.10、2.2.12;solaris 2.5.1、2.6、2.7;freebsd 3.1、3.2、3.3;nt4.0无需打补丁;irix 6.5;hpux11等。
不足:要求负载均衡器的网卡必须与物理网卡在一个物理段上