提高 linux 上 socket 性能-凯发app官方网站

凯发app官方网站-凯发k8官网下载客户端中心 | | 凯发app官方网站-凯发k8官网下载客户端中心
  • 博客访问: 3976795
  • 博文数量: 536
  • 博客积分: 10470
  • 博客等级: 上将
  • 技术积分: 4825
  • 用 户 组: 普通用户
  • 注册时间: 2006-05-26 14:08
文章分类

全部博文(536)

文章存档

2024年(3)

2021年(1)

2019年(1)

2017年(1)

2016年(2)

2013年(2)

2012年(10)

2011年(43)

2010年(10)

2009年(17)

2008年(121)

2007年(252)

2006年(73)

相关博文
  • ·
  • ·
  • ·
  • ·
  • ·
  • ·
  • ·
  • ·
  • ·
  • ·

分类: c/c

2008-03-20 16:57:17

1>. 最小化报文传输的延时

您应该考虑的第一件事情是 nagle 算法满足一种需求。由于这种算法对数据进行合并,试图构成一个完整的 tcp 报文段,因此它会引入一些延时。但是这种算法可以最小化在线路上发送的报文的数量,因此可以最小化网络拥塞的问题。

但是在需要最小化传输延时的情况中,sockets api 可以提供一种凯发app官方网站的解决方案。要禁用 nagle 算法,您可以设置 tcp_nodelay socket 选项,如清单 1 所示。

清单 1. 为 tcp socket 禁用 nagle 算法
int sock, flag, ret;
/* create new stream socket */
sock = socket( af_inet, sock_stream, 0 );
/* disable the nagle (tcp no delay) algorithm */
flag = 1;
ret = setsockopt( sock, ipproto_tcp, tcp_nodelay, (char *)&flag, sizeof(flag) );
if (ret == -1) {
  printf("couldn't setsockopt(tcp_nodelay)\n");
  exit(-1);
}

提示:使用 samba 的实验表明,在从 microsoft® windows® 服务器上的 samba 驱动器上读取数据时,禁用 nagle 算法几乎可以加倍提高读性能。

2>. 最小化系统调用的负载

由于我们无法避免这些系统调用,因此惟一的选择是最小化使用这些调用的次数。幸运的是,我们可以对这个过程进行控制。

凯发app官方网站的解决方案

在将数据写入一个 socket 时,尽量一次写入所有的数据,而不是执行多次写数据的操作。对于读操作来说,最好传入可以支持的最大缓冲区,因为如果没有足够多的数据,内核也会试图填充整个缓冲区(另外还需要保持 tcp 的通告窗口为打开状态)。这样,您就可以最小化调用的次数,并可以实现更好的整体性能。

3>. 为 bandwidth delay product 调节 tcp 窗口

tcp 的性能取决于几个方面的因素。两个最重要的因素是链接带宽(link bandwidth)(报文在网络上传输的速率)和 往返时间(round-trip time) 或 rtt(发送报文与接收到另一端的响应之间的延时)。这两个值确定了称为 bandwidth delay product(bdp)的内容。

给定链接带宽和 rtt 之后,您就可以计算出 bdp 的值了,不过这代表什么意义呢?bdp 给出了一种简单的方法来计算理论上最优的 tcp socket 缓冲区大小(其中保存了排队等待传输和等待应用程序接收的数据)。如果缓冲区太小,那么 tcp 窗口就不能完全打开,这会对性能造成限制。如果缓冲区太大,那么宝贵的内存资源就会造成浪费。如果您设置的缓冲区大小正好合适,那么就可以完全利用可用的带宽。下面我们来看一个例子:

bdp = link_bandwidth * rtt

如果应用程序是通过一个 100mbps 的局域网进行通信,其 rrt 为 50 ms,那么 bdp 就是:

100mbps * 0.050 sec / 8 = 0.625mb = 625kb

注意:此处除以 8 是将位转换成通信使用的字节。

因此,我们可以将 tcp 窗口设置为 bdp 或 1.25mb。但是在 linux 2.6 上默认的 tcp 窗口大小是 110kb,这会将连接的带宽限制为 2.2mbps,计算方法如下:

throughput = window_size / rtt

110kb / 0.050 = 2.2mbps

如果使用上面计算的窗口大小,我们得到的带宽就是 12.5mbps,计算方法如下:

625kb / 0.050 = 12.5mbps

差别的确很大,并且可以为 socket 提供更大的吞吐量。因此现在您就知道如何为您的 socket 计算最优的缓冲区大小了。但是又该如何来改变呢?

凯发app官方网站的解决方案

sockets api 提供了几个 socket 选项,其中两个可以用于修改 socket 的发送和接收缓冲区的大小。清单 2 展示了如何使用 so_sndbuf 和 so_rcvbuf 选项来调整发送和接收缓冲区的大小。

注意:尽管 socket 缓冲区的大小确定了通告 tcp 窗口的大小,但是 tcp 还在通告窗口内维护了一个拥塞窗口。因此,由于这个拥塞窗口的存在,给定的 socket 可能永远都不会利用最大的通告窗口。

清单 2. 手动设置发送和接收 socket 缓冲区大小

int ret, sock, sock_buf_size;
sock = socket( af_inet, sock_stream, 0 );
sock_buf_size = bdp;
ret = setsockopt( sock, sol_socket, so_sndbuf,
                   (char *)&sock_buf_size, sizeof(sock_buf_size) );
ret = setsockopt( sock, sol_socket, so_rcvbuf,
                   (char *)&sock_buf_size, sizeof(sock_buf_size) );


在 linux 2.6 内核中,发送缓冲区的大小是由调用用户来定义的,但是接收缓冲区会自动加倍。您可以进行 getsockopt 调用来验证每个缓冲区的大小。
    
巨帧(jumbo frame)

我们还可以考虑将包的大小从 1,500 字节修改为 9,000 字节(称为巨帧)。在本地网络中可以通过设置最大传输单元(maximum transmit unit,mtu)来设置巨帧,这可以极大地提高性能。

就 window scaling 来说,tcp 最初可以支持最大为 64kb 的窗口(使用 16 位的值来定义窗口的大小)。采用 window scaling(rfc 1323)扩展之后,您就可以使用 32 位的值来表示窗口的大小了。gnu/linux 中提供的 tcp/ip 栈可以支持这个选项(以及其他一些选项)。

提示:linux 内核还包括了自动对这些 socket 缓冲区进行优化的能力(请参阅下面 表 1 中的 tcp_rmem 和 tcp_wmem),不过这些选项会对整个栈造成影响。如果您只需要为一个连接或一类连接调节窗口的大小,那么这种机制也许不能满足您的需要了。

4>. 动态优化 gnu/linux tcp/ip 栈

标准的 gnu/linux 发行版试图对各种部署情况都进行优化。这意味着标准的发行版可能并没有对您的环境进行特殊的优化。

凯发app官方网站的解决方案

gnu/linux 提供了很多可调节的内核参数,您可以使用这些参数为您自己的用途对操作系统进行动态配置。下面我们来了解一下影响 socket 性能的一些更重要的选项。

在 /proc 虚拟文件系统中存在一些可调节的内核参数。这个文件系统中的每个文件都表示一个或多个参数,它们可以通过 cat 工具进行读取,或使用 echo 命令进行修改。清单 3 展示了如何查询或启用一个可调节的参数(在这种情况中,可以在 tcp/ip 栈中启用 ip 转发)。

清单 3. 调优:在 tcp/ip 栈中启用 ip 转发

[root@camus]# cat /proc/sys/net/ipv4/ip_forward
0
[root@camus]# echo "1" > /poc/sys/net/ipv4/ip_forward
[root@camus]# cat /proc/sys/net/ipv4/ip_forward
1
[root@camus]#

表 1 给出了几个可调节的参数,它们可以帮助您提高 linux tcp/ip 栈的性能。

表 1. tcp/ip 栈性能使用的可调节内核参数
可调节的参数                         默认值        选项说明
/proc/sys/net/core/rmem_default        "110592"    定义默认的接收窗口大小;对于更大的 bdp 来说,这个大小也应该更大。
/proc/sys/net/core/rmem_max            "110592"    定义接收窗口的最大大小;对于更大的 bdp 来说,这个大小也应该更大。
/proc/sys/net/core/wmem_default        "110592"    定义默认的发送窗口大小;对于更大的 bdp 来说,这个大小也应该更大。
/proc/sys/net/core/wmem_max            "110592"    定义发送窗口的最大大小;对于更大的 bdp 来说,这个大小也应该更大。
/proc/sys/net/ipv4/tcp_window_scaling    "1"        启用 rfc 1323 定义的 window scaling;要支持超过 64kb 的窗口,必须启用该值。
/proc/sys/net/ipv4/tcp_sack            "1"            启用有选择的应答(selective acknowledgment),这可以通过有选择地应答乱序接收到的报文来提高性能(这样可以让发送者只发送丢失的报文段);(对于广域网通信来说)这个选项应该启用,但是这会增加对 cpu 的占用。
/proc/sys/net/ipv4/tcp_fack            "1"            启用转发应答(forward acknowledgment),这可以进行有选择应答(sack)从而减少拥塞情况的发生;这个选项也应该启用。
/proc/sys/net/ipv4/tcp_timestamps    "1"            以一种比重发超时更精确的方法(请参阅 rfc 1323)来启用对 rtt 的计算;为了实现更好的性能应该启用这个选项。

/proc/sys/net/ipv4/tcp_mem             "24576 32768 49152"    确定 tcp 栈应该如何反映内存使用;每个值的单位都是内存页(通常是 4kb)。第一个值是内存使用的下限。第二个值是内存压力模式开始对缓冲区使用应用压力的上限。第三个值是内存上限。在这个层次上可以将报文丢弃,从而减少对内存的使用。对于较大的 bdp 可以增大这些值(但是要记住,其单位是内存页,而不是字节)。

/proc/sys/net/ipv4/tcp_wmem            "4096 16384 131072"        为自动调优定义每个 socket 使用的内存。第一个值是为 socket 的发送缓冲区分配的最少字节数。第二个值是默认值(该值会被 wmem_default 覆盖),缓冲区在系统负载不重的情况下可以增长到这个值。第三个值是发送缓冲区空间的最大字节数(该值会被 wmem_max 覆盖)。

/proc/sys/net/ipv4/tcp_rmem            "4096 87380 174760"        与 tcp_wmem 类似,不过它表示的是为自动调优所使用的接收缓冲区的值。
/proc/sys/net/ipv4/tcp_low_latency    "0"                        允许 tcp/ip 栈适应在高吞吐量情况下低延时的情况;这个选项应该禁用。
/proc/sys/net/ipv4/tcp_westwood        "0"                        启用发送者端的拥塞控制算法,它可以维护对吞吐量的评估,并试图对带宽的整体利用情况进行优化;对于 wan 通信来说应该启用这个选项。

/proc/sys/net/ipv4/tcp_bic            "1"                        为快速长距离网络启用 binary increase congestion;这样可以更好地利用以 gb 速度进行操作的链接;对于 wan 通信应该启用这个选项。

与任何调优努力一样,最好的方法实际上就是不断进行实验。您的应用程序的行为、处理器的速度以及可用内存的多少都会影响到这些参数影响性能的方式。在某些情况中,您认为有益的操作可能恰恰是有害的(反之亦然)。因此,我们需要逐一试验各个选项,然后检查每个选项的结果。换而言之,我们需要相信自己的经验,但是对每次修改都要进行验证。

提示:下面介绍一个有关永久性配置的问题。注意,如果您重新启动了 gnu/linux 系统,那么您所需要的任何可调节的内核参数都会恢复成默认值。为了将您所设置的值作为这些参数的默认值,可以使用 /etc/sysctl.conf 在系统启动时将这些参数配置成您所设置的值。


gnu/linux 工具

gnu/linux 对我非常有吸引力,这是因为其中有很多工具可以使用。尽管其中大部分都是命令行工具,但是它们都非常有用,而且非常直观。gnu/linux 提供了几个工具 —— 有些是 gnu/linux 自己提供的,有些是开放源码软件 —— 用于调试网络应用程序,测量带宽/吞吐量,以及检查链接的使用情况。

表 2 列出最有用的几个 gnu/linux 工具,以及它们的用途。
表 2. 任何 gnu/linux 发行版中都可以找到的工具 gnu/linux

工具         用途
ping         这是用于检查主机的可用性的最常用的工具,但是也可以用于识别带宽延时产品计算的 rtt。
traceroute     打印某个连接到网络主机所经过的包括一系列路由器和网关的路径(路由),从而确定每个 hop 之间的延时。
netstat         确定有关网络子系统、协议和连接的各种统计信息。
tcpdump         显示一个或多个连接的协议级的报文跟踪信息;其中还包括时间信息,您可以使用这些信息来研究不同协议服务的报文时间。

表 3. gnu/linux 发行版中没有提供的有用性能工具 gnu/linux
工具         用途
netlog         为应用程序提供一些有关网络性能方面的信息。
nettimer     为瓶颈链接带宽生成一个度量标准;可以用于协议的自动优化。
ethereal     以一个易于使用的图形化界面提供了 tcpump(报文跟踪)的特性。
iperf         测量 tcp 和 udp 的网络性能;测量最大带宽,并汇报延时和数据报的丢失情况。


结束语


尝试使用本文中介绍的技巧和技术来提高 socket 应用程序的性能,包括通过禁用 nagle 算法来减少传输延时,通过设置缓冲区的大小来提高 socket 带宽的利用,通过最小化系统调用的个数来降低系统调用的负载,以及使用可调节的内核参数来优化 linux 的 tcp/ip 栈。

在进行优化时还需要考虑应用程序的特性。例如,您的应用程序是基于 lan 的还是会通过 internet 进行通信?如果您的应用程序仅仅会在 lan 内部进行操作,那么增大 socket 缓冲区的大小可能不会带来太大的改进,不过启用巨帧却一定会极大地改进性能!

最后,还要使用 tcpdump 或 ethereal 来检查优化之后的结果。在报文级看到的变化可以帮助展示使用这些技术进行优化之后所取得的成功效果。
 
see more:
阅读(2211) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~
")); function link(t){ var href= $(t).attr('href'); href ="?url=" encodeuricomponent(location.href); $(t).attr('href',href); //setcookie("returnouturl", location.href, 60, "/"); }
网站地图