分类: linux
2012-04-28 13:31:37
我们的程序处于close_wait状态,而不是last_ack状态,说明还没有发fin给server,那么可能是在关闭连接之前还有许多数据要发送或者其他事要做,导致没有发这个fin packet。
原因知道了,那么为什么不发fin包呢,难道会在关闭己方连接前有那么多事情要做吗?
还有一个问题,为什么有数千个连接都处于这个状态呢?难道那段时间内,服务器端总是主动拆除我们的连接吗?
不管怎么样,我们必须防止类似情况再度发生!
首先,我们要防止不断开辟新的端口,这可以通过设置so_reuseaddr套接字选项做到:
重用本地地址和端口
以前我总是一个端口不行,就换一个新的使用,所以导致让数千个端口进入close_wait状态。如果下次还发生这种尴尬状况,我希望加一个限定,只是当前这个端口处于close_wait状态!
在调用
sockconnected = socket(af_inet, sock_stream, 0);
之后,我们要设置该套接字的选项来重用:
/// 允许重用本地地址和端口:
/// 这样的好处是,即使socket断了,调用前面的socket函数也不会占用另一个,而是始终就是一个端口
/// 这样防止socket始终连接不上,那么按照原来的做法,会不断地换端口。
int nreuseaddr = 1;
setsockopt(sockconnected,
sol_socket,
so_reuseaddr,
(const char*)&nreuseaddr,
sizeof(int));
教科书上是这么说的:这样,假如服务器关闭或者退出,造成本地地址和端口都处于time_wait状态,那么so_reuseaddr就显得非常有用。
也许我们无法避免被冻结在close_wait状态永远不出现,但起码可以保证不会占用新的端口。
其次,我们要设置so_linger套接字选项:
从容关闭还是强行关闭?
linger是“拖延”的意思。
默认情况下(win2k),so_dontlinger套接字选项的是1;so_linger选项是,linger为{l_onoff:0,l_linger:0}。
如果在发送数据的过程中(send()没有完成,还有数据没发送)而调用了closesocket(),以前我们一般采取的措施是“从容关闭”:
因为在退出服务或者每次重新建立socket之前,我都会先调用
/// 先将双向的通讯关闭
shutdown(sockconnected, sd_both);
/// 安全起见,每次建立socket连接前,先把这个旧连接关闭
closesocket(sockconnected);
我们这次要这么做:
设置so_linger为零(亦即linger结构中的l_onoff域设为非零,但l_linger为0),便不用担心closesocket调用进入“锁定”状态(等待完成),不论是否有排队数据未发送或未被确认。这种关闭方式称为“强行关闭”,因为套接字的虚电路立即被复位,尚未发出的所有数据都会丢失。在远端的recv()调用都会失败,并返回wsaeconnreset错误。
在connect成功建立连接之后设置该选项:
linger m_slinger;
m_slinger.l_onoff = 1; // (在closesocket()调用,但是还有数据没发送完毕的时候容许逗留)
m_slinger.l_linger = 0; // (容许逗留的时间为0秒)
setsockopt(sockconnected,
sol_socket,
so_linger,
(const char*)&m_slinger,
sizeof(linger));
总结
也许我们避免不了close_wait状态冻结的再次出现,但我们会使影响降到最小,希望那个重用套接字选项能够使得下一次重新建立连接时可以把close_wait状态踢掉。
feedback
# 回复:[socket]尴尬的close_wait状态以及应对策略 2005-01-30 3:41 pm yun.zheng
回复人: elssann(臭屁虫和他的开心果) ( ) 信誉:51 2005-01-30 14:00:00 得分: 0
我的意思是:当一方关闭连接后,另外一方没有检测到,就导致了close_wait的出现,上次我的一个朋友也是这样,他写了一个客户端和 apache连接,当apache把连接断掉后,他没检测到,出现了close_wait,后来我叫他检测了这个地方,他添加了调用 closesocket的代码后,这个问题就消除了。
如果你在关闭连接前还是出现close_wait,建议你取消shutdown的调用,直接两边closesocket试试。
另外一个问题:
比如这样的一个例子:
当客户端登录上服务器后,发送身份验证的请求,服务器收到了数据,对客户端身份进行验证,发现密码错误,这时候服务器的一般做法应该是先发送一个密码错误的信息给客户端,然后把连接断掉。
如果把
m_slinger.l_onoff = 1;
m_slinger.l_linger = 0;
这样设置后,很多情况下,客户端根本就收不到密码错误的消息,连接就被断了。
# 回复:[socket]尴尬的close_wait状态以及应对策略 2005-01-30 3:41 pm yun.zheng
elssann(臭屁虫和他的开心果) ( ) 信誉:51 2005-01-30 13:24:00 得分: 0
出现close_wait的原因很简单,就是某一方在网络连接断开后,没有检测到这个错误,没有执行closesocket,导致了这个状态的实现,这在tcp/ip协议的状态变迁图上可以清楚看到。同时和这个相对应的还有一种叫time_wait的。
另外,把socket的so_linger设置为0秒拖延(也就是立即关闭)在很多时候是有害处的。
还有,把端口设置为可复用是一种不安全的网络编程方法。
断开连接的时候,
当发起主动关闭的左边这方发送一个fin过去后,右边被动关闭的这方要回应一个ack,这个ack是tcp回应的,而不是应用程序发送的,此时,被动关闭的一方就处于close_wait状态了。如果此时被动关闭的这一方不再继续调用closesocket,那么他就不会发送接下来的fin,导致自己老是处于close_wait。只有被动关闭的这一方调用了closesocket,才会发送一个fin给主动关闭的这一方,同时也使得自己的状态变迁为last_ack。
# 回复:[socket]尴尬的close_wait状态以及应对策略 2005-01-30 3:54 pm yun.zheng
elssann(臭屁虫和他的开心果) ( ) 信誉:51 2005-01-30 15:39:00 得分: 0
比如被动关闭的是客户端。。。
当对方调用closesocket的时候,你的程序正在
int nret = recv(s,....);
if (nret == socket_error)
{
// closesocket(s);
return false;
}
很多人就是忘记了那句closesocket,这种代码太常见了。
我的理解,当主动关闭的一方发送fin到被动关闭这边后,被动关闭这边的tcp马上回应一个ack过去,同时向上面应用程序提交一个error,导致上面的socket的send或者recv返回socket_error,正常情况下,如果上面在返回socket_error后调用了 closesocket,那么被动关闭的者一方的tcp就会发送一个fin过去,自己的状态就变迁到last_ack.
# 回复:[socket]尴尬的close_wait状态以及应对策略 2005-01-30 4:17 pm yun.zheng
int nrecvbuflength =
recv(sockconnected,
szrecvbuffer,
sizeof(szrecvbuffer),
0);
/// zhengyun 20050130:
/// elssann举例说,当对方调用closesocket的时候,我的程序正在
/// recv,这时候有可能对方发送的fin包我没有收到,而是由tcp代回了
/// 一个ack包,所以我这边程序进入close_wait状态。
/// 所以他建议在这里判断是否已出错,是就主动closesocket。
/// 因为前面我们已经设置了recv超时时间为30秒,那么如果真的是超时了,
/// 这里收到的错误应该是wsaetimedout,这种情况下也可以关闭连接的
if (nrecvbuflength == socket_error)
{
trace_info(_t("=用recv接收发生socket错误="));
closesocket(sockconnected);
continue;
}
这样可以吗?
网络连接无法释放—— close_wait
关键字:tcp ,close_wait, java, socketchannel
问题描述:最近性能测试碰到的一个问题。客户端使用nio,服务器还是一般的socket连接。当测试进行一段时间以后,发现服务器端的系统出现大量未释放的网络连接。用netstat -na查看,连接状态为close_wait。这就奇怪了,为什么socket已经关闭而连接依然未释放。
解决:google了半天,发现关于close_wait的问题一般是c的,java似乎碰到这个问题的不多(这有一篇不错的,也是解决close_wait的,但是好像没有根本解决,而是选择了一个折中的办法)。接着找,由于使用了nio,所以怀疑可能是这方面的问题,结果找到了这篇。顺着帖子翻下去,其中有几个人说到了一个问题—— 一端的socket调用close后,另一端的socket没有调用close.于是查了一下代码,果然发现server端在某些异常情况时,没有关闭socket。改正后问题解决。
时间基本上花在google上了,不过也学到不少东西。下面为一张tcp连接的状态转换图:
说明:虚线和实线分别对应服务器端(被连接端)和客户端端(主动连接端)。
结合上图使用netstat -na命令即可知道到当前的tcp连接状态。一般listen、established、time_wait是比较常见。
分析:
上面我碰到的这个问题主要因为tcp的结束流程未走完,造成连接未释放。现设客户端主动断开连接,流程如下
client 消息 server
close()
------ fin ------->
fin_wait1 close_wait
<----- ack -------
fin_wait2
close()
<------ fin ------
time_wait last_ack
------ ack ------->
closed
closed
如上图所示,由于server的socket在客户端已经关闭时而没有调用关闭,造成服务器端的连接处在“挂起”状态,而客户端则处在等待应答的状态上。此问题的典型特征是:一端处于fin_wait2 ,而另一端处于close_wait. 不过,根本问题还是程序写的不好,有待提高。
time_wait状态
根据tcp协议,主动发起关闭的一方,会进入time_wait状态,持续2*msl(max segment lifetime),缺省为240秒,在这个post中简洁的介绍了为什么需要这个状态。
值得一说的是,对于基于tcp的http协议,关闭tcp连接的是server端,这样,server端会进入time_wait状态,可想而知,对于访问量大的web server,会存在大量的time_wait状态,假如server一秒钟接收1000个请求,那么就会积压240*1000=240,000个 time_wait的记录,维护这些状态给server带来负担。当然现代操作系统都会用快速的查找算法来管理这些time_wait,所以对于新的 tcp连接请求,判断是否hit中一个time_wait不会太费时间,但是有这么多状态要维护总是不好。
http协议1.1版规定default行为是keep-alive,也就是会重用tcp连接传输多个 request/response,一个主要原因就是发现了这个问题。还有一个方法减缓time_wait压力就是把系统的2*msl时间减少,因为 240秒的时间实在是忒长了点,对于windows,修改注册表,在hkey_local_machine\ system\currentcontrolset\services\ tcpip\parameters上添加一个dword类型的值tcptimedwaitdelay,一般认为不要少于60,不然可能会有麻烦。
对于大型的服务,一台server搞不定,需要一个lb(load balancer)把流量分配到若干后端服务器上,如果这个lb是以nat方式工作的话,可能会带来问题。假如所有从lb到后端server的ip包的 source address都是一样的(lb的对内地址),那么lb到后端server的tcp连接会受限制,因为频繁的tcp连接建立和关闭,会在server上留下time_wait状态,而且这些状态对应的remote address都是lb的,lb的source port撑死也就60000多个(2^16=65536,1~1023是保留端口,还有一些其他端口缺省也不会用),每个lb上的端口一旦进入 server的time_wait黑名单,就有240秒不能再用来建立和server的连接,这样lb和server最多也就能支持300个左右的连接。如果没有lb,不会有这个问题,因为这样server看到的remote address是internet上广阔无垠的集合,对每个address,60000多个port实在是够用了。
一开始我觉得用上lb会很大程度上限制tcp的连接数,但是实验表明没这回事,lb后面的一台windows server 2003每秒处理请求数照样达到了600个,难道time_wait状态没起作用?用net monitor和netstat观察后发现,server和lb的xxxx端口之间的连接进入time_wait状态后,再来一个lb的xxxx端口的 syn包,server照样接收处理了,而是想像的那样被drop掉了。翻书,从书堆里面找出覆满尘土的大学时代买的《unix network programming, volume 1, second edition: networking apis: sockets and xti》,中间提到一句,对于bsd-derived实现,只要syn的sequence number比上一次关闭时的最大sequence number还要大,那么time_wait状态一样接受这个syn,难不成windows也算bsd-derived?有了这点线索和关键字 (bsd),找到这个post,在nt4.0的时候,还是和bsd-derived不一样的,不过windows server 2003已经是nt5.2了,也许有点差别了。
做个试验,用socket api编一个client端,每次都bind到本地一个端口比如2345,重复的建立tcp连接往一个server发送keep-alive=false 的http请求,windows的实现让sequence number不断的增长,所以虽然server对于client的2345端口连接保持time_wait状态,但是总是能够接受新的请求,不会拒绝。那如果syn的sequence number变小会怎么样呢?同样用socket api,不过这次用raw ip,发送一个小sequence number的syn包过去,net monitor里面看到,这个syn被server接收后如泥牛如海,一点反应没有,被drop掉了。
按照书上的说法,bsd-derived和windows server 2003的做法有安全隐患,不过至少这样至少不会出现time_wait阻止tcp请求的问题,当然,客户端要配合,保证不同tcp连接的sequence number要上涨不要下降。
转载 :