nfs是网络文件系统(network file system)的简称,是分布式计算系统的一个组成部分,可实现在异种网络上共享和装配远程文件系统。nfs由sun公司开发,目前已经成为文件服务的一种标准(rfc1904,rfc1813)。其最大的功能就是可以通过网络,让不同操作系统的计算机可以共享数据,所以也可以将它看做是一个文件服务器。nfs文件服务器是linux最常见网络的服务之一。尽管它的规则简单,却有着丰富的内涵。nfs 服务器可以看作是一个文件服务器,它可以让你的pc通过网络将远端的nfs 服务器共享出来的文件挂载到自己的系统中,在客户端看来使用nfs的远端文件就象是在使用本地文件一样。
一、硬件设备的选择
随着计算机技术的发展,以硬盘为首的i/o设备对计算机的整体性能影响越来越大,通讯服务器(messaging/e-mail/vod):快速的i/o是这类应用的关键,硬盘的i/o吞吐能力是主要瓶颈;数据仓库:大型商业数据存储、编目、索引、数据分析,高速商业计算等,需要具有良好的网络和硬盘i/o吞吐能力;数据库(erp/oltp等)服务器,除了需要具有强大的cpu处理能力,同时需要有很好的磁盘i/o吞吐性能;nfs网络文件系统性能的主要瓶颈是硬盘的i/o性能和网络带宽。scsi(small computer system interface,小型计算机系统接口)技术在需要高性能的网络服务器和工作站领域却得到了广泛应用,现在已经成为网络服务器的标准的接口选择。速度从scsi-i最初的5mbps到2005年的320mbps。内部传输率的高低是评价一个硬盘整体性能的决定性因素,硬盘数据传输率分为内外部传输率。通常称外部传输率也为突发数据传输率或接口传输率,指从硬盘的缓存中向外输出数据的速度。由于硬盘的内部传输率要小于外部传输率,所以只有内部传输率才可以作为衡量硬盘性能的真正标准。scsi硬盘技术在内部传输率要性能上有更大优势。通常在一个50个用户的nfs网络系统中使用10个基于raid5级别10000rpm的scsi硬盘可以达到较好的效果。
在服务器磁盘i/o性能之后,网络带宽是网络文件系统下一个瓶颈。通常应当使用单独的1000兆快速以太网连接nfs服务器和客户机发送报文信息。同时确保nfs服务器和客户机工作正常,交换机、路由器等网络设备工作正常。
二、软件环境优化
如果我们没有很高硬件环境,可以考虑从软件方面优化性能。
1、清理nfs服务器磁盘碎片:
不论linux文件系统采用什么文件格式(ext3、jfs、xfs、reiserfs )、何种类型的硬盘(ide 、scsi),随着时间的推移文件系统都会趋向于碎片化。ext3、jfs等高级文件系统可以减少文件系统的碎片化,但是并没有消除。在繁忙的数据库服务器中,随着时间的过去,文件碎片化将降低硬盘性能,硬盘性能从硬盘读出或写入数据时才能注意到。时间长了会发现每个磁盘上确实积累了非常多的垃圾文件,释放磁盘空间可以帮助系统更好地工作。linux最好的整理磁盘碎片的方法是做一个完全的备份,重新格式化分区,然后从备份恢复文件。但是对于7×24小时工作关键任务服务器来说是比较困难的。kleandisk是一个高效的磁盘清理工具,它能把磁盘上的文件分成不同的"组",比如把所有的"core"文件归成一组(group),这样要删除所有core文件时只要删除这个组就行了。core文件是当软件运行出错时产生的文件,它对于软件开发人员比较有用,对于其他用户(比如电子邮件服务器)却没有任何意义。因此,如果没有软件开发的需要,见到core文件就可以将其删除。
2、开启硬盘dma
现在使用的ide硬盘基本支持dma66/100/133(直接内存读取)但是linux发行版本安装后一般没有打开,可以/etc/rc.d/rc.local 最後面加上一行: /sbin/hdparm -d1 –x66 -c3 -m16 /dev/hda 这样以后每次开机,硬盘的 dma 就会开启,不必每次手动设定。添加前后你可以使用命令:hdparm -tt /dev/hda 来测试对比一下。
3、调整缓冲区刷新参数
linux内核中,包含了一些对于系统运行态的可设置参数。缓冲刷新的参数可以通过调整 /proc/sys/vm/bdflush文件来完成,这个文件的格式是这样的:
# cat /proc/sys/vm/bdflush
30????? 64????? 64????? 256???? 500???? 3000??? 60????? 0?????? 0
每一栏是一个参数,其中最重要的是前面几个参数。第一个数字是在"dirty"缓冲区达到多少的时候强制唤醒bdflush进程刷新硬盘,第二个数字是每次让bdflush进程刷新多少个dirty块。所谓dirty块是必须写到磁盘中的缓存块。接下来的参数是每次允许bd flush将多少个内存块排入空闲的缓冲块列表。 以上值为rhel 4.0中的缺省值。可以使用两种方法修改:
(1) 使用命令
# echo "100 128 128 512 5000 3000 60 0 0">/proc/sys/vm/bdflush
并将这条命令加到/etc/rc.d/rc.local文件中去。
(2)在/etc/sysctl.conf 文件中加入如下行:
vm.bdflush = 100 128 128 512 5000 3000 60 0 0
以上的设置加大了缓冲区大小,降低了bdflush被启动的频度,vfs的缓冲刷新机制是linux文件系统高效的原因之一。
4、nfs版本的选择
nfs协议从诞生到现在为止,已经有多个版本,如nfs?v2(rfc1094),nfs?v3(rfc1813)(最新的版本是v4(rfc3010)。最早,sun公司曾将nfs v2设计成为只使用udp协议,主要原因是当时机器的内存、网络速度和cpu的影响,不得不选择对机器负担较轻的方式。而到了nfs v3,sun公司选择了tcp协议作为缺省的传输方式。
v3相对v2的主要区别:?
1、文件尺寸?
v2版本最大只支持32bit的文件大小(4g),而nfs?v3版本新增加了支持64bit文件大小的技术。?
2、文件传输尺寸?
v3版本没有限定传输尺寸,v2版本最多只能设定为8k,可以使用-rsize?and?-wsize?选项来进行设定。?
? 3、完整的信息返回?
v3版本增加和完善了许多错误和成功信息的返回,对于服务器的设置和管理能带来很大好处。?
4、增加了对tcp传输协议的支持
v2版本只提供了对udp协议的支持,在一些高要求的网络环境中有很大限制,v3增加了对tcp协议的支持。udp有着传输速度快,非连接传输的便捷特性,但是udp在传输上没有tcp来的稳定,当网络不稳定或者黑客入侵的时候很容易使nfs的?performance?大幅降低甚至使网络瘫痪。所以对于不同情况的网络要有针对的选择传输协议。
5、异步写入特性。
6、改进了服务器的mount性能。
在linux上,udp协议是缺省使用的协议。作为服务器而言,别无选择。但作为客户端,可以使用tcp协议和其它使用tcp的nfs服务器互连。在局域网中使用udp协议较好,因为局域网有比较稳定的网络保证,使用udp可以带来更好的性能,rhel 4.0默认使用v2版本。但是?linux也可以通过mount?option的nfsvers=n进行选择。
5、优化输入输出
i/o程序对linux系统性能也是相当重要的,网络硬件i/o对服务器尤其重要。现在大多数linux服务器使用10/100 mb以太网。如果有较重的网络负载,则可以考虑千兆以太网卡。如果没有能力购买千兆网卡的话:可以使用多块网卡虚拟成为一块网卡,具有相同的
ip地址。这项技术,在linux中,这种技术称为bonding。bonding在linux2.4以上内核中已经包含了,只需要在编译的时候把网络设备选项中的bonding driver support选中相应选项。当然利用bonding技术配置双网卡绑定的前提条件是两块网卡芯片组型号相同,并且都具备独立的bios芯片。
??然后,重新编译核心,重新起动计算机,执行如下命令:
#ifconfig eth0 down
#ifconfig bond0 ipaddress
#ifenslave bond0 eth0
#ifenslave bond0 eth1
现在两块网卡已经象一块一样工作了。这样可以提高集群节点间的数据传输.bonding对于服务器来是个比较好的选择,在没有千兆网卡时,用两块100兆网卡作bonding,可大大提高服务器到交换机之间的带宽.但是需要在交换机上设置连接bonding网卡的两个子口映射为同一个虚拟接口。编辑/etc/modules.conf文件,加入如下内容,以使系统在启动时加载bonding模块。
alias bond0 bonding
options bond0 mode=0
“mode”的值表示工作模式,共有0、1、2和3四种模式,这里设定为0。bonding工作在负载均衡(load balancing (round-robin))方式下,即两块网卡同时工作,这时理论上bonding能提供两倍的带宽。bonding运行在网卡的混杂(promisc)模式下,而且它将两块网卡的mac地址修改为一样的。混杂模式就是网卡不再只接收目的硬件地址是自身mac地址的数据帧,而是可以接收网络上所有的帧。
6、关闭nfs服务器不用的服务
linux在启动时需要启动很多系统服务,它们向本地和网络用户提供了linux的系统功能接口,直接面向应用程序和用户。但是,开启不必要服务则会给操作系统带来安全和性能上的影响。以root身份运行:
#ntsysv
把不需要的服务和进程前面的*去掉(用空格键),然后重新启动系统服务,这样就可以使不需要的服务和进程不再启动。不但安全,而且还能提高系统的性能,一举两得。
7、设定客户机合适的最大传输单元mtu
每个网络都存在最大传输单元mtu(maximum transfer unit),要求每个数据报必须适合mtu。如果一个数据报进入了一个mtu小于该数据报长度的网络,那么处于网络边界上的路由器会把该数据报分解为多个小的数据报。这样会影响nfs网络系统的性能。tracepath它是一个工具:它用來跟踪mtu的路徑:首先使用超级用户权限登陆客户机,使用命令::
resume: pmtu 1500 hops 1 back 1
其中192.168.1.4是nfs服务器ip地址,2049是nfs服务器开启的udp协议的端口号。
可以使用命令查看:rpcinfo -p 192.168.1.4。最后tracepath命令会给出一个mtu值。
然后使用ifconfig命令查看客户机上用于连接nfs服务器的网卡接口的mtu值。如果两者相差很多,可以使用ifconfig命令修改。
proc3 22 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
在第五行“th”后的 8表示8个线程。其他数字代表每秒钟线程使用的最大百分比。如
果后边三个数字比较大表示可能现在挂载客户机数目比较多,需要增加线程数目。
(1)首先停止nfs服务
打开自动挂载nfs文件系统的窗口,在autofs和apmd服务选项加上*(用空格键),然后重新启动系统,这样可以自动挂载nfs文件系统。
13. 使用stand-alone模式运行nfs
nfs服务器可以以stand-alone、xinetd两种模式运行。stand-alone方式是unix传统的c/s模式的访问模式。服务器监听(listen)在一个特点的端口上等待客户端的联机。如果客户端产生一个连接请求,守护进程就创建(fork)一个子服务器响应这个连接,而主服务器继续监听。以保持多个子服务器池等待下一个客户端请求。
工作在stand-alone模式下的网络服务有route、gated。另外是大家最熟悉是web服务器:apache和邮件服务器sendmail、nfs。因为在nfs这种负载很大服务器上,预先创子服务器,可以通过客户的服务速度。在linux系统中通过stand-alone工作模式启动的服务由/etc/rc.d/下面对应的运行级别当中的符号链接启动。和stand-alone工作模式相比,xinetd模式不想要每一个网络服务进程都监听其服务端口。运行单个xinetd就可以同时监听所有服务端口,这样就降低了系统开销,保护系统资源。但是对于访问量大、经常出现并发访问时,xinetd想要频繁启动对应的网络服务进程,反而会导致系统性能下降。察看系统为linux服务提供那种模式方法在linux命令行可以使用pstree命令可以看到两种不同方式启动的网络服务。一般来说系统一些负载高的服务:nfs、sendmail、apache服务是单独启动的
阅读(1926) | 评论(0) | 转发(0) |