基於Linux的集群解決方案可謂百花齊放,具體請參見(Linux 集群大全--哪種群集適合您?)。
在實際應用中,最常見的情況是利用集群解決負載平衡問題,比如用於提供WWW服務。在這裡主要展示如何使用LVS(Linux Virtial Server)來實現實用的WWW負載平衡集群系統。
二 LVS簡介
LVS是章文嵩博士發起和領導的優秀的集群解決方案,許多商業的集群產品,比如RedHat的Piranha,TurboLinux公司的Turbo Cluster等,都是基於LVS的核心代碼的。在現實的應用中,LVS得到了大量的部署,請參考http://www.linuxvirtualserver.org/deployment.html
關於Linux LVS的工作原理和更詳細的信息,請參考http://www.linuxvirtualserver.org。
三 LVS配置實例
通過Linux LVS,實現WWW,Telnet服務的負載平衡。這裡實現Telnet集群服務僅為了測試上的方便。
LVS有三種負載平衡方式,NAT(Network Address Translation),DR(Direct Routing),IP Tunneling。其中,最為常用的是DR方式,因此這裡只說明DR(Direct Routing)方式的LVS負載平衡。
網絡拓撲結構。如圖1所示,為測試方便,4台機器處於同一網段內,通過一交換機或者集線器相連。實際的應用中,最好能夠將虛擬服務器vs1和真實服務器rs1, rs2置於於不同的網段上,即提高了性能,也加強了整個集群系統的安全性。
服務器的軟硬件配置首先說明,雖然本文的測試環境中用的是3台相同配置的服務器,但LVS並不要求集群中的服務器規格劃一,相反,可以根據服務器的不同配置和負載情況,調整負載分配策略,充分利用集群環境中的每一台服務器。
這3台服務器中,vs1作為虛擬服務器(即負載平衡服務器),負責將用戶的訪問請求轉發到集群內部的rs1,rs2,然後由rs1,rs2分別處理。
client為客戶端測試機器,可以為任意操作系統。
4台服務器的操作系統和網絡配置分別為:
vs1: RedHat 6.2, Kernel 2.2.19 vs1: eth0 192.168.0.1 vs1: eth0:101 192.168.0.101
rs1: RedHat 6.2, Kernel 2.2.14 rs1: eth0 192.168.0.3 rs1: dummy0 192.168.0.101
rs2: RedHat 6.2, Kernel 2.2.14 rs2: eth0 192.168.0.4 rs2: dummy0 192.168.0.101
client: Windows 2000 client: eth0 192.168.0.200
其中,192.168.0.101是允許用戶訪問的IP。
虛擬服務器的集群配置大部分的集群配置工作都在虛擬服務器vs1上面,需要下面的幾個步驟: 重新編譯內核。
首先,下載最新的Linux內核,版本號為2.2.19,下載地址為:http://www.kernel.org/,解壓縮後置於/usr/src/linux目錄下。
其次需要下載LVS的內核補丁,地址為:http://www.linuxvirtualserver.org/software/ipvs-1.0.6-2.2.19.tar.gz。這裡注意,如果你用的Linux內核不是2.2.19版本的,請下載相應版本的LVS內核補丁。將ipvs-1.0.6-2.2.19.tar.gz解壓縮後置於/usr/src/linux目錄下。
然後,對內核打補丁,如下操作:[root@vs2 /root]# cd /usr/src/linux[root@vs2 linux]# patch -p1 < ipvs-1.0.6-2.2.19/ipvs-1.0.6-2.2.19.patch
下面就是重新配置和編譯Linux的內核。特別注意以下選項: 1 Code maturity level options--->
* [*]Prompt for development and/or incomplete code/drivers 2 Networking部分:
[*] Kernel/User netlink socket [*] Routing messages <*> Netlink device emulation * [*] Network firewalls [*] Socket Filtering <*> Unix domain sockets * [*] TCP/IP networking [*] IP: multicasting [*] IP: advanced router [ ] IP: policy routing [ ] IP: equal cost multipath [ ] IP: use TOS value as routing key [ ] IP: verbose route monitoring [ ] IP: large routing tables [ ] IP: kernel level autoconfiguration * [*] IP: firewalling [ ] IP: firewall packet netlink device * [*] IP: transparent proxy support * [*] IP: masquerading --- Protocol-specific masquerading support will be built as modules. * [*] IP: ICMP masquerading --- Protocol-specific masquerading support will be built as modules. * [*] IP: masquerading special modules support * <M> IP: ipautofw masq support (EXPERIMENTAL)(NEW) * <M> IP: ipportfw masq support (EXPERIMENTAL)(NEW) * <M> IP: ip fwmark masq-forwarding support (EXPERIMENTAL)(NEW) * [*] IP: masquerading virtual server support (EXPERIMENTAL)(NEW) [*] IP Virtual Server debugging (NEW) <--最好選擇此項,以便觀察LVS的調試信息 * (12) IP masquerading VS table size (the Nth power of 2) (NEW) * <M> IPVS: round-robin scheduling (NEW) * <M> IPVS: weighted round-robin scheduling (NEW) * <M> IPVS: least-connection scheduling (NEW) * <M> IPVS: weighted least-connection scheduling (NEW) * <M> IPVS: locality-based least-connection scheduling (NEW) * <M> IPVS: locality-based least-connection with replication scheduling (NEW) * [*] IP: optimize as router not host * <M> IP: tunneling <M> IP: GRE tunnels over IP [*] IP: broadcast GRE over IP [*] IP: multicast routing [*] IP: PIM-SM version 1 support [*] IP: PIM-SM version 2 support * [*] IP: aliasing support [ ] IP: ARP daemon support (EXPERIMENTAL) * [*] IP: TCP syncookie support (not enabled per default) --- (it is safe to leave these untouched) < > IP: Reverse ARP [*] IP: Allow large windows (not recommended if <16Mb of memory) < > The IPv6 protocol (EXPERIMENTAL) 上面,帶*號的為必選項。
然後就是常規的編譯內核過程,不再贅述,請參考編譯 Linux 教程
在這裡要注意一點:如果你使用的是RedHat自帶的內核或者從RedHat下載的內核版本,已經預先打好了LVS的補丁。這可以通過查看/usr/src/linux/net/目錄下有沒有幾個ipvs開頭的文件來判斷:如果有,則說明已經打過補丁。
編寫LVS配置文件,實例中的配置文件如下:#lvs_dr.conf (C) Joseph Mack [email protected] LVS_TYPE=VS_DR INITIAL_STATE=on VIP=eth0:101 192.168.0.101 255.255.255.0 192.168.0.0 DIRECTOR_INSIDEIP=eth0 192.168.0.1 192.168.0.0 255.255.255.0 192.168.0.255 SERVICE=t telnet rr rs1:telnet rs2:telnet SERVICE=t www rr rs1:www rs2:www SERVER_VIP_DEVICE=dummy0 SERVER_NET_DEVICE=eth0 #----------end lvs_dr.conf------------------------------------
將該文件置於/etc/lvs目錄下。
使用LVS的配置腳本產生lvs.conf文件。該配置腳本可以從http://www.linuxvirtualserver.org/Joseph.Mack/configure-lvs_0.8.tar.gz 單獨下載,在ipvs-1.0.6-2.2.19.tar.gz包中也有包含。腳本configure的使用方法:
[root@vs2 lvs]# configure lvs.conf
這樣會產生幾個配置文件,這裡我們只使用其中的rc.lvs_dr文件。
修改/etc/rc.d/init.d/rc.local,增加如下幾行:echo 1 > /proc/sys/net/ipv4/ip_forwardecho 1 > /proc/sys/net/ipv4/ip_always_defrag# 顯示最多調試信息echo 10 > /proc/sys/net/ipv4/vs/debug_level
配置NFS服務。這一步僅僅是為了方便管理,不是必須的步驟。假設配置文件lvs.conf文件放在/etc/lvs目錄下,則/etc/exports文件的內容為:/etc/lvs ro(rs1,rs2)
然後使用exportfs命令輸出這個目錄:[root@vs2 lvs]# exportfs
如果遇到什麼麻煩,可以嘗試:[root@vs2 lvs]# /etc/rc.d/init.d/nfs restart[root@vs2 lvs]# exportfs
這樣,各個real server可以通過NFS獲得rc.lvs_dr文件,方便了集群的配置:你每次修改lvs.conf中的配置選項,都可以即可反映在rs1,rs2的相應目錄裡。
修改/etc/syslogd.conf,增加如下一行:kern.* /var/log/kernel_log
這樣,LVS的一些調試信息就會寫入/var/log/kernel_log文件中.
real server的配置real server的配置相對簡單,主要是是以下幾點: 配置telnet和WWW服務。telnet服務沒有需要特別注意的事項,但是對於www服務,需要修改httpd.conf文件,使得apache在虛擬服務器的ip地址上監聽,如下所示:Listen 192.168.0.101:80 關閉real server上dummy0的arp請求響應能力。這是必須的,具體原因請參見ARP problem in LVS/TUN and LVS/DR(http://www.linuxvirtualserver.org/arp.html)。關閉dummy0的arp響應的方式有多種,比較簡單地方法是,修改/etc/rc.d/rc.local文件,增加如下幾行:echo 1 > /proc/sys/net/ipv4/conf/all/hidden ifconfig dummy0 up ifconfig dummy0 192.168.0.101 netmask 255.255.255.0 broadcast 192.168.0.0 up echo 1 > /proc/sys/net/ipv4/conf/dummy0/hidden 再次修改/etc/rc.d/rc.local,增加如下一行:(可以和步驟2合並)echo 1 > /proc/sys/net/ipv4/ip_forward
四 LVS的測試 好了,經過了上面的配置步驟,現在可以測試LVS了,步驟如下: 分別在vs1,rs1,rs2上運行/etc/lvs/rc.lvs_dr。注意,rs1,rs2上面的/etc/lvs目錄是vs2輸出的。如果您的NFS配置沒有成功,也可以把vs1上的/etc/lvs/rc.lvs_dr復制到rs1,rs2上,然後分別運行。 確保rs1,rs2上面的apache已經啟動並且允許telnet。 然後從client運行telnet 192.168.0.101,如果登錄後看到如下輸出就說明集群已經開始工作了:(假設以guest用戶身份登錄)
[guest@rs1 guest]$-----------說明已經登錄到服務器rs1上。
再開啟一個telnet窗口,登錄後會發現系統提示變為:[guest@rs2 guest]$-----------說明已經登錄到服務器rs2上。
然後在vs2上運行如下命令:[root@vs2 /root]ipvsadm運行結果應該為:
IP Virtual Server version 1.0.6 (size=4096) Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port Forward Weight ActiveConn InActConn TCP 192.168.0.101:telnet rr -> rs2:telnet Route 1 1 0 -> rs1:telnet Route 1 1 0 TCP 192.168.0.101:www rr -> rs2:www Route 1 0 0 -> rs1:www Route 1 0 0
至此已經驗證telnet的LVS正常。
然後測試一下WWW是否正常:用你的浏覽器查看http://192.168.0.101/是否有什麼變化?為了更明確的區別響應來自那個real server,可以在rs1,rs2上面分別放置如下的測試頁面(test.html):<HTML> <BODY> 我是real server #1 or #2 </BODY> </HTML>
然後刷新幾次頁面(http://192.168.0.101/test.html),如果你看到“我是real server #1”和“我是real server #2”交替出現,說明www的LVS系統已經正常工作了。
但是由於Internet Explore 或者Netscape本身的緩存機制,你也許總是只能看到其中的一個。不過通過ipvsadm還是可以看出,頁面請求已經分配到兩個real server上了,如下所示:
IP Virtual Server version 1.0.6 (size=4096) Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port Forward Weight ActiveConn InActConn TCP 192.168.0.101:telnet rr -> rs2:telnet Route 1 0 0 -> rs1:telnet Route 1 0 0 TCP 192.168.0.101:www rr -> rs2:www Route 1 0 5 -> rs1:www Route 1 0 4
或者,可以采用linux的lynx作為測試客戶端,效果更好一些。如下運行命令: [root@client /root]while true; do lynx -dump http://10.64.1.56/test.html; sleep 1; done
這樣,每隔1秒鐘“我是realserver #1”和“我是realserver #2”就交替出現一次,清楚地表明響應分別來自兩個不同的real server。
五 調試技巧 如果您的運氣不好,在配置LVS的過程中也許會遇到一些困難,下面的技巧或許有幫助: 首先確定網絡硬件沒有問題,尤其是網線,ping工具就足夠了。 使用netstat查看端口的活動情況。 使用tcpdump查看數據包的流動情況。 查看/var/log/kernel_log文件。
關於作者 宿寶臣([email protected]),1992年畢業於山東工程學院電氣技術專業,1997年畢業於上海交通大學自動化系,獲碩士學位,現供職於山東工程學院。自接觸Linux後,頓感相見恨晚,一見鐘情,一發而不可收拾。現主要研究Linux, Java及其在WEB上的應用,尤其熟悉Enhydra的體系結構和程序設計,企望有機會和同道者多多交流。
摘自:IBM DeveloperWorks