計算機集羣

計算機集羣簡稱集羣是一種計算機系統, 它通過一組鬆散集成的計算機軟件和/或硬件連接起來高度緊密地協作完成計算工作。在某種意義上,他們可以被看作是一臺計算機。集羣系統中的單個計算機通常稱爲節點,通常通過局域網連接,但也有其它的可能連接方式。集羣計算機通常用來改進單個計算機的計算速度和/或可靠性。一般情況下集羣計算機比單個計算機,比如工作站或超級計算機性能價格比要高得多。


或者說:

集羣,是一組獨立的計算機系統構成一個鬆耦合的多處理器系統,它們之間通過網絡實現進程間的通信。應用程序可以通過網絡共享內存進行消息傳送,實現分佈式計算機。集羣的工作方式類似於人們之間的協同工作。

 Vs-nat集羣是一種最簡單的集羣。他的結構類似於linux透明代理服務器

架設基於Linux(2.6內核)的服務器集羣

  這是從網絡上下載的一幅圖,這是一種典型的nat結構。可以用此種結構作簡單測試。上圖的LVS標識是一臺linux主機,它負責均衡流量。通常稱它爲linux虛擬服務器。RS1標識和RS2標識是實際的服務器。虛擬服務器不處理服務請求,所有的請求都由實際服務器處理。 上圖的nat結構非常簡單,可以根據實際情況修改網絡結構。



集羣分爲同構與異構兩種,它們的區別在於:組成集羣系統的計算機之間的體系結構是否相同。集羣計算機按功能和結構可以分成以下幾類:

集羣分類

  • 高可用性集羣 High-availability (HA) clusters
  • 負載均衡集羣 Load balancing clusters
  • 高性能計算集羣 High-performance (HPC) clusters
  • 網格計算 Grid computing


高可用性集羣

一般是指當集羣中有某個節點失效的情況下,其上的任務會自動轉移到其他正常的節點上。還指可以將集羣中的某節點進行離線維護再上線,該過程並不影響整個集羣的運行。

負載均衡集羣

負載均衡集羣運行時,一般通過一個或者多個前端負載均衡器,將工作負載分發到後端的一組服務器上,從而達到整個系統的高性能和高可用性。這樣的計算機集羣有時也被稱爲服務器羣(Server Farm)。 一般高可用性集羣和負載均衡集羣會使用類似的技術,或同時具有高可用性與負載均衡的特點。

Linux虛擬服務器(LVS)項目在Linux操作系統上提供了最常用的負載均衡軟件。

在現實的應用中,LVS得到了大量的部署,請參考http://www.linuxvirtualserver.org/deployment.html,

關於Linux LVS的工作原理和更詳細的信息,請參考http://www.linuxvirtualserver.org


或者說:

即把負載壓力根據某種算法合理分配到集羣中的每一臺計算機上,以減輕主服務器的壓力,降低對主服務器的硬件和軟件要求。

基於Linux的集羣解決方案可謂百花齊放,具體請參見Linux 集羣系統大比拼。在實際應用中,最常見的情況是利用集羣解決負載平衡問題,比如用於提供WWW服務。在這裏主要展示如何使用LVS(Linux Virtial Server)來實現實用的WWW負載平衡集羣系統。


高性能計算集羣

高性能計算集羣採用將計算任務分配到集羣的不同計算節點而提高計算能力,因而主要應用在科學計算領域。比較流行的HPC採用Linux操作系統和其它一些免費軟件來完成並行運算。這一集羣配置通常被稱爲Beowulf集羣。這類集羣通常運行特定的程序以發揮HPC cluster的並行能力。這類程序一般應用特定的運行庫, 比如專爲科學計算設計的MPI庫。

HPC集羣特別適合於在計算中各計算節點之間發生大量數據通訊的計算作業,比如一個節點的中間結果或影響到其它節點計算結果的情況。

或者說:

即充分利用集羣中的每一臺計算機的資源,實現複雜運算的並行處理,通常用於科學計算領域,比如基因分析,化學分析等。

網格計算

網格計算或網格集羣是一種與集羣計算非常相關的技術。網格與傳統集羣的主要差別是網格是連接一組相關並不信任的計算機,它的運作更像一個計算公共設施而不是一個獨立的計算機。還有,網格通常比集羣支持更多不同類型的計算機集合。

網格計算是針對有許多獨立作業的工作任務作優化,在計算過程中作業間無需共享數據。網格主要服務於管理在獨立執行工作的計算機間的作業分配。資源如存儲可以被所有結點共享,但作業的中間結果不會影響在其他網格結點上作業的進展。

集羣技術特點

1、是通過多臺計算機完成同一個工作。達到更高的效率。

2、是兩機或多機內容、工作過程等完全一樣。如果一臺死機,另一臺可以起作用。

集羣軟件

  • Sun Grid Engine
  • SLURM (天河一號的Job Scheduler)
  • JBoss Application Server
  • Lander Vault
  • Solaris Cluster
  • Oracle Real Application Cluster RAC


-------------------------------------------------------------------------------------------------------

三 LVS配置實例

通過Linux LVS,實現WWW,Telnet服務的負載平衡。這裏實現Telnet集羣服務僅爲了測試上的方便。

LVS有三種負載平衡方式,NAT(Network Address Translation),DR(Direct Routing),IP Tunneling。其中,最爲常用的是DR方式,因此這裏只說明DR(Direct Routing)方式的LVS負載平衡。爲測試方便,4臺機器處於同一網段內,通過一交換機或者集線器相連。實際的應用中,最好能將虛擬服務器vs1和真實服務器rs1, rs2置於於不同的網段上,即提高了性能,也加強了整個集羣系統的安全性。

服務器的軟硬件配置

首先說明,雖然本文的測試環境中用的是3臺相同配置的服務器,但LVS並不要求集羣中的服務器規格劃一,相反,可以根據服務器的不同配置和負載情況,調整負載分配策略,充分利用集羣環境中的每一臺服務器。

這3臺服務器中,vs1作爲虛擬服務器(即負載平衡服務器),負責將用戶的訪問請求轉發到集羣內部的rs1,rs2,然後由rs1,rs2分別處理。client爲客戶端測試機器,可以爲任意操作系統。 4臺服務器的操作系統和網絡配置分別爲:

vs1: RedHat 6.2, Kernel 2.2.19 
vs1: eth0 192.168.0.1 
vs1: eth0:101 192.168.0.101 
rs1: RedHat 6.2, Kernel 2.2.14 
rs1: eth0 192.168.0.3 
rs1: dummy0 192.168.0.101 
rs2: RedHat 6.2, Kernel 2.2.14 
rs2: eth0 192.168.0.4 
rs2: dummy0 192.168.0.101 
client: Windows 2000 
client: eth0 192.168.0.200

其中,192.168.0.101是允許用戶訪問的IP。

虛擬服務器的集羣配置

大部分的集羣配置工作都在虛擬服務器vs1上面,需要下面的幾個步驟:

重新編譯內核。

首先,下載最新的Linux內核,版本號爲2.2.19,下載地址爲:http://www.kernel.org/,解壓縮後置於/usr/src/linux目錄下。

其次需要下載LVS的內核補丁,地址爲:http://www.linuxvirtualserver.org/software/ipvs-1.0.6-2.2.19.tar.gz。這裏注意,如果你用的Linux內核不是2.2.19版本的,請下載相應版本的LVS內核補丁。將ipvs-1.0.6-2.2.19.tar.gz解壓縮後置於/usr/src/linux目錄下。

然後,對內核打補丁,如下操作:

[root@vs2 /root]# cd /usr/src/linux 
[root@vs2 linux]# patch -p1 < ipvs-1.0.6-2.2.19/ipvs-1.0.6-2.2.19. 
patch

下面就是重新配置和編譯Linux的內核。特別注意以下選項:

1 Code maturity level options---> 
* [*]Prompt for development and/or incomplete code/drivers 
2 Networking部分: 
[*] Kernel/User netlink socket 
[*] Routing messages 
<*> Netlink device emulation 
* [*] Network firewalls 
[*] Socket Filtering 
<*> Unix domain sockets 
* [*] TCP/IP networking 
[*] IP: multicasting 
[*] IP: advanced router 
[ ] IP: policy routing 
[ ] IP: equal cost multipath 
[ ] IP: use TOS value as routing key 
[ ] IP: verbose route monitoring 
[ ] IP: large routing tables 
[ ] IP: kernel level autoconfiguration 
* [*] IP: firewalling 
[ ] IP: firewall packet netlink device 
* [*] IP: transparent proxy support 
* [*] IP: masquerading 
--- Protocol-specific masquerading support will be built as modules. 
* [*] IP: ICMP masquerading 
--- Protocol-specific masquerading support will be built as modules. 
* [*] IP: masquerading special modules support 
* IP: ipautofw masq support (EXPERIMENTAL)(NEW) 
* IP: ipportfw masq support (EXPERIMENTAL)(NEW) 
* IP: ip fwmark masq-forwarding support (EXPERIMENTAL)(NEW) 
* [*] IP: masquerading virtual server support (EXPERIMENTAL)(NEW) 
[*] IP Virtual Server debugging (NEW) <--最好選擇此項,以便觀察LVS的調試信息 
* (12) IP masquerading VS table size (the Nth power of 2) (NEW) 
* IPVS: round-robin scheduling (NEW) 
* IPVS: weighted round-robin scheduling (NEW) 
* IPVS: least-connection scheduling (NEW) 
* IPVS: weighted least-connection scheduling (NEW) 
* IPVS: locality-based least-connection scheduling (NEW) 
* IPVS: locality-based least-connection with replication scheduling 
(NEW) 
* [*] IP: optimize as router not host 
* IP: tunneling 
IP: GRE tunnels over IP 
[*] IP: broadcast GRE over IP 
[*] IP: multicast routing 
[*] IP: PIM-SM version 1 support 
[*] IP: PIM-SM version 2 support 
* [*] IP: aliasing support 
[ ] IP: ARP daemon support (EXPERIMENTAL) 
* [*] IP: TCP syncookie support (not enabled per default) 
--- (it is safe to leave these untouched) 
< > IP: Reverse ARP 
[*] IP: Allow large windows (not recommended if <16Mb of memory) 
< > The IPv6 protocol (EXPERIMENTAL)

面,帶*號的爲必選項。然後就是常規的編譯內核過程,不再贅述,請參考編譯Linux教程。

在這裏要注意一點:如果你使用的是RedHat自帶的內核或者從RedHat下載的內核版本,已經預先打好了LVS的補丁。這可以通過查看/usr/src/linux/net/目錄下有沒有幾個ipvs開頭的文件來判斷:如果有,則說明已經打過補丁。

編寫LVS配置文件,實例中的配置文件如下:

#lvs_dr.conf (C) Joseph Mack [email protected] 
LVS_TYPE=VS_DR 
INITIAL_STATE=on 
VIP=eth0:101 192.168.0.101 255.255.255.0 192.168.0.0 
DIRECTOR_INSIDEIP=eth0 192.168.0.1 192.168.0.0 255.255.255.0 192.168.0. 255 
SERVICE=t telnet rr rs1:telnet rs2:telnet 
SERVICE=t www rr rs1:www rs2:www 
SERVER_VIP_DEVICE=dummy0 
SERVER_NET_DEVICE=eth0 
#----------end lvs_dr.conf------------------------------------

將該文件置於/etc/lvs目錄下。

使用LVS的配置腳本產生lvs.conf文件。該配置腳本可以從http://www.linuxvirtualserver.org/Joseph.Mack/configure-lvs_0.8.tar.gz 單獨下載,在ipvs-1.0.6-2.2.19.tar.gz包中也有包含腳本configure的使用方法:

[root@vs2 lvs]# configure lvs.conf

這樣會產生幾個配置文件,這裏我們只使用其中的rc.lvs_dr文件。修改/etc/rc.d/init.d/rc.local,增加如下幾行:

echo 1 > /proc/sys/net/ipv4/ip_forward 
echo 1 > /proc/sys/net/ipv4/ip_always_defrag 
# 顯示最多調試信息 
echo 10 > /proc/sys/net/ipv4/vs/debug_level

配置NFS服務。這一步僅僅是爲了方便管理,不是必須的步驟。假設配置文件lvs.conf文件放在/etc/lvs目錄下,則/etc/exports文件的內容爲:

/etc/lvs ro(rs1,rs2)

然後使用exportfs命令輸出這個目錄:

[root@vs2 lvs]# exportfs

如果遇到什麼麻煩,可以嘗試:

[root@vs2 lvs]# /etc/rc.d/init.d/nfs restart 
[root@vs2 lvs]# exportfs
這樣,各個real server可以通過NFS獲得rc.lvs_dr文件,方便了集羣的配置:你每次修改lvs.conf中的配置選項,都可以即可反映在rs1,rs2的相應目錄裏。 修改/etc/syslogd.conf,增加如下一行: kern.* /var/log/kernel_log。這樣,LVS的一些調試信息就會寫入/var/log/kernel_log文件中。
Real Server的配置
Real Server的配置相對簡單,主要是是以下幾點:
配置telnet和WWW服務。telnet服務沒有需要特別注意的事項,但是對於www服務,需要修改httpd.conf文件,使得apache在虛擬服務器的ip地址上監聽,如下所示:
 
Listen 192.168.0.101:80
關閉Real Server上dummy0的arp請求響應能力。這是必須的,具體原因請參見 ARP problem in LVS/TUN and LVS/DR關閉dummy0的arp響應的方式有多種,比較簡單地方法是,修改/etc/rc.d/rc.local文件,增加如下幾行:
 
echo 1 > /proc/sys/net/ipv4/conf/all/hidden 
ifconfig dummy0 up 
ifconfig dummy0 192.168.0.101 netmask 255.255.255.0 broadcast 192.168. 0.0 up 
echo 1 > /proc/sys/net/ipv4/conf/dummy0/hidden 
再次修改/etc/rc.d/rc.local,增加如下一行:(可以和步驟2合併) 
echo 1 > /proc/sys/net/ipv4/ip_forward
四 LVS的測試
好了,經過了上面的配置步驟,現在可以測試LVS了,步驟如下:
分別在vs1,rs1,rs2上運行/etc/lvs/rc.lvs_dr。注意,rs1,rs2上面的/etc/lvs目錄是vs2輸出的。如果您的NFS配置沒有成功,也可以把vs1上/etc/lvs/rc.lvs_dr複製到rs1,rs2上,然後分別運行。確保rs1,rs2上面的apache已經啓動並且允許telnet。
然後從client運行telnet 192.168.0.101,如果登錄後看到如下輸出就說明集羣已經開始工作了。(假設以guest用戶身份登錄)
[guest@rs1 guest]$-----------說明已經登錄到服務器rs1上。
再開啓一個telnet窗口,登錄後會發現系統提示變爲:
[guest@rs2 guest]$-----------說明已經登錄到服務器rs2上。
然後在vs2上運行如下命令:
 
[root@vs2 /root]ipvsadm
運行結果應該爲:
 
IP Virtual Server version 1.0.6 (size=4096) 
Prot LocalAddress:Port Scheduler Flags 
-> RemoteAddress:Port Forward Weight ActiveConn InActConn 
TCP 192.168.0.101:telnet rr 
-> rs2:telnet Route 1 1 0 
-> rs1:telnet Route 1 1 0 
TCP 192.168.0.101:www rr 
-> rs2:www Route 1 0 0 
-> rs1:www Route 1 0 0
至此已經驗證telnet的LVS正常。然後測試一下WWW是否正常:用你的瀏覽器查看http://192.168.0.101/是否有什麼變化?爲了更明確的區別響應來自那個Real Server,可以在rs1,rs2上面分別放置如下的測試頁面(test.html):
 
我是real server #1 or #2
然後刷新幾次頁面(http://192.168.0.101/test.html),如果你看到“我是real server #1”和“我是real server #2”交替出現,說明www的LVS系統已經正常工作了。
但是由於Internet Explore 或者Netscape本身的緩存機制,你也許總是隻能看到其中的一個。不過通過ipvsadm還是可以看出,頁面請求已經分配到兩個Real Server上了,如下所示:
 
IP Virtual Server version 1.0.6 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port       Forward Weight ActiveConn InActConn
TCP 192.168.0.101:telnet rr
-> rs2:telnet Route 1 0 0
-> rs1:telnet Route 1 0 0
TCP 192.168.0.101:www rr
-> rs2:www Route 1 0 5
-> rs1:www Route 1 0 4
或者,可以採用linux的lynx作爲測試客戶端,效果更好一些。如下運行命令:
 
[root@client /root]while true; do lynx -dump 
http://10.64.1.56/test.html; sleep 1; done
這樣,每隔1秒鐘“我是realserver #1”和“我是realserver #2”就交替出現一次,清楚地表明響應分別來自兩個不同的Real Server。


發佈了38 篇原創文章 · 獲贊 13 · 訪問量 26萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章