羣集筆記:搭建VMware6.5+Win2003 MSCS羣集實驗環境

要想成功實施諸如exchange、sql故障轉移羣集,那就必須先具備MSCS(Microsoft cluster service)的羣集環境,本文就來學習一下該環境在VMware6.5虛擬機下的搭建。
下面是MSCS環境搭建的拓撲圖,關於IP地址的規劃、羣集節點的規劃、共享存儲的規劃,請詳細閱讀拓撲圖。
p_w_picpath
搭建時,注意一下問題:
共享磁盤和仲裁磁盤必須位於同一個總線結構。
共享和仲裁盤不能和操作系統所在的盤處於同一個分區。
所有sharedisk必須爲基本磁盤,採用NTFS分區,其中仲裁盤的分區容量不能小於50MB。
兩個節點必須採用相同位數的操作系統。
如果採用64位的2003操作系統,那麼所有共享盤必須配置MBR主引導記錄,即主分區。
下面就開始安裝吧!!
(一)、安裝羣集前的準備工作
1、建立用來保存共享磁盤的目錄
本例在D盤下創建D:\Virtual Machines\ShareDisks目錄,用於保存共享設備的文件
2、創建共享磁盤
進入到VMware虛擬機的安裝目錄,然後執行下面的命令,創建仲裁磁盤
vmware-vdiskmanager.exe -c -s 600Mb -a lsilogic -t 2 “D:\Virtual Machines\ShareDisks”\Quorum.vmdk
如圖:
p_w_picpath
創建數據共享磁盤
進入VMware Workstation軟件安裝目錄,在命令提示符窗口敲入如下命令:
vmware-vdiskmanager.exe -c -s 2Gb -a lsilogic -t 2 “D:\Virtual Machines\ShareDisks”\ShareDisk.vmdk
p_w_picpath
3、驗證一下共享磁盤是否成功創建
進入D:\Virtual Machines\ShareDisks,可以看到如圖所示的四個磁盤文件
p_w_picpath
4、創建完成後,我們需要把創建好的共享磁盤附加到兩臺虛擬機節點cluster1和cluster2上,把下面的配置文件內容粘貼到cluster1和cluster2的.vmx文件裏
disk.locking = "false"
diskLib.dataCacheMaxSize = "0"
scsi1.present = "TRUE"
scsi1.virtualDev = "lsilogic"
scsi1:5.present = "TRUE"
scsi1:5.fileName = "D:\Virtual Machines\ShareDisks\Quorum.vmdk"
scsi1:6.present = "TRUE"
scsi1:6.fileName = "D:\Virtual Machines\ShareDisks\ShareDisk.vmdk"
以cluster1爲例,打開以.vmx結尾的文件,如圖
p_w_picpath
然後,添加如圖所示的內容
p_w_picpath
然後以同樣的方式在cluster2的.vmx文件裏添加同樣的內容即可,添加完成後可以看到如圖所示,clu1和clu2的配置信息裏已經有了兩塊磁盤,並且這兩款磁盤位於同一個總線結構,分別是1:5,和1:6,而系統總線是0:0,二者並沒有衝突,如圖
p_w_picpath
p_w_picpath
現在共享磁盤已經準備完畢,也已經和虛擬機羣集的兩個節點掛接完畢
(二)、在DC上設置羣集管理賬戶,將該賬戶加入到節點的本地管理員組,然後在DNS上創建羣集的A記錄clustertest.ice.com對應的IP是10.1.1.100
p_w_picpath
p_w_picpath
p_w_picpath
p_w_picpath
p_w_picpath
p_w_picpath
p_w_picpath
p_w_picpath
p_w_picpath
(三)、先啓動cluster1,初始化磁盤,分配盤符並且格式化,然後在啓動cluster2,不用格式化,只分配盤符即可
p_w_picpath
p_w_picpath
p_w_picpath
p_w_picpath
p_w_picpath
p_w_picpath
p_w_picpath
p_w_picpath
p_w_picpath
p_w_picpath
p_w_picpath
Q盤已經格式化完畢,然後以同樣的方式格式化E盤,格式化完成後如圖所示
p_w_picpath
當cluster1節點配置完成後,繼續配置cluster2節點,只需要分配盤符即可了
p_w_picpath
(四)、當準備工作全部完成後,下面就開始創建羣集了
1、在cluster1上打開羣集管理器,創建新羣集,步驟如下
p_w_picpath
p_w_picpath
然後就會打開創建新羣集的嚮導
p_w_picpath
輸入羣集的名稱:clustertest
p_w_picpath
選擇新建羣集所在的計算機節點
p_w_picpath
開始分析配置,直到完成,然後下一步
p_w_picpath
p_w_picpath
輸入羣集管理工具用以連接的羣集的IP地址
p_w_picpath
輸入羣集服務的管理員賬戶
p_w_picpath
確認一下配置信息,如果有不對的地方,可以返回修改
p_w_picpath
下面開始在節點一cluster1上創建新羣集
p_w_picpath
p_w_picpath
完成羣集嚮導
p_w_picpath
從下圖可以看到創建完成的羣集節點一
p_w_picpath
2、在cluster2上打開羣集管理工具,將cluster2加入到現有的clustertest羣集裏,具體的步驟如下:
p_w_picpath
p_w_picpath
下面開始進入添加節點嚮導,根據嚮導一步步設置完成即可
p_w_picpath
p_w_picpath
p_w_picpath
羣集管理賬戶會強制於節點一設置的賬戶一致
p_w_picpath
p_w_picpath
p_w_picpath
p_w_picpath
節點二加入羣集後,可以看到羣集管理器如下,有兩個節點
p_w_picpath
到現在爲止,羣集的主要配置已經完成,下面進行後續的配置
(五)、後續設置,設置仲裁盤爲Q,設置故障轉移,設置網卡優先級,設置心跳線的規則
1、設置仲裁盤爲Q,設置網卡優先級,右擊羣集名clustertest,選擇屬性
p_w_picpath
p_w_picpath
切換到“網絡優先級”選項卡
確保心跳線網卡private的優先級更高
p_w_picpath
2、設置“故障轉移”,右擊組0和羣集組,選擇屬性,切換到“故障回覆”選項卡
p_w_picpath
p_w_picpath
p_w_picpath
3、配置網卡是用於什麼性質的通訊,如圖:設置private爲羣集內部通訊,public爲混合通訊模式
p_w_picpath
p_w_picpath
p_w_picpath
p_w_picpath
4、最後在配置一下心跳線網卡private的DNS爲未註冊,禁用netbios和lmhosts查找,以cluster1上的private網卡爲例:
cluster2上的private也要做同樣的配置
p_w_picpath
p_w_picpath
p_w_picpath
p_w_picpath
到現在爲止,全部搭建完畢,下面就可以在此基礎上做其他的故障轉移羣集試驗啦
(六)、最後說一下驗證的問題,怎麼才能知道這個羣集搭建成功呢?可以採用一下的方法
1、確認關閉羣集管理器後,再重新打開,可以打開到羣集的連接
2、確認cluster service服務處於開啓狀態
3、確認有關於羣集的正確的事件日誌和相關的cluster註冊表項
4、在cluster1上移動組,可以成功轉移到cluster2上,同樣在cluster2上移動組也可以成功轉移到cluster1上
5、當停止某一個節點的羣集服務後,羣集相關的組會自動轉移到另外一個節點上
6、右擊某一個磁盤,然後選擇“初始故障”,選擇3次,節點不會轉移,羣集可以自動修復這種初始故障,超過3次初始故障後,資源會全部轉移到另外一個節點上
7、模擬意外斷電故障,可以關閉某個節點的虛擬機,或直接disconnect網卡的連接
至此,VMware6.5+win2003+mscs故障轉移羣集平臺全部搭建完成!!

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章