Cluster集羣和fence設備

Redhat6.5三臺虛擬機,2臺節點(ricci 端口11111),一臺管理(luci端口80 )

client-->>web [luci(8084)]-->>ricci(11111)-->>command

配置HA的yum源
[Server]
name=Red Hat Enterprise Linux Server
baseurl=http://172.25.49.250/rhel6.5
enabled=1
gpgcheck=0
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release

[HighAvailability]
name=Red Hat Enterprise Linux HighAvailability
baseurl=http://172.25.49.250/rhel6.5/HighAvailability
enabled=1
gpgcheck=0
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release

[LoadBalancer]
name=Red Hat Enterprise Linux LoadBalancer
baseurl=http://172.25.49.250/rhel6.5/LoadBalancer
enabled=1
gpgcheck=0
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release

[ResilientStorage]
name=Red Hat Enterprise Linux ResilientStorage
baseurl=http://172.25.49.250/rhel6.5/ResilientStorage
enabled=1
gpgcheck=0
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release

[ScalableFileSystem]
name=Red Hat Enterprise Linux ScalableFileSystem
baseurl=http://172.25.49.250/rhel6.5/ScalableFileSystem
enabled=1
gpgcheck=0
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release

節點機安裝紅帽高可用附加組件軟件包
yum install rgmanager
注:只安裝 rgm anager 將牽動所有所需相依性軟件以便在高可用頻道中創建 HA 集羣

Id ricci 查看ricci賬戶
Passwd ricci(修改密碼)
/etc/init.d/ricci start
chkconfig ricci on 設置開機自起

常 規 配 置 注 意 事 項
1.支持的集羣 節 點數
紅帽高可用性附加組件最多支持的集羣節點數爲 16
2.單點集羣
現在只能完全支持單點集羣。官方尚不支持在多個物理位置中分佈的集羣。有關詳情以及多點集羣的討論,請聯絡您的紅帽銷售或者支持代表
3.GFS2
雖然 GFS2 文件系統既可作爲獨立系統使用,也可作爲集羣配置的一部分,但紅帽不支持將 GFS2作爲單節點文件系統使用。紅帽支持很多爲單節點優化的高性能單節點文件系統,它們相對集羣文件系統來說支出更低。紅帽建議您在那些只需要在單一節點掛載文件系統時首選那些系統,而不是GFS2。紅帽將繼續爲現有客戶支持單節點 GFS2 文件系統。
當您將 GFS2 文件系統作爲集羣文件系統配置時,您必須確定該集羣中的所有節點都可訪問共享的文件系統。不支持不對稱集羣配置,在不對稱集羣中,有些節點可訪問該文件系統,而其他節點則不能。這不要求所有節點確實掛載該 GFS2 文件系統。
4.確保數據完整
要保證數據完整,則每次只能有一個節點可運行集羣服務和訪問集羣服務數據。在集羣硬件配置中使用電源開關,就可讓一個節點在故障切換過程中,重啓節點 HA 服務前爲另一個節點提供動力。這樣就可防止兩個節點同時訪問同一數據並破壞數據。強烈建議使用 Fence 設備 (遠程供電、關閉和重啓集羣節點的硬件或者軟件解決方案),以確保在所有失敗情況下數據的完整性。

管理機安裝luci
Yum install -y luci
/etc/init.d/luci start
開啓luci會出現網址https://server22.example.com:8084 需在web中登陸
首次登陸需要手動認證,認證完登陸,賬戶密碼均是虛擬機的
注意:若登陸界面找不到可能物理機未作解析

進入HA管理界面1
添加節點

添加節點後主機會自動重啓
重新啓動後,在節點機上通過clustat命令查看到兩個節點
server20.example.com 1 Online
server21.example.com 2 Online, Local

/etc/cluster/cluster.conf這個文件記錄節點的信息

添加fence設備(物理機)
fence服務(相當於電源控制異常服務器,使其自動重啓,並將業務轉移到另一臺服務器上,保證業務正常工作)

物理機安裝fence設備:
rpm -qa|grep fence
fence-virtd-libvirt-0.3.0-16.el7.x86_64 安裝包需要下載
fence-virtd-0.3.0-16.el7.x86_64
fence-virtd-multicast-0.3.0-16.el7.x86_64
(直接用yum install安裝)
systemctl status fence_virtd.service 查看fence服務狀態(正常情況下running)
fence_virtd -c 配置fence
一直回車(注意當是Interface[virbr0]:時要寫成br0)
最後y
systemctl status libvirtd (正常running)
mkdir /etc/cluster/ 在物理機中創建目錄/etc/cluster/
fence_xvm.key 並創建文件
if=/dev/urandom of=/etc/cluster/fence_xvm.key bs=128 count=1

scp fence_xvm.key 172.25.16.12:/etc/cluster/
scp fence_xvm.key 172.25.16.13:/etc/cluster/ 將文件複製到兩臺虛擬服務器上

進入web圖形:添加fence method to node(名字,兩個都添加),添加fence device,就在node下(uuid,真機中可用virsh list --uuid查看)

添加完畢後
使用fence_node 關閉對方節點
例如server21關閉server20 fence_node server20.example.com
則 server20經歷online-->offline-->online的過程,會重啓
若fence失敗,嘗試 在物理機中重啓fence服務
或將fence_xvm.key重新拷貝(當然fence要重啓)

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章