高可用集羣:RHCS
RHCS的集羣套件
集羣基礎套件: coresync/openais,CCS(集羣配置服務) 同步節點數據 ,CMAN/DLM , Fencing
HA Service Mangement : rgmanager
共享存儲 :GFS and CLVM
集羣超級工具: iSCSI
fence設備相當於stonith設備,在RHCS裏叫做fence
RHCS的兩個節點的集羣是比較特殊的,quorum將失去意義 要靠quorum disk實現
quorum disk:探測對方是否在一個共享存儲上寫數據來判斷是否正常 解決資源爭用
ccs_tool:集羣配置系統工具,實現節點配置文件數據的同步
cman_tool :集羣管理器
clustat:
clvmd:用在集羣中的邏輯卷
clusvcadm:
rgmanager: 定義資源組
RHCS的架構配置:高可用集羣
yum groupinstall Clustering即可或者單獨安裝 :
yum install rgmanager modcluster cluster-cim cluster-snmp ricci(每個節點都需要)
重啓ricci : service ricci restart
查看ricci端口爲11111
安裝luci(服務管理接口需要即要在realserver上安裝)
初始化:luci_admin init (會要求輸入admin登陸的密碼)
重啓服務: service luci restart 會顯示訪問方法
本機測試並進行圖形界面配置: https://node1.a.com:8084
節點訪問同一個共享存儲設備,節點之間可以看到對方的文件 使用集羣文件系統,節點要配置成高可用集羣
基於RHCS的集羣文件系統:
服務端eth0 :192.168.0.190
客戶端:node1 eth0 192.168.0.187
node2 eth0 192.168.0.188
node3 eth0 192.168.0.189
服務端配置:安裝scsi-target-utils 配置iscsi服務
客戶端配置:安裝iscsi-initiator-utils 配置iscsi服務可以發現即可
配置RHCS集羣:
yum install ricci 節點都需要安裝
開啓ricci
yum install luci 服務接口管理需要安裝192.168.0.187
luci_admin init
service luci restart
圖形界面配置RHCS: https://192.168.0.187:8084
cluster--create a new cluster--cluster name(gfs) node hostname node1.a.com.. 點選download和enable shared storge support---view ssl cert--submit 開始安裝
客戶端查看集羣狀態:
cman_tool status或者 cluster
ccs_tool lsnode 查看node
ccs_tool -h 查看有哪些命令可用
ccs_test connect
service cman status 查看cman 狀態
service rgmanager start 三個節點都要開啓
配置節點lvm的都支持集羣的形式:clvm
lvmconf --enable-cluster 三個節點都需要
查看grep "locking_type" /etc/lvm/lvm.conf 爲3
service clvmd start 超時 #
ps aux | grep clvmd在線
lsmod | grep gfs
ps aux | grep dlm 分佈式鎖要開啓
登陸iscsi的192.168.0.187上配置
iscsiadm -m discovery -t sendtargets -p 192.168.0.190
iscsiadm -m node -T iqn.2011-02.com.a.node1:appdata -p 192.168.0.65 -l
配置集羣的fence :圖形界面3個節點都需要添加fence設備
cluster list --gsf--nodes--manage fencing for this node---勾選cman rgmanager--add a fence device (gfs_fence)----updata main fence properties
故障轉移域配置 :
failover domains--add failover domain--name(gfs)--將3個節點都添加--submit
點選shared fence device可以看到配置信息
配置資源:
recourse--add a resource---type
集羣文件查看是否正常vim /etc/cluster/cluster.conf
ccs_tool lsfence
ccs_tool lsnode
service gfs start
service gfs2 restart
service clvmd start
創建lvm:在一個節點上即可
pvcreate /dev/sdb
vgcreate vg0 /dev/sdb
lvcreate -L 5G -n gfsdata vg0
lvdisplay 查看
gfs_mkfs -p lock_dlm -t gfs:gfsdata -j 4 /de/vg0/gfsdata 格式化
在節點上掛載即可
mount -o -t gfs /dev/vg0/gfsdata /mnt
gfs_tool list 查看gfs列表
這樣就可以同步節點之間的文件同步了