高可用集羣RHCS配置

高可用集羣:RHCS

RHCS的集羣套件                                                      

       集羣基礎套件: coresync/openaisCCS(集羣配置服務) 同步節點數據 CMAN/DLM , Fencing

       HA Service Mangement rgmanager

       共享存儲 GFS and CLVM

       集羣超級工具: iSCSI

       fence設備相當於stonith設備,在RHCS裏叫做fence

 

RHCS的兩個節點的集羣是比較特殊的,quorum將失去意義 要靠quorum disk實現

       quorum disk:探測對方是否在一個共享存儲上寫數據來判斷是否正常 解決資源爭用

 

ccs_tool:集羣配置系統工具,實現節點配置文件數據的同步

cman_tool :集羣管理器

clustat

clvmd:用在集羣中的邏輯卷

clusvcadm

rgmanager: 定義資源組

 

RHCS的架構配置:高可用集羣

       yum groupinstall Clustering即可或者單獨安裝                                                    

       yum  install rgmanager  modcluster  cluster-cim   cluster-snmp   ricci(每個節點都需要)

        重啓ricci service ricci restart

       查看ricci端口爲11111

       安裝luci(服務管理接口需要即要在realserver上安裝)

       初始化:luci_admin  init (會要求輸入admin登陸的密碼)

       重啓服務: service luci restart  會顯示訪問方法

       本機測試並進行圖形界面配置: https://node1.a.com:8084  

 

節點訪問同一個共享存儲設備,節點之間可以看到對方的文件 使用集羣文件系統,節點要配置成高可用集羣

 

基於RHCS的集羣文件系統:

       服務端eth0 192.168.0.190

       客戶端:node1 eth0 192.168.0.187

              node2 eth0 192.168.0.188

              node3 eth0 192.168.0.189

       服務端配置:安裝scsi-target-utils 配置iscsi服務

       客戶端配置:安裝iscsi-initiator-utils  配置iscsi服務可以發現即可

              配置RHCS集羣:

              yum install ricci 節點都需要安裝

              開啓ricci

              yum install luci 服務接口管理需要安裝192.168.0.187

              luci_admin  init

              service luci restart

              圖形界面配置RHCS https://192.168.0.187:8084

              cluster--create a new cluster--cluster name(gfs) node hostname node1.a.com.. 點選downloadenable shared                  storge support---view ssl cert--submit 開始安裝

              客戶端查看集羣狀態:

              cman_tool status或者 cluster

              ccs_tool lsnode 查看node

              ccs_tool -h 查看有哪些命令可用

              ccs_test connect

              service cman status 查看cman 狀態

              service rgmanager start 三個節點都要開啓

              配置節點lvm的都支持集羣的形式:clvm

              lvmconf --enable-cluster 三個節點都需要

              查看grep "locking_type" /etc/lvm/lvm.conf 3

              service clvmd start 超時 #

              ps aux | grep clvmd在線

              lsmod | grep gfs

              ps aux | grep dlm  分佈式鎖要開啓

              登陸iscsi192.168.0.187上配置

              iscsiadm -m discovery  -t sendtargets -p 192.168.0.190

              iscsiadm  -m node -T  iqn.2011-02.com.a.node1:appdata -p 192.168.0.65 -l

             

              配置集羣的fence :圖形界面3個節點都需要添加fence設備

              cluster list --gsf--nodes--manage fencing for this node---勾選cman rgmanager--add a fence device                            (gfs_fence)----updata main fence properties

              故障轉移域配置

              failover domains--add failover domain--name(gfs)--3個節點都添加--submit

              點選shared fence device可以看到配置信息

              配置資源:

              recourse--add a resource---type

             

              集羣文件查看是否正常vim /etc/cluster/cluster.conf

                     ccs_tool lsfence

                     ccs_tool lsnode

                     service gfs start

                     service gfs2 restart

                     service clvmd start

              創建lvm:在一個節點上即可

                     pvcreate /dev/sdb

                     vgcreate vg0 /dev/sdb

                     lvcreate -L 5G -n gfsdata vg0

                     lvdisplay 查看

                     gfs_mkfs -p lock_dlm -t gfs:gfsdata -j 4 /de/vg0/gfsdata  格式化

              在節點上掛載即可

                     mount -o -t gfs  /dev/vg0/gfsdata /mnt

                     gfs_tool list 查看gfs列表

這樣就可以同步節點之間的文件同步了

 

 

 

                                                             
 
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章