運維筆記28 (在集羣上部署ip,http,存儲等)

概述:

       之前我們已經將集羣假設好了,也部署了fence斷電管理,就差把服務放上去跑跑了,我們以http服務爲例子,我們的這個服務需要的資源有ip,存儲,服務軟件,將這些部署到集羣上之後,我們再測試一下我們部署的服務是不是高可用,今天的部署主要在web界面上進行。

1.添加切換服務的域

選擇Add,添加一個域

首先定義名字,接下來的三個選項分別是按照結點優先級去進行服務,只在選定結點內切換服務,當從一個結點切換到另一個結點的時候不再自動切換回原先的結點。最下面是選擇我們要添加的結點。

顯示這樣的標誌表示添加成功。

2.添加資源

我們的http服務,需要三種資源,分別是ip,存儲,服務,我們先不管存儲,直接讓存儲在結點上,最後再搞定存儲。

點擊添加資源後,在這裏選擇添加一個ip資源。

ip資源的設置如上。


添加apache資源,我們選擇用腳本的方式配置apache

這樣就添加好了兩個資源


3.整合資源組

最後一步,就是讓兩個資源組合起來成一個服務組,添加到服務組中。而且在server1和server2上安裝http服務。

給這個服務組起名字,然後勾選服務自啓動,而且服務獨佔,選擇切換域名,選擇切換策略(遷移)。

添加我們剛纔配置的ip,http資源。

點擊上面的開始按鍵就開啓了這個服務組。

這時候回到命令行用命令查看狀態。

[root@server1 html]# clustat 
Cluster Status for newmo @ Wed Feb 15 03:37:57 2017
Member Status: Quorate

 Member Name                    ID   Status
 ------ ----                    ---- ------
 server1.mo.com                     1 Online, Local, rgmanager
 server2.mo.com                     2 Online, rgmanager

 Service Name          Owner (Last)          State         
 ------- ----          ----- ------          -----         
 service:apache        server2.mo.com        started   
命令顯示兩臺機器正常,而且服務在server2上運行。

[root@server1 html]# clusvcadm -e apache
這是自啓並且開啓apache服務

[root@server1 html]# clusvcadm -d apache
關閉apache的自啓動並且關閉服務,現在測試一下是否高可用。我們將server2上的http服務手動關閉。

[root@server2 html]# /etc/init.d/httpd stop
這時候看下集羣的狀況。

[root@server1 html]# clustat 
Cluster Status for newmo @ Wed Feb 15 03:41:06 2017
Member Status: Quorate

 Member Name                    ID   Status
 ------ ----                    ---- ------
 server1.mo.com                     1 Online, Local, rgmanager
 server2.mo.com                     2 Online, rgmanager

 Service Name          Owner (Last)          State         
 ------- ----          ----- ------          -----         
 service:apache        server1.mo.com        started  
已經將服務切換到了server1。

4.添加存儲資源

真正環境下的服務,存儲都不在結點機上,而是一臺數據庫服務器其他的服務器上,我們也是這樣實驗,現在使用server3作爲存儲服務器,做一個iscsi網絡分享存儲。

給虛擬機添加一塊8G的硬盤

Disk /dev/vda: 8589 MB, 8589934592 bytes
16 heads, 63 sectors/track, 16644 cylinders
Units = cylinders of 1008 * 512 = 516096 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

服務端scsi:

yum install scsi-target-utils.x86_64 0:1.0.24-10.el6 
修改配置文件/etc/tgt/targets.conf

<target iqn.2008-09.com.example:server.target1>
    backing-store /dev/vda
    initiator-address 172.25.9.20
    initiator-address 172.25.9.21
</target>
然後啓動服務,就將這個存儲分享了
[root@server3 ~]# /etc/init.d/tgtd start
Starting SCSI target daemon:                               [  OK  ]
查看一下是否分享成功

[root@server3 ~]# tgt-admin --show
Target 1: iqn.2008-09.com.example:server.target1
    System information:
        Driver: iscsi
        State: ready
    I_T nexus information:
    LUN information:
        LUN: 0
            Type: controller
            SCSI ID: IET     00010000
            SCSI SN: beaf10
            Size: 0 MB, Block size: 1
            Online: Yes
            Removable media: No
            Prevent removal: No
            Readonly: No
            Backing store type: null
            Backing store path: None
            Backing store flags: 
        LUN: 1
            Type: disk
            SCSI ID: IET     00010001
            SCSI SN: beaf11
            Size: 8590 MB, Block size: 512
            Online: Yes
            Removable media: No
            Prevent removal: No
            Readonly: No
            Backing store type: rdwr
            Backing store path: /dev/vda
            Backing store flags: 
    Account information:
    ACL information:
        172.25.9.20
        172.25.9.21
如上就分享成功了。

客戶端iscsi:

在server1上

安裝iscsi*,也就是iscsi-initiator-utils-6.2.0.873-10.el6.x8。

發現設備

[root@server1 html]# iscsiadm -m discovery -t st -p 172.25.9.22
Starting iscsid:                                           [  OK  ]                                                       [  OK  ]
172.25.9.22:3260,1 iqn.2008-09.com.example:server.target1
添加設備

[root@server1 html]# iscsiadm -m node -l
Logging in to [iface: default, target: iqn.2008-09.com.example:server.target1, portal: 172.25.9.22,3260] (multiple)
Login to [iface: default, target: iqn.2008-09.com.example:server.target1, portal: 172.25.9.22,3260] successful.
現在查看客戶端的設備,是否有分享出的設備,發現已經有了。

分區,格式化後就可使用了。之後是創建邏輯卷。

[root@server1 html]# pvcreate /dev/sdb1
  dev_is_mpath: failed to get device for 8:17
  Physical volume "/dev/sdb1" successfully created
[root@server1 html]# pvs
  PV         VG       Fmt  Attr PSize  PFree
  /dev/sda2  VolGroup lvm2 a--  19.51g    0 
  /dev/sdb1           lvm2 a--   8.00g 8.00g
這時切換到server2,進行設備發現等後,使用pvs,看下是否有物理卷。兩邊如果都發現了sdb1 8G的物理卷也就成功了。

繼續創建vg,lv,在server1上

[root@server1 html]# vgcreate clustervg /dev/sdb1
  Clustered volume group "clustervg" successfully created
[root@server1 html]# vgs
  VG        #PV #LV #SN Attr   VSize  VFree
  VolGroup    1   2   0 wz--n- 19.51g    0 
  clustervg   1   0   0 wz--nc  8.00g 8.00g

[root@server1 html]# lvcreate -n lvclu -L 4g clustervg
[root@server1 html]# lvs
  LV      VG        Attr       LSize   Pool Origin Data%  Move Log Cpy%Sync Convert
  lv_root VolGroup  -wi-ao----  18.54g                                             
  lv_swap VolGroup  -wi-ao---- 992.00m                                             
  lvclu   clustervg -wi-a-----   4.00g         
存儲創建好了,現在有兩種方式來使用這個存儲,一種是仍然使用Conga來用腳本管理,第二中是使用GFS文件系統,就不需要使用管理軟件了。

第一種:

 

填寫的信息如上所顯示,然後將資源加入服務組,此時請注意服務的順序,存儲一定要在服務的前面,先啓動存儲纔能有服務

開啓服務組測試,建議使用clusvcadm -e apache開啓服務

[root@server1 html]# clustat 
Cluster Status for newmo @ Wed Feb 15 04:36:34 2017
Member Status: Quorate

 Member Name                    ID   Status
 ------ ----                    ---- ------
 server1.mo.com                     1 Online, Local, rgmanager
 server2.mo.com                     2 Online, rgmanager

 Service Name          Owner (Last)          State         
 ------- ----          ----- ------          -----         
 service:apache        server1.mo.com        started 
服務已經開啓而且通過ip命令也可以看到ip被加到了這個機器上

2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 52:54:00:31:79:cb brd ff:ff:ff:ff:ff:ff
    inet 172.25.9.20/24 brd 172.25.9.255 scope global eth0
    inet 172.25.9.101/24 scope global secondary eth0
    inet6 fe80::5054:ff:fe31:79cb/64 scope link 
       valid_lft forever preferred_lft forever
這個臺機器被添加了一個ip,就是我們集羣加的ip


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章