概述:
之前我們已經將集羣假設好了,也部署了fence斷電管理,就差把服務放上去跑跑了,我們以http服務爲例子,我們的這個服務需要的資源有ip,存儲,服務軟件,將這些部署到集羣上之後,我們再測試一下我們部署的服務是不是高可用,今天的部署主要在web界面上進行。
1.添加切換服務的域
選擇Add,添加一個域
首先定義名字,接下來的三個選項分別是按照結點優先級去進行服務,只在選定結點內切換服務,當從一個結點切換到另一個結點的時候不再自動切換回原先的結點。最下面是選擇我們要添加的結點。
顯示這樣的標誌表示添加成功。
2.添加資源
我們的http服務,需要三種資源,分別是ip,存儲,服務,我們先不管存儲,直接讓存儲在結點上,最後再搞定存儲。
點擊添加資源後,在這裏選擇添加一個ip資源。
ip資源的設置如上。
添加apache資源,我們選擇用腳本的方式配置apache
這樣就添加好了兩個資源
3.整合資源組
最後一步,就是讓兩個資源組合起來成一個服務組,添加到服務組中。而且在server1和server2上安裝http服務。
給這個服務組起名字,然後勾選服務自啓動,而且服務獨佔,選擇切換域名,選擇切換策略(遷移)。
添加我們剛纔配置的ip,http資源。
點擊上面的開始按鍵就開啓了這個服務組。
這時候回到命令行用命令查看狀態。
[root@server1 html]# clustat
Cluster Status for newmo @ Wed Feb 15 03:37:57 2017
Member Status: Quorate
Member Name ID Status
------ ---- ---- ------
server1.mo.com 1 Online, Local, rgmanager
server2.mo.com 2 Online, rgmanager
Service Name Owner (Last) State
------- ---- ----- ------ -----
service:apache server2.mo.com started
命令顯示兩臺機器正常,而且服務在server2上運行。
[root@server1 html]# clusvcadm -e apache
這是自啓並且開啓apache服務
[root@server1 html]# clusvcadm -d apache
關閉apache的自啓動並且關閉服務,現在測試一下是否高可用。我們將server2上的http服務手動關閉。
[root@server2 html]# /etc/init.d/httpd stop
這時候看下集羣的狀況。
[root@server1 html]# clustat
Cluster Status for newmo @ Wed Feb 15 03:41:06 2017
Member Status: Quorate
Member Name ID Status
------ ---- ---- ------
server1.mo.com 1 Online, Local, rgmanager
server2.mo.com 2 Online, rgmanager
Service Name Owner (Last) State
------- ---- ----- ------ -----
service:apache server1.mo.com started
已經將服務切換到了server1。
4.添加存儲資源
真正環境下的服務,存儲都不在結點機上,而是一臺數據庫服務器其他的服務器上,我們也是這樣實驗,現在使用server3作爲存儲服務器,做一個iscsi網絡分享存儲。
給虛擬機添加一塊8G的硬盤
Disk /dev/vda: 8589 MB, 8589934592 bytes
16 heads, 63 sectors/track, 16644 cylinders
Units = cylinders of 1008 * 512 = 516096 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
服務端scsi:
yum install scsi-target-utils.x86_64 0:1.0.24-10.el6
修改配置文件/etc/tgt/targets.conf
<target iqn.2008-09.com.example:server.target1>
backing-store /dev/vda
initiator-address 172.25.9.20
initiator-address 172.25.9.21
</target>
然後啓動服務,就將這個存儲分享了[root@server3 ~]# /etc/init.d/tgtd start
Starting SCSI target daemon: [ OK ]
查看一下是否分享成功
[root@server3 ~]# tgt-admin --show
Target 1: iqn.2008-09.com.example:server.target1
System information:
Driver: iscsi
State: ready
I_T nexus information:
LUN information:
LUN: 0
Type: controller
SCSI ID: IET 00010000
SCSI SN: beaf10
Size: 0 MB, Block size: 1
Online: Yes
Removable media: No
Prevent removal: No
Readonly: No
Backing store type: null
Backing store path: None
Backing store flags:
LUN: 1
Type: disk
SCSI ID: IET 00010001
SCSI SN: beaf11
Size: 8590 MB, Block size: 512
Online: Yes
Removable media: No
Prevent removal: No
Readonly: No
Backing store type: rdwr
Backing store path: /dev/vda
Backing store flags:
Account information:
ACL information:
172.25.9.20
172.25.9.21
如上就分享成功了。客戶端iscsi:
在server1上
安裝iscsi*,也就是iscsi-initiator-utils-6.2.0.873-10.el6.x8。
發現設備
[root@server1 html]# iscsiadm -m discovery -t st -p 172.25.9.22
Starting iscsid: [ OK ] [ OK ]
172.25.9.22:3260,1 iqn.2008-09.com.example:server.target1
添加設備
[root@server1 html]# iscsiadm -m node -l
Logging in to [iface: default, target: iqn.2008-09.com.example:server.target1, portal: 172.25.9.22,3260] (multiple)
Login to [iface: default, target: iqn.2008-09.com.example:server.target1, portal: 172.25.9.22,3260] successful.
現在查看客戶端的設備,是否有分享出的設備,發現已經有了。
分區,格式化後就可使用了。之後是創建邏輯卷。
[root@server1 html]# pvcreate /dev/sdb1
dev_is_mpath: failed to get device for 8:17
Physical volume "/dev/sdb1" successfully created
[root@server1 html]# pvs
PV VG Fmt Attr PSize PFree
/dev/sda2 VolGroup lvm2 a-- 19.51g 0
/dev/sdb1 lvm2 a-- 8.00g 8.00g
這時切換到server2,進行設備發現等後,使用pvs,看下是否有物理卷。兩邊如果都發現了sdb1 8G的物理卷也就成功了。
繼續創建vg,lv,在server1上
[root@server1 html]# vgcreate clustervg /dev/sdb1
Clustered volume group "clustervg" successfully created
[root@server1 html]# vgs
VG #PV #LV #SN Attr VSize VFree
VolGroup 1 2 0 wz--n- 19.51g 0
clustervg 1 0 0 wz--nc 8.00g 8.00g
[root@server1 html]# lvcreate -n lvclu -L 4g clustervg
[root@server1 html]# lvs
LV VG Attr LSize Pool Origin Data% Move Log Cpy%Sync Convert
lv_root VolGroup -wi-ao---- 18.54g
lv_swap VolGroup -wi-ao---- 992.00m
lvclu clustervg -wi-a----- 4.00g
存儲創建好了,現在有兩種方式來使用這個存儲,一種是仍然使用Conga來用腳本管理,第二中是使用GFS文件系統,就不需要使用管理軟件了。
第一種:
填寫的信息如上所顯示,然後將資源加入服務組,此時請注意服務的順序,存儲一定要在服務的前面,先啓動存儲纔能有服務。
開啓服務組測試,建議使用clusvcadm -e apache開啓服務
[root@server1 html]# clustat
Cluster Status for newmo @ Wed Feb 15 04:36:34 2017
Member Status: Quorate
Member Name ID Status
------ ---- ---- ------
server1.mo.com 1 Online, Local, rgmanager
server2.mo.com 2 Online, rgmanager
Service Name Owner (Last) State
------- ---- ----- ------ -----
service:apache server1.mo.com started
服務已經開啓,而且通過ip命令也可以看到ip被加到了這個機器上。
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 52:54:00:31:79:cb brd ff:ff:ff:ff:ff:ff
inet 172.25.9.20/24 brd 172.25.9.255 scope global eth0
inet 172.25.9.101/24 scope global secondary eth0
inet6 fe80::5054:ff:fe31:79cb/64 scope link
valid_lft forever preferred_lft forever
這個臺機器被添加了一個ip,就是我們集羣加的ip。