本文翻譯自heketi的github網址官方文檔(大部分爲google翻譯,少許人工調整,括號內爲個人註解)其中注意事項部分爲其他網上查詢所得。 本文的整個過程將在kubernetes集羣上的3個或以上節點安裝glusterfs的服務端集羣(DaemonSet方式),並將heketi以deployment的方式部署到kubernetes集羣。在我的示例部分有StorageClass和PVC的樣例。本文介紹的Heketi,GlusterFS這2個組件與kubernetes集成只適合用於測試驗證環境,並不適合生產環境,請注意這一點。
Heketi是一個具有resetful接口的glusterfs管理程序,作爲kubernetes的Storage存儲的external provisioner。 “Heketi提供了一個RESTful管理界面,可用於管理GlusterFS卷的生命週期。藉助Heketi,像OpenStack Manila,Kubernetes和OpenShift這樣的雲服務可以動態地配置GlusterFS卷和任何支持的持久性類型。Heketi將自動確定整個集羣的brick位置,確保將brick及其副本放置在不同的故障域中。Heketi還支持任意數量的GlusterFS集羣,允許雲服務提供網絡文件存儲,而不受限於單個GlusterFS集羣。”
注意事項
- 安裝Glusterfs客戶端:每個kubernetes集羣的節點需要安裝gulsterfs的客戶端,如ubuntu系統的
apt-get install glusterfs-client
。 - 加載內核模塊:每個kubernetes集羣的節點運行
modprobe dm_thin_pool
,加載內核模塊。 - 至少三個slave節點:至少需要3個kubernetes slave節點用來部署glusterfs集羣,並且這3個slave節點每個節點需要至少一個空餘的磁盤。
概述
本指南支持在Kubernetes集羣中集成,部署和管理GlusterFS 容器化的存儲節點。這使得Kubernetes管理員可以爲其用戶提供可靠的共享存儲。
跟這個話題相關的另一個重要資源是gluster-kubernetes 項目。它專注於在Kubernetes集羣中部署GlusterFS,並提供簡化的工具來完成此任務。它包含一個安裝指南 setup guide。它還包括一個樣例 Hello World。其中包含一個使用動態配置(dynamically-provisioned)的GlusterFS捲進行存儲的Web server pod示例。對於那些想要測試或學習更多關於此主題的人,請按照主README 的快速入門說明 進行操作。
本指南旨在展示Heketi在Kubernetes環境中管理Gluster的最簡單示例。這是爲了強調這種配置的主要組成組件,因此並不適合生產環境。
基礎設施要求
- 正在運行的Kubernetes集羣,至少有三個Kubernetes工作節點,每個節點至少有一個可用的裸塊設備(如EBS卷或本地磁盤).
- 用於運行GlusterFS Pod的三個Kubernetes節點必須爲GlusterFS通信打開相應的端口(如果開啓了防火牆的情況下,沒開防火牆就不需要這些操作)。在每個節點上運行以下命令。
iptables -N heketi
iptables -A heketi -p tcp -m state --state NEW -m tcp --dport 24007 -j ACCEPT
iptables -A heketi -p tcp -m state --state NEW -m tcp --dport 24008 -j ACCEPT
iptables -A heketi -p tcp -m state --state NEW -m tcp --dport 2222 -j ACCEPT
iptables -A heketi -p tcp -m state --state NEW -m multiport --dports 49152:49251 -j ACCEPT
service iptables save
客戶端安裝
Heketi提供了一個CLI客戶端,爲用戶提供了一種管理Kubernetes中GlusterFS的部署和配置的方法。 在客戶端機器上下載並安裝Download and install the heketi-cli。
Glusterfs和Heketi在Kubernetes集羣中的部署過程
以下所有文件都位於下方extras/kubernetes (git clone https://github.com/heketi/heketi.git
)。
- 部署 GlusterFS DaemonSet
$ kubectl create -f glusterfs-daemonset.json
- 通過運行如下命令獲取節點名稱:
$ kubectl get nodes
- 通過設置storagenode=glusterfs節點上的標籤,將gluster容器部署到指定節點上。
$ kubectl label node <...node...> storagenode=glusterfs
根據需要重複打標籤的步驟。驗證Pod在節點上運行至少應運行3個Pod(因此至少需要給3個節點打標籤)。
$ kubectl get pods
- 接下來,我們將爲Heketi創建一個服務帳戶(service-account):
$ kubectl create -f heketi-service-account.json
- 我們現在必須給該服務帳戶的授權綁定相應的權限來控制gluster的pod。我們通過爲我們新創建的服務帳戶創建羣集角色綁定(cluster role binding)來完成此操作。
$ kubectl create clusterrolebinding heketi-gluster-admin --clusterrole=edit --serviceaccount=default:heketi-service-account
- 現在我們需要創建一個Kubernetes secret來保存我們Heketi實例的配置。必須將配置文件的執行程序設置爲 kubernetes才能讓Heketi server控制gluster pod(配置文件的默認配置)。除此這些,可以嘗試配置的其他選項。
$ kubectl create secret generic heketi-config-secret --from-file=./heketi.json
- 接下來,我們需要部署一個初始(bootstrap)Pod和一個服務來訪問該Pod。在你用git克隆的repo中,會有一個heketi-bootstrap.json文件。
提交文件並驗證一切正常運行,如下所示:
# kubectl create -f heketi-bootstrap.json
service "deploy-heketi" created
deployment "deploy-heketi" created
# kubectl get pods
NAME READY STATUS RESTARTS AGE
deploy-heketi-1211581626-2jotm 1/1 Running 0 35m
glusterfs-ip-172-20-0-217.ec2.internal-1217067810-4gsvx 1/1 Running 0 1h
glusterfs-ip-172-20-0-218.ec2.internal-2001140516-i9dw9 1/1 Running 0 1h
glusterfs-ip-172-20-0-219.ec2.internal-2785213222-q3hba 1/1 Running 0 1h
- 當Bootstrap heketi服務正在運行,我們配置端口轉發,以便我們可以使用Heketi CLI與服務進行通信。使用heketi pod的名稱,運行下面的命令:
kubectl port-forward deploy-heketi-1211581626-2jotm :8080
如果在運行命令的系統上本地端口8080是空閒的,則可以運行port-forward命令,以便綁定到8080以方便使用(2個命令二選一即可,我選擇第二個):
kubectl port-forward deploy-heketi-1211581626-2jotm 8080:8080
現在通過對Heketi服務運行示例查詢來驗證端口轉發是否正常。該命令應該已經打印了將從其轉發的本地端口。將其合併到URL中以測試服務,如下所示:
curl http://localhost:8080/hello
Handling connection for 8080
Hello from heketi
最後,爲Heketi CLI客戶端設置一個環境變量,以便它知道Heketi服務器的地址。
export HEKETI_CLI_SERVER=http://localhost:8080
- 接下來,我們將向Heketi提供有關要管理的GlusterFS集羣的信息。通過拓撲文件提供這些信息。克隆的repo中有一個示例拓撲文件,名爲topology-sample.json。拓撲指定運行GlusterFS容器的Kubernetes節點以及每個節點的相應原始塊設備。
確保hostnames/manage指向如下所示的確切名稱kubectl get nodes得到的主機名(如ubuntu-1),並且hostnames/storage是存儲網絡的IP地址(對應ubuntu-1的ip地址)。
IMPORTANT: 重要提示,目前,必須使用與服務器版本匹配的Heketi-cli版本加載拓撲文件。另外,Heketi pod 帶有可以通過kubectl exec ...
訪問的heketi-cli副本。
修改拓撲文件以反映您所做的選擇,然後如下所示部署它(修改主機名,IP,block 設備的名稱 如xvdg):
heketi-client/bin/heketi-cli topology load --json=topology-sample.json
Handling connection for 57598
Found node ip-172-20-0-217.ec2.internal on cluster e6c063ba398f8e9c88a6ed720dc07dd2
Adding device /dev/xvdg ... OK
Found node ip-172-20-0-218.ec2.internal on cluster e6c063ba398f8e9c88a6ed720dc07dd2
Adding device /dev/xvdg ... OK
Found node ip-172-20-0-219.ec2.internal on cluster e6c063ba398f8e9c88a6ed720dc07dd2
Adding device /dev/xvdg ... OK
- 接下來,我們將使用heketi爲其存儲其數據庫提供一個卷(不要懷疑,就是使用這個命令,openshift和kubernetes通用,此命令生成heketi-storage.json文件):
# heketi-client/bin/heketi-cli setup-openshift-heketi-storage
# kubectl create -f heketi-storage.json
Pitfall: 注意,如果在運行setup-openshift-heketi-storage子命令時heketi-cli報告“無空間”錯誤,則可能無意中運行topology load命令的時候服務端和heketi-cli的版本不匹配造成的。停止正在運行的heketi pod(kubectl scale deployment deploy-heketi –replicas=0),手動刪除存儲塊設備中的任何簽名,然後繼續運行heketi pod(kubectl scale deployment deploy-heketi –replicas=1)。然後用匹配版本的heketi-cli重新加載拓撲,然後重試該步驟。
- 等到作業完成後,刪除bootstrap Heketi實例相關的組件:
# kubectl delete all,service,jobs,deployment,secret --selector="deploy-heketi"
- 創建長期使用的Heketi實例(存儲持久化的):
# kubectl create -f heketi-deployment.json
service "heketi" created
deployment "heketi" created
- 這樣做了以後,heketi db將使用GlusterFS卷,並且每當heketi pod重新啓動時都不會重置(數據不會丟失,存儲持久化)。
使用諸如heketi-cli cluster list和的命令heketi-cli volume list 來確認先前建立的集羣存在,並且heketi可以列出在bootstrap階段創建的db存儲卷。
使用樣例
有兩種方法來調配存儲。常用的方法是設置一個StorageClass,讓Kubernetes爲提交的PersistentVolumeClaim自動配置存儲。或者,可以通過Kubernetes手動創建和管理卷(PVs),或直接使用heketi-cli中的卷。
參考gluster-kubernetes hello world example 獲取關於 storageClass 的更多信息.
我的示例(非翻譯部分內容)
- topology文件:我的例子(3個節點,ubuntu-1(192.168.5.191),ubuntu-2(192.168.5.192),ubuntu-3(192.168.5.193),每個節點2個磁盤用來做存儲(sdb,sdc))
# cat topology-sample.json
{
"clusters": [
{
"nodes": [
{
"node": {
"hostnames": {
"manage": [
"ubuntu-1"
],
"storage": [
"192.168.5.191"
]
},
"zone": 1
},
"devices": [
"/dev/sdb",
"/dev/sdc"
]
},
{
"node": {
"hostnames": {
"manage": [
"ubuntu-2"
],
"storage": [
"192.168.5.192"
]
},
"zone": 1
},
"devices": [
"/dev/sdb",
"/dev/sdc"
]
},
{
"node": {
"hostnames": {
"manage": [
"ubuntu-3"
],
"storage": [
"192.168.5.193"
]
},
"zone": 1
},
"devices": [
"/dev/sdb",
"/dev/sdc"
]
}
]
}
]
}
- 確認glusterfs和heketi的pod運行正常
# kubectl get pod
NAME READY STATUS RESTARTS AGE
glusterfs-gf5zc 1/1 Running 2 8h
glusterfs-ngc55 1/1 Running 2 8h
glusterfs-zncjs 1/1 Running 0 2h
heketi-5c8ffcc756-x9gnv 1/1 Running 5 7h
- StorageClass yaml文件示例
# cat storage-class-slow.yaml
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
name: slow #-------------SC的名字
provisioner: kubernetes.io/glusterfs
parameters:
resturl: "http://10.103.98.75:8080" #-------------heketi service的cluster ip 和端口
restuser: "admin" #-------------隨便填,因爲沒有啓用鑑權模式
gidMin: "40000"
gidMax: "50000"
volumetype: "replicate:3" #-------------申請的默認爲3副本模式
- PVC舉例
# cat pvc-sample.yaml
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
name: myclaim
annotations:
volume.beta.kubernetes.io/storage-class: "slow" #-------------sc的名字,需要與storageclass的名字一致
spec:
accessModes:
- ReadWriteOnce
resources:
requests:
storage: 1Gi
查看創建的pvc和pv
# kubectl get pvc|grep myclaim
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
myclaim Bound pvc-e98e9117-3ed7-11e8-b61d-08002795cb26 1Gi RWO slow 28s
# kubectl get pv|grep myclaim
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
pvc-e98e9117-3ed7-11e8-b61d-08002795cb26 1Gi RWO Delete Bound default/myclaim slow 1m
- 可以將slow的sc設置爲默認,這樣平臺分配存儲的時候可以自動從glusterfs集羣分配pv
# kubectl patch storageclass slow -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'
storageclass.storage.k8s.io "slow" patched
# kubectl get sc
NAME PROVISIONER AGE
default fuseim.pri/ifs 1d
slow (default) kubernetes.io/glusterfs 6h
容量限額測試
已經通過Helm 部署的一個mysql2 實例,使用存儲2G,信息查看如下:
# helm list
NAME REVISION UPDATED STATUS CHART NAMESPACE
mysql2 1 Thu Apr 12 15:27:11 2018 DEPLOYED mysql-0.3.7 default
查看PVC和PV,大小2G,mysql2-mysql
# kubectl get pvc
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
mysql2-mysql Bound pvc-ea4ae3e0-3e22-11e8-8bb6-08002795cb26 2Gi RWO slow 19h
# kubectl get pv
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
pvc-ea4ae3e0-3e22-11e8-8bb6-08002795cb26 2Gi RWO Delete Bound default/mysql2-mysql slow 19h
查看mysql的pod
# kubectl get pod|grep mysql2
mysql2-mysql-56d64f5b77-j2v84 1/1 Running 2 19h
進入mysql所在容器
# kubectl exec -it mysql2-mysql-56d64f5b77-j2v84 /bin/bash
查看掛載路徑,查看掛載信息
root@mysql2-mysql-56d64f5b77-j2v84:/#cd /var/lib/mysql
root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql#
root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql# df -h
Filesystem Size Used Avail Use% Mounted on
none 48G 9.2G 37G 21% /
tmpfs 1.5G 0 1.5G 0% /dev
tmpfs 1.5G 0 1.5G 0% /sys/fs/cgroup
/dev/mapper/ubuntu--1--vg-root 48G 9.2G 37G 21% /etc/hosts
shm 64M 0 64M 0% /dev/shm
192.168.5.191:vol_2c2227ee65b64a0225aa9bce848a9925 2.0G 264M 1.8G 13% /var/lib/mysql
tmpfs 1.5G 12K 1.5G 1% /run/secrets/kubernetes.io/serviceaccount
tmpfs 1.5G 0 1.5G 0% /sys/firmware
使用dd寫入數據,寫入一段時間以後,空間滿了,會報錯(報錯信息有bug,不是報空間滿了,而是報文件系統只讀,應該是glusterfs和docker配合的問題)
root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql# dd if=/dev/zero of=test.img bs=8M count=300
dd: error writing 'test.img': Read-only file system
dd: closing output file 'test.img': Input/output error
查看寫滿以後的文件大小
root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql# ls -l
total 2024662
-rw-r----- 1 mysql mysql 56 Apr 12 07:27 auto.cnf
-rw-r----- 1 mysql mysql 1329 Apr 12 07:27 ib_buffer_pool
-rw-r----- 1 mysql mysql 50331648 Apr 12 12:05 ib_logfile0
-rw-r----- 1 mysql mysql 50331648 Apr 12 07:27 ib_logfile1
-rw-r----- 1 mysql mysql 79691776 Apr 12 12:05 ibdata1
-rw-r----- 1 mysql mysql 12582912 Apr 12 12:05 ibtmp1
drwxr-s--- 2 mysql mysql 8192 Apr 12 07:27 mysql
drwxr-s--- 2 mysql mysql 8192 Apr 12 07:27 performance_schema
drwxr-s--- 2 mysql mysql 8192 Apr 12 07:27 sys
-rw-r--r-- 1 root mysql 1880887296 Apr 13 02:47 test.img
查看掛載信息(掛載信息顯示bug,應該是glusterfs的bug)
root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql# df -h
Filesystem Size Used Avail Use% Mounted on
none 48G 9.2G 37G 21% /
tmpfs 1.5G 0 1.5G 0% /dev
tmpfs 1.5G 0 1.5G 0% /sys/fs/cgroup
/dev/mapper/ubuntu--1--vg-root 48G 9.2G 37G 21% /etc/hosts
shm 64M 0 64M 0% /dev/shm
192.168.5.191:vol_2c2227ee65b64a0225aa9bce848a9925 2.0G -16E 0 100% /var/lib/mysql
tmpfs 1.5G 12K 1.5G 1% /run/secrets/kubernetes.io/serviceaccount
tmpfs 1.5G 0 1.5G 0% /sys/firmware
查看文件夾大小,爲2G
# du -h
25M ./mysql
825K ./performance_schema
496K ./sys
2.0G .
如上說明glusterfs的限額作用是起效的,限制在2G的空間大小。
本文轉自kubernetes中文社區-Kubernetes集成GlusterFS集羣和Heketi-安裝指南與實戰