Kubernetes集成GlusterFS集羣和Heketi-安裝指南與實戰

本文翻譯自heketi的github網址官方文檔(大部分爲google翻譯,少許人工調整,括號內爲個人註解)其中注意事項部分爲其他網上查詢所得。 本文的整個過程將在kubernetes集羣上的3個或以上節點安裝glusterfs的服務端集羣(DaemonSet方式),並將heketi以deployment的方式部署到kubernetes集羣。在我的示例部分有StorageClass和PVC的樣例。本文介紹的Heketi,GlusterFS這2個組件與kubernetes集成只適合用於測試驗證環境,並不適合生產環境,請注意這一點。

Heketi是一個具有resetful接口的glusterfs管理程序,作爲kubernetes的Storage存儲的external provisioner。 “Heketi提供了一個RESTful管理界面,可用於管理GlusterFS卷的生命週期。藉助Heketi,像OpenStack Manila,Kubernetes和OpenShift這樣的雲服務可以動態地配置GlusterFS卷和任何支持的持久性類型。Heketi將自動確定整個集羣的brick位置,確保將brick及其副本放置在不同的故障域中。Heketi還支持任意數量的GlusterFS集羣,允許雲服務提供網絡文件存儲,而不受限於單個GlusterFS集羣。”

注意事項

  • 安裝Glusterfs客戶端:每個kubernetes集羣的節點需要安裝gulsterfs的客戶端,如ubuntu系統的apt-get install glusterfs-client
  • 加載內核模塊:每個kubernetes集羣的節點運行modprobe dm_thin_pool,加載內核模塊。
  • 至少三個slave節點:至少需要3個kubernetes slave節點用來部署glusterfs集羣,並且這3個slave節點每個節點需要至少一個空餘的磁盤。

概述

本指南支持在Kubernetes集羣中集成,部署和管理GlusterFS 容器化的存儲節點。這使得Kubernetes管理員可以爲其用戶提供可靠的共享存儲。

跟這個話題相關的另一個重要資源是gluster-kubernetes 項目。它專注於在Kubernetes集羣中部署GlusterFS,並提供簡化的工具來完成此任務。它包含一個安裝指南 setup guide。它還包括一個樣例 Hello World。其中包含一個使用動態配置(dynamically-provisioned)的GlusterFS捲進行存儲的Web server pod示例。對於那些想要測試或學習更多關於此主題的人,請按照主README 的快速入門說明 進行操作。

本指南旨在展示Heketi在Kubernetes環境中管理Gluster的最簡單示例。這是爲了強調這種配置的主要組成組件,因此並不適合生產環境。

基礎設施要求

  • 正在運行的Kubernetes集羣,至少有三個Kubernetes工作節點,每個節點至少有一個可用的裸塊設備(如EBS卷或本地磁盤).
  • 用於運行GlusterFS Pod的三個Kubernetes節點必須爲GlusterFS通信打開相應的端口(如果開啓了防火牆的情況下,沒開防火牆就不需要這些操作)。在每個節點上運行以下命令。
iptables -N heketi
iptables -A heketi -p tcp -m state --state NEW -m tcp --dport 24007 -j ACCEPT
iptables -A heketi -p tcp -m state --state NEW -m tcp --dport 24008 -j ACCEPT
iptables -A heketi -p tcp -m state --state NEW -m tcp --dport 2222 -j ACCEPT
iptables -A heketi -p tcp -m state --state NEW -m multiport --dports 49152:49251 -j ACCEPT
service iptables save

客戶端安裝

Heketi提供了一個CLI客戶端,爲用戶提供了一種管理Kubernetes中GlusterFS的部署和配置的方法。 在客戶端機器上下載並安裝Download and install the heketi-cli

Glusterfs和Heketi在Kubernetes集羣中的部署過程

以下所有文件都位於下方extras/kubernetes (git clone https://github.com/heketi/heketi.git)。

  • 部署 GlusterFS DaemonSet
$ kubectl create -f glusterfs-daemonset.json
  • 通過運行如下命令獲取節點名稱:
$ kubectl get nodes
  • 通過設置storagenode=glusterfs節點上的標籤,將gluster容器部署到指定節點上。
$ kubectl label node <...node...> storagenode=glusterfs

根據需要重複打標籤的步驟。驗證Pod在節點上運行至少應運行3個Pod(因此至少需要給3個節點打標籤)。

$ kubectl get pods
  • 接下來,我們將爲Heketi創建一個服務帳戶(service-account):
$ kubectl create -f heketi-service-account.json
  • 我們現在必須給該服務帳戶的授權綁定相應的權限來控制gluster的pod。我們通過爲我們新創建的服務帳戶創建羣集角色綁定(cluster role binding)來完成此操作。
$ kubectl create clusterrolebinding heketi-gluster-admin --clusterrole=edit --serviceaccount=default:heketi-service-account
  • 現在我們需要創建一個Kubernetes secret來保存我們Heketi實例的配置。必須將配置文件的執行程序設置爲 kubernetes才能讓Heketi server控制gluster pod(配置文件的默認配置)。除此這些,可以嘗試配置的其他選項。
$ kubectl create secret generic heketi-config-secret --from-file=./heketi.json
  • 接下來,我們需要部署一個初始(bootstrap)Pod和一個服務來訪問該Pod。在你用git克隆的repo中,會有一個heketi-bootstrap.json文件。

提交文件並驗證一切正常運行,如下所示:

# kubectl create -f heketi-bootstrap.json
service "deploy-heketi" created
deployment "deploy-heketi" created

# kubectl get pods
NAME                                                      READY     STATUS    RESTARTS   AGE
deploy-heketi-1211581626-2jotm                            1/1       Running   0          35m
glusterfs-ip-172-20-0-217.ec2.internal-1217067810-4gsvx   1/1       Running   0          1h
glusterfs-ip-172-20-0-218.ec2.internal-2001140516-i9dw9   1/1       Running   0          1h
glusterfs-ip-172-20-0-219.ec2.internal-2785213222-q3hba   1/1       Running   0          1h
  • 當Bootstrap heketi服務正在運行,我們配置端口轉發,以便我們可以使用Heketi CLI與服務進行通信。使用heketi pod的名稱,運行下面的命令:

kubectl port-forward deploy-heketi-1211581626-2jotm :8080

如果在運行命令的系統上本地端口8080是空閒的,則可以運行port-forward命令,以便綁定到8080以方便使用(2個命令二選一即可,我選擇第二個):

kubectl port-forward deploy-heketi-1211581626-2jotm 8080:8080

現在通過對Heketi服務運行示例查詢來驗證端口轉發是否正常。該命令應該已經打印了將從其轉發的本地端口。將其合併到URL中以測試服務,如下所示:

curl http://localhost:8080/hello
Handling connection for 8080
Hello from heketi

最後,爲Heketi CLI客戶端設置一個環境變量,以便它知道Heketi服務器的地址。

export HEKETI_CLI_SERVER=http://localhost:8080

  • 接下來,我們將向Heketi提供有關要管理的GlusterFS集羣的信息。通過拓撲文件提供這些信息。克隆的repo中有一個示例拓撲文件,名爲topology-sample.json。拓撲指定運行GlusterFS容器的Kubernetes節點以及每個節點的相應原始塊設備。

確保hostnames/manage指向如下所示的確切名稱kubectl get nodes得到的主機名(如ubuntu-1),並且hostnames/storage是存儲網絡的IP地址(對應ubuntu-1的ip地址)。

IMPORTANT: 重要提示,目前,必須使用與服務器版本匹配的Heketi-cli版本加載拓撲文件。另外,Heketi pod 帶有可以通過kubectl exec ...訪問的heketi-cli副本。

修改拓撲文件以反映您所做的選擇,然後如下所示部署它(修改主機名,IP,block 設備的名稱 如xvdg):

heketi-client/bin/heketi-cli topology load --json=topology-sample.json
Handling connection for 57598
	Found node ip-172-20-0-217.ec2.internal on cluster e6c063ba398f8e9c88a6ed720dc07dd2
		Adding device /dev/xvdg ... OK
	Found node ip-172-20-0-218.ec2.internal on cluster e6c063ba398f8e9c88a6ed720dc07dd2
		Adding device /dev/xvdg ... OK
	Found node ip-172-20-0-219.ec2.internal on cluster e6c063ba398f8e9c88a6ed720dc07dd2
		Adding device /dev/xvdg ... OK
  • 接下來,我們將使用heketi爲其存儲其數據庫提供一個卷(不要懷疑,就是使用這個命令,openshift和kubernetes通用,此命令生成heketi-storage.json文件):
# heketi-client/bin/heketi-cli setup-openshift-heketi-storage
# kubectl create -f heketi-storage.json

Pitfall: 注意,如果在運行setup-openshift-heketi-storage子命令時heketi-cli報告“無空間”錯誤,則可能無意中運行topology load命令的時候服務端和heketi-cli的版本不匹配造成的。停止正在運行的heketi pod(kubectl scale deployment deploy-heketi –replicas=0),手動刪除存儲塊設備中的任何簽名,然後繼續運行heketi pod(kubectl scale deployment deploy-heketi –replicas=1)。然後用匹配版本的heketi-cli重新加載拓撲,然後重試該步驟。

  • 等到作業完成後,刪除bootstrap Heketi實例相關的組件:
# kubectl delete all,service,jobs,deployment,secret --selector="deploy-heketi"
  • 創建長期使用的Heketi實例(存儲持久化的):
# kubectl create -f heketi-deployment.json
service "heketi" created
deployment "heketi" created
  • 這樣做了以後,heketi db將使用GlusterFS卷,並且每當heketi pod重新啓動時都不會重置(數據不會丟失,存儲持久化)。

使用諸如heketi-cli cluster list和的命令heketi-cli volume list 來確認先前建立的集羣存在,並且heketi可以列出在bootstrap階段創建的db存儲卷。

使用樣例

有兩種方法來調配存儲。常用的方法是設置一個StorageClass,讓Kubernetes爲提交的PersistentVolumeClaim自動配置存儲。或者,可以通過Kubernetes手動創建和管理卷(PVs),或直接使用heketi-cli中的卷。

參考gluster-kubernetes hello world example 獲取關於 storageClass 的更多信息.

我的示例(非翻譯部分內容)

  • topology文件:我的例子(3個節點,ubuntu-1(192.168.5.191),ubuntu-2(192.168.5.192),ubuntu-3(192.168.5.193),每個節點2個磁盤用來做存儲(sdb,sdc))
# cat topology-sample.json
{
  "clusters": [
    {
      "nodes": [
        {
          "node": {
            "hostnames": {
              "manage": [
                "ubuntu-1"
              ],
              "storage": [
                "192.168.5.191"
              ]
            },
            "zone": 1
          },
          "devices": [
            "/dev/sdb",
            "/dev/sdc"
          ]
        },
        {
          "node": {
            "hostnames": {
              "manage": [
                "ubuntu-2"
              ],
              "storage": [
                "192.168.5.192"
              ]
            },
            "zone": 1
          },
          "devices": [
            "/dev/sdb",
            "/dev/sdc"
          ]
        },
        {
          "node": {
            "hostnames": {
              "manage": [
                "ubuntu-3"
              ],
              "storage": [
                "192.168.5.193"
              ]
            },
            "zone": 1
          },
          "devices": [
            "/dev/sdb",
            "/dev/sdc"
          ]
        }
      ]
    }
  ]
}
  • 確認glusterfs和heketi的pod運行正常
# kubectl get pod 
NAME                                                      READY     STATUS    RESTARTS   AGE
glusterfs-gf5zc                                           1/1       Running   2          8h
glusterfs-ngc55                                           1/1       Running   2          8h
glusterfs-zncjs                                           1/1       Running   0          2h
heketi-5c8ffcc756-x9gnv                                   1/1       Running   5          7h
  • StorageClass yaml文件示例
# cat storage-class-slow.yaml
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: slow                                   #-------------SC的名字
provisioner: kubernetes.io/glusterfs
parameters:
  resturl: "http://10.103.98.75:8080"          #-------------heketi service的cluster ip 和端口
  restuser: "admin"                            #-------------隨便填,因爲沒有啓用鑑權模式
  gidMin: "40000"
  gidMax: "50000"
  volumetype: "replicate:3"                    #-------------申請的默認爲3副本模式
  • PVC舉例
# cat pvc-sample.yaml
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
  name: myclaim
  annotations:
    volume.beta.kubernetes.io/storage-class: "slow"           #-------------sc的名字,需要與storageclass的名字一致
spec:
  accessModes:
    - ReadWriteOnce
  resources:
    requests:
      storage: 1Gi

查看創建的pvc和pv

# kubectl get pvc|grep myclaim
NAME                        STATUS    VOLUME                                     CAPACITY   ACCESS MODES   STORAGECLASS   AGE
myclaim                     Bound     pvc-e98e9117-3ed7-11e8-b61d-08002795cb26   1Gi        RWO            slow           28s

# kubectl get pv|grep myclaim
NAME                                       CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS        CLAIM                               STORAGECLASS   REASON    AGE
pvc-e98e9117-3ed7-11e8-b61d-08002795cb26   1Gi        RWO            Delete           Bound     default/myclaim                     slow                     1m
  • 可以將slow的sc設置爲默認,這樣平臺分配存儲的時候可以自動從glusterfs集羣分配pv
# kubectl patch storageclass slow -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'
storageclass.storage.k8s.io "slow" patched

# kubectl get sc
NAME             PROVISIONER               AGE
default          fuseim.pri/ifs            1d
slow (default)   kubernetes.io/glusterfs   6h

容量限額測試

已經通過Helm 部署的一個mysql2 實例,使用存儲2G,信息查看如下:

# helm list
NAME    	REVISION	UPDATED                 	STATUS  	CHART               	NAMESPACE
mysql2  	1       	Thu Apr 12 15:27:11 2018	DEPLOYED	mysql-0.3.7         	default

查看PVC和PV,大小2G,mysql2-mysql

# kubectl get pvc
NAME                        STATUS    VOLUME                                     CAPACITY   ACCESS MODES   STORAGECLASS   AGE
mysql2-mysql                Bound     pvc-ea4ae3e0-3e22-11e8-8bb6-08002795cb26   2Gi        RWO            slow           19h

# kubectl get pv
NAME                                       CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS        CLAIM                               STORAGECLASS   REASON    AGE
pvc-ea4ae3e0-3e22-11e8-8bb6-08002795cb26   2Gi        RWO            Delete           Bound         default/mysql2-mysql                slow                     19h

查看mysql的pod

# kubectl get pod|grep mysql2
mysql2-mysql-56d64f5b77-j2v84                             1/1       Running   2          19h

進入mysql所在容器

# kubectl exec -it mysql2-mysql-56d64f5b77-j2v84  /bin/bash

查看掛載路徑,查看掛載信息

root@mysql2-mysql-56d64f5b77-j2v84:/#cd /var/lib/mysql
root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql#
root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql# df -h
Filesystem                                          Size  Used Avail Use% Mounted on
none                                                 48G  9.2G   37G  21% /
tmpfs                                               1.5G     0  1.5G   0% /dev
tmpfs                                               1.5G     0  1.5G   0% /sys/fs/cgroup
/dev/mapper/ubuntu--1--vg-root                       48G  9.2G   37G  21% /etc/hosts
shm                                                  64M     0   64M   0% /dev/shm
192.168.5.191:vol_2c2227ee65b64a0225aa9bce848a9925  2.0G  264M  1.8G  13% /var/lib/mysql
tmpfs                                               1.5G   12K  1.5G   1% /run/secrets/kubernetes.io/serviceaccount
tmpfs                                               1.5G     0  1.5G   0% /sys/firmware

使用dd寫入數據,寫入一段時間以後,空間滿了,會報錯(報錯信息有bug,不是報空間滿了,而是報文件系統只讀,應該是glusterfs和docker配合的問題)

root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql# dd if=/dev/zero of=test.img bs=8M count=300 

dd: error writing 'test.img': Read-only file system
dd: closing output file 'test.img': Input/output error

查看寫滿以後的文件大小

root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql# ls -l
total 2024662
-rw-r----- 1 mysql mysql         56 Apr 12 07:27 auto.cnf
-rw-r----- 1 mysql mysql       1329 Apr 12 07:27 ib_buffer_pool
-rw-r----- 1 mysql mysql   50331648 Apr 12 12:05 ib_logfile0
-rw-r----- 1 mysql mysql   50331648 Apr 12 07:27 ib_logfile1
-rw-r----- 1 mysql mysql   79691776 Apr 12 12:05 ibdata1
-rw-r----- 1 mysql mysql   12582912 Apr 12 12:05 ibtmp1
drwxr-s--- 2 mysql mysql       8192 Apr 12 07:27 mysql
drwxr-s--- 2 mysql mysql       8192 Apr 12 07:27 performance_schema
drwxr-s--- 2 mysql mysql       8192 Apr 12 07:27 sys
-rw-r--r-- 1 root  mysql 1880887296 Apr 13 02:47 test.img

查看掛載信息(掛載信息顯示bug,應該是glusterfs的bug)

root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql# df -h
Filesystem                                          Size  Used Avail Use% Mounted on
none                                                 48G  9.2G   37G  21% /
tmpfs                                               1.5G     0  1.5G   0% /dev
tmpfs                                               1.5G     0  1.5G   0% /sys/fs/cgroup
/dev/mapper/ubuntu--1--vg-root                       48G  9.2G   37G  21% /etc/hosts
shm                                                  64M     0   64M   0% /dev/shm
192.168.5.191:vol_2c2227ee65b64a0225aa9bce848a9925  2.0G  -16E     0 100% /var/lib/mysql
tmpfs                                               1.5G   12K  1.5G   1% /run/secrets/kubernetes.io/serviceaccount
tmpfs                                               1.5G     0  1.5G   0% /sys/firmware

查看文件夾大小,爲2G

# du -h
25M	    ./mysql
825K	./performance_schema
496K	./sys
2.0G	.

如上說明glusterfs的限額作用是起效的,限制在2G的空間大小。

本文轉自kubernetes中文社區-Kubernetes集成GlusterFS集羣和Heketi-安裝指南與實戰

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章