k8s高可用一個kubeadm搞定

概述

目前kubernetes高可用需要要麼依賴外部負載均衡器,自己搭建時就需要做keepalived haproxy等,比較麻煩,在某些雲上可能keepalived還無法使用,構建部署也需要通過ansible等去做HA,很多工具部署過程中都比較容易產生問題。 


今天把我畢生精華拿出來分享給大家,絕逼是你見過最簡單,最先進,國際領先的k8s HA方案,目測社區未來也會朝着這個方向發展。


地址sealos, 讓kubernetes高可用不再需要keepalived haproxy和ansible,

sealyun定製超級版kubeadm通過ipvs代理多個master,優雅解決k8s高可用問題。

使用教程

環境介紹

ip role
10.103.97.200 master0
10.103.97.201 master0
10.103.97.202 master0
10.103.97.2 virtulIP
apiserver.cluster.local apiserver解析名

下載超級kubeadm

下載kubernetes1.14.0+離線包

在每個節點上初始化

tar zxvf kube1.14.0.tar.gz && cd kube/shell && sh init.sh

用下載的kubeadm替換掉包內的kubeadm:

cp kubeadm /usr/bin/kubeadm

kubeadm配置文件

cat kubeadm-config.yaml :

apiVersion: kubeadm.k8s.io/v1beta1kind: ClusterConfigurationkubernetesVersion: v1.14.0controlPlaneEndpoint: "apiserver.cluster.local:6443" # 使用解析名去訪問APIserverapiServer:        certSANs:        - 127.0.0.1        - apiserver.cluster.local        - 172.20.241.205        - 172.20.241.206        - 172.20.241.207        - 172.20.241.208        - 10.103.97.2          # 虛擬IP等都加入到證書中---apiVersion: kubeproxy.config.k8s.io/v1alpha1kind: KubeProxyConfigurationmode: "ipvs"ipvs:        excludeCIDRs:         - "10.103.97.2/32" # 如果不加這個k8s會定時清理用戶創建的IPVS規則,導致代理失敗

在 master0 10.103.97.200 上

echo "10.103.97.200 apiserver.cluster.local" >> /etc/hostskubeadm init --config=kubeadm-config.yaml --experimental-upload-certs  mkdir ~/.kube && cp /etc/kubernetes/admin.conf ~/.kube/configkubectl apply -f https://docs.projectcalico.org/v3.6/getting-started/kubernetes/installation/hosted/kubernetes-datastore/calico-networking/1.7/calico.yaml # 安裝calico

執行完會輸出一些日誌,裏面包含join需要用的命令

在 master1 10.103.97.201 上

# 注意,在安裝之前解析到master0, 安裝成功後解析改成自己,因爲kubelet kube-proxy配置的都是這個解析名,如果不改解析master0宕機整個集羣就不可用了echo "10.103.97.200 apiserver.cluster.local" >> /etc/hosts kubeadm join 10.103.97.200:6443 --token 9vr73a.a8uxyaju799qwdjv \    --discovery-token-ca-cert-hash sha256:7c2e69131a36ae2a042a339b33381c6d0d43887e2de83720eff5359e26aec866 \    --experimental-control-plane \    --certificate-key f8902e114ef118304e561c3ecd4d0b543adc226b7a07f675f56564185ffe0c07 
sed "s/10.103.97.200/10.103.97.201/g" -i /etc/hosts # 解析改也自己本機地址

在 master2 10.103.97.202 上,同master1

echo "10.103.97.200 apiserver.cluster.local" >> /etc/hostskubeadm join 10.103.97.200:6443 --token 9vr73a.a8uxyaju799qwdjv \    --discovery-token-ca-cert-hash sha256:7c2e69131a36ae2a042a339b33381c6d0d43887e2de83720eff5359e26aec866 \    --experimental-control-plane \    --certificate-key f8902e114ef118304e561c3ecd4d0b543adc226b7a07f675f56564185ffe0c07  
sed "s/10.103.97.200/10.103.97.201/g" -i /etc/hosts


在Node節點上

通過虛擬IP join到master上, 這個命令會在node節點上創建一條ipvs規則,virturl server就是虛擬IP, realserver就是三個master。 然後再以一個static pod起一個守護進程守護這些規則,一旦哪個apiserver不可訪問了就清除realserver, apiserver通了之後再次添加回來

echo "10.103.97.2 apiserver.cluster.local" >> /etc/hosts   # using vipkubeadm join 10.103.97.2:6443 --token 9vr73a.a8uxyaju799qwdjv \    --master 10.103.97.200:6443 \    --master 10.103.97.201:6443 \    --master 10.103.97.202:6443 \    --discovery-token-ca-cert-hash sha256:7c2e69131a36ae2a042a339b33381c6d0d43887e2de83720eff5359e26aec866

Architecture

  +----------+                       +---------------+  virturl server: 10.103.97.2:6443  | mater0   |<----------------------| ipvs nodes    |    real servers:  +----------+                      |+---------------+            10.103.97.200:6443                                    |                             10.103.97.201:6443  +----------+                      |                             10.103.97.202:6443  | mater1   |<---------------------+  +----------+                      |                                    |  +----------+                      |  | mater2   |<---------------------+  +----------+

集羣每個node節點都會創建一條ipvs規則用於代理所有的master節點。類似kube-proxy的ipvs實現.

然後起一個守護進程就健康檢查apiservers /etc/kubernetes/manifests/sealyun-lvscare.yaml

LVScare

關於ipvs的創建與守護可見這個項目。


本文分享自微信公衆號 - sealyun(gh_f33fe7b0c869)。
如有侵權,請聯繫 [email protected] 刪除。
本文參與“OSC源創計劃”,歡迎正在閱讀的你也加入,一起分享。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章