原创 kubernetes之StatefulSet
StatefulSet k8s的statefulset相信很多人都用過,在1.5之後才引入的,1.5之前用的是petset,關於petset在之前的老版本的paas開發中用的就是petset,很多不足的地方,等會兒會說到這點。petset
原创 kubelet代碼整理(3)
完善後的kubelet的代碼調用圖,增加了緩存數據來源基本完整了:
原创 關於k8s的源碼
關於k8s的源碼 我想出一些關於k8s源碼的視頻,想請教下大家有沒有這樣的必要,歡迎大家給點意見,不甚感激! 關於k8s的學習 通過k8s的官方文檔其實就能很好的學習k8s,但是我想如果想對k8s有更深入的瞭解和學習的話,肯定需要對k8s
原创 實現k8s容器的終端登錄
簡介: 要做一個基於容器的平臺,平臺必須應該有的一個功能就是登錄容器終端,在k8s的dashboard的v1.6.3版本中已經實現了容器終端的登錄。不過目前還有很多的bug,有待修復。 實現原理: 容器終端其實就是一個websocke
原创 學kubernetes待解惑的幾個問題記錄
背景 做kuebrnetes(k8s)相關的工作也有一年多了,從最開始是的1.2.6版本開始入手的。經歷過環境搭建,命令使用,代碼編譯安裝,自己製作k8s的各個組件的容器,到最後的在其api上的外圍開發和custom-resource的開
原创 deploy, replication,statefulset,replicas與pod相關controller如何參與pod的創建?
kubernetes的deploycontroller等是如何參與到pod的創建過程中的? 在上一篇博客拋出三個問題,通過看controller的源碼得到如下答案: 在pod的創建過程中是由如下的controller來實現的,當然單獨的創
原创 kubernetes list-watch(三)
filter.go文件解讀 filter.go文件中其實也是主要對interface的的實現,也可以說是watcher的升級版本的watcher,因爲相對之前提到的broadcastWatcher而言,加上了事件過濾的方法,這樣的話,就可
原创 kubernetes之hpa(HorizontalPodAutoscaling)擴展實現memory支持
kubernetes之hpa(HorizontalPodAutoscaling)擴展實現memory支持 我們的項目中目前的橫向伸縮用的是hpa來實現,目前實現來定時橫向伸縮和負載橫向伸縮。在實際的項目中有很多客戶有這樣的需求,就是在對k
原创 談談docker,containerd,runc,docker-shim之間的關係
談談docker,containerd,runc,docker-shim之間的關係 關於containerd 關於containerd的一些詳解介紹,請參考containerd的官網:(https://containerd.io/) 關於
原创 ceph-ansibel部署ceph v10.2.10 Jewel
環境準備 admin 192.168.99.187 node1 192.168.99.231 node2 192.168.99.224 node3 192.168.99.232 Ansibe 配置免密碼登陸三個ceph節點 1 創建
原创 kubernetst - ConfigMap學習
ConfigMap學習 ConfigMap 單獨的ConfigMap存在是沒有任何意義的,ConfigMap的存在就是爲了讓應用來使用它,所以ConfigMap通常會和具體的某一個或者多個應用相關聯上。 ConfigMap使用 在k8s中
原创 kubectl命令行自動補全實現
kubectl命令自動補全 kubectl這個命令行工具非常重要,與之相關的命令也很多,我們也記不住那麼多的命令,而且也會經常寫錯,所以命令自動補全是非常有必要的,kubectl命令行工具本身就支持complication,只需要簡單的設
原创 kubernetes的service的網絡類型ingress的搭建(二)
inrgess最新版部署(1.6.2 1.6.3 1.6.4)親測成功 default-backend: apiVersion: extensions/v1beta1 kind: Deployment metadata: name:
原创 kubernetes之store(一)
kubernetes的存儲 用過kubernetes(以下簡稱k8s)的都知道,k8s的存儲是用etcd,這個是肯定的。我現在要說的是k8s的內存的存儲(用golang的map實現的),本來是想繼上一篇接着講list-wather的,但是
原创 kubelet代碼整理
最近由於生產環境的k8s集羣經常出現如下三個問題: pod刪除的時候一直處於terminating狀態 pod創建過後一直處於ContainerCreating狀態 每個k8s的node節點存在大量Exit狀態的pause容器 以下對