原创 RKE 安裝kubernetes報錯

執行 rke up 安裝集羣 報錯如下: WARN[0000] Failed to set up SSH tunneling for host [172.20.101.167]: Can't retrieve Docker Info:

原创 安裝Rancher cert-manager報錯kube-system forbidden

1:Rancher生成證書服務報錯 默認情況下,Rancher會生成CA並用於cert-manager頒發證書以訪問Rancher服務器界面。因爲rancher是默認選項ingress.tls.source,我們ingress.tls.so

原创 生產環境kubernetes集羣安裝部署-1.15.3

版本介紹 NAME VERSION INTERNAL-IP cnvs-kubm-101-103 v1.15.3 172.20.101.103 OS-IMAGE

原创 Kubernetes幾個神奇的概念梳理

Kubernetes 功能豐富而強大,學習研究期間有些概念,個人感覺還是有點繞,爲了方便理解簡單進行梳理,相關核心概念整理如下: K8s控制器Deployment與DaemonSet區別 不同點 Deployment 部署的副本 Pod 會

原创 kubernetes使用flannel網絡插件服務狀態顯示CrashLoopBackOff

使用Kubeadm安裝K8s集羣,在安裝flannel網絡插件後,發現pod: kube-flannel-ds 一直是CrashLoopBackOff 報錯內容如下: log is DEPRECATED and will be remove

原创 kubernetes集羣發佈 Pod 端口

kubernetes集羣發佈Pod 端口 創建測試環境 vi nginx.yaml apiVersion: apps/v1 kind: Deployment metadata: name: my-nginx spec: selec

原创 kubectl 命令梳理

kubectl 命令梳理 Kubctl 命令是操作 kubernetes 集羣的最直接的途徑,下面對相關命令進行簡介: 語法 $ kubectl [command] [TYPE] [NAME] [flags] command:子命令 TYP

原创 K8s之traefik(ingess)發佈服務-實戰

K8s之traefik(ingess)發佈服務實戰 上篇描述了基於k8s集羣安裝部署traefik作爲ingress服務,簡單演示了一下發布服務,本篇將細節講述如果結合traefik發佈業務服務。 安裝部署參考: https://blog.

原创 kubernetes Ingress 之 Traefik 各種姿勢

關於traefik 參考之前寫的一篇文檔:https://blog.51cto.com/michaelkang/1918192 版本介紹 traefik:v1.7 k8s:v1.15.1 Ingress Ingress是自kubernete

原创 Kubernetes之yaml文件詳解-v1.15.x

Kubernetes之yaml文件詳解 K8S 創建資源的方式 K8S有兩種創建資源的方式:kubectl 命令和 yaml 配置文件。 kubectl命令行:最爲簡單,一條命令就OK,但缺點也很明顯,你並不知道這條命令背後到底做了哪些事!

原创 kubernetes 暴露服務端口的幾種方式

kubernetes 暴露服務端口的幾種方式 如果希望將 Service 暴露在一個外部IP地址上。 Kubernetes 支持4種實現方式,詳細如下: 1:集羣內部實現訪問:Clusterip Clusterip是集羣內部的私有ip,在集

原创 Helm 常用命令

安裝部署參考 https://blog.51cto.com/michaelkang/2428870 Helm 常用命令 查看版本 #helm version 查看當前安裝的charts #helm list 查詢 charts #he

原创 Helm安裝部署詳解

簡介 Helm是一個kubernetes應用的包管理工具,用來管理預先配置好的安裝包資源。Helm chart是用來封裝kubernetes原生應用程序的yaml文件,可以在你部署應用的時候自定義應用程序的一些metadata,便與應用程序

原创 Spark History Server 配置部署

簡介 爲了可以通過WebUI控制檯頁面來查看具體的運行細節,解決應用程序運行結束,無法繼續查看監控集羣信息。無法回顧運行的程序細節,配置開啓spark.history服務.Spark History Server可以很好地解決上面的問題。

原创 Spark集羣硬件配置推薦

Spark集羣硬件配置推薦 計算與存儲: 大多數Spark作業可能需要從外部存儲系統(例如 :Cassandra、Hadoop文件系統或HBase)讀取輸入數據,所以要讓Spark計算引擎儘可能靠近數據持久層。如果使用HDFS作爲數據存儲集