原创 Kubernetes常見運維操作(二)

1: 應用滾動升級 操作功能: 應用滾動升級 操作步驟: 以redis-master爲例子,假定當前運行的redis-master Pod是1.0版本,現在要升級到2.0版本 創建redis-master-con

原创 Kubernetes常見運維操作(一)

1: Node隔離和恢復 操作功能: Node隔離和恢復 操作步驟: node隔離: yaml文件: apiVersion: v1 kind: Node metadata: name: kubernetes-minion

原创 K8s常見問題分析&解決(未分類問題三)

1:  高版本docker與老版本Linux內核不兼容,導致內存泄漏 詳細描述: 高版本docker與老版本Linux內核不兼容,導致內存泄漏 容器集羣中某個計算節點ICMP ping失敗,上線查看機器已經宕機,重啓後查

原创 Kubernetes 運行strom(七)

前提: 已經安裝運行Kubernetes集羣   安裝步驟: 1: 啓動Zookeeper服務 ZooKeeper是一個分佈式協調者服務,Strorm使用它來作爲引導程序和存儲運行狀態數據 使用examples/storm/zookeep

原创 K8s常見問題分析&解決(未分類問題二)

1:容器內部時間和node節點的系統時間不一致 詳細描述: 容器內部時間和node節點的系統時間不一致 例如: kubectl exec -it <pod-name> date UTC 2019

原创 VMware下創建的虛擬機網絡設置

1:設置虛擬機的網絡連接模式爲NAT  2:啓動虛擬機,輸入指令:ls  /etc/sysconfig/network-scripts  找到ifcfg-ens33文件;   3: vi /etc/sysconfig/network-

原创 Android使用adb工具及root權限完成手機抓包

1.環境準備/注意:   手機要求已經root。  首先需要配置JDK環境變量,這裏主要講解抓包,JDK環境變量配置跳過。 將包內附帶的adb.zip解壓到C盤根目錄。  整個操作過程都需要用手機用數據線連接電腦。 點擊運行,打開cmd窗

原创 開源SQL解析工具-Apache Calcite

概念 Apache Calcite 是一款開源SQL解析工具, 可以將各種SQL語句解析成抽象語法術AST(Abstract Syntax Tree), 之後通過操作AST就可以把SQL中所要表達的算法與關係體現在具體代碼之中。 Calc

原创 kubernetes工作原理(一)-利用iptables對外暴露service

前言 Kubernetes利用iptables達成以下兩個目的: 1)對外暴露POD和服務 2)簡單的負載均衡 在kubernetes worker node的iptables的NAT表的prerouting和output鏈表會出現如下

原创 kubernetes工作原理(二)-iptables

前言 虛擬化的網絡可以自由的在本地進行基於單機的網絡配置或者藉助一些互聯技術(underlay、overlay或者點對點技術)在虛擬網絡內部空間實現跨節點和數據中心的網絡互聯,但是如果虛擬網絡內部的服務要對外進行暴露,就不得不借助地址轉換

原创 雲計算-Ironic概念

Ironic結合多個驅動提供一套hypervisor API來操作物理機,類似提供一個hypervisor驅動來供Nova使用。   簡介: 簡而言之,OpenStack Ironic就是一個進行裸機部署安裝的項目。     所謂裸機,就

原创 Kubernetes 運行flink(六)

概念: Flink 由Job Manager和Task Manager兩個部分組成,Job Manager負責協調流處理作業,管理作業的提交以及生命週期,並把工作分配給任務管理器。任務管理器執行實際的流處理邏輯,同一個時間只能一個活躍的J

原创 Kubernetes運行hive(五)

目的: hive 可以基於hadoop mr或者Spark進行高層次的數據處理 前提: 安裝之前先要保證hadoop的目錄可以爲root用戶讀寫: hadoop fs -chown root:root /   1: 構建鏡像 下載依賴 m

原创 Kubernetes的Spark運行Terasort(四)

目的: Terasort測試Kubernetes平臺對於Spark計算過程 前提: 從HDFS讀取能力 向HDFS寫入能力 shuffle中網絡讀寫能力   1:準備工作 獲取代碼 git clone https://github.com

原创 Kubernetes的Spark安裝History Server(三)

目的: 通過hadoop的共享目錄,可以將Spark運行的狀態通過運行在Kubernetes的History Server進行展示和跟蹤。   前提: 保證Hadoop HDFS已經順利運行並且事先在hdfs建立如下目錄: hadoop