原创 kubernetes集羣部署

安裝環境172.19.2.49(kube-apiserver,kube-controller-manager,kube-dns,kube-proxy,kubectl,etcd)172.19.2.50(kubectl,etcd,kube-pr

原创 mysql備份之lvm

新建一個lvm磁盤,這裏我建的lv爲mydatalv,掛載到了/data下[root@localhost ~]# lvsLV VG Attr LSize Pool Origin Data% Meta% M

原创 利用ansible-playbook從測試環境獲取tomcat中java項目新版本發佈到生產環境

一、環境描述安裝有ansible的服務器:192.168.13.45測試環境服務器:192.168.13.49/home/app/api-tomcat/webapps/api.war爲測試環境新版本war包位置生產環境服務器:192.168

原创 zabbix監控mysql

一、創建一個zabbix用的數據庫用戶grant all privileges on zabbix.* to zabbix@'%' identified by 'zabbix'; grant all privileges on zabbix

原创 mysql備份之mysqldump

注意:備份文件和二進制日誌文件不能與mysql放在同一磁盤下節點11、節點1上修改mysql配置文件,開起二進制日誌保存這裏我將二進制日誌放在/data/mysql/目錄下,/data/是我創建的另外一個lvm磁盤,本來想直接放在/data

原创 利用varnish構建httpd緩存服務器

varnish如何存儲緩存對象:file: 單個文件;不支持持久機制; malloc: 緩存在內存中; persistent:基於文件的持久存儲;(此方式不建議使用)vcl:配置緩存系統的緩存機制;【線程中緩存功能的工作機制】一、在vs2和

原创 zabbix高可用部署

臺主機:192.168.13.54 192.168.13.55 192.168.13.56 192.168.13.572個vip:192.168.13.59 192.168.13.60啓動mysql時需要同時啓動keepalivedserv

原创 編譯安裝時出現依賴文件故障的解決方法

編譯安裝時出現/usr/bin/ld: cannot find -lxxx故障的解決方法 編譯安裝時出現/usr/bin/ld: cannot find -lmysqlclient_r故障的解決方法1、查看依賴文件位置locate libm

原创 ELK集羣搭建和filebeat安裝配置

訪問elasticsearch集羣:http://172.19.2.141:9100訪問kibana:http://172.19.2.141:5601訪問cerebro:http://172.19.2.50:1234一、安裝配置elasti

原创 zabbix監控mysql

一、創建一個zabbix用的數據庫用戶grant all privileges on zabbix.* to zabbix@'%' identified by 'zabbix'; grant all privileges on zabbix

原创 nginx配置雙向認證

實現的功能:外網訪問nginx有證書才能打開頁面,無證書打不開頁面一、在192.168.13.45安裝nginxapt-get install nginx二、配置生成ca的參數mkdir -pv /etc/nginx/ca cd /etc/

原创 prometheus監控kubernetes

一、在kuber-master(172.19.2.49)上下載github上的prometheus項目mkdir -pv /home/lvqingshan/prometheus/ git clone https://github.com/c

原创 kubernetes集羣部署

安裝環境172.19.2.49(kube-apiserver,kube-controller-manager,kube-dns,kube-proxy,kubectl,etcd)172.19.2.50(kubectl,etcd,kube-pr

原创 kubernetes集羣部署

安裝環境172.19.2.49(kube-apiserver,kube-controller-manager,kube-dns,kube-proxy,kubectl,etcd)172.19.2.50(kubectl,etcd,kube-pr

原创 zabbix監控kafka消息列隊

一、Kafka監控的幾個指標1、lag:多少消息沒有消費 2、logsize:Kafka存的消息總數 3、offset:已經消費的消息二、查看zookeeper配置cat /home/app/zookeeper/zookeeper/conf