原创 Failed to remove network i5unxjx3ahdfrhksw0fmyqpjd: Error response from daemon: network *

使用docker rm ***時,出現錯誤: Failed to remove network i5unxjx3ahdfrhksw0fmyqpjd: Error response from daemon: network i5unxjx3

原创 Python的Tornado框架的異步任務與AsyncHTTPClient

高性能服務器Tornado Python的web框架名目繁多,各有千秋。正如光榮屬於希臘,偉大屬於羅馬。Python的優雅結合WSGI的設計,讓web框架接口實現千秋一統。WSGI 把應用(Application)和服務器(Server)

原创 linux docker swarm使用registry 構建本地鏡像倉庫

因爲數據安全問題,linux上的docker swarm集羣不能直接使用docker pull拉取鏡像,每次只能拷貝上傳,且三臺機器都需要上傳鏡像,非常耗時間,所以想使用 docker registry構建個本地鏡像倉庫。 構建步驟: 1

原创 Mysql讀表,出現事務一直連接,導致鎖表的現象

問題:使用select進行查表,出現連接事務一直連接,導致鎖表,沒辦法對錶格進行修改操作。單獨執行該操作,發現sql查詢響應時間爲10ms。 解決辦法: 在建立conn連接時,設置commit如下: dbconn = MySQLdb.c

原创 elasticsearch FORBIDDEN/12/index read-only / allow delete (api)]

往es推數據,發現如下錯誤: BulkIndexError: ('1 document(s) failed to index.', [{u'index': {u'status': 403, u'_type': u'***', u'_in

原创 Kafka Shell基本命令

  創建kafka topic bin/kafka-topics.sh --zookeeper node01:2181 --create --topic t_cdr --partitions 30 --replication-factor

原创 Python3項目路徑導包問題

最近在升級項目,從python2至python3,發現了很多import路徑不正確問題。大致分爲兩類: 1- 路徑問題導致 2- 項目文件夾名稱不規範,導致和Python自帶包名稱重複,導致導入出錯   針對第1種,表現形式就是impor

原创 Linux 交換分區

一.SWAP 說明   1.1 SWAP 概述 當系統的物理內存不夠用的時候,就需要將物理內存中的一部分空間釋放出來,以供當前運行的程序使用。那些被釋放的空間可能來自一些很長時間沒有什麼操作的程序,這些被釋放的空間被臨時保存到Swap空間

原创 ElasticStack系列之九 & master、data 和 client 節點

在生產環境下,如果不修改elasticsearch節點的角色信息,在高數據量,高併發的場景下集羣容易出現腦裂等問題。   默認情況下,elasticsearch 集羣中每個節點都有成爲主節點的資格,也都存儲數據,還可以提供查詢服務。這些功

原创 linux重新啓動docker

(1) systemctl stop docker (2) cd /var/lib/docker && mv swarm swarm_bak (3) systemctl start docker (4) docker swarm in

原创 Fingerprint has already been taken

  >cd ~/.ssh/ >mkdir search_keys #名字隨便定 >cd search_keys >pwd (獲取當前目錄路徑,如:/data/duser/.ssh/search_keys) >ssh-keygen 輸

原创 在linux上安裝達夢客戶端,以及dm_Python

首先,有一點備註下: 1)官方建議不要使用root賬號安裝,所以新建一個用戶dmdba(隨便起的) 2)根據我的安裝過程,建議最好全部過程,只出了最後的source過程(下面會提到)全部都直接在改用戶下進行,包括從本地上傳文件到服務器,也

原创 Kafka Producer往 Kafka send數據錯誤:Kafka Producer error Expiring 1 record(s) for TOPIC:XXXXXX: 30 ms

錯誤原因提示的是超時,但是按照網上的說法擴大超時限制,也沒有卵用。而且,私以爲30s已經很長了,我就發送了1條測試數據,總不能還會超時。 所以本質原因肯定是因爲zookeeper和kafka之間的什麼地方不對,導致中間代理出現問題,才一直

原创 Elasticsearch如何保證數據不丟失?

在elasticsearch和磁盤之間還有一層cache也就是filesystem cache,大部分新增或者修改,刪除的數據都在這層cache中,如果沒有flush操作,那麼就不能100%保證系統的數據不會丟失,比如突然斷電或者機器宕機

原创 ES 性能調優過程

背景:在數據和服務都準備完成的情況下,打開頁面,發現請求需要要幾秒才返回; 思路:1.查看搜索接口請求本身耗時情況,排除網絡抖動因素,發現搜索接口請求到ES返回結果本身耗時較高; 2.檢查每次請求到ES的入參,並在原有參數中加入"prof