原创 openresty獲取環境變量

最近開發中,使用openresty獲取環境變量時遇到一些問題,在此記錄一下。 默認情況下,nginx 會移除所有從父進程繼承的環境變量,如果你想使用這些環境變量,需要使用該指令顯示告知nginx不要移除你指定的環境變量。而且你也

原创 openresty中通過capture執行子請求不通過access_by_lua階段的解釋

在openresty中,執行capture時會跳過access階段。 參加agentzh在郵件列表中的說法: ngx.location.capture() 發起的是 nginx 子請求。根據 nginx 的設計,所有的子請求(不

原创 tornado使用元類(metaclass)動態生成handler

近日項目需要根據配置文件對頁面進行動態生成。由於在tornado中,url映射需要傳入class,故使用元類進行類的動態生成。 代碼如下 import tornado.web class baseHandler(tornad

原创 編程珠璣 抽樣問題(蓄水池抽樣)

前天晚上臥談時大家聊起來這個問題,討論無果後上網搜尋證明過程,發現並沒有什麼有理有據讓人信服的解釋。昨天經過思考後又經過討論,終於找到一個還算看的過去的證明。 問題 如何從0…n-1中隨機選擇m個整數,並且按照隨機順序輸出最後的結

原创 使用py-spy繪製python程序火焰圖

安裝: pip install py-spy 監控pid生成火焰圖,文件爲profile.svg py-spy record -o profile.svg --pid pid 參考文檔:https://www.xingmal

原创 uwsgi no python application found

uwsgi報錯 no python application found 表示python程序無法啓動,但uwsgi還是會啓動,並佔用端口。此時可能會給開發者錯覺,誤認爲程序啓動無誤。 加配置 need-app=true 加此配置後

原创 lightLDA dump_binary格式分析

原始註釋: /* * Output file format: * 1, the first 4 byte indicates the number of docs in this block * 2, the 4 * (doc_n

原创 NFS安裝與使用

在項目中需要使用到nfs來遠程保存vmcore。現將其在fedora19上面安裝過程記錄下來 安裝: 1.yum安裝nfs # yum install nfs同時在客戶端,即裝有kdump的機器上面安裝portmap # yum i

原创 crash分析vmcore和vmlinux出現不匹配問題的解決方法

最近兩天做實驗中,使用sysrq-c觸發系統崩潰後,生成轉儲文件vmcore。但是使用crash分析的時候卻提示vmcore與vmLinux不匹配 # crash /var/crash/127.0.0.1-2014.07.13-18\:

原创 kdump初探

介紹: kdump有兩個部分:kdump和kexec kdump是一種內核的crash dump機制,在內核crash之後可以捕獲內存中的數據,用來後續進行分析崩潰原因。 kdump需要配置兩個kernel,分別爲standard(pr

原创 apollo配置讀取方式

3種: 1.通過帶緩存的Http接口從Apollo讀取配置 2.通過不帶緩存的Http接口從Apollo讀取配置 3.長輪詢 https://github.com/ctripcorp/apollo/wiki/其它語言客戶端接入指南

原创 Object of type 'int64' is not JSON serializable

今天,在將字典轉爲json串時,遇到錯誤Object of type ‘int64’ is not JSON serializable print(aiop) 結果爲[8, 8] 後來發現居然是list中數字的類型不同 prin

原创 1. Two Sum

class Solution: def twoSum(self, nums: List[int], target: int) -> List[int]: dic = {} for x,y in

原创 Task3

TF-IDF原理 TF-IDF(term frequency–inverse document frequency)是一種用於信息檢索與數據挖掘的常用加權技術。TF意思是詞頻(Term Frequency),IDF意思是逆文本頻率指數

原创 Task2

分詞的概念 正向最大匹配法 分詞思路 在詞典中進行掃描,儘可能地選擇與詞典中最長單詞匹配的詞作爲目標分詞,然後進行下一次匹配。 分詞步驟 詞典中最長的單詞爲n個,那麼最大匹配的起始子串字數也爲 n個 (1)掃描字典,測試讀入的子串是否