原创 leveldb源碼學習之MemTable

levedb的MemTable用於存儲k-v數據 memtable 用引用計數器管理,若計數爲0則釋放空間 用跳錶實現內部有序(leveldb跳錶實現見:leveldb源碼學習之跳錶skiplist) memtable 的key編碼爲以長

原创 leveldb源碼學習之 Writer 類

用於將數據寫入內存中的block 若數據長度超出當前block大小,需要分片 數據的header固定佔用7個字節 log_writer.h #ifndef STORAGE_LEVELDB_DB_LOG_WRITER_H_ #

原创 經濟學的10個原則

翻譯自《10 Principles of Economics》 曼昆在《經濟學原理》一書中列出了10條經濟學的原理,分別是: 人們面臨權衡取捨 某樣東西的成本是爲了得到它願意放棄多少 理性的人們會思考邊際(效益、成本) 人們會響應激勵措施

原创 機器學習算法:邏輯斯蒂迴歸模型(logistic regression)

邏輯回歸屬於對數線性模型,學習算法有改進的迭代尺度算法和擬牛頓法   邏輯斯蒂分佈 設X是連續隨機變量,若X服從邏輯斯蒂分佈,是指X具有以下分佈函數和密度函數: 爲位置參數(控制分佈/密度函數座標軸上位置), 爲形狀參數(控制函數的形狀

原创 自然語言處理:word2vec 之Skip-Gram模型(第二篇)

本文翻譯自《Word2Vec Tutorial Part 2 - Negative Sampling》 在word2vec 第二篇(第一篇),將會涉及對基礎的skip-gram模型進行一些額外調整,使其的訓練在實際中可行 在讀word2v

原创 自然語言處理:詞向量之連續詞袋模型(The Continuous Bag-of-Words Model,CBOW)

翻譯自《Word2Vec Tutorial Part II: The Continuous Bag-of-Words Model》 (本文章矩陣相乘輸入寫在點乘右側) 在前一篇文章推導了跳字模型並解釋了什麼是詞向量,本篇探究詞向量的另一個

原创 自然語言處理:word2vec 之Skip-Gram模型

本文翻譯自:《Word2Vec Tutorial - The Skip-Gram Model》 Word2vec 有兩個經典模型,skip-gram(跳字模型)和CBOW(連續詞袋模型),這裏對前者進行講解 模型 skip-gram神經網

原创 tensorflow圖像處理:圖像語義分割

圖像分割參考:語義分割(sematic segmentation) 這裏使用Oxford-IIIT Pet 數據集,該數據集由圖像、圖像標籤、以及對像素逐一標記的掩碼(分類)組成。像素的標籤可以是:寵物、寵物輪廓、背景   下載安裝必要的

原创 圖像處理:圖像風格遷移(Style Transfer)

本文翻譯自:《A brief introduction to Neural Style Transfer》 在圖像風格遷移中,涉及兩張圖像,內容圖像和風格(樣式)圖像。我們需要將風格圖像的樣式應用到內容圖像上。 爲此我們使用預訓練好的模型

原创 圖像處理:語義分割(sematic segmentation)

摘自《動手學習深度學習》 圖像分類會給每張圖像分配一個標籤或類別。但如果想知道物體在圖像中的位置、物體的形狀、以及哪個像素屬於哪個物體等,就需要分割圖像,給圖像中的每個像素各分配一個標籤。因此,圖像分割的任務是訓練一個神經網絡來輸出該圖像

原创 scikit-learn 機器學習:sklearn.neighbors 的k近鄰算法使用

KNeighborsClassifier 分類模型 sklearn.neighbors.KNeighborsClassifier(n_neighbors=5, weights='uniform', algorithm='auto', l

原创 機器學習算法:k近鄰(kNN,k-NearestNeighbor)

可用於分類與迴歸 輸入爲實例特徵向量,輸出爲類別,可以是多分類 沒有顯示的學習過程,假設給定一個有監督的訓練集,新的實例根據最近k個實例的類別多數表決決定屬於哪一類 利用訓練數據對特徵空間劃分 三要素:k值、距離度量、分類規則   算法

原创 自然語言處理模型:bert 結構原理解析——attention+transformer(翻譯自:DECONSTRUCTING BERT, PART 2)

原文:DECONSTRUCTING BERT, PART 2: VISUALIZING THE INNER WORKINGS OF ATTENTION 接上篇:自然語言處理模型:bert 結構原理解析——attention+transfo

原创 自然語言處理模型:bert 結構原理解析——attention+transformer(翻譯自:Deconstructing BERT)

原文:Deconstructing BERT: Distilling 6 Patterns from 100 Million Parameters 《bert 結構解析:在1億個參數中提取6種模式》 The year 2018 mar

原创 機器學習算法:樸素貝葉斯法

基於貝葉斯定義和特徵條件獨立假設的分類方法 對給定數據集,先學習輸入輸出的聯合分佈,再基於此模型,對給定的x利用貝葉斯定理求後驗概率最大的輸出y 實現簡單,學習和預測的效率高 樸素貝葉斯法的學習與分類 基本方法 輸入空間爲  的n維度向量