原创 Softmax

自己的一點理解,感覺還是要記下來… Softmax 是將LR用於多分類, 就按照類比的思路寫下來。 先簡單說一下LR 首先,還是要基於這個框架(如下)做一個假設函數 (hypothesis function) 假設自變量 x

原创 C++ enum用法

原文鏈接:http://www.cnblogs.com/ifaithu/articles/2638218.html 1、爲什麼要用enum 寫程序時,我們常常需要爲某個對象關聯一組可選alternative屬性.例如,學生的成

原创 協方差的意義和計算公式

轉載鏈接:http://blog.csdn.net/beechina/article/details/51074750 學過概率統計的孩子都知道,統計裏最基本的概念就是樣本的均值,方差,或者再加個標準差。首先我們給你一個含有n個樣

原创 【《C++ Primer Plus》讀書筆記】異常

abort() 直接終止程序,提示信息 exit() 刷新文件緩衝區,但是不提示消息 try, throw, catch 一個try可以跟多個catch; throw的原理: 執行throw終止函數的執行,導致程序沿函數的調用序

原创 【論文筆記】Learning to ask good questions: Ranking clarification questions using Neural Expected Value

這是ACL2018的一篇Best papers. 解決的是論壇提問中對posts的信息補全的問題 用到的數據是StackExchange的數據 場景 論壇求助中的一些posts並不完善,有些問題直接開問,並沒有包含如 自己系統版本號,

原创 【機器學習筆記】判別模型和生成模型(貝葉斯估計)

先驗和後驗的區別 先驗概率是在缺乏某個事實的情況下描述一個變量; 而後驗概率是在考慮了一個事實之後的條件概率. 先驗概率通常是經驗豐富的專家的純主觀的估計. 判別模型 不妨重新考慮一下LR的過程來理解,因爲這就是一個判別模型,我總是在

原创 ABCNN

昨天和師兄聊了一下對attention的理解 其實相似性矩陣本身並不是模型的參數,是參數的只是後面的dense layers; 看了好久才弄懂ABCNN的卷積過程。 其實卷積也還是就是Yoon Kim的方法。 協助理解的時候

原创 【機器學習筆記】最大似然估計法與LR中 J of theta 的概率解釋

看公開課的時候再次遇到,決心搞懂他… 首先是Andrew Ng在公開課中提到爲什麼LR的損失函數要用最小二乘,給出了概率解釋,是在樣本誤差服從IID,並且誤差整體服從高斯分佈的最大似然函數的log表出。 最大似然估計法 先從一個比較普遍的

原创 【機器學習筆記】權衡 bias 和 variance

Training error & Generalization error Training error 是說對於一個假設 h ,在 m 個樣本中,h 分類錯誤的個數: ϵ^(h)=1m∑i=1m1{h(x(i))≠y(i)} Ge

原创 DRCN Model

Kim S, Hong J H, Kang I, et al. Semantic Sentence Matching with Densely-connected Recurrent and Co-attentive Informati

原创 【機器學習筆記】Hessian矩陣

看牛頓法的時候,遇到的這個問題 原問題是要用牛頓法求對數似然函數 l(θ) 的最大值,也就是似然函數導數的零點,即迭代過程爲: θ:=θ−l′(θ)l′′(θ) 如果 θ 爲向量,就會想,函數對向量求導怎麼求? 所以查了一下:

原创 【機器學習筆記】SVM part2: 核函數與SMO算法

回顧我們之前的問題: 之前我們說到,假設我們了 α , 又有樣本點數據,我們很容易由 w=∑mi=1αiy(i)x(i) 得出 w , 同時也求得了 b 那麼就得到了這個分類面 wTx+b ,我們換一種表示方法: wTx+b=(

原创 【論文筆記】Decomposable attention

是這個Paper的一些筆記 Parikh A P, Täckström O, Das D, et al. A decomposable attention model for natural language inference[J].

原创 BDCI 2017 商鋪預測(回憶)

一次結束,總歸要寫個回憶 一是以後寫進簡歷的項目經歷可以複習 二是對過去一個多月的時間的交代 (可能會較囉嗦吧, 穿插着回憶) 比賽頁面 比賽前 一個多月前,組內大佬問我要不要參加這次CCF大賽,我確實不想參加,因爲當時的我,申請

原创 Apriori算法

從大規模數據集中尋找物品間的隱含關係被稱作關聯分析(association analysis)或者關聯規則學習(association rule learning)。這裏的主要問題在於,尋找物品的不同組合是一項十分耗時的任務,所需的計算代