原创 01馬氏鏈及其平穩分佈

轉載:https://www.jianshu.com/p/63388bd88092

原创 Day02 多變量線性迴歸

多功能 x表示一個向量 我們用多個特徵量或者變量來預測Y值,這就是所謂的多元線性迴歸   多元梯度下降法 多元線性迴歸模型如下  特徵縮放 通過特徵縮放,他們值得範圍變得相近,這樣你得到的梯度下降算法就會更快地收斂 不要太大,也不

原创 Day01 單變量線性迴歸

參考Andrew Ng 模型描述 一個監督學習的例子。 h是一個引導從x得到y的函數,該函數叫做假設函數。 我們先從這個例子開始,先擬合線性函數,然後在此基礎上,最終處理更復雜的模型,以及學習更復雜的學習算法,這種模型被稱爲線性迴歸,該

原创 Day04 正則化

過擬合問題 圖一,欠擬合,算法具有高偏差。圖三,過擬合,算法具有高方差。     代價函數     線性迴歸的正則化   Logistic迴歸的正則化  

原创 Day03 Logistic迴歸

分類 對於上面的數據集,線性迴歸算法似乎可用,對於下面的效果就很差勁了,所以不推薦將線性迴歸用於分類問題。     假設陳述 假設函數表達式    決策界限  這個函數具體來說,就是給定x和參數θ時,y=1的估計概率。 下圖分

原创 數學之美——談談分詞

一般來講,應用不同,漢語分詞的顆粒度大小應該不同,因此不同的應用應有不同的分詞系統。 中文分詞的方法也被應用到英語處理,主要是手寫體識別中。 分詞的錯誤可以分爲越界型錯誤和覆蓋型錯誤。越界型錯誤:把“北京大學生”分爲“北京大學-生”。覆蓋

原创 01雜談

今天是2019年1月1日。 2018年幾乎就是在考研中度過的。 和仙佬大概在四月份的樣子開始陸陸續續的開始考研複習。 考研過程中經常和仙佬去凱德買衣服,多數情況下都是我買,誰讓我臭美呢。 暑假很熱,仙佬力大無窮幫我搬了家,然後我倆去二校區

原创 數學之美——統計語言模型

賈里尼克的出發點很簡單:一個句子是否合理,就要看它的可能性大小如何,至於可能性就用概率來衡量。 馬爾可夫提出了一種偷懶但還頗爲有效的方法,假設任意一個詞Wi出現的概率只同它前面的詞Wi-1有關,這種假設在數學上稱爲馬爾可夫假設。 高階語言

原创 數學之美——自然語言處理—從規則到統計

看書過程中記一些好玩的 上世紀七十年代,基於規則的句法分析(包括文法分析或者語義分析)很快走到了盡頭,而對語義的處理則遇到了更大的麻煩,首先,自然語言中詞的多義性很難用規則表達清楚,而嚴重依賴於上下文,甚至是“世界的知識”或者常識,1

原创 數學之美——文字和語言vs數字和信息

本章講述了文字,數字和語言的歷史,提到了一些概念和主題,包括 通信的原理和信息傳播模型 (信源)編碼和最短編碼 解碼的規則,語法 聚類 校驗位 雙語對照文本,語料庫和機器翻譯 多義性和利用上下文消除歧義性

原创 Day02多變量線性迴歸

多功能 x表示一個向量 我們用多個特徵量或者變量來預測Y值,這就是所謂的多元線性迴歸   多元梯度下降法 多元線性迴歸模型如下  特徵縮放 通過特徵縮放,他們值得範圍變得相近,這樣你得到的梯度下降算法就會更快地收斂 不要太大,也不

原创 馬氏鏈及其平穩分佈

轉載:https://www.jianshu.com/p/63388bd88092

原创 Day01單變量線性迴歸

參考Andrew Ng 模型描述 一個監督學習的例子。 h是一個引導從x得到y的函數,該函數叫做假設函數。 我們先從這個例子開始,先擬合線性函數,然後在此基礎上,最終處理更復雜的模型,以及學習更復雜的學習算法,這種模型被稱爲線性迴歸,該