原创 矩陣分解、奇異值分解(SVD)

1.特徵值 特徵向量Ax=λxAx=\lambda xAx=λx的幾何意義:向量x通過矩陣A變換,只進行縮放,而不改變向量方向,縮放倍數即特徵值。 對於n階方陣,一定有n個特徵值(包括複數),但非零特徵值個數等於矩陣的秩。 2

原创 《推薦系統與深度學習》閱讀簡記

文章目錄1.推薦系統的基礎算法1.1 基於內容的推薦1.2 基於協同的算法(collaborative filtering)1.2.1 基於物品的協同(ItemCF)1.2.2 基於用戶的協同(UserCF)1.2.3 基於用戶協

原创 命名實體識別LSTM+CRF的前向計算推導

文章目錄1. log linear model1.2 邏輯迴歸1.1 CRF與邏輯迴歸的區別2. NER中的LSTM+CRF2.1 CRF的特徵定義2.2 參數估計2.3 全局正則項的計算推導參考文獻 在用LSTM+CRF做命名實

原创 linux創建定時服務service

一、創建執行服務腳本 示例如下,三個文件: backup.service backup.timer run_backup.sh 文件內容分別爲 backup.service [Unit] Description=leanote

原创 git定期清理提交歷史避免倉庫爆炸

git同步二進制文件會導致本地和遠程倉庫大小成倍增長,進而導致自動同步失敗。使用如下腳本來控制倉庫大小。 注意,清理操作會造成所有提交歷史log完全刪除,不可恢復,建議提前備份(只針對.git文件夾,不會影響工作區文件) # #

原创 cs224n學習筆記L8:機器翻譯(MT)、Seq2Seq、Attention

文章目錄一、機器翻譯1.1 基於規則1.2 基於概率(statistical)統計(SMT)1.2.1 P(x|y)的學習1.3 神經網絡機器翻譯(NMT)1.3.1 seq2seq結構1.3.2 seq2seq模型訓練1.3.3

原创 python函數參數*args, **kwargs其實很好區分

可變參數 args,kwargs只是默認變量名稱,翻譯一下就是列表參數和字典參數(key-word args),關鍵之處是這裏的*和**,這兩個都是可變參數。 在函數定義時使用可變參數 Python函數定義中的參數聲明一般有三種方

原创 AI換臉踩坑記錄:Faceshifter

論文地址:Implementation of https://arxiv.org/abs/1912.13457 參考大佬復現代碼: https://github.com/taotaonice/FaceShifter https:

原创 舒適的vscode配置文件

一、編輯器設置 { // 編輯器基本設置 "editor.multiCursorModifier": "ctrlCmd", "editor.formatOnPaste": false, "termi

原创 cs224n學習筆記L7: 梯度消失和高級RNN

文章目錄一、梯度消失及爆炸1.1 RNN中的梯度消失(推導)1.2 梯度消失會帶來的問題1.3 梯度爆炸帶來的問題及解決辦法二、更復雜的RNN2.1 Long Short-Term Memory(LSTM)2.1.1 LSTM的結

原创 cs224n學習筆記L6: Language models and RNNs

文章目錄一、語言模型1.1 什麼是語言模型(LM)1.2 n-gram語言模型1.2.1 n-gram數學原理1.2.2 n-gram缺點1.3 爲什麼要研究語言建模1.4 LM理解二、神經網絡語言模型2.1 基於窗口的語言模型2

原创 cs224n學習筆記L5: Dpendency Parsing

文章目錄課程安排一、語法結構1.1 CFGs(上下文無關文法)1.2 依賴結構表示句子中的詞語其他詞的依賴關係1.3 爲什麼要解析句子的結構1.4 依賴解析1.5 標註數據項目:universal dependencies tre

原创 cs224n學習筆記L4: Backpropagation and computation graphs

文章目錄課堂安排一、反向傳播·續1.1 ∂s∂W\frac{\partial s}{\partial W}∂W∂s​的計算推導1.2 梯度推導溫馨提示1.3 輸入x的偏導1.4 下游任務更新詞向量存在的風險二、計算圖及其反向傳播2

原创 cs224n學習筆記L2:word vectors and word senses

cs224n學習筆記L1:自然語言處理簡介 文章目錄一、課堂計劃二、 詞向量計算方法2.1 回顧word2vec計算2.2 word2vec中計算方法詳解2.3 高頻詞(the)引起的問題三、優化基礎3.1 梯度下降3.2 隨機(

原创 cs224n學習筆記L3:Neural Networks

cs224n學習筆記L2:word vectors and word senses 文章目錄一、課程安排1.1 近期安排1.2 本節課安排二、分類2.1 分類介紹2.2 傳統方案分類2.3 交叉熵(cross entropy)損失