原创 文案生成論文速讀

歡迎交流指正 1. CTRL - A Conditional Transformer Language Model for Controllable Generation https://arxiv.org/pdf/1909.05

原创 【轉】[Deep Learning] GELU (Gaussian Error Linerar Units)

轉自 https://www.cnblogs.com/shiyublog/p/11121839.html 目錄 TL; NR 正態分佈 1.1 定義 1.2 概率密度函數 1.3 累積分佈函數 1.4 標準正態分佈 誤差函數 2

原创 知識體系 - 機器學習梳理

下面是我收藏的一些不錯的學習資料 1、邏輯迴歸(Logistic Regression) 邏輯迴歸計算過程的推導、並行化的實現:https://blog.csdn.net/ligang_csdn/article/details/5

原创 李航機器學習第七章 — SVM

文章目錄1、思想2、推導過程3、拓展知識點 1、思想 最大化最小間隔 拉格朗日乘子法求解 2、推導過程 3、拓展知識點 軟間隔,原來是最小間隔必須大於1,軟了就是相對寬鬆些,可以有個ϵ\epsilonϵ. 核函數,橘黃色

原创 Shell 相關

wait wait和waitpid出現的原因 SIGCHLD –當子進程退出的時候,內核會向父進程SIGCHLD信號,子進程的退出是個異步事件(子進程可以在父進程運行的任何時刻終止) –子進程退出時,內核將子進程置爲殭屍狀態,這個

原创 ICCV 2019 論文速讀

知識蒸餾(Teacher & Student) Learning Lightweight Lane Detection CNNs by Self Attention Distillation 利用層與層之間的促進關係,相當於逼

原创 PyTorch系列(一) 60mins - Autograd

目錄AutogradPyTorch: Tensors and autogradPyTorch: Defining new autograd functions Autograd PyTorch: Tensors and autog

原创 PU-Learning

速讀 論文:Learning From Positive and Unlabeled Data: A Survey 從方法上講,主要有兩種。 two step: 先對數據用聚類或者任一相關算法分類(選出可信度高的neg案例),然

原创 Word Embedding系列

原创 2048(1)

Anaconda 相關知識 anaconda 創建虛擬環境 conda create -n my_env python=3.7 查看當前python的虛擬環境有哪些 conda info --envs 激活某一個虛擬環境,默認

原创 Attention機制

幾篇比較好的鏈接 機器不學習:一文看懂Attention機制 斯坦福ppt 本文主要以問自己問題的方式去理解什麼是attention,理解可能會有偏差,歡迎指正。 Attention 機制 問1: 爲什麼用Attention機制?

原创 Loss合集

Contrastive Loss(Siamese Network) https://blog.csdn.net/qq_37053885/article/details/79325892

原创 【深度學習基礎】Gated CNN 門控CNN原理篇

論文:Language Modeling with Gated Convolutional Networks 思想:模擬lstm的是否遺忘門,或者說判斷權重的思想。再做一個和CNN卷積一樣參數的filter, 取值0-1,判斷這個

原创 【深度學習基礎】Gated CNN 門控CNN 代碼篇

轉載自 https://blog.csdn.net/liuchonge/article/details/70254660 import numpy as np import tensorflow as tf class Gate

原创 NLP 評價標準 - BLEU

BLEU 論文:https://aclweb.org/anthology/P02-1040.pdf 思想:數詞是否在ground truth裏 舉例 原文:貓坐在墊子上 機器翻譯:The cat sat on the mat 人工