原创 多標籤分類算法

本文圖片摘自https://www.zhihu.com/question/35486862中景略集智的回答。 分類策略:基於標籤的order of correlations first-order strategy:逐一考察單個標記而忽略

原创 DrugBank數據庫Downloads詳解(版本5.1.4,2019-7-2)

Drugbank開放數據集是公共域數據集,可以在您的應用程序或項目中自由使用(包括商業用途)。它是根據Creative Common的CC0國際許可證發佈的。 在法律允許的範圍內,將CC0與藥房銀行公開數據關聯的人放棄了對藥房銀行公開數據

原创 SuperTarget數據庫詳解

SuperTarget:http://insilico.charite.de/supertarget/index.php SuperTarget是一個收集有關藥物-靶點關係的信息的數據庫。 SuperTarget整合了DrugBank,

原创 注意力機制分類、原理、應用

目錄1.簡介2.注意力機制的誕生3.不同類別的計算原理3.1.普通模式注意力3.1.1.軟性注意力3.1.2.硬性注意力3.2.鍵值對模式:鍵值對注意力3.3.多頭注意力(Multi-Head Attention)3.4.結構化注

原创 【NLP面試】簡述RNN、LSTM、NLP

目錄1.RNN:處理序列數據1.1.爲什麼需要RNN?1.2.基本原理1.3.缺點1.3.1.短期記憶、訓練成本大1.3.2.梯度消失/爆炸1.4.LSTM:RNN的優化算法1.4.1.與RNN相比1.4.2.核心步驟(前向計算過

原创 購物籃分析(Apriori算法):Mlxtend實現

目錄1.基礎概念2.購物籃分析:指標用法3.規則生成基本流程3.1.找出頻繁項集3.2.找出上步中頻繁項集的規則4.Python實現:mlxtend參考 1.基礎概念 項集: 購物籃也稱爲事務數據集,它包含屬於同一個項集的項集合

原创 【自監督算法】自編碼器(autoencoder, AE)

 十分建議先讀keras文檔  看完之後感覺好像普通的自編碼器好像沒啥用啊?  使用自編碼器做數據壓縮,性能並不怎麼樣……  做逐層預訓練訓練深度網絡吧,現在好的初始化策略、Batch Normalization、殘差連接啥的都

原创 殘差連接skip connect

文章目錄1. 來源1.LSTM的控制門2.ResNet進一步簡化和實驗驗證2.解決:梯度消失2.1.梯度消失2.2.使用殘差連接3.解決:網絡權重矩陣的退化3.1.網絡退化3.2.使用殘差連接4.殘差連接的有效性5.解釋角度5.1

原创 特徵工程的方法和步驟

目錄0.示意圖1.特徵類別1.1.類別特徵1.2.數值特徵1.3.時間特徵1.4.空間特徵1.5.自然語言處理1.6.深度學習/神經網絡1.7.圖特徵1.7.Leakage1.8.統計聚合1.9.自動化特徵工程2.數據預處理2.1

原创 【CV面試】簡述CNN、計算機視覺、人臉識別

本文整理自多篇博客。雖然不是原創,但是也是費了心血整理的O(∩_∩)O 目錄CNN:圖像、視頻1.CNN解決了什麼問題?1.1.將大數據量的圖片降維成小數據量1.2.保留圖片特徵,符合圖片處理的原則2.CNN的思想來源3.基本原理

原创 神經網絡模型不收斂原因、解決辦法

目錄0.可能原因彙總1.檢查1.1.確保:數據乾淨、標註正確1.2.樣本的信息量太大1.3.確保:歸一化、標準化1.4.確保:數據Shuffle1.5.數據預處理1.6.確保:y與loss是搭配的1.7.確保輸出層的激活函數正確2

原创 神經網絡調參經驗【多個大神的經驗整理】

目錄1.基本概念2.可調參數3.調參技巧3.1.Random Search代替Gird Search3.2.搜索過程:粗調→細調3.3.超參數的選取尺度3.3.1.對數尺度3.3.2.線性尺度4.調參4.1.學習率4.2.Epoc

原创 查找算法、python實現

目錄0.概述0.1.分類0.2.平均查找長度1. 順序查找、線性查找2. 二分查找3. 插值查找4. 斐波那契查找5. 樹表查找6. 分塊查找7. 哈希查找參考 0.概述 0.1.分類 靜態查找和動態查找:針對查找表而言的。動態

原创 CPU核心、進程、線程

目錄CPU核心和線程數CPU內核CPU核心數CPU與線程數線程和進程進程線程線程和進程的關係線程的類型(留坑)Python多線程(留坑)參考 CPU核心和線程數 CPU個數即CPU芯片個數。 CPU內核  CPU內核是CPU中間的

原创 梯度彌散、梯度爆炸及解決方案

目錄1.梯度更新2.梯度消失、梯度爆炸2.1.BP更新權重2.2.激活函數的影響2.2.1. Sigmoid2.2.2.Tanh2.2.3. Relu2.2.4.LeakReLU2.2.5.ELU2.2.6.PReLU(參數化修正