原创 [ML] 邏輯斯諦迴歸與最大熵模型

知識準備 極大似然估計 極大似然估計就是給定一個訓練數據集T, 尋找模型的最優參數值θ, 達到一個這樣的效果: 給模型輸入訓練集的X, 能以最大的概率輸出其正確的分類Y. 求θ的過程就是最大化似然函數L(θ)的過程. L(θ)=

原创 [ML] 提升方法

基本思想: 改變訓練樣本的權重, 學習多個分類器, 將分類器進行線性組合, 提高分類的性能.—”三個臭皮匠頂個諸葛亮”. 1. 提升方法AdaBoost算法 1.1 提升方法的思路 強可學習: 一個類, 存在一個多項式的學習算法

原创 [Python] unexpected indent報錯

縮進問題 原代碼 import tensorflow as tf saver = tf.train.import_meta_graph("Saved_model/model.ckpt.meta") with tf.Session(

原创 [Tensorflow] 模型持久化

模型持久化 1. 代碼實現 調用API: tf.train.Saver即可 模型一般會保存在後綴爲.ckpt的文件中. 保存模型示例 v1 = tf.Variable(tf.random_normal([1], stddev=1

原创 [ML] 支持向量機

SVM是一種二類分類模型. 1. 線性可分支持向量機與硬間隔最大化 求解對象: 線性可分問題. 1.1 線性可分支持向量機 給定一個訓練數據集: T={(x1,y1),...,(xN,yN)},xi∈X=Rn,y∈Y={+1,−

原创 [ML] 樸素貝葉斯

知識準備 聯合概率分佈: 簡稱聯合分佈, 是兩個及以上隨機變量組成的隨機向量的概率分佈. 先驗概率: 常識經驗所透露出的“因”的概率. 後驗概率: 在知道“果”之後, 去推測“因”的概率. 極大似然估計: 已知某個參數能使這

原创 [ML] 統計學習方法概論

1.1 統計學習 統計學習: 基於數據構建概率統計模型, 運用模型對數據進行預測與分析. 這模型通常是決策函數或條件概率分佈 學習: 如果系統能夠通過某個過程改進它的性能, 這就是學習. 統計學習的對象: 數據 統計學習的基本

原创 [ML] 感知機

綜述 面向的問題: 二分類問題 輸入: 實例的特徵向量, x∈Rnx∈Rn 輸出: 實例的類別, y={+1,−1}y={+1,−1} 目標: 求出將數據進行線性劃分的分離超平面 方法: 損失函數 + 梯度下降 1. 感

原创 [ML] 決策樹

1. 決策樹模型與學習 1.1 決策樹模型 由結點和有向邊組成. 結點包括內部結點(表示一個特徵or屬性)和葉結點(表示一個類). 1.2 決策樹與if-then規則 (1) 內部結點的特徵對應着規則的條件. (2) 葉結點的

原创 [Tensorflow] 深層神經網絡

1. 定義 維基百科對深度學習的定義: 一類通過多層非線性變換對高複雜性數據建模算法的合集. 2. 激活函數實現去線性化 tensorflow提供了7種不同的非線性激活函數, 常見的有tf.nn.relu, tf.sigmoid,

原创 [ML] k近鄰法(k-NN)

綜述 k-NN: k-nearest neighbor 輸入: 實例的特徵向量 輸出: 實例的類別(可以有多類) 三要素: k值的選擇, 距離度量, 分類決策規則 1. k近鄰算法 該算法沒有顯式的學習過程. 算法描述:

原创 [Linux] 環境變量

參考: https://www.cnblogs.com/aaronLinux/p/5837702.html 1. 環境變量的格式 PATH=$PATH : PATH_1 : PATH_2 : PATH_3 : … : PATH_

原创 測試工程師筆/面試題目

1. 什麼是軟件測試? 軟件測試是爲了發現錯誤而執行程序的過程. 精心設計一批測試用例(即輸入數據及其預期的輸出結果), 並利用這些測試用例去運行程序, 以發現程序錯誤的過程. 2. 軟件測試的目的? 測試的目的是想以最少的成本

原创 [Linux] pip命令

pip的功能是安裝python包. python2和python3共存時如何使用pip 查看python2/3已經安裝好了的pip $ python2 -m pip list $ python3 -m pip list 安裝pyt

原创 [Tensorflow] MNIST數字識別問題

源碼: https://github.com/caicloud/tensorflow-tutorial/blob/master/Deep_Learning_with_TensorFlow/1.4.0/Chapter05/2.%2