莫煩Pytorch學習筆記

學習筆記整理連接

莫煩Pytorch的github代碼

CNN章節:

  • 講解CNN的時候padding的值等於 (kernel_size-1)/2
  • 還有每一個層的參數的shape計算很重要
  • 還有卷積核的作用(過濾信息)
  • 池化層的作用降維並且抓住主要特徵(爲什麼要用池化,池化mean和max方法的不同)
  • padding的作用見https://blog.csdn.net/ningyanggege/article/details/87454694(莫煩講的作用是否正確?)

RNN章節:

 for time_step in range(r_out.size(1)):    # calculate output for each time step
            outs.append(self.out(r_out[:, time_step, :]))
        return torch.stack(outs, dim=1), h_state

 

out = self.out(r_out[:, -1, :])
  • 分類是選取RNN的最後一個節點的輸出,迴歸是concatRNN的所有節點的輸出(其實分類也可以選擇節點的所有輸出)
  • forward(self, x, h_state) 中RNN迴歸比RNN分類多一個h_state,RNN迴歸的batch之間有連續性,所以要傳遞h_state
發佈了358 篇原創文章 · 獲贊 113 · 訪問量 82萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章