CNN章節:
- 講解CNN的時候padding的值等於 (kernel_size-1)/2
- 還有每一個層的參數的shape計算很重要
- 還有卷積核的作用(過濾信息)
- 池化層的作用降維並且抓住主要特徵(爲什麼要用池化,池化mean和max方法的不同)
- padding的作用見https://blog.csdn.net/ningyanggege/article/details/87454694(莫煩講的作用是否正確?)
RNN章節:
- input_size,hidden_size,num_layers這三個參數詳解見https://blog.csdn.net/lwgkzl/article/details/88717678
- RNN做迴歸和RNN做分類的不同見:
for time_step in range(r_out.size(1)): # calculate output for each time step
outs.append(self.out(r_out[:, time_step, :]))
return torch.stack(outs, dim=1), h_state
out = self.out(r_out[:, -1, :])
- 分類是選取RNN的最後一個節點的輸出,迴歸是concatRNN的所有節點的輸出(其實分類也可以選擇節點的所有輸出)
- forward(self, x, h_state) 中RNN迴歸比RNN分類多一個h_state,RNN迴歸的batch之間有連續性,所以要傳遞h_state