從EPOCH20開始出現了過擬合曲線,表徵是此時測試集的誤差達到了最低,再往後的訓練導致訓練集的誤差雖然進一步減小,但是測試集合的誤差卻持續走高,這就是過擬合的明顯特徵
https://classroom.udacity.com/nanodegrees/nd009-cn-advanced/parts/5f4d630c-d15a-412c-aaeb-b57ad61cd03c/modules/3aa9e812-62cd-4ae3-8fc4-593538f08455/lessons/2f907351-912b-40c7-8b2b-289e1446fa32/concepts/6ca15486-4db4-4731-89f3-06b704ef8455
https://stats.stackexchange.com/questions/2691/making-sense-of-principal-component-analysis-eigenvectors-eigenvalues
一開始由於我本身軟件開發的基礎,短期內很快就完成了前端開發納米學位的學習。但這招“閃電戰”在機器學習面前立馬不管用了。“強化學習”和“深度學習”這些課題都很難,大大超出了我目前的能力範圍,我卡了很久。最後決定看不懂的暫時跳過,先堅持自己的
https://classroom.udacity.com/nanodegrees/nd009-cn-advanced/parts/5f4d630c-d15a-412c-aaeb-b57ad61cd03c/modules/3aa9e81
# Freeze parameters so we don't backprop through them #print("model.parameters()=",type(model.parameters())) import tor
def softmax(x): ## TODO: Implement the softmax function here #print("torch.exp(x)=",torch.exp(x)) s = torch
# Build a feed-forward network model = nn.Sequential(nn.Linear(784, 128), nn.ReLU(),
https://www.zhihu.com/question/30750849 對於敏感性sensitivity,也就是真陽性率,表明的是真正有病的樣本在所有預測有病的樣本中所佔的比例。 而對於特異性specificity,是真陰性率