keras如何解決局部最小問題
https://ruder.io/optimizing-gradient-descent/index.html#rmsprop
keras如何解決局部最小問題 API
https://keras.io/api/optimizers/
https://stats.stackexchange.com/questions/2691/making-sense-of-principal-component-analysis-eigenvectors-eigenvalues
一開始由於我本身軟件開發的基礎,短期內很快就完成了前端開發納米學位的學習。但這招“閃電戰”在機器學習面前立馬不管用了。“強化學習”和“深度學習”這些課題都很難,大大超出了我目前的能力範圍,我卡了很久。最後決定看不懂的暫時跳過,先堅持自己的
https://classroom.udacity.com/nanodegrees/nd009-cn-advanced/parts/5f4d630c-d15a-412c-aaeb-b57ad61cd03c/modules/3aa9e81
# Freeze parameters so we don't backprop through them #print("model.parameters()=",type(model.parameters())) import tor
def softmax(x): ## TODO: Implement the softmax function here #print("torch.exp(x)=",torch.exp(x)) s = torch
# Build a feed-forward network model = nn.Sequential(nn.Linear(784, 128), nn.ReLU(),
https://www.zhihu.com/question/30750849 對於敏感性sensitivity,也就是真陽性率,表明的是真正有病的樣本在所有預測有病的樣本中所佔的比例。 而對於特異性specificity,是真陰性率