【Tensorflow】使用sparse_softmax_cross_entropy_with_logits計算交叉熵

tf.nn.sparse_softmax_cross_entropy_with_logits(logits=y, labels=tf.argmax(y_,1)) 
  • logits:神經網絡不包括softmax層的前向傳播結果,是向量格式。
  • labels:訓練數據的正確答案,是標籤格式。可以用tf.argmax(y_,1)來獲得正確答案對應的編號。1:在第一維度(每一行)選取最大值對應的下標。
tf.nn.softmax_cross_entropy_with_logits(logits=net, labels=y2)
  • labels爲one-hot標籤 

 


 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章