TensorFlow softmax的互熵损失

时间:2023-12-24 09:51:25

  函数:tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None)

  功能:这个函数的作用是计算 logits 经 softmax 函数激活之后的交叉熵

  实例:

 inputdata = tf.Variable([[0.2, 0.1, 0.9]], dtype=np.float32)
output = tf.nn.softmax_cross_entropy_with_logits(logits=inputdata, labels = [[1.0, 0.0, 0.0]])
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
print (sess.run(inputdata))
print (sess.run(output))

  输出:

[[ 0.2 0.1 0.89999998]]
[ 1.36573195]