В документации по тензорному потоку (softmax_cross_entropy_with_logits) они сказали «logits: вероятность немасштабированного журнала». Что такое «логарифмическая вероятность»? Во-первых, я понимаю, что 'logits'
— это 'output before normalization'
или 'score for class'
.
logits = tf.matmul(X,W) + b
hypothesis = tf.nn.softmax(logits)
Если я получил [1.5, 2.4, 0,7]
на tf.matmul(X,W) + b
, то [1.5, 2.4, 0,7]
равно logits(score)
, и это не было масштабировано. Я могу понять это до этой стадии. Но я не могу понять, почему [1.5, 2.4, 0.7]
это 'log probability'
.