Я новичок в функциях потерь, и у меня есть проблема с двоичной классификацией 800 (что означает 800 нейронов на выходе, на которые не влияют друг друга - вероятность каждого равна 0 или 1). Теперь посмотрим на документацию: https://www.tensorflow.org/api_docs/python/tf/nn/sigmoid_cross_entropy_with_logits
Кажется, что он использует «логиты», которые являются выходами сети с линейной функцией активации, а сигмоид (необходим для двоичной классификации) применяется в функции потерь.
Я смотрю на функцию потерь для активации soft-max, и применяется аналогичный подход. Мне интересно, почему функция активации не добавляется к выходам сети, а функция потерь получает линейные выходы (логиты), а в функции потерь применяется активация.
tf.losses.log_loss
) или сделайте ее для себя. :) - person greeness   schedule 18.06.2019