В проблеме, которую я пытаюсь решить, мой выходной домен центрирован по нулю, между -1 и 1. При поиске функций активации я заметил, что ReLu выводит значения от 0 до 1, что в основном означает, что ваш вывод все отрицательный или все положительный.
Это можно сопоставить с соответствующим доменом с помощью обратной нормализации, но ReLu предназначен для определения «силы» нейрона в одном направлении, но в моей проблеме мне нужно определить силу нейрона в одном из двух направлений. Если я использую tanh, мне приходится беспокоиться об исчезновении/взрыве градиентов, но если я использую ReLu, мой вывод всегда будет «смещен» в сторону положительных или отрицательных значений, потому что, по сути, очень маленькие значения должны быть сопоставлены с положительным доменом, а большие значение отрицательного домена или наоборот.
Дополнительная информация: я использовал ReLu, и он работает хорошо, но я боюсь, что это сделано по неправильным причинам. Причина, по которой я это говорю, заключается в том, что, по-видимому, приближение к меньшим значениям домена pos или neg будет означать более сильное соединение до определенного момента, после чего оно вообще не будет активировано. Да, технически сеть может работать (вероятно, сложнее, чем нужно), чтобы удерживать всю область выходных данных поездов в положительном пространстве, но если значение выйдет за пределы обучающего набора, его не будет? когда на самом деле он должен быть еще более активным
Каков правильный способ работы с выходными доменами с нулевым центром?