В настоящее время я изучаю нейронные сети и пытался обучить MLP для изучения XOR с использованием обратного распространения в Python. В сети есть два скрытых слоя (использующих сигмовидную активацию) и один выходной слой (также сигмовидный). Сеть (около 20 000 эпох и скорость обучения 0,1) выводит числа, близкие к исходной метке класса:
прогноз: 0,11428432952745145 исходный вывод класса: 0
прогноз: 0.8230114358069576 исходный вывод класса: 1
прогноз: 0,8229532575410421 исходный вывод класса: 1
прогноз: 0.23349671680470516 исходный вывод класса: 0
Когда я рисую ошибки (для каждой эпохи), мой график показывает крутой спад, затем небольшой «удар», у меня сложилось впечатление, что ошибки будут постепенно уменьшаться:
Ошибки (суммированные) по сравнению с эпохой
Будет ли это классифицироваться как конвергенция? Я пытался настроить скорость обучения, но безуспешно.
Спасибо!