Этот пост является частью 12-месячного проекта ускоренного обучения Month to Master. На октябрь моя цель - победить чемпиона мира Магнуса Карлсена в шахматной партии.

У меня может быть проблема ...

Вчера я нашел простой способ запустить свой шахматный код на более быстрых компьютерах в облаке. Была надежда, что, если я смогу обработать намного больше данных, а затем обучить свою модель на этом более крупном наборе данных, для большего количества итераций, я смогу значительно улучшить производительность своего шахматного алгоритма.

Несколько дней назад я мог заставить свой алгоритм правильно маркировать шахматную позицию как хорошую или плохую только в 70% случаев. Я решил, что смогу увеличить этот показатель примерно до 98–99%, просто увеличив масштаб своей деятельности.

Однако после запуска более мощной версии моей программы за ночь я проснулся и обнаружил, что алгоритм все еще застревает на уровне точности 70%.

Не только это, но и после того, как она достигла этой точки, модель продолжала медленно улучшать свою точность на данных обучения, но стала хуже работать с данными тестирования.

Другими словами, после того, как мой алгоритм достиг отметки 70%, любая попытка его улучшить на самом деле приводила к его ухудшению ...

Например, после 6600 итераций точность теста составила 68,1%:

После 9900 итераций точность теста упала до 67,6%:

Итак, похоже, что моя модель в том виде, в котором она сейчас построена, достигает максимума в 70%, что не очень хорошо. На самом деле, я готов поспорить, причина того, что здесь наблюдается плато, довольно проста: 70% данных в наборе данных помечены как «хорошие», а остальные - как «плохие».

Другими словами, моя модель работает лучше всего, просто предполагая, что каждая шахматная позиция «хороша», тем самым автоматически достигая 70% точности.

Я не подтвердил это объяснение, но подозреваю, что это примерно так.

Ну что теперь?

Что ж, я действительно надеялся, что смогу использовать наиболее оперативную модель машинного обучения в достаточно большом масштабе, чтобы осуществить это. Но либо модель недостаточно сложна, либо моя схема маркировки данных просто бессмысленна.

В любом случае у меня есть несколько идей, как двигаться дальше, и я их обсудю завтра.

Прочтите следующий пост. Прочтите предыдущий пост.

Макс Дойч - навязчивый ученик, создатель продукта, подопытный кролик в Месяце до мастера и основатель Openmind.

Если вы хотите участвовать в рассчитанном на год проекту ускоренного обучения Макса, обязательно подпишитесь на этот средний аккаунт.