Публикации по теме 'neural-networks'


Понимание RMSprop - более быстрое обучение нейронной сети
Заявление об ограничении ответственности: я предполагаю, что обладаю базовыми знаниями об алгоритмах оптимизации нейронных сетей. В частности, знание SGD и SGD с импульсом будет очень полезно для понимания этого поста. I. Введение RMSprop - это неопубликованный алгоритм оптимизации, разработанный для нейронных сетей, впервые предложенный Джеффом Хинтоном в лекции 6 онлайн-курса Нейронные сети для машинного обучения [1]. RMSprop относится к сфере методов адаптивной скорости..

Уловки, чтобы справиться с классовым дисбалансом, часть - I
Давайте обсудим следующие методы обработки дисбаланса классов для задачи прогнозирования двоичного класса: Параметр class_weight в Scikit-Learn SMOTE Увеличение показателя f1 с помощью пороговых значений Минимизация функции мягких потерь f1 напрямую с помощью нейронной сети (NN) Данные: обнаружение мошенничества с кредитными картами Используемые модели: логистическая регрессия и NN Тип: проблема двоичного прогнозирования (подлинность - 0, мошенничество - 1)..

Глубокое обучение против машинного обучения
Машинное обучение состоит из чрезвычайно широкого набора статистических методов, используемых для прогнозирования данных. Их можно разделить на две группы: классификация (например, прогнозирование изображения кошки или собаки) и регрессия (например, прогнозирование количества просмотров баскетбольного матча). Примеры методов машинного обучения включают k ближайших соседей (с которых я бы рекомендовал начинать, если вы изучаете машинное обучение, поскольку оно очень простое и..

Рекомендации по глубокому обучению (1) - Инициализация веса
Основы, подводные камни при инициализации веса и передовые методы Мотивация Как новичок в глубоком обучении, я понял, что не так много онлайн-документации, которая бы охватывала все приемы глубокого обучения в одном месте. Существует множество небольших передовых практик, начиная от простых приемов, таких как инициализация весов, регуляризация, и заканчивая немного сложными методами, такими как циклическая скорость обучения, которые могут сделать обучение и отладку нейронных сетей..

Усиленное обучение (и Q-обучение в DDPG с двойной задержкой)
В этом письме делается попытка дать некоторую справочную информацию об усиленном обучении и Q-обучении в DDPG с двойной задержкой. Усиленное обучение (RL) — это принцип обучения чему-то методом проб и ошибок. В RL агент пытается получить максимальное вознаграждение за определенное количество итераций (или времени). Q Learning иллюстрирует усиленный процесс обучения. Q означает качество. Он представляет собой награду от комбинации действия + состояния, когда агент делает каждый шаг в..

Создавая нейронные сети, работайте умнее, а не усерднее
Использование простого примера для освещения принципов проектирования нейронных сетей Фундаментальный метод прикладной математики - найти изменение координат, которое превращает трудную или невозможную задачу в более простую. Возможно, мой любимый пример - это уравнения круга. Если мы запишем уравнение единичной окружности в декартовых координатах, мы сможем выразить геометрическую концепцию круга как неявную функцию: Это становится еще хуже, когда мы пытаемся получить явное..

Чаевые для Hyperas
Я уверен, что каждый, кто изучает нейронные сети / глубокое обучение, сталкивается с большой проблемой: как настроить эти гиперпараметры. Это сложная часть. Настройка этих параметров требует много усилий и времени. К счастью, у нас есть такие пакеты, как Hyperopt или Hyperas. Сегодня я немного расскажу о Hyperas с моим проектом. Я расскажу о проблемах, с которыми я столкнулся, и о решениях. Если вы не знакомы с Hyperas, перейдите на Github: https://github.com/maxpumperla/hyperas..