Публикации по теме 'neural-networks'


Многоуровневые сети
Идея этой статьи состоит в том, чтобы помочь интуитивно понять, как скрытые узлы в многоуровневых сетях могут изучать сложные функции для классификации экземпляров в выпуклых областях. Мы увидим две сети с одним скрытым слоем, одну с одним скрытым узлом и другую с двумя скрытыми узлами, а затем мы увидим более сложную сеть с двумя скрытыми слоями, четырьмя узлами в первом слое и двумя узлами во втором слое. . Мы покажем, какие типы наборов данных могут классифицировать эти разные сети...

Кошка или собака - классификация изображений с помощью сверточной нейронной сети
Экспериментируйте со сверточной нейронной сетью (CNN) для классификации изображений поверх Keras и TensorFlow Цель этой публикации - показать, как работает свертка (CNN - сверточная нейронная сеть). Я буду использовать классический пример классификации кошек / собак, описанный в книге Франсуа Шоле - Deep Learning with Python . Исходный код этого примера доступен на François Chollet GitHub . Я использую этот исходный код для проведения эксперимента. Convnet работает путем..

Разложение смещения-дисперсии IRL
Что ж, я полагаю, что большинство из вас, кто когда-то интересовался компромиссом между смещением и дисперсией или декомпозицией смещения и дисперсии, возможно, уже сталкивались с некоторыми из известных кривых «переоснащение-недообучение» или «высокое смещение-низкая дисперсия» и т. д. , цели. Если нет — просто погуглите… В этих картинках нет ничего плохого, однако они просто дают общее представление о проблеме без особого практического опыта. «Будущее зависит от какого-нибудь..

Простая нейронная сеть для задачи классификации с PyTorch
Прошло несколько месяцев, как я начал изучать Deep Learning с одной из основных платформ глубокого обучения, PyTorch. Итак, я подумывал написать статью о том, что я узнал, в то же время понимая интригующую концепцию контролируемого , неконтролируемого и обучения с подкреплением . . Я собираюсь рассказать, как создать простую нейронную сеть с помощью PyTorch для решения простой задачи классификации с набором данных Iris . Причина выбора набора данных Iris заключается в том,..

LSTM: В чем суета?
LSTM учится. LSTM помнит. Будьте как LSTM. Рекуррентные нейронные сети (RNN) хороши в обучении последовательностям, они переносят информацию из предыдущего состояния в следующее через временные интервалы. Увы, они дают хорошие результаты только тогда, когда последовательности не слишком длинные. Таким образом, у него проблемы с кратковременной памятью. Более того, во время обратного распространения рекуррентная нейронная сеть также может страдать от проблемы исчезающего градиента..

Трансформер: все, что вам нужно
Документ Transformer Внимание - это все, что вам нужно на момент написания этой статьи (14 августа 2019 г.) является неизменным документом №1 по Arxiv Sanity Preserver . Этот документ показал, что, используя только механизмы внимания, можно достичь самых современных результатов языкового перевода. Последующие модели, построенные на Transformer (например, BERT ), достигли отличной производительности в широком спектре задач обработки естественного языка. В этом посте я использую..

Создание текстов песен
Модель создания текста с использованием сетей LSTM для создания текстов песен Авторы: Джейкоб Кларисс, Уилл Истерби, Соруш Фамили, Джей Хун Ким, Джеймс Лу и Нитан Рам Обзор Эта статья является кульминацией нашего исследования и работы в EE460J (Data Science Laboratory) в UT Austin. В этой статье мы обсудим и расширим наш последний проект: генератор текстов песен. Сначала мы дадим некоторый фоновый контекст и обсудим техническую основу нашего генератора текстов песен (например,..