Публикации по теме 'attention'


LambdaNetworks: эффективные и точные, но также доступные? Проект воспроизводимости с CIFAR-10
LambdaNetworks опережают внимание и CNN. Будет ли это работать с небольшими и низкоразмерными наборами данных? Мы представляем реализацию и результаты нашего воспроизведения LambdaNetworks, новой архитектуры машинного обучения, разработанной в Google Brain Ирваном Белло, с меньшим и более низкоразмерным набором данных CIFAR-10. Авторами этого проекта воспроизводимости являются Хосе Игнасио де Альвеар Карденас и Уэсли А.Дж.Г. de Vries , студенты магистратуры по аэрокосмической..

Нейронные сети с абстрактным вниманием
Внимание является одним из заслуживающих внимания достижений в исследованиях искусственного интеллекта. Вместо того, чтобы отправлять все «поле зрения» в нейронную сеть в качестве неопределенного ввода, внимание выделяет определенные области ввода для фокуса сети. Изображение городской улицы с буквами и цифрами, разбросанными по сцене, разбивается на небольшие подобласти, каждая из которых имеет свою букву или номер, требующий идентификации. Предложение на английском языке переводится на..

Трансформер: все, что вам нужно
Документ Transformer Внимание - это все, что вам нужно на момент написания этой статьи (14 августа 2019 г.) является неизменным документом №1 по Arxiv Sanity Preserver . Этот документ показал, что, используя только механизмы внимания, можно достичь самых современных результатов языкового перевода. Последующие модели, построенные на Transformer (например, BERT ), достигли отличной производительности в широком спектре задач обработки естественного языка. В этом посте я использую..

Нейронный машинный перевод и потребность в механизме внимания.
Содержание: 1. Введение Архитектура с двумя кодировщиками Архитектура 3-декодера 4-Стадия вывода 5-Проблема 6-Что такое внимание? 7-Внедрение различных типов механизмов внимания 8-Недостаток внимания 9-Ссылки 1. Введение: Последовательное обучение (Seq2Seq) - это все о моделях, которые принимают последовательность на входе и также выводят последовательность. Есть много примеров и применений этого, но сегодня я сосредоточусь на одном конкретном приложении, которое..

Трансформеры
Трансформеры Вы ошеломлены количеством моделей трансформаторов и не имеете ни малейшего представления о сходствах и различиях между ними? Что ж, вы пришли в нужное место. В этом рассказе дается обзор современных моделей трансформаторов и их взаимосвязи. Этот рассказ организован следующим образом. В разделе 1 я дам краткое введение в предмет. В разделе 2 я объясню несколько концепций машинного обучения, которые помогут вам лучше понять модель Transformer и ее варианты. В разделе 3..

Когнитивная инерция, программисты за работой и почему бесполезную информацию легче запомнить
Менеджеры, вам иногда кажется, что ваши разработчики вас обманывают? Они жалуются на собрания и на то, насколько они разрушительны. Затем они встречаются на 60-минутном обеде, наполненном мелочами о Вавилоне 5 — и вспоминают все это. Не-менеджеры, вы похожи на меня? Вы можете вспомнить множество мелочей о Вавилоне 5 за обедом, вернуться к своему коду и продолжать продуктивно работать, как будто ничего не произошло? Но какая-то встреча выматывает вас на Х*10 минут до и Х*30 минут после,..

Внимание в сквозном автоматическом распознавании речи
TL; ДР: В этом посте дается обзор того, как мы продвигаемся от традиционной системы ASR к системе с архитектурой кодировщика-декодера с вниманием. В нем также упоминаются некоторые недостатки традиционных архитектур и способы их преодоления с помощью архитектур Encoder-Attention-Decoder. Этот пост также дает небольшое введение в новую гибридную архитектуру CTC / Attention. Автоматическое распознавание речи. Целью исследований в области автоматического распознавания речи (ASR) является..