Публикации по теме 'transformers'
Обслуживание моделей-трансформеров в Shiny Apps
Обслуживание моделей-трансформеров в Shiny Apps
Пошаговое руководство по объединению лучшего из R и Python для создания потрясающих продуктов НЛП.
В течение долгого времени R был моим основным инструментом для решения большинства задач, связанных с наукой о данных. Мне особенно нравится, как легко я могу делать вещи быстро и свободно. В частности, появление tidyverse действительно изменило правила обработки данных, исследовательского анализа и визуализации данных. Более того, Shiny..
Трансформеры: революция в обработке естественного языка и анализе изображений
Использование ИИ для раскрытия возможностей НЛП и анализа изображений
Развитие искусственного интеллекта (ИИ) и развитие глубокого обучения произвели революцию в том, как мы взаимодействуем с компьютерами. Алгоритмы машинного обучения позволяют компьютерам понимать и обрабатывать данные способами, которые раньше были невозможны.
Обработка естественного языка (NLP) и анализ изображений — две области, в которых произошли значительные улучшения благодаря внедрению глубокого обучения...
Архитектура-трансформер: революционный подход к глубокому обучению
Глубокое обучение произвело революцию в области искусственного интеллекта и позволило машинам изучать сложные закономерности в данных с поразительной точностью. Однако традиционные архитектуры глубокого обучения, такие как рекуррентные нейронные сети (RNN) и сверточные нейронные сети (CNN), имеют ограничения в своей способности обрабатывать последовательности данных.
Войдите в архитектуру Transformer, революционный подход к глубокому обучению, который, как было доказано, превосходит..
Как использовать Transformer Networks для построения модели прогнозирования
Как использовать Transformer Networks для построения модели прогнозирования
Обучите модель прогнозирования с помощью Transformers и PyTorch
Недавно я прочитал действительно интересную статью под названием Модели глубокого преобразователя для прогнозирования временных рядов: случай распространенности гриппа . Я подумал, что было бы интересно реализовать что-то подобное с нуля, чтобы узнать больше о прогнозировании временных рядов.
Задача прогнозирования:
В прогнозировании..
Большая птица: Трансформеры для более длинных сцен - 2020
Резюме. Использование более длинных последовательностей за счет улучшения Transformer за счет скудного внимания.
Оригинал (и с более качественным латексом) по адресу: https://atakanokan.com/papersummaries/2020-big-bird-transformers-for-longer-sequences/
Информация
Ссылка: Arxiv
Документ: Google Research
Почему эта статья важна ?: Рассматривает квадратичную зависимость традиционного механизма внимания от памяти и предлагает разреженное внимание, которое может справиться с более..
Помимо BERT?
Трансформеры в 2020 году.
2019 год был годом BERT , и о нем много написано. По правде говоря, трудно переоценить влияние, которое Трансформеры оказали на сообщество НЛП: LSTM теперь звучат старомодно ( или нет? ²), в 2019 году неуклонно появлялись новейшие статьи, и, в Google BERT запустила в производство в рекордно короткие сроки . Все это при включении Трансферного обучения , которое теперь является самым крутым ребенком в НЛП-городе.
Развитие вокруг этих моделей до сих пор..
В трансформерах и вне их (внимание - это все, что вам нужно) -Deep NLP Horse
Введение в Transformer и подробное руководство | От нуля до героя в современном НЛП с Transformer
Трансформеры штурмом захватывают мир НЛП, поскольку это мощный двигатель в понимании контекста. Эти невероятные модели бьют множество рекордов НЛП и продвигают новейшие разработки. Они используются во многих приложениях, таких как машинный перевод, разговорные чат-боты и даже для улучшения поисковых систем. В наше время трансформеры очень популярны в сфере глубокого обучения, Но..