Публикации по теме 'neural-networks'


Обслуживание крутых и освежающих нейронных сетей на устройстве с помощью Swift
В нашем втором выпуске с открытым исходным кодом за последнее время мы объявляем о выпуске Neuralyzer , библиотеки искусственной нейронной сети (ИНС) для Swift, которая поддерживает обучение на устройстве с использованием различных Архитектура нейронных сетей, оптимизаторы, функции потерь и типы слоев. Мы создали Neuralyzer , потому что хотели а) иметь возможность обучать модели на устройстве с помощью б) API, который похож на наш автономный рабочий процесс. (например,..

AI Starter - Создайте свою первую нейронную сеть Convolution в Керасе с нуля, чтобы выполнять ...
Привет, Как поживаешь? Добро пожаловать в серию AI Starter, часть -3. Надеюсь, вы прочитали части 1 и 2 этой серии, где я объяснил основы машинного обучения, фреймворк глубокого обучения, введение в синтаксис кода Keras, обучил и протестировал простую нейронную сеть с использованием полностью связанных слоев. В этом блоге мы научимся создавать модель классификатора с несколькими классами, используя слои свертки. Мы построим модель для классификации тестового изображения на любой..

Робот-генератор подписей к изображениям
Вы даете мне картинку, а я возвращаю вам историю! Несколько месяцев назад я говорил о генераторе абзацев и завершении предложений с использованием LSTM . Генераторы автоматических текстов на базе искусственного интеллекта полюбились индустрии автоматизации благодаря огромным исследованиям и улучшениям в создании ответов на электронную почту (Gmail), автоматическом запросе ответов в чате (LinkedIn), прогнозировании следующего слова (как это видно во всех чат-приложениях, таких как..

DeepMind предлагает новый преобразователь зрения для произвольного размера и разрешения
Vison Transformer (ViT) стал доминировать в области компьютерного зрения. Он продемонстрировал превосходную производительность и гибкость при обработке входных последовательностей различной длины. Его высокая производительность сделала его грозным претендентом на замену обычной сверточной нейронной сети (CNN). В новой статье Patch n’ Pack: NaViT, преобразователь изображения для любого соотношения сторон и разрешения исследовательская группа Google DeepMind представляет расширенную..

Google и TAU исследуют, как LLM на основе трансформаторов извлекают информацию из своих параметров
Большие языковые модели (LLM) на основе трансформеров, обученные на огромных объемах общедоступных данных, преуспели в сборе и хранении фактических знаний. В то время как предыдущие исследования были сосредоточены на том, как фактические ассоциации сохраняются в параметрах модели, вопрос о том, как LLM извлекают эти ассоциации во время вывода, остается относительно малоизученным.

Визуальное руководство по планировщикам скорости обучения в PyTorch
Стратегии распада и отжига LR для глубокого обучения в Python Какова скорость обучения в глубоком обучении? Нейронные сети имеют множество гиперпараметров, влияющих на производительность модели. Одним из необходимых гиперпараметров является скорость обучения (LR), которая определяет, насколько меняются веса модели между этапами обучения. В простейшем случае значение LR является фиксированным значением от 0 до 1. Однако выбор правильного значения LR может оказаться сложной..

Где я нахожу новости о глубоком обучении (обновление 2022 г.)
Трудно найти надежные источники информации, когда вы только начинаете заниматься глубоким обучением. Это сэкономит ваше время, усилия и головную боль. Существует множество бесплатных ресурсов по машинному обучению, но их огромный объем затрудняет их просмотр. Не все из них надежны или хорошо написаны. Когда вы только начинаете глубокое обучение, плохо написанное руководство может помочь…