Публикации по теме 'transfer-learning'


Перенос весов модели TensorFlow в Keras
Представьте себе сценарий, в котором вам говорят, что использование предварительно обученных весов (скажем, resnet-50, 101 и т. Д.) В качестве экстрактора функций (магистральная архитектура) для вашей модели глубокой нейронной сети (DNN) может значительно повысить производительность вашей модели, а также сэкономить у вас много тренировочного времени. Если вы чем-то похожи на меня, вы будете чрезвычайно довольны этим и сразу же погрузитесь в изучение того, как использовать эти предварительно..

Сегментация изображения с использованием Fastai
Изучая курс fastai, я столкнулся с сегментацией изображений, поэтому я попытался объяснить код для сегментации изображений в этом блоге. Начиная с…. Мы импортировали необходимые библиотеки, используя следующий код Чтобы получить данные, мы использовали метод untar_data. URLs.CAMVID дает нам набор данных с именем «CAMVID», который можно использовать для решения задач сегментации изображений. Тело функции данных untar_data выглядит следующим образом Как правило,..

Передача обучения с небольшим набором данных - «nanos gigantum humeris insidentes»
Эксперименты с разными архитектурами - VGG16, Resnet50 и InceptionV3 - для улучшения вашей модели (с использованием TensorFlow и Keras) Распространенный сценарий TL использует ConvNet, обученную на большом наборе данных, для классификации домена с похожим, но меньшим набором данных (хорошее резюме других сценариев можно найти здесь ). Приемлемым подходом в этом сценарии будет либо использование ConvNet в качестве экстрактора фиксированных функций, либо точная настройка ConvNet. На..

Тонкая настройка универсальной языковой модели для классификации текста
Область глубокого обучения стала возможной благодаря сочетанию вычислительной мощности, дешевого хранилища и больших объемов данных. Даже при этом обучение и настройка глубоких нейронных сетей с нуля все еще занимает значительное время. В области компьютерного зрения успех был достигнут с помощью трансферного обучения , когда модели, обученные для одной задачи классификации изображений, повторно обучаются для использования с другим набором данных. К сожалению, переносное обучение не было..

Трансферное обучение - часть 1
Вступление Что такое трансферное обучение (TL) и чем оно отличается от классического машинного обучения (ML)? Большая ложь ML заключается в том, что распределение обучающих данных совпадает с распределением данных, на которых будет использоваться модель. Что, если нарушается это предположение, что данные имеют разное распределение по разному пространству функций? Когда доступно достаточно данных, можно просто переобучить модель на новых данных и полностью отбросить старые данные. Это..

Увеличение данных + передача обучения в НЛП в условиях нехватки ресурсов
Глубокие нейронные сети становятся все лучше и лучше при сопоставлении входных данных с выходными, учитывая огромный объем данных. Как вы могли спросить, получение огромного количества данных для каждой задачи и каждого языка может быть немного сложным, а на самом деле иногда практически невозможно - именно здесь Расширение данных и Передача обучения приходят к нам спасать. В этом сообщении блога мы увидим, как мы можем получить * потрясающие * результаты для задачи классификации..

Трансферное обучение
Цель этой статьи - подчеркнуть, как трансферное обучение может помочь предприятиям начать внедрение машинного обучения. В демонстрационных целях приведен пример использования Keras и его предварительно обученной модели. Представьте, если бы мы не могли перенести наши знания из одной ситуации в другую. Как бы выглядел наш мир? Как люди, мы узнаем новое, и по мере того, как мы узнаем больше, мы применяем то, что уже узнали. Наша школьная система построена по тому же принципу: то,..