• Почему инициализация параметров может считаться предшествующей по сравнению с параметрами?
    ANS:-
  • [Santos '96] показывает, что градиентный спуск с ранней остановкой == вывод MAP (который максимизирует вероятность обучающих данных) по гауссовскому априорному (по пространству параметров) со средним значением в точке инициализации. **
  • Таким образом, обучение MAML == нахождение оценки MAP для ϕ на основе текущего θ и задачи с последующим вычислением потерь на тестовых данных задачи. [Как и VAE, есть вывод (кодирование), за которым следует оценка (насколько хороша реконструкция?)] Даже уравнения похожи: -

  • [Ким и др. др. Auto-Meta] Использует поиск нейронной архитектуры, чтобы найти сеть, подходящую для внутренней оптимизации.

  • Основная концепция непараметрических подходов заключается в использовании непараметрических подходов для классификации во внутреннем цикле подходов, основанных на оптимизации, чтобы избежать обучения с использованием SGD во внутреннем цикле. Дополнительным преимуществом является то, что непараметрические подходы лучше работают в режимах с низким объемом данных, поэтому они подходят и здесь.
  • Мы используем параметрические метаобучения, которые дают хороших непараметрических обучаемых.
  • Непараметрические методы: -
    1.) Сиамские сети: - Возьмите 2 изображения в качестве входных данных и попытайтесь предсказать двоичную метку, указывающую, принадлежат ли они к одному и тому же классу.
    2. ) Соответствующие сети: — Они были введены для устранения несоответствия между процедурой обучения и тестирования сиамских сетей. Их структура следующая: -

3.) Прототипные сети: - Если имеется более одного обучения, все изображения отправляются вместе в g_{θ} . А вложения изображений, соответствующие одному классу, усредняются для получения «прототипного вложения» каждого класса. Как следует: -

4.) Другие идеи для непараметрического обучения: -

Сравнение трех подходов

Присоединяйтесь к DA Labs в нашем стремлении понять, как работают машины и как они учатся! Удивляйтесь и бродите по прекрасному полю, то есть Глубокому обучению! Любые отзывы/вопросы всегда приветствуются и приветствуются 😇 Чтобы присоединиться к нам в наших проектах/исследованиях, взаимодействовать с нами или писать нам, просто звоните на наш дискорд-сервер https://discord.gg/UwFdGVN ! :)