- Джереми Карновски и Росс Фадели, Insight Artificial Intelligence

Пропустили наши основные моменты NIPS 2016? Посмотрите День 1 и День 2. Хотите узнать о прикладном искусственном интеллекте от ведущих практиков Кремниевой долины или Нью-Йорка? Узнайте больше о программе стипендиатов Insight по искусственному интеллекту.

Интеграция глубокого обучения, механических систем и реального мира

Идут роботы! А точнее роботы тыкают? Одной из новых тем третьего дня было глубокое обучение, интегрированное в аппаратные приложения, в частности, в роботов и автомобили. Среди них особо выделялся доклад Pulkit Agrawal о работе его команды Обучение тычкам: экспериментальное изучение интуитивной физики. Используя сотни часов данных, в которых роботу было поручено перемещать объекты, толкая их, они построили систему, которая позволяет роботу перемещать объект вокруг , даже если он никогда его раньше не видел. Система использует сверточные нейронные сети (CNN), чтобы видеть мир, и имеет две модели для понимания задействованной физики. Во-первых, прямая модель (которая предсказывает результат действия / тыка) и обратная модель, которая берет состояние мира и сопоставляет его с действиями. Из серии убедительных видеороликов становится ясно, что робот научился перемещать объекты в общих чертах - невероятно впечатляюще!

По пути к выступлению Агравала мы встретили выпускника Insight Майкла Бомье (инженер по машинному обучению, Mercedes-Benz), коллеги которого демонстрировали свою последнюю систему обнаружения объектов. Ключевым нововведением, которое они разрабатывают, является способность обнаруживать небольшие объекты на дороге. Используя комбинацию сегментации сцены (CNN обучена на ImageNet) и некоторой геометрической информации из стереоизображения, они построили байесовскую модель для обнаружения объектов размером до 5 см на 100 м. Такая работа открывает путь к тому, чтобы автомобили без водителя стали возможными и безопасными.

Быстрые подсказки: завершаем плакаты 2016 года

Для нашей публикации День 1 у нас была возможность выделить несколько (3) из 170+ статей, представленных во время этой стендовой сессии. За 2-й и 3-й дни было представлено еще 390+, в общей сложности 567 потрясающих работ! Как и в день 1, мы хотели рассказать о некоторых моментах, которые привлекли наше внимание:

  • Присутствовать, сделать вывод, повторить: быстрое понимание сцены с помощью генеративных моделей представляет вдохновляющий подход к пониманию сцен на изображении. Используя байесовский и вариационный вывод, авторы создают модели, которые понимают количество, расположение и тип объектов на изображении без какого-либо контроля. Мы заинтригованы, поскольку их модели могут рассуждать / делать выводы о распределениях вне обучающих примеров. Модели действительно страдают от требований спецификации, но тем не менее предоставляют интересные возможности для исследования.
  • DeepMath - модели глубокой последовательности для выбора предпосылки. Глубокое обучение постоянно проникает в новые области. Команда из Google Research (включая Франсуа Шоле и Джеффри Ирвинг) продемонстрировала первый пример использования глубокого обучения для автоматического доказательства теорем. Эта работа поможет ускорить проверку корректности системы и избавит от необходимости использовать специализированные функции в этой области (которая имеет схожую, но отличающуюся от естественного языка структуру). Их процесс автоматического выбора, какие операции имеют отношение к текущему состоянию в процессе рассуждений, можно распространить на другие области, и это очень захватывающее направление.
  • Мы любим стабильный прогресс. Встраивание слов помогло преобразовать многие задачи НЛП, и в прошлом году Word Movers Distance (бумажный) предоставил способ обобщить разницу между документами с использованием их встраиваний. Для задач, которые находятся под контролем (например, классификация текста), это можно сделать еще на один шаг. Контролируемое расстояние перемещения слов (бумага) выполняет аффинные преобразования и повторные взвешивания, чтобы обеспечить разделение классов, что приводит к эффективной современной производительности.