Учитывая нашу ориентацию на компьютерное зрение, мы потратили много времени на изучение экосистемы глубокого обучения в целом. В последние месяцы глубокому обучению в рамках ИИ уделяется много внимания, и не зря - его успех в решении самых разных проблем невозможно игнорировать. Большая часть обещаний глубокого обучения зависит от использования сверточных нейронных сетей и неконтролируемого или частично контролируемого обучения функций, для которого требуется больше данных, чем для типичных алгоритмов машинного обучения с настраиваемым вручную извлечением признаков.

Глубокое обучение очень хорошо подходит для решения определенного класса проблем. Однако мы видели, что многие люди используют глубокое обучение в контекстах, где оно может быть не лучшим образом. Мы считаем, что есть большие возможности для создания ценности для конечных пользователей за счет применения новых, менее контролируемых методов к меньшим наборам данных. Это могут быть наборы данных, созданные отдельными людьми, например показания датчиков состояния здоровья, переписка по электронной почте или данные о местоположении. Данные временных рядов часто являются хорошим примером такого меньшего набора данных, потому что скорость сбора новых данных ограничена временем.

По мере выполнения новой академической работы могут появиться более эффективные способы применения машинного обучения в ситуациях, когда данные сильно ограничены. Есть несколько многообещающих направлений, в которых работают исследователи. Один из аспектов заключался в использовании вероятностных методов для повышения точности нейронной сети на небольших наборах данных, таких как эта статья, определяющая метод с использованием апостериорных вероятностей. Другой метод, называемый байесовским программным обучением (BPL), недавно был использован для распознавания и генерации рукописных символов на основе единственного примера. Созданная исследователями система BPL смогла пройти своего рода тест Тьюринга, в котором образцы почерка, созданные на основе одного примера, нельзя было отделить от образцов, созданных человеком. Полную статью можно найти здесь (второстепенная).

Исследования в этой области еще очень ранние, и более широкие варианты использования BPL все еще не доказаны, но есть первые признаки того, что у него могут быть более общие приложения. Из проделанной работы ясно, что существуют сценарии использования, связанные с видением, когда BPL может учиться на гораздо меньшем количестве данных, чем на глубоком обучении. BPL также можно использовать для создания дополнительных примеров (например, приведенных выше), которые будут использоваться в процессе обучения CNN.

Ценность, предоставляемая поверх небольшого набора данных, также создает возможность агрегировать более крупный набор данных по всем пользователям продукта компании, где в противном случае у пользователей может отсутствовать первоначальный стимул предоставлять данные. Хорошим примером этого является то, как Mint или Personal Capital полезны только для одного пользователя, обеспечивая агрегированное представление о ваших личных финансах, но создали гораздо больший многопользовательский набор финансовых данных, который позволяет им предоставлять более действенные рекомендации. ИИ с небольшими данными может стать новым способом предоставить эту первоначальную ценность для пользователя, проложив путь для агрегирования функций, таких как сравнительный анализ или более традиционное глубокое обучение, на более крупном наборе данных будущего.

Больше данных почти всегда приводит к лучшим результатам, но мы считаем, что существует множество потенциальных вариантов использования интеллектуальных систем, в которых данных мало. Если вы или кто-либо из ваших знакомых использует машинное обучение для небольших наборов данных, мы будем рады поболтать!