Мы привыкли давать объяснения разным группам людей - нашим друзьям, нашим детям, нашим коллегам. Мы используем разные слова и выражения, чтобы донести свои мысли до этих различных групп.

Сегодня нечто подобное происходит в мире машинного обучения, поскольку все больше моделей развертывается для прогнозирования в таких областях, как финансы, телекоммуникации, здравоохранение и другие. Во многих случаях компании не до конца понимают, как модели машинного обучения делают свои прогнозы. И это непонимание может быть проблематичным.

Часто предприятиям и политикам, особенно в банковском деле, страховании и здравоохранении, необходимо уметь объяснять, как модели делают свои прогнозы. Это часто становится более сложным в контексте моделей ансамбля и глубоких нейронных сетей.

В недавнем исследовании Gartner, определяющем 10 основных тенденций в области данных и аналитики, отмечается, что Объясняемый ИИ приобретает все большее значение. Он говорит:

«Чтобы завоевать доверие пользователей и заинтересованных сторон, руководители приложений должны сделать эти модели более интерпретируемыми и объяснимыми. К сожалению, большинство этих продвинутых моделей искусственного интеллекта представляют собой сложные черные ящики, которые не могут объяснить, почему они приняли конкретную рекомендацию или решение ».

Вы можете прочитать полную запись в блоге на IBM Developer.

Первоначально опубликовано на https://developer.ibm.com.