Понимание концепций машинного обучения

После изучения ряда интересных статей, которые, как я думал, могут помочь мне понять некоторые проблемы, связанные с машинным обучением, я решил, что вместо того, чтобы позволять накапливаться, было бы разумнее рассмотреть некоторые из них в одной записи.

Первая, Темная тайна, лежащая в основе ИИ, - это статья MIT Tech Review, которая очень хорошо объясняет теорию черного ящика, которую мы здесь несколько раз комментировали: как машина алгоритмы обучения становятся все более и более изощренными, человеческий мозг не сможет понять процедуры, используемые для достижения определенных результатов, что в конечном итоге приводит нас к необходимости черного ящика, который генерирует результаты, которые мы можем проверить только на основе их качества , не понимая, как они были достигнуты. Если мы обучим алгоритм со всей историей предоставленных и отклоненных банком ссуд, например, чтобы принимать решения в будущем, которые комитет по рискам примет сегодня, мы получим черный ящик, из которого исходят решения. но мы не будем знать, как они были достигнуты.

Это подводит нас к другому вопросу: когда мы загружаем алгоритм, мы делаем это со всеми данными, доступными нам и которые, по нашему мнению, будут способствовать результату, мы обнаруживаем, что машинное обучение переопределяет нашу концепцию человеческого интеллекта, изменяя наши представления о том, что мы можем или не можем делать. Отправной точкой для машины является то, что мы, люди, способны понять: оттуда все остается неизведанной территорией и методами, требующими вычислительной мощности, которой просто не хватает нашему мозгу. Итак, в будущем вещи, которые сегодня кажутся нам нормальными, будут казаться абсурдными, точно так же мы будем допускать, чтобы машины делали все больше и больше вещей, которые в настоящее время кажутся странными.

Вскоре чат-бот станет нормой для обслуживания клиентов и для многих других вещей, таких как объяснение новостей. Первоначальное разочарование и разочарование уступят место времени, когда, как это уже происходит с молодыми поколениями, мы предпочтем разговаривать с роботами, а не с людьми, потому что они не только предоставят нам более качественное, более предсказуемое и более точное обслуживание, но они также устранят чувство раздражения кого-то (точно так же, как ссылка не жалуется и не отвечает при нажатии 10 раз подряд). Чат-бот - это просто диалоговый алгоритм, который помогает нам решать проблемы, связанные с продуктом или услугой, и в недалеком будущем будет казаться странным, что люди когда-то выполняли эти задачи.

Точно так же скоро уйдут в прошлое и другие виды деятельности, будь то программирование светофоров для предотвращения заторов, принятие инвестиционных решений или диагностика болезни, и будет казаться странным или примитивным, что такие действия были когда-то осуществляется людьми. Замена водителей такси или грузовиков будет рассматриваться как нечто настолько очевидное, что будет казаться невероятным - и чрезвычайно опасным - то, что эта деятельность ранее выполнялась вручную людьми, и мы увидим миллионы жертв на дорогах как логическое следствие тот примитивизм. Означает ли это, что многие люди, выполняющие эту работу, останутся без работы? Возможно, но решение будет заключаться не в налогообложении тех роботов, которые продолжили выполнять эти действия, а в обучении людей выполнять другие связанные с ними действия. Между тем, сокращение социальных пособий, как кажется, тенденция в таких странах, как США, только усугубит проблему.

Ничто из этого не освобождает нас от ответственности за поиск методологий, которые помогают отслеживать решения, принимаемые машинами. В статье описывается кошмарный сценарий, представленный Тимом Бернерсом-Ли, в котором решения в финансовом мире принимаются машинами, которые создают компании и управляют ими, не имеющими отношения к типично человеческим представлениям (и трудно объяснимым для машины), таким как социальное влияние или общее благо, несомненно, стоит прочитать, и он цитирует фразу из недавнего интервью Vanity Fair с Илоном Маском, в котором он говорил об аналогичных опасностях, связанных с автоматической оптимизацией, и о том, что может случиться с алгоритмом, оптимизирующим производство клубники. :

«Допустим, вы создаете самосовершенствующийся ИИ, который собирает клубнику, и он становится все лучше и лучше в сборе клубники, собирает все больше и больше, и он самосовершенствуется, поэтому все, что он действительно хочет делать, - это собирать клубнику. Итак, тогда весь мир был бы земляничным полем. Земляничные поля навсегда.

Исходя из этого, должны ли мы прекратить развитие этого типа технологий? Очевидно нет. Остановить технологию невозможно, единственное, что мы можем сделать, - это расширить знания, связанные с ее развитием, чтобы попытаться предотвратить кошмарные сценарии. Всегда найдется кто-то, кто настроен улучшить технологии, особенно если есть финансовый стимул.

Тебе нравится рисовать? Ты в порядке? Что ж, попробуйте рисовать с помощью алгоритма, который пытается выяснить, что вы хотите изобразить, и предлагает способы сделать это лучше.

Подумайте, что делает этот алгоритм, протестируйте его и помните, что то, что вы видите, - это только начало, начальный ввод. А теперь подумайте на несколько лет вперед, когда не только намного больше людей будут экспериментировать с этим, но и будет предложено гораздо больше альтернативных представлений большим количеством художников, в разных стилях и с разными возможностями. И мы просто говорим об относительно «простом» алгоритме распознавания образов. Возьми?

(En español, вода)