В моих предыдущих эссе Полицентричное управление в эпоху алгоритмов и Управление ИИ «на местах и в книгах» я объяснил, как совместные усилия по мягкому праву могут иметь большое значение для улучшения подотчетность и ответственность между различными развивающимися технологическими компаниями и отдельными новаторами. Стандарты, кодексы, этические принципы и многостороннее сотрудничество создают действенные социальные нормы и ожидания, которые часто не менее или даже более важны, чем то, чего могут достичь законы и правила.

В каждом секторе действуют мощные репутационные факторы, которые в сочетании с такими усилиями создают основу общепринятой практики. Эти усилия также, скорее всего, получат большую поддержку среди частных новаторов, по крайней мере, по сравнению с жесткими нормативными предложениями. Наконец, эти усилия заслуживают большего внимания хотя бы по той причине, что постоянная реальность проблемы темпа, когда технологии развиваются быстрее, чем способность традиционного жесткого права идти в ногу. Механизмы мягкого права, напротив, всегда будет легче принять и адаптировать по мере необходимости.

Две ключевые цели управления ИИ

Но для того, чтобы кодексы поведения, добровольные стандарты и кодексы профессиональной этики оказали долгосрочное воздействие, вероятно, потребуются дополнительные шаги. Недостаточно просто подписать компании с ИИ списком этических принципов, — аргументируют Гэри Марчант, Люсиль Турнас и Карлос Игнасио Гутьеррес. Скорее, эти принципы должны быть реализованы в виде эффективных практик и надежных гарантий. Эта потребность в переходе от идей к действиям представляет собой серьезную проблему для будущих усилий в области мягкого права и децентрализованного управления.

Первый этап разработки «мягкого права» в области ИИ был многообещающим и был сосредоточен на формулированииценностей и передового опыта учеными «мягкого права», государственными чиновниками, отраслевыми профессионалами и различными другими заинтересованными группами. В настоящее время и в ближайшие годы акцент будет все больше смещаться на внедрение и обеспечение соблюдения этих ценностей и передового опыта. Окончательный успех механизмов «мягкого права» в качестве инструмента управления ИИ будет зависеть от того, насколько хорошо желаемые цели будут воплощены в конкретные методы разработки. Повторюсь, это включает в себя две цели:

(1) «запекание» или согласование дизайна ИИ с широко распространенными целями и ценностями; и,

(2) держать людей «в курсе» на критических этапах этого процесса, чтобы гарантировать, что они могут продолжать направлять и время от времени пересматривать эти ценности и лучшие практики по мере необходимости.

Трансферное обучение этическим принципам

Вот еще один способ концептуализации этого процесса. Эксперты по ИИ все чаще говорят о важности переносного обучения, когда думают о том, как улучшить методы машинного обучения и разработать более сложные системы ИИ. Трансферное обучение относится к улучшению обучения новой задаче путем передачи знаний из связанной задачи, которая уже была изучена. С помощью методов трансфертного обучения алгоритмы обучаются ссылаться на связанные наборы данных и процессы и учиться на них для достижения превосходных результатов в другой области. Программисты-люди наблюдают за процессом и постоянно стремятся усовершенствовать и улучшить эти системы, используя такого рода методы трансферного обучения.

Это также полезный способ подумать о том, как внедрять и согласовывать этические нормы. По сути, нам нужен эквивалент переноса обучения этическим принципам в системы ИИ, поскольку они развиваются таким образом, что важные ценности и принципы постоянно внедряются на каждом этапе процесса. В идеале, по мере того как алгоритмы и системы ИИ изучают и развивают новые возможности, цель должна состоять в том, чтобы гарантировать, что те же руководящие принципы, которые мы пытались «встроить», оставались и расширялись. Если системы ИИ могут получить больше возможностей для передачи и использования знаний, которые они извлекли из одной задачи или приложения, в другую, в более широком смысле, они должны быть в состоянии передавать и применять этические принципы и руководящие принципы, которые они извлекли из одной задачи или приложения, в другую.

Конечно, операторы-люди по-прежнему должны быть «в курсе», чтобы исправлять неизбежные ошибки в пути. Это не означает, что процесс надежен, потому что не только машины могут ошибаться, но и люди. Более того, как уже отмечалось, иногда важные ценности и передовой опыт противоречат другим, и их необходимо сбалансировать так, как это не понравится некоторым сторонам. Тем не менее, общая схема обученного обучения этике ИИ остается ценной.

Итеративное усиление для согласования этики

Итеративное усиление может стать еще одним способом постепенного создания более безопасных систем искусственного интеллекта. Пол Кристиано, руководитель Центра исследований выравнивания, некоммерческой исследовательской организации, чья миссия состоит в том, чтобы привести будущие системы машинного обучения в соответствие с интересами человека, формулирует итеративное усиление следующим образом:

Идея итеративного усиления состоит в том, чтобы начать со слабого ИИ. В начале обучения вы можете использовать человека. Человек умнее вашего ИИ, поэтому он может обучать систему. По мере того, как ИИ приобретает возможности, сравнимые с человеческими. Затем человек может использовать ИИ, который он в настоящее время обучает, в качестве помощника, чтобы помочь ему действовать как более компетентный надзиратель.

В ходе обучения у вас есть этот ИИ, который становится все более и более компетентным, человек в каждый момент времени использует несколько копий текущего ИИ в качестве помощников, чтобы помочь ему принимать более разумные решения. И есть надежда, что этот процесс сохранит согласованность и позволит надзирателю всегда быть умнее, чем ИИ, которого они пытаются обучить.

Надежда здесь, — отмечает Кристиано, — заключается в том, что «по мере прохождения обучения к концу обучения роль человека становится как бы минимальной и «на каждом этапе она остается согласованной. Вы собрали несколько копий ИИ, чтобы действовать как наблюдатель за самим собой. Когда мы думаем об итеративном усилении как о стратегии управления, общая цель та же самая, которую мы неоднократно подчеркивали: внедрение важных ценностей в разработку ИИ и удержание людей в процессе доработки и улучшения процесса согласования до тех пор, пока он не станет более безопасным. и более полезное.

Взятые вместе, трансферное обучение и итеративное усиление по сути являются формами обучения на практике. Как я уже отмечал ранее, ошибочно думать о безопасности ИИ или алгоритмической этике как о статичном явлении, имеющем конечную точку или единственное решение. Непрерывные и неожиданные изменения — это новая норма. Это означает, что для решения проблем, с которыми мы сталкиваемся сегодня и многих других, потребуется много различных стратегий и много постоянных экспериментов. Цель состоит в том, чтобы постоянно оценивать и определять приоритеты рисков, а затем формулировать и переформулировать наш инструментарий возможных ответов на эти риски, используя наиболее практичные и эффективные доступные решения.

Важность Red Teaming и непрерывного обучения

Red teaming — это пример одной из стратегий, которую компании, работающие с искусственным интеллектом, уже используют для достижения этой цели. Red teaming включает в себя тестирование алгоритмических систем в закрытых или строго контролируемых условиях, чтобы определить, как что-то может пойти не так. Anthropic — это компания, занимающаяся безопасностью и исследованиями в области ИИ, которая провела важное исследование Red Team, и их исследователи задокументировали, как использование ручных или автоматизированных методов для состязательного исследования языковой модели на предмет вредных результатов, а затем обновление модели, чтобы избежать таких результатов. ” является полезным инструментом для устранения потенциального вреда.

Намеренно извлекая проблемные результаты из моделей обработки естественного языка, а затем предпринимая шаги для противодействия этим результатам, Red Teaming представляет идею этического трансферного обучения и итеративного усиления в действии. Тем не менее, исследователи Anthropic правильно отмечают, что «в исследовательском сообществе отсутствуют общие нормы и передовой опыт в отношении того, как публиковать результаты, полученные в результате объединения красных команд», и что «было бы лучше иметь нейтральный форум для обсуждения этих вопросов».

К счастью, существует множество полезных механизмов «мягкого права» — как старых, так и новых, — которые могут решить эту проблему и облегчить совместные усилия. Как я задокументировал в предыдущих статьях, уже существует множество общих этических принципов разработки ИИ, и они все чаще строятся вокруг общего набора ценностей и передовых практик, таких как прозрачность, конфиденциальность, безопасность и недискриминация. Опять же, профессиональные ассоциации, такие как IEEE, ACM, ISO и другие, являются особенно важными координаторами в этом отношении. Отраслевые торговые ассоциации и другие НПО также играют решающую роль. Организации и органы должны работать вместе, чтобы, по сути, согласовать усилия. Это должно включать в себя поиск способов более широкого распространения методов и результатов исследований красной команды, а также определение полезных коллективных решений для других выявленных распространенных уязвимостей.

Необходимость лучшей координации

Следующим шагом является обеспечение того, чтобы такие значения были переведены в конкретные рекомендации и ограничения на уровне разработчиков. Маршан, Турнас и Гутьеррес подчеркивают рост важных внутренних мер, которые могут помочь разработчикам ИИ серьезно отнестись к внедрению этики в дизайн и обеспечить, чтобы люди были в курсе событий. В дополнение к работе, проделанной профессиональными организациями и торговыми ассоциациями, они определяют множество других важных стратегий, чтобы придать реальное значение общим нормам и передовым методам:

  • Корпоративные советы. Основываясь на широко распространенных темах и усилиях по корпоративной социальной ответственности, корпоративные советы могут действовать для согласования методов ведения бизнеса и принятия решений, поощряя фирмы принимать общепринятые ценности или принципы. Эти усилия советов могут помочь гарантировать, что фирмы предохраняются от неправомерного использования своих технологий, что может иметь негативные последствия для репутации и финансовые последствия для компании и ее акционеров.
  • Комитеты по этике. Компании могут создавать и наделять полномочиями внутренние органы или советы по анализу технологий, чтобы помочь внедрить и обеспечить соблюдение этических норм по замыслу. Microsoft создала Управление ответственного ИИ, чтобы помочь установить и обеспечить соблюдение общекорпоративных правил для ответственного ИИ посредством реализации нашей работы по управлению и общественной политике. Корпорация Майкрософт также разработала надежную структуру моделирования ущерба, основанную на разработанных ею передовых методах этического поведения. Эта структура включает в себя то, что они называют процессом жюри сообщества, чтобы объединить сообщества, затронутые различными их технологиями. Аналогичным образом, IBM создала внутренний совет по этике ИИ, который основывался на ранее существовавшем Консультативном комитете по конфиденциальности, чтобы рассмотреть, как обучать сотрудников внедрению этических норм при разработке новых услуг.
  • Офицеры по этике. Другой тип внутреннего чемпиона — это директор по этике (или поборник этики с аналогичным названием), который играет роль, аналогичную той, которую сегодня играют директора по вопросам конфиденциальности во многих компаниях. Эти специалисты несут формальную ответственность за то, чтобы помочь внедрить передовой опыт для технологических разработок, а затем гарантировать, что организации выполняют взятые на себя обязательства.
  • Омбудсмен или механизм сообщения о нарушениях. Разработчики ИИ могут заручиться поддержкой внутренних и внешних специалистов и экспертов, чтобы отслеживать эти усилия и постоянно оценивать этическое развитие и использование. Некоторые фирмы уже сформировали внешние советы по этике или наблюдательные органы, но иногда возникают разногласия. Заметная попытка Google сформировать Внешний консультативный совет по передовым технологиям в 2019 году завернулась менее чем через неделю после его запуска из-за протестов против некоторых членов Совета. Между тем, в середине 2022 года Axon, фирма, участвующая в заключении контрактов с правоохранительными органами, объявила о плане продвижения вперед с усилиями по разработке оснащенных электрошокером дронов для борьбы с массовыми расстрелами и стрельбой в школах, несмотря на то, что у нее был Совет по этике ИИ. сформировали рекомендацию против этого. В ответ девять членов этого органа подали в отставку в знак протеста против решения компании проигнорировать их совет. Но затем Axon объявила, что приостанавливает разработку дронов-тазеров в ответ на отставки. Другие фирмы создали аналогичные внешние советы по этике. В последние годы разоблачители сообщали об алгоритмических практиках в Facebook и Twitter, а также в других технологических компаниях. Вполне вероятно, что это будет продолжаться и, вероятно, повлияет на создание большего количества внутренних и внешних механизмов надзора, чтобы избежать ответственности или просто прошлого PR.

Хорошая новость заключается в том, что многие разработчики более серьезно относятся к внедрению этики в процесс проектирования ИИ, используя такие подходы. Как резюмирует репортер Vox Келси Пайпер, мы можем создавать системы ИИ, которые соответствуют человеческим ценностям или, по крайней мере, с которыми люди могут безопасно работать. В конечном счете, это то, что пытается сделать почти каждая организация, имеющая подразделение общего искусственного интеллекта.

[Примечание: это эссе и несколько других, упомянутых ниже, взяты из книги, которую я заканчиваю, о будущем управления ИИ.]

Дополнительная литература: