Йохан Ордиш

12 июля 2018 г.

Эта статья впервые появилась в июньском номере Digital Health Legal.

Искусственный интеллект («ИИ») может изменить наш сектор здравоохранения, он обещает улучшить наши исследования, диагностику и, в конечном итоге, лечение пациентов. Как насчет сопутствующего регулирования? Может ли существующий закон об агентских полномочиях, ответственности и защите данных учесть такие технологические изменения? Недавний отчет Палаты лордов «ИИ в Великобритании: готов, желает и способен?» затрагивает такие вопросы. Не придя к окончательному заключению, отчет анализирует противоречивые мнения: одни считают, что ИИ станет новой парадигмой закона о здравоохранении, другие предполагают ряд ограниченных итерационных изменений. Кто прав? Йохан Ордиш, старший политический аналитик (право и регулирование) в PHG Foundation, аналитическом центре по политике в области здравоохранения, входящем в Кембриджский университет, утверждает в этой статье, что наиболее насущной проблемой является не какая-либо уникальная проблема, которую может создать ИИ, а скорее пробелы, которые уже существуют. существуют в наших законах об ответственности и медицинских устройствах.

ИИ для здоровья стал реальностью. На горизонте появляются алгоритмы перепрофилирования лекарств, которые находят новые приемы для старых лекарств, алгоритмы обработки естественного языка, которые сортируют звонки в NHS 111, и программное обеспечение для анализа изображений, которое поможет радиологам автоматически идентифицировать анатомические особенности¹, и это лишь некоторые из них. Хотя разговоры о приложениях ИИ склонны к шумихе, ИИ, несомненно, придет в здравоохранение, и скоро. Понятно, что системы здравоохранения и связанное с ними регулирование должны быть готовы к таким трансформационным изменениям.

В отчете Специального комитета Палаты лордов по искусственному интеллекту «ИИ в Великобритании: готовность, готовность и способность?» («Отчет») частично рассматривается этот вопрос. Хотя в отчете рассматривается развитие и место ИИ в Великобритании в целом, в нем также рассматривается сектор здравоохранения и юридические трудности, которые эта технология может усугубить. Далее следует рассмотрение выводов отчета и доказательств, лежащих в его основе, чтобы кратко обсудить, могут ли наш закон об ответственности, медицинских устройствах и защите данных приспособиться к такому сдвигу.

Исключительность ИИ?

«ИИ для здоровья» часто вызывает в воображении идеи роботов-врачей и самосознательных алгоритмов. Несмотря на это, пока что ИИ более обычен. Вместо алгоритмов, обладающих широкими когнитивными способностями (искусственный общий интеллект), большинство практически применимых приложений представляют собой форму машинного обучения². То есть ИИ, обладающий только интеллектом, специфичным для конкретной задачи. Отсюда три урока. Во-первых, не существует четко определенного критерия, позволяющего отличить алгоритмы искусственного интеллекта от алгоритмов, не связанных с искусственным интеллектом, — искусственный интеллект принципиально не отличается. Во-вторых, машинное обучение на близком расстоянии не представляет для человечества тех экзистенциальных рисков, о которых предупреждают такие книги, как «Сверхразум». Напротив, они используют узкие методы для выполнения конкретных задач. В-третьих, цитируя содержательный твит Хью Харви:«Самое большое влияние ИИ на медицину будет связано не с тем, что машины будут выполнять задачи, подобные человеческим, а с тем, что люди будут лишены машиноподобных задач».

Один вопрос — задаться вопросом, может ли регулирование приспособить ИИ, и другой — подумать, нужно ли нам всеобъемлющее регулирование, в частности, для ИИ. В докладе уделяется некоторое время рассмотрению этого последнего вопроса; многие из тех, кто представил доказательства первоначальному расследованию, утверждали, что ИИ не нуждается ни в всеобъемлющем регулировании, ни в всеобъемлющем регуляторе. Хотя были некоторые призывы к такому регулятору, большинство из этих мыслей касаются экзистенциальных рисков, которые просто не представляет машинное обучение для использования. Наиболее тонкие подходы признают, что регулирование должно регулироваться не в соответствии с широкими категориями, а в соответствии с риском. Точно так же, как не имеет смысла регулировать кошек и тигров одинаково, поскольку оба они принадлежат к биологическому семейству кошачьих, мы не должны оседлать всех. ИИ с такой же степенью регулирования только потому, что это ИИ. Короче говоря, мы должны регулировать конкретное использование ИИ, учитывая его риск, а не ИИ в общих чертах. Имея это в виду, достаточно ли гибок наш закон в области ответственности и законов о медицинских устройствах, чтобы приспособить эти новые виды использования ИИ?

Ответственность за качество продукции и самолеты

Многие авторы отчета очень верят в то, что режимы ответственности за качество продукции помогут выявить и компенсировать любого, кто пострадал от ИИ. Данные Брэда Лава из Института Алана Тьюринга выделяют ответственность за качество продукции как пример действующего законодательства, которое может быть изменено для охвата ИИ:

«Существующие законы и правила могут адекватно охватывать ИИ. Например, в настоящее время производитель самолетов несет ответственность за неисправную систему автопилота, которая привела к гибели людей. Вместо этого, если бы автопилот был «искусственно интеллектуальным», что можно рассматривать как системы, разработанные несколько десятилетий назад, на него возлагались бы те же обязанности».⁵

Общая идея здесь заключается в том, что простое добавление «ИИ» в смесь не должно менять способ регулирования алгоритма. Хотя дух этой идеи, безусловно, верен, она предполагает, что закон о защите прав потребителей в настоящее время подходит для защиты потребителей от дефектного программного обеспечения. Это небезопасное предположение, особенно в отношении программного обеспечения для здравоохранения.

Положение штатного софта в режиме строгой ответственности уже неясно. В частности, сомнительно, считается ли само программное обеспечение «продуктом» в соответствии с Законом о защите прав потребителей 1987 г. и его основной директивой. высота горы сама по себе будет считаться продуктом.⁷ Кроме того, в соответствии с Законом о продаже товаров 1979 года программное обеспечение не считается «товаром», но диск с программным обеспечением считается — неловкая ситуация, несовместимая с растущей цифровизацией. Кажется, основы ответственности за качество программного обеспечения в целом уже находятся под угрозой.

Беспокойство по поводу ИИ и ответственности за качество продукции связано не столько с тем, что ИИ создает новые нормативные пробелы, сколько с тем, что он может расширить уже существующие бреши.

Беспокойство по поводу ИИ и ответственности за качество продукции связано не столько с тем, что ИИ создаст новые нормативные пробелы, сколько с тем, что он может расширить уже существующие бреши. Ясно, что нынешняя система ответственности за качество продукции уже навскидку включает программное обеспечение. Это еще большая проблема для многих алгоритмов ИИ, таких как инструменты прогнозирования риска и алгоритмы анализа изображений, которые не имеют очевидной связи с физическим товаром, но, тем не менее, могут привести к значительным потерям.⁸ Если основы ответственности за качество программного обеспечения шатки , вполне вероятно, что алгоритмы ИИ только усугубят такую ​​неопределенность. Готовность к ИИ здесь может носить скорее лечебный характер, восстанавливая основы ответственности за программный продукт в целом.

Клиническая халатность и черный ящик

В краткосрочной перспективе большая часть ИИ для здравоохранения будет вспомогательной — это ИИ, чтобы помогать, а не заменять клиницистов. Учитывая это, клиницисты остаются основной мишенью клинической халатности. Такова позиция программного обеспечения клинической помощи, предназначенного для выявления противопоказаний к лекарственным препаратам (конфликтов). Тем не менее, по мере того как алгоритмы, помогающие в принятии клинических решений, становятся все более заметными, а то, как они работают, становится все более непостижимым, мы должны задаться вопросом, должен ли клиницист быть основным источником ответственности.

Ученые-правоведы, такие как Николсон Прайс, выражают обеспокоенность по поводу практики «медицины черного ящика».¹⁰ Медицина черного ящика — это «использование непрозрачных вычислительных моделей для принятия решений, связанных со здравоохранением». Эта проблема не является уникальной для машинного обучения. Тем не менее, машинное обучение как метод вычислений часто непрозрачно, потому что алгоритмы машинного обучения действительно учатся. Рассмотрим алгоритм анализа гистопатологических изображений, созданный для выявления потенциально раковых образцов.

Эти алгоритмы обучаются, получая помеченные данные, в данном случае образцы, в которых гистопатологи уже определили проблемные области. во многом загадочный. Таким образом, машинное обучение отличается от традиционного программирования, где разработчик манипулирует определенным набором переменных. Идея медицины черного ящика должна заставить нас переосмыслить границы клинической ответственности. Алгоритмы машинного обучения действительно могут быть в некоторых отношениях более точными, чем клиницисты, но их результаты сопровождаются ограниченными рассуждениями.¹² Следовательно, патологоанатомы обычно могут объяснить, почему они пришли к своему профессиональному заключению, но машинное обучение имеет ограниченные возможности сделать то же самое. Нетрудно представить себе будущее, в котором клиницисты следуют советам алгоритмов такого рода, но имеют слабое представление о том, почему они диагностируют или рекомендуют определенные вмешательства пациентам. Если это произойдет, сохранение клиницистов в качестве основного источника ответственности будет означать, что они должны быть всеведущими во все более непрозрачной работе.

Непостижимые медицинские устройства

В зависимости от классификации рисков медицинские устройства, поступающие на рынки США и ЕС, подлежат валидации. Алгоритмы ИИ не освобождаются от таких требований. На самом деле, недавние Регламент ЕС о медицинских устройствах и Регламент о медицинских устройствах для диагностики in vitro ясно дают понять, что программное обеспечение само по себе может считаться медицинским устройством.¹³ Однако как такие органы, как MHRA и FDA, могут гарантировать безопасность устройства, когда так много его рассуждения скрыты?¹⁴

В целом проблема проверки алгоритмов ИИ состоит из трех частей. Во-первых, как уже упоминалось, ИИ часто непрозрачен, поэтому трудно полностью изучить его результаты.

Если мы собираемся проверять такие устройства, большая часть проверки может зависеть только от их точности. Во-вторых, будущее использование может включать высоко персонализированные прогнозы или рекомендации. Таким образом, регулярный метод клинических испытаний может оказаться неосуществимым, поскольку популяция пациентов становится все меньше. В-третьих, точность и надежность этих алгоритмов меняются в зависимости от данных, которые они проглатывают. Учитывая это, ИИ часто может представлять собой скорее движущуюся цель для проверки, чем более статичные алгоритмы. Учитывая все вышесказанное, эти проблемы, безусловно, не уникальны для ИИ, однако ясно, что растущее использование ИИ в здравоохранении может бросить вызов традиционным методам тестирования медицинских технологий. Частично это было признано FDA, а комиссар Готтлиб недавно объявил, что FDA разрабатывает новую нормативную базу для продвижения инноваций и поддержки использования технологий на основе ИИ¹⁵.

Пояснение и GDPR

Машинное обучение подпитывается данными. Эти данные часто, в свою очередь, регулируются новым Общим регламентом защиты данных («GDPR»), который сейчас действует. Одним из аспектов этого нового Регламента является предполагаемое право на разъяснение. Само существование этого права является спорным, поскольку право строится на одновременном чтении положений об автоматизированной обработке и праве на получение информации. как алгоритм пришел к такому выводу.

Существование права на объяснение кажется несовместимым с алгоритмами черного ящика. Если машинное обучение обязательно непрозрачно, может быть трудно согласовать требования права с ограничениями технологии. Действительно, если право на объяснение требует, чтобы разработчики предоставили информацию о «логике и значимости» своего алгоритма, это право может оказаться особенно трудным для алгоритмов машинного обучения¹⁷ Хотя это не обязательно так (см. Инструменты контрфактического объяснения) , юридическая неопределенность ставит разработчиков в затруднительное положение.¹⁸

Не столько проблема отсутствия регулирования, сколько проблема юридической интерпретации, неопределенность в отношении основных обязанностей разработчиков по объяснению их алгоритмов может задушить растущую отрасль. Короче говоря, если алгоритмы машинного обучения не могут обрабатывать данные, машинного обучения не существует. Эта задача должна быть решена, если мы хотим, чтобы индустрия ИИ процветала.

Поиск пробелов без исключения

ИИ не обязательно отличается от других алгоритмов. Тот факт, что алгоритм использует ИИ, не означает, что он должен регулироваться по-другому. Тем не менее, нам не нужно быть исключительными сторонниками ИИ, чтобы обнаружить, что в нашем действующем законодательстве есть пробелы, которые могут увеличиться с внедрением такой технологии. Вместо этого лучше признать хрупкость некоторых наших законов до того, как произойдут какие-либо технологические потрясения. Как было показано, наш закон о медицинских устройствах и законы об ответственности и защите данных требуют такого внимания. Таким образом, подготовка к ИИ может просто означать устранение недостатков и несоответствий, уже присутствующих в нашем регулировании.

1. См. Healx, Babylon Health, InnerEye.

2. Палата лордов, «ИИ в Великобритании: готовы, готовы и способны?» 2018.15.

3. Бостром, Ник. Сверхразум: пути, опасности, стратегии. Издательство Оксфордского университета, 2014.

4. Юнг, Карен. Исправленные устные показания: Искусственный интеллект.

5. Институт Алана Тьюринга — письменные свидетельства (AIC0139).

6. Пил, Эдвин, Гудкамп, Джеймс. Уинфилд и Джолович на Tort, Sweet & Maxwell, 2014.

7. Стэплтон, Джейн. Ответственность производителя. Издательство Кембриджского университета, 1994. 333–4.

8. Например, InnerEye.

9. Миллер, Рэндольф А. и Сара М. Миллер. «Правовые и нормативные вопросы, связанные с использованием клинического программного обеспечения при оказании медицинской помощи». Поддержка принятия клинических решений. 2007. 423–444.

10. Прайс, Николсон. «Медицина черного ящика». Harv.JL & Tech. 28 (2014): 419.

11. Вета, Митько и др. «Анализ гистопатологического изображения рака молочной железы: обзор». IEEE Transactions on Biomedical Engineering 61.5 (2014): 1400–1411.

12. Вахтер, Сандра, Брент Миттельштадт и Крис Рассел. «Объяснения против фактов без открытия черного ящика: автоматизированные решения и GDPR», 2017 г.

13. Статья 2(1) Постановления о медицинских изделиях, Статья 2(2) Положения о медицинских изделиях для диагностики in vitro.

14. Прайс, Николсон. «Искусственный интеллект в здравоохранении: применение и юридические последствия». SciTech Lawyer 14 (2017).

15. Готлиб, Скотт. Преобразование подхода FDA к цифровому здравоохранению. Health Datapalooza от Academy Health за 2018 год. 26 апреля 2018 г.

16. Селбст, Эндрю Д. и Джулия Паулз. «Значимая информация и право на объяснение». Международный закон о конфиденциальности данных. 7.4 (2017): 233–242.

17. Если право действительно существует, одним из способов продвижения вперед может быть контрфактическое объяснение Вахтера.

18. Вахтер, Контрфактические объяснения без вскрытия черного ящика.

Первоначально опубликовано на www.phgfoundation.org.