Помните маркеры дистанции в магазине, указывающие дистанцию ​​в 1,5 метра для ковидной безопасности? Маленькая муха в писсуаре? Или табличка «Ешьте овощи» в столовой? Это все так называемые подталкивания.

Они описывают любой аспект архитектуры выбора, который предсказуемым образом изменяет поведение людей, не запрещая какие-либо варианты или существенно меняя их экономические стимулы. [1]

В краткой форме: это «помогает» вам выбирать, но уход оставляет выбор за вами.

Существуют разные виды подталкивания: от основанных на поведении, которые предлагают удобные улучшения для «лучшего» выбора, до основанных на знаниях, которые пытаются изменить ваше поведение за счет расширения знаний. И если вы на минутку задумаетесь о своей повседневной жизни, вы поймете, насколько вездесущи подталкивания.

Но всегда ли они хороши для нас? Что даже «хорошо» и нельзя ли использовать те же приемы, например, в маркетинге, чтобы медленно способствовать поведенческим изменениям людей, удобным для рекламируемого продукта?

Определенно! И есть критики, утверждающие, что подталкивание уменьшает автономию, угрожает достоинству, нарушает свободы или снижает благосостояние [2]. Даже исходя из чистого намерения, иногда грань между легким управлением и манипулированием кем-то может стать размытой.

Возникают две основные формы критики:

  1. Критика незаконных мотивов: это «активная» манипуляция в том смысле, что подталкивание может использоваться в незаконных целях.
  2. Подталкивание как критика обмана: это «пассивная» манипуляция, при которой подталкивание преднамеренно пытается использовать когнитивные слабости для обеспечения желаемого поведения.

До сих пор мы говорили только об «аналоговой» версии, в которой используются изображения, наклейки или печатный текст. Но что становится с подталкиванием, когда оно сочетается с мощью больших данных и различных алгоритмов.

Большие данные — это сочетание технологий и процессов. Технология — это аппаратное обеспечение, способное очень быстро просеивать, сортировать и запрашивать огромные объемы данных. Процессы включают в себя поиск закономерностей в данных, преобразование их в прогностическую аналитику и применение аналитики к новым данным. [1]

Меняет правила игры то, что системы больших данных находят полезные корреляции в (огромных) наборах данных, на которые обычный человек никогда не был бы способен.

Затем рекурсивная петля обратной связи в такой системе позволяет динамически регулировать:

  1. Среда выбора индивида в ответ на изменения в поведении
  2. Данные обратной связи по выбору архитектора
  3. Общепопуляционные тенденции

Непрерывная корректировка алгоритма при создании и сборе новых данных приводит к появлению новых цифровых процессов принятия решений на основе данных. Их можно разделить на две конфигурации. Автоматизированный процесс принятия решений автоматически принимает какое-либо решение без какого-либо вмешательства человека, за исключением ввода пользователем соответствующих данных и цифрового процесса принятия решений. Последний разработан таким образом, что целевое лицо принимает соответствующее решение, но базовое программное обеспечение предлагает «предложения», которые автоматически идентифицируются как рациональные.

На самом деле и то, и другое может быть формой подталкивания, и с учетом дополнительных возможностей, которые предоставляют большие данные, возник термин гиперподталкивание.

Гиперподталкивание основано на выявлении алгоритмически определенных корреляций между элементами данных в наборах данных, которые в противном случае не были бы наблюдаемы с помощью человеческого познания. [1]

Например, инструмент HR автоматически обращается к кандидату и сравнивает его с другими. Затем он выводит результаты рекрутеру и выделяет области, в которых кандидат превосходит или отстает от других. Окончательное решение о том, кого нанять, по-прежнему остается за рекрутером, делая это процессом руководства по принятию решений, но также, очевидно, подталкивая к кандидату, которого алгоритм считает лучшим.

Давайте подумаем о временной шкале Instagram. Автоматизированный и очень сложный алгоритм решает, что мы видим, когда открываем приложение. Это автоматизированный процесс принятия решений, поскольку мы практически не можем контролировать, какой контент (от людей, за которыми мы следим) отображается в каком порядке. Тем не менее, это все еще только толчок. Мы можем открыть профили по отдельности и посмотреть новую публикацию из этой учетной записи. Таким образом, это гиперподталкивание, выделяющее определенный контент на нашей главной странице, и, возвращаясь к определению подталкивания, мы понимаем, что оно не ограничивает наши возможности — оно просто немного менее удобно.

Но чем заканчивается это удобство? Когда нами манипулируют, заставляя просматривать определенные сообщения или рекламу и проводить больше времени на платформе только для того, чтобы найти интересующий нас контент?

Джули Коэн [3] определяет «я» как субъект права по трем основным атрибутам:

  1. это автономное существо, обладающее правами на свободу, которые, как предполагается, могут осуществляться независимо от контекста.
  2. субъект права обладает способностью к рациональному обдумыванию, и его способность также оторвана от контекста.
  3. самость субъекта права трансцендентна и нематериальна. Он отличается от тела, в котором находится субъект права.

Это приводит к общему принципу, который следует ценить любой ценой:

Людям разрешается выбирать и следовать своим планам или жизненным путям для себя без вмешательства со стороны других [4]

Теперь найдите минутку и подумайте о некоторых цифровых сервисах, которыми вы пользуетесь, особенно о таких крупных, как Google, Facebook и Apple. Они настолько вездесущи, что отказаться от их услуг практически невозможно, до такой степени, что можно говорить об огромной асимметрии власти между этими поставщиками цифровых услуг и отдельными пользователями услуг. И это может стать очень опасным. Как и в отношениях с психическим насилием, может показаться, что у вас есть выбор уйти, избежать подталкивания, манипуляции и уйти от своего хищника. Но из-за этой асимметрии это не так!

Все ваши друзья и коллеги по-прежнему пользуются услугами, и уход может серьезно повлиять на ваши отношения — как в отношениях с общими друзьями. Вас даже могут исключить из удобных услуг, которые некоторые считают необходимыми, попробуйте заказать такси по телефону в некоторых городах.

Я сам несколько лет жил со старенькой Nokia 6230, в которой вообще не было функций смартфона. Затем я переключился на Nokia 6400 4G с ОС Kai, поскольку он поддерживал Whatsapp, а общение только с помощью SMS, телефона или электронной почты стало очень утомительным. В конце концов я перешел на смартфон с ОС Graphene — чистый Android без сервисов Google.

Конечно, есть выбор. Но когда вы попробуете это сами, вы поймете, насколько это может быть технически сложно, и что потери удобства могут быть настолько значительными, что лишь немногие люди готовы с этим жить.

Это важно, чтобы понять, почему, во-первых, создатели цифрового сервиса, использующего ту или иную форму гиперподталкивания, несут ответственность, а во-вторых, существуют законы для защиты «я» пользователя.

Тем более, что алгоритмы гиперподталкивания, основанные на больших данных, представляют третью, дополнительную критику «подталкивания как обмана» и «незаконного мотива», упомянутых в начале:

3. Критика отсутствия прозрачности: алгоритмы намеренно влияют на решения других, но работают как «черные ящики».

Тем не менее, для некоторых либералов целевое лицо дало согласие на использование ее данных и условия обслуживания. И для них уведомление о цели выбора архитектора оправдывает применение различных форм гиперподталкивания в их сервисах.

Закон предоставляет лицам набор прав, направленных на то, чтобы они могли осуществлять контроль над использованием своих личных данных, при этом люди сами решают, как взвесить затраты и выгоды от обмена личными данными [1]

Проблема такой точки зрения заключается в том, что многочисленные исследования показывают, что люди неспособны дать осмысленное согласие [5] и часто не могут адекватно оценить риск [6]. Вдобавок ко всему, условия и положения или заявления о конфиденциальности представляют собой огромную информационную перегрузку и представлены сложным языком, который не может предоставить легкую для понимания и достаточно подробную информацию, позволяющую пользователям принимать обоснованные решения [7].

В итоге окончательного вывода нет. Гиперподталкивание очень эффективно и здесь, чтобы остаться. Очевидно, что у компаний, работающих с данными, существует конфликт интересов между сбором как можно большего количества данных, предоставлением пользователям услуг на основе машинного обучения, удерживающих их дольше на своей платформе, и соблюдением основных атрибутов «я».

Важно помнить, что мы несем ответственность при создании цифрового сервиса. Мы обязаны оценить, в какой момент мы начинаем манипулировать автономными решениями пользователя и использовать его когнитивные слабости. В настоящее время просто получить согласие и использовать его в качестве подстановочного знака уже недостаточно.

Эта статья в значительной степени основана на [1] и пытается обобщить и упростить ее ключевые сообщения, чтобы привлечь внимание к теме.

[1]https://www.researchgate.net/publication/303479231_%27Hypernudge%27_Big_Data_as_a_mode_of_regulation_by_design
[2]https://en.wikipedia.org/wiki/Nudge_theory
[3 ] https://juliecohen.com/configuring-the-networked-self/
[4] Права человека, юридические права и социальные права. Изменить John Kleinig
[5] https://www.cmu.edu/dietrich/sds/docs/loewenstein/PrivacyHumanBeh.pdf
[6] https://papers.ssrn. com/sol3/papers.cfm?abstract_id=2171018
[7]https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2567042