Помните маркеры дистанции в магазине, указывающие дистанцию в 1,5 метра для ковидной безопасности? Маленькая муха в писсуаре? Или табличка «Ешьте овощи» в столовой? Это все так называемые подталкивания.
Они описывают любой аспект архитектуры выбора, который предсказуемым образом изменяет поведение людей, не запрещая какие-либо варианты или существенно меняя их экономические стимулы. [1]
В краткой форме: это «помогает» вам выбирать, но уход оставляет выбор за вами.
Существуют разные виды подталкивания: от основанных на поведении, которые предлагают удобные улучшения для «лучшего» выбора, до основанных на знаниях, которые пытаются изменить ваше поведение за счет расширения знаний. И если вы на минутку задумаетесь о своей повседневной жизни, вы поймете, насколько вездесущи подталкивания.
Но всегда ли они хороши для нас? Что даже «хорошо» и нельзя ли использовать те же приемы, например, в маркетинге, чтобы медленно способствовать поведенческим изменениям людей, удобным для рекламируемого продукта?
Определенно! И есть критики, утверждающие, что подталкивание уменьшает автономию, угрожает достоинству, нарушает свободы или снижает благосостояние [2]. Даже исходя из чистого намерения, иногда грань между легким управлением и манипулированием кем-то может стать размытой.
Возникают две основные формы критики:
- Критика незаконных мотивов: это «активная» манипуляция в том смысле, что подталкивание может использоваться в незаконных целях.
- Подталкивание как критика обмана: это «пассивная» манипуляция, при которой подталкивание преднамеренно пытается использовать когнитивные слабости для обеспечения желаемого поведения.
До сих пор мы говорили только об «аналоговой» версии, в которой используются изображения, наклейки или печатный текст. Но что становится с подталкиванием, когда оно сочетается с мощью больших данных и различных алгоритмов.
Большие данные — это сочетание технологий и процессов. Технология — это аппаратное обеспечение, способное очень быстро просеивать, сортировать и запрашивать огромные объемы данных. Процессы включают в себя поиск закономерностей в данных, преобразование их в прогностическую аналитику и применение аналитики к новым данным. [1]
Меняет правила игры то, что системы больших данных находят полезные корреляции в (огромных) наборах данных, на которые обычный человек никогда не был бы способен.
Затем рекурсивная петля обратной связи в такой системе позволяет динамически регулировать:
- Среда выбора индивида в ответ на изменения в поведении
- Данные обратной связи по выбору архитектора
- Общепопуляционные тенденции
Непрерывная корректировка алгоритма при создании и сборе новых данных приводит к появлению новых цифровых процессов принятия решений на основе данных. Их можно разделить на две конфигурации. Автоматизированный процесс принятия решений автоматически принимает какое-либо решение без какого-либо вмешательства человека, за исключением ввода пользователем соответствующих данных и цифрового процесса принятия решений. Последний разработан таким образом, что целевое лицо принимает соответствующее решение, но базовое программное обеспечение предлагает «предложения», которые автоматически идентифицируются как рациональные.
На самом деле и то, и другое может быть формой подталкивания, и с учетом дополнительных возможностей, которые предоставляют большие данные, возник термин гиперподталкивание.
Гиперподталкивание основано на выявлении алгоритмически определенных корреляций между элементами данных в наборах данных, которые в противном случае не были бы наблюдаемы с помощью человеческого познания. [1]
Например, инструмент HR автоматически обращается к кандидату и сравнивает его с другими. Затем он выводит результаты рекрутеру и выделяет области, в которых кандидат превосходит или отстает от других. Окончательное решение о том, кого нанять, по-прежнему остается за рекрутером, делая это процессом руководства по принятию решений, но также, очевидно, подталкивая к кандидату, которого алгоритм считает лучшим.
Давайте подумаем о временной шкале Instagram. Автоматизированный и очень сложный алгоритм решает, что мы видим, когда открываем приложение. Это автоматизированный процесс принятия решений, поскольку мы практически не можем контролировать, какой контент (от людей, за которыми мы следим) отображается в каком порядке. Тем не менее, это все еще только толчок. Мы можем открыть профили по отдельности и посмотреть новую публикацию из этой учетной записи. Таким образом, это гиперподталкивание, выделяющее определенный контент на нашей главной странице, и, возвращаясь к определению подталкивания, мы понимаем, что оно не ограничивает наши возможности — оно просто немного менее удобно.
Но чем заканчивается это удобство? Когда нами манипулируют, заставляя просматривать определенные сообщения или рекламу и проводить больше времени на платформе только для того, чтобы найти интересующий нас контент?
Джули Коэн [3] определяет «я» как субъект права по трем основным атрибутам:
- это автономное существо, обладающее правами на свободу, которые, как предполагается, могут осуществляться независимо от контекста.
- субъект права обладает способностью к рациональному обдумыванию, и его способность также оторвана от контекста.
- самость субъекта права трансцендентна и нематериальна. Он отличается от тела, в котором находится субъект права.
Это приводит к общему принципу, который следует ценить любой ценой:
Людям разрешается выбирать и следовать своим планам или жизненным путям для себя без вмешательства со стороны других [4]
Теперь найдите минутку и подумайте о некоторых цифровых сервисах, которыми вы пользуетесь, особенно о таких крупных, как Google, Facebook и Apple. Они настолько вездесущи, что отказаться от их услуг практически невозможно, до такой степени, что можно говорить об огромной асимметрии власти между этими поставщиками цифровых услуг и отдельными пользователями услуг. И это может стать очень опасным. Как и в отношениях с психическим насилием, может показаться, что у вас есть выбор уйти, избежать подталкивания, манипуляции и уйти от своего хищника. Но из-за этой асимметрии это не так!
Все ваши друзья и коллеги по-прежнему пользуются услугами, и уход может серьезно повлиять на ваши отношения — как в отношениях с общими друзьями. Вас даже могут исключить из удобных услуг, которые некоторые считают необходимыми, попробуйте заказать такси по телефону в некоторых городах.
Я сам несколько лет жил со старенькой Nokia 6230, в которой вообще не было функций смартфона. Затем я переключился на Nokia 6400 4G с ОС Kai, поскольку он поддерживал Whatsapp, а общение только с помощью SMS, телефона или электронной почты стало очень утомительным. В конце концов я перешел на смартфон с ОС Graphene — чистый Android без сервисов Google.
Конечно, есть выбор. Но когда вы попробуете это сами, вы поймете, насколько это может быть технически сложно, и что потери удобства могут быть настолько значительными, что лишь немногие люди готовы с этим жить.
Это важно, чтобы понять, почему, во-первых, создатели цифрового сервиса, использующего ту или иную форму гиперподталкивания, несут ответственность, а во-вторых, существуют законы для защиты «я» пользователя.
Тем более, что алгоритмы гиперподталкивания, основанные на больших данных, представляют третью, дополнительную критику «подталкивания как обмана» и «незаконного мотива», упомянутых в начале:
3. Критика отсутствия прозрачности: алгоритмы намеренно влияют на решения других, но работают как «черные ящики».
Тем не менее, для некоторых либералов целевое лицо дало согласие на использование ее данных и условия обслуживания. И для них уведомление о цели выбора архитектора оправдывает применение различных форм гиперподталкивания в их сервисах.
Закон предоставляет лицам набор прав, направленных на то, чтобы они могли осуществлять контроль над использованием своих личных данных, при этом люди сами решают, как взвесить затраты и выгоды от обмена личными данными [1]
Проблема такой точки зрения заключается в том, что многочисленные исследования показывают, что люди неспособны дать осмысленное согласие [5] и часто не могут адекватно оценить риск [6]. Вдобавок ко всему, условия и положения или заявления о конфиденциальности представляют собой огромную информационную перегрузку и представлены сложным языком, который не может предоставить легкую для понимания и достаточно подробную информацию, позволяющую пользователям принимать обоснованные решения [7].
В итоге окончательного вывода нет. Гиперподталкивание очень эффективно и здесь, чтобы остаться. Очевидно, что у компаний, работающих с данными, существует конфликт интересов между сбором как можно большего количества данных, предоставлением пользователям услуг на основе машинного обучения, удерживающих их дольше на своей платформе, и соблюдением основных атрибутов «я».
Важно помнить, что мы несем ответственность при создании цифрового сервиса. Мы обязаны оценить, в какой момент мы начинаем манипулировать автономными решениями пользователя и использовать его когнитивные слабости. В настоящее время просто получить согласие и использовать его в качестве подстановочного знака уже недостаточно.
Эта статья в значительной степени основана на [1] и пытается обобщить и упростить ее ключевые сообщения, чтобы привлечь внимание к теме.
[1]https://www.researchgate.net/publication/303479231_%27Hypernudge%27_Big_Data_as_a_mode_of_regulation_by_design
[2]https://en.wikipedia.org/wiki/Nudge_theory
[3 ] https://juliecohen.com/configuring-the-networked-self/
[4] Права человека, юридические права и социальные права. Изменить John Kleinig
[5] https://www.cmu.edu/dietrich/sds/docs/loewenstein/PrivacyHumanBeh.pdf
[6] https://papers.ssrn. com/sol3/papers.cfm?abstract_id=2171018
[7]https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2567042