В момент безудержной дезинформации и теорий заговора, подпитываемых алгоритмами, мы больше не можем закрывать глаза на теорию технологий, которая утверждает, что любое взаимодействие — это хорошее взаимодействие.

- Генеральный директор Apple, Тим Кук [1]

Введение

Эпоха просвещения была культурно-философским движением, распространившимся по Европе, а затем и по Северной Америке в 17-м и 18-м веках. Движение выросло из научной революции и возглавлялось такими мыслителями, как Вольтер, Иммануил Кант, Джон Локк и Исаак Ньютон. Среди основных идей были:

  • все люди могут думать сами за себя,
  • все в обществе должны пользоваться одинаковыми правами и
  • общество должно быть основано на свободе, демократии и разуме.

Я утверждаю, что сейчас мы вступили в новую эру, «эпоху непросвещения». Эпоха, когда границы между фактами и вымыслом, реальностью и фантазией становятся все более размытыми. По сути, мы движемся к будущему, в котором информации больше нельзя доверять.

Политики с трудом выявляют и устраняют новые опасности, связанные с новыми информационными технологиями, искусственным интеллектом и машинным обучением. В игре задействованы более крупные силы, чем человечество привыкло. Однако возникает растущее осознание. Например, Всемирный экономический форум отнес критическую информационную структуру к глобальным рискам[2], а Европейская комиссия предложила новую структуру для регулирования рисков, связанных с искусственным интеллектом[3]».

Невозможно охватить масштаб этих проблем в одном сообщении в блоге или даже в серии сообщений в блоге. Вот почему я посвятил значительное количество времени исследованиям и написанию статей по этим темам и продолжу делать это в ближайшие годы. В этом посте я расскажу о некоторых фундаментальных угрозах, которые мы видим прямо сейчас.

Основные угрозы

Свобода слова, право получать и распространять информацию и право на неприкосновенность частной жизни являются конституционными столпами любой демократии. Без этих прав либеральная идея о том, что «каждый человек является кузнецом своего счастья», выбрасывается вместе с водой. Отдельные лица или группы лиц не могут процветать в обществе, где они не могут свободно говорить, получать и распространять информацию без вмешательства со стороны властей или если они находятся под наблюдением.

Исторически сложилось так, что законы о правах человека были разработаны для защиты людей от несправедливого вмешательства в их жизнь со стороны органов государственной власти. В настоящее время в развитой части мира наибольшую угрозу представляют не тиранические правители, а крупные технологические компании, де-факто выполняющие роль правительств. Поскольку такие компании, как Google, Facebook, Amazon, Microsoft и Apple, могут извлекать и использовать колоссальные объемы пользовательских данных и в какой-то степени контролировать поток информации, эти компании наделены гораздо большей властью, чем кому бы то ни было. предсказанный

Кроме того, всеобщая зависимость от социальных сетей, тонкое распространение дезинформации и поляризация, наряду с новыми развивающимися технологиями в области искусственного интеллекта и машинного обучения, могут постепенно подорвать основы демократии.

Фейковые новости

В древние времена местные слухи путешествовали по деревням из уст в уши. Хотя человеческая эволюция в значительной степени остановилась 10 000 лет назад[4], наши средства коммуникации резко изменились. Благодаря Интернету слухи — ложные или правдивые — теперь могут мгновенно достигать тысяч или миллионов людей.

Подавляющее большинство молодых европейцев и американцев полагаются на социальные сети как на основной или единственный источник новостей. [5] Это проблематично, поскольку большая часть информации в социальных сетях варьируется от слегка неточной (дезинформация) до преднамеренно вводящей в заблуждение (дезинформация). В частности, молодое поколение, воспитанное в социальных сетях, рискует стать постепенно дезинформированным и сбитым с толку в отношении мира, в котором они живут.

Я уже писал о фейковых новостях и о том, как было доказано, что ложные слухи распространяются быстрее, шире и шире, чем истинные слухи, на такой платформе, как Twitter. Я считаю, что в людях есть глубоко укоренившаяся психологическая черта, которая заставляет нас тяготеть к информации, которая вызывает у нас сильные чувства, а не к фактически правдивой, но менее интересной информации. Во многих случаях алгоритмы социальных сетей намеренно усиливают эту черту, заставляя нас лайкать, делиться, комментировать или нажимать на провокационный или шокирующий контент.

Как мы знаем, на популярных платформах социальных сетей нет панели входа, чтобы стать создателем. На самом деле, у платформ нет функционального или этически устойчивого способа — даже со сложными алгоритмами глубокого обучения — проводить детальную проверку фактов или оценочные суждения об огромном количестве генерируемых пользователями данных. Таким образом, ценность информации в социальных сетях в основном зависит от уровня воздействия (количества подписчиков и просмотров). Не на личном или профессиональном опыте создателя контента (квалификации, компетенции, авторитете или послужном списке), как это часто бывает, когда мы решаем, следует ли нам слушать кого-то в реальной жизни. Алгоритмы машинного обучения решают, какие сообщения должны быть показаны вам в первую очередь, просто упорядочивая их на основе популярности и предполагаемого интереса к ним.[6] По сути, самые громкие и популярные голоса часто диктуют дискурс в социальных сетях, независимо заслуги они имеют.

Эхо-камеры

Мы уже видели, как алгоритмы социальных сетей могут открыть шлюзы для быстрого распространения дезинформации. Теории заговора, такие как то, что COVID-19 является разработанным правительством биологическим оружием, или что результаты выборов в США 2020 года были украдены[7], являются хорошими примерами того, как опровергнутые слухи могут продолжать расти и процветать в социальных сетях. Как может быть так, что развенчанные слухи продолжают так настойчиво распространяться?

Ответ можно найти в формировании эпистемических пузырей и эхо-камер в социальных сетях.

Эпистемические пузыри возникают из-за когнитивного фильтра, который помогает каждому из нас в повседневной жизни искать и выбирать информацию. Например, мы читаем статьи, которые друзья повторно размещают на Facebook, смотрим ролики от YouTube-блогеров, которые нам нравятся, и остаемся на связи с единомышленниками. Совершенно необходима фильтрация информации в соответствии с нашими собственными мнениями и установками. В противном случае наш мозг был бы переполнен всевозможной бесполезной информацией. Проблема возникает, когда поисковые системы и алгоритмы социальных сетей отслеживают личную информацию каждого конкретного пользователя и адаптируют онлайн-опыт пользователя, чтобы он соответствовал его интересам. [8] Здоровый когнитивный спам-фильтр человека усиливается и частично контролируется алгоритмами. Следовательно, пользователи подвергаются только одностороннему взгляду на мир, а соответствующие точки зрения об обратном могут быть скрыты от них за алгоритмически выбранным контентом.

Преимущество эпистемических пузырей в том, что они могут легко лопнуть, когда участнику предоставляется важная информация или убедительные аргументы, которые он упустил. Эхо-камеры, с другой стороны, имеют более прочную, культовую структуру. В эхо-камере члены группы разделяют твердые убеждения в отношении определенной темы. Это может быть контроль над оружием, борьба с прививками, кроссфит или определенный план диеты. В отличие от эпистемологического пузыря, группа активно дискредитирует другие релевантные источники[9]. Как правило, эхо-камеры развивают частный язык, полный знакомых терминов и нового жаргона, наряду с контробъяснениями для всех противоположных точек зрения. [10] Частный язык используется для укрепления сообщества и усугубляет его обособленность, - объяснения репетируются членами группы, чтобы атаковать и опровергать любой противоположный факт или мнение, с которыми они сталкиваются.

Было замечено, что эпистемологические пузырии эхо-камеры доминируют во взаимодействиях на Facebook и Twitter.[11] Теория Пиццагейт или движение QAnon являются более крайними примерами. того, как сошедшие с рельсов эхо-камеры могут стать. В частности, эхо-камеры могут привести к политической поляризации и экстремизму в обществе.

Инфокалипсис и дипфейки

Инфокалипсис относится к предполагаемому моменту времени, когда наши информационные экосистемы рухнут. Американский технолог Авив Овадая придумал эту фразу в качестве названия презентации, которую он провел перед коллегами-технологами в районе залива Сан-Франциско за несколько недель до выборов в США в 2016 году. [12] Овадая был одним из первых, кто чтобы рассмотреть, насколько плохая информация подавляла общество, и он спросил, существует ли критический порог, при котором общество больше не сможет справляться. [13]

Дезинформация теперь приобретает совершенно новое измерение с появлением дипфейков. Термин дипфейк относится к фрагменту синтетического носителя, изображению, видео или аудиоклипу, который либо обработан, либо полностью сгенерирован с помощью технологии глубокого обучения. [14] Концепция была представлена ​​миру и названа в честь, анонимный пользователь Reddit, запустивший в ноябре 2017 года сабреддит, посвященный размещению поддельных порновидео со знаменитостями. [15] порнозвезды теперь легко доступны для любого, у кого есть хоть немного технических знаний, через программные платформы, такие как DeepFaceLab или Faceswap.

В сети нет недостатка в сатирических, довольно тревожных дипфейковых видео. Обычно относительно легко сказать, что они фальшивые, поскольку синхронизация губ и выражение лица часто кажутся немного неправильными, или по краям лица появляется мерцание. Одной из лучших демонстраций дипфейков являются пародии Нахальное правосудие, сделанные создателями Южного парка Треем Паркером и Мэттом Стоуном с актером Питером Серафиновичем перед выборами в США в 2020 году. Еще один убедительный пример — дипфейковая версия Тома Круза на популярном канале Tiktok deeptomcruise.

Несмотря на разрушительные последствия, видео дипфейков потенциально могут иметь для общества, они на самом деле не сильно изменились с тех пор, как оригинальный сабреддит r/Deepfakes увидел свет. Создать синтетические видео с нуля без доноров тела и им подобных лиц до сих пор невозможно. [16] Однако по мере того, как методы машинного обучения развиваются и набирают обороты, через несколько лет картина может выглядеть иначе (каламбур). Мы уже видели, как журналисты со сгенерированными искусственным интеллектом изображениями используются для клеветы на общественных деятелей и распространения фейковых новостей. Языковые модели типа GPT-3 способны генерировать тексты, неотличимые от написанного человеком. Без правильных мер предосторожности и с новыми квантовыми скачками в машинном обучении инфокалипсис может быть близок…

[1] https://www.reuters.com/article/us-apple-facebook/apples-tim-cook-criticizes-social-media-practices-intensifying-facebook-conflict-idUSKBN29X2NB (20–12 –2021).

[2] См. http://reports.weforum.org/global-risks-2018/global-risks-landscape-2018/#landscape (28–12–2021).

[3] См. https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0001.02/DOC_1&format=PDF (28–12–2021) .

[4] https://www.psychologytoday.com/us/blog/the-scientific-fundamentalist/200810/why-human-evolution-pretty-much-stopped-about-10000-years (29–12 –2021).

[5] См. https://www.pewresearch.org/journalism/2018/10/30/younger-europeans-are-far-more-likely-to-get-news-from-social-media/ (ЕС) и https://www.statista.com/statistics/1124119/gen-z-news-consumment-us/ (США).

[6] Ноа Джансиракуса (2021 г.), Как алгоритмы создают и предотвращают фальшивые новости — изучение влияния социальных сетей, дипфейков, GPT-3 и т. д., стр. 177.

[7] Там же.

[8] К. Тхи Нгуен (2020). Эхо-камеры и эпистемические пузыри. Эпистема, 17 (2), 141–161.

[9] Там же.

[10] Там же.

[11] Там же.

[12] Чарли Уорзел (2018) Правдоподобное: ужасающее будущее фейковых новостей —› https://www.buzzfeednews.com/article/charliewarzel/the-terrifying-future-of-fake-news#.nxgZrozEx (20–12–2021).

[13] Нина Шик (2020), Глубинные фейки и инфокалипсис: что вам срочно нужно знать, стр. 10.

[14] Лиза Оньеак (2021), Дипфейки и их связь с законом и политикой —› https://theradius.eu/deepfakes-and-their-relationship/ (29–12–2021).

[15] Шик (2020), с. 35.

[16] Мартин Андерсон, Ограниченное будущее дипфейков —› https://rossdawson.com/futurist/implications-of-ai/the-limited-future-of-deepfakes/#_edn77. (30–12–2021).

Запланируйте сеанс DDIChat на тему Искусство, культура и общество:



Подать заявку на участие в программе DDIChat Expert можно здесь.
Способы работы с DDI: https://datadriveninvestor.com/collaborate
Посетите нас на datadriveninvestor.com