Когда Medium говорит: «Рекомендуемые статьи на основе ваших предыдущих лайков». Персонализация теперь везде. Это в приложениях, которые вы используете — Spotify, YouTube, Facebook, Instagram, Google Home и многих других… Что эта персонализация делает с нами? Это хорошо, плохо или ядовито?

Этот вопрос возник у меня в голове после того, как я посмотрел это видео Теда на пузыре фильтров. хотя видео вышло в 2011 году, оно по-прежнему очень актуально сегодня, в 2020 году. Это видео заставило меня отметить и перечислить все, что произошло со мной в последнее время с тех пор, как персонализация стала управлять моей жизнью, и я начал видеть последствия. Мне пришлось удалить свое приложение Instagram, потому что я был перегружен информацией, которую получал от него. Я читал в одном из рассказов о протестах в Индии и следил за этой веткой 1-2 дня, а потом то, что произошло дальше, было ужасным. Вся моя лента, все истории, которые я видел, были забиты постами о протестах. Это была эмоциональная и когнитивная перегрузка. Человек может чувствовать и потреблять ровно столько, сколько. После активного употребления в течение 15–20 дней я увидел, что начинаю нервничать и нервничать, и решил выйти из Instagram. Куда за эти 15 дней исчезла художественная лента, которой я привыкла наслаждаться каждый день в Instagram? У меня был похожий случай с YouTube, когда он застрял на последних песнях, которые я слышал, и проигрывал их в цикле, пока мне не надоели все они.

Сначала машинное обучение подпитывается от меня, а затем оно подкармливает меня вещами, похожими на те, что мне нравились.

В основе этой персонализации лежит машинное обучение. Сначала машинное обучение подпитывается от меня, а затем в конечном итоге подкармливает меня вещами, похожими на те, что мне нравились. Делает ли этот вид персонализированной ленты людей счастливыми? Да, в большинстве случаев вместо мировоззрения в социальных сетях я получаю частичное представление. Точно так же, как у Spotify есть модель сопоставления матриц для создания вашего любимого еженедельника Discover. Мы (как население) неосознанно классифицируемся алгоритмами по группам. Есть еще одна острая вещь, упомянутая в видео Теда, о том, как задолго до ML были редакторы газет, которые выполняли аналогичную задачу по предоставлению нам отредактированной информации. Я согласен, но и не согласен. Масштабы, в которых это происходит сейчас, а также последствия, которые это оказывает на конфиденциальность данных и поведение людей, пугают. Данные, собираемые обо мне, которые затем определяют, какие данные доходят до меня, — это то, чего я не знаю. Машинное обучение создает порочные петли обратной связи, которые препятствуют нашему развитию как общества.

Когда вы видите, что все вокруг вас говорят то же самое, что и вы, и вы начинаете чувствовать себя обоснованным, думая, что это «вещь» является нормой? Какое влияние оказывает на нас это признание? Вы чувствуете себя уполномоченным? Именно это позитивное утверждение также делает нас ограниченными. Имея только одно представление о мире, как мы можем думать о расширении и обучении? Если вы либерал или консерватор, вы останетесь таковым, потому что это то, что вас окружает в вашем интернет-мире. Если вы любите поп-песни, вы получите бесконечный поток поп-песен, похожих на то, что вы слушаете. Еще одна вещь, которую я заметил, это то, что вся эта персонализация делает нас плохими слушателями. Подумай об этом. Например: если 99% людей вокруг меня говорят, что «АА» — это здорово, то 1% людей, говорящих мне иначе, не имеет значения. Если только я не попытаюсь открыто выслушать их и попытаться понять их точку зрения.

Вышеупомянутый пункт также затрагивает идею когнитивной предвзятости в психологии. Когнитивное искажение — это систематическая ошибка в том, как мы думаем, в отличие от случайной ошибки/невежества. Когнитивное искажение искажает правду, и его нельзя исправить, получая больше данных, особенно таких, как персонализированные данные, их влияние со временем может суммироваться. Даже если вы хотите попытаться устранить предвзятость самостоятельно, как вы это сделаете? Если вы не можете доверять себе, алгоритмам машинного обучения или окружающим, то кому вы доверяете? Позвольте мне привести вам пример, который мой друг обсуждал со мной: - "Является ли коронавирус биологической атакой из Китая?". Интересно подумать, да? Но как только эта тема была затронута, я за секунду сказал своему другу «Это теория заговора!». Какие бы статьи я ни читал до сих пор, ни одна из них никогда не делала подобных заявлений. Пока это не сказал мой друг. Далее он рассказал мне, что он читает в Google Scholar, и я до сих пор не могу ему поверить. Потому что что, если его ученый Google просто обучен показывать ему такие статьи? Однако в этот момент вы должны знать, что даже я потерял представление о том, что правда, а что нет!

Как спастись от этих шор?
Не знаю! Я знаю, что нужно продолжать очищать файлы cookie в веб-браузере и использовать режим инкогнито для поиска. Но как насчет других мобильных приложений для социальных сетей, персонализированных для меня?

Я никогда не собирался оставлять эту статью с нерешенным вопросом, но я не знаю ответа на него. В следующий раз, когда Netflix порекомендует вам сериал, просто сделайте паузу и задумайтесь на минуту, действительно ли это хорошо для меня?

Мне бы хотелось узнать вашу точку зрения и поделиться, если у вас есть интересные идеи по этому поводу :)