Возможно, мы сможем улучшить рекомендации, назначив нашим моделям другую цель

Алгоритмы рекомендаций (также известные как рекомендательные системы) — это компьютерные программы, которые выбирают, какой контент показывать людям. Новостная лента Facebook работает на рекомендательном алгоритме.

Впервые я работал над рекомендательными системами в 1997 году в Net Perceptions, стартапе Twin Cities, который был пионером в этой области. Одним из первых клиентов был Amazon, и, хотя деловые отношения испортились, мы встали на путь развития их функции «Если вам нравится А, вам понравится Б».

Я также видел Силиконовую долину изнутри, работая с интернет-компаниями (Google, Amazon, Pinterest). Однако я никогда не работал в Facebook, и у меня нет специальных или внутренних знаний о работе их алгоритмов рекомендаций, их корпоративной структуре или внутреннем устройстве. Учитывая это, я предложу некоторые мнения, которые, как мне кажется, могут быть уместными.

Цель

Каждый рекомендатель — это модель (в настоящее время называемая моделью машинного обучения или моделью ИИ), сформированная с четко определенной целью с математической точки зрения. На высоком уровне для этой цели требуется набор данных, помеченный как минимум хорошими примерами (то, что вы хотите порекомендовать) и остальными (нехорошими или, может быть, плохими).

Здесь все усложняется. Какой должна быть цель?

Предположим, вы решили оптимизировать модель, чтобы увеличить взаимодействие с контентом, измеряемое кликами. Вуаля, теперь вы понимаете одну причину, по которой интернет переполнен кликбейтом: мы оптимизируем под клики. Это не великая цель. На самом деле мы заботимся не только о кликах. Компании заботятся о том, противоречит ли контент политике, обществу может быть небезразлично, вызывает ли он разногласия или предосудительность.

Цель, которую вы выбираете, имеет решающее значение для того, что рекомендуется.

Команды

Выбор цели интересным образом пересекается с организацией компании. Во главе крупных интернет-компаний часто стоят люди, преследующие две основные цели: рост числа пользователей и доход. И рост всегда имел большее значение, намного большее. Вот как они стали достаточно большими, чтобы иметь значение. В частности, Facebook годами был одержим ростом.

Итак, внутри Facebook есть разные группы: одни связаны напрямую с ростом (может быть команда роста), а другие нет. Одна из команд, которая не является ростом, — это доверие и безопасность, люди, которым поручено привести контент Facebook в соответствие с их политикой (стандартами сообщества).

Я предполагаю, что в течение многих лет Марк Цукерберг постоянно следил за ростом и старался как можно меньше думать о доверии и безопасности. Новости, которые я видел на протяжении многих лет, похоже, подтверждают это предположение.

Рост подпитывает компанию. Доверие и безопасность пытаются уменьшить ущерб. Никто не финансирует и не платит компании в первую очередь потому, что у нее хорошие общественные стандарты. Они финансируют или платят, потому что у них есть пользователи.

На техническом уровне я видел, как это работает: иногда над контентом работают две разные команды, и они не работают вместе. Одна команда пытается поднять какую-то первичную положительную метрику (например, вовлеченность или недавний Значимый социальный взаимодействий в Facebook). Другая команда пытается снизить некоторые негативные показатели (например, сообщения, противоречащие политике, или пользователи, публикующие плохой контент, или пользователи, которые видят плохой контент).

У этих двух команд могут быть совершенно разные модели, разные цели и даже разная инфраструктура. Для этого есть несколько веских причин (проблемы разные), но если команды разделены, важная команда (рост, вовлеченность) может игнорировать цели менее важной команды (доверие и безопасность). Я видел, как это произошло. Люди не пытаются быть злыми, но у каждой команды есть свои цели.

Например, команда, обучающая рекомендателя контента, не хочет рекомендовать плохой контент, поэтому они могут просто удалить его перед обучением своей модели.

Однако это игнорирует проблему. На самом деле, привлекательный контент с большей вероятностью будет плохим. Информатор Facebook Фрэнсис Хауген «заявила, что некоторые из собственных исследований Facebook показали, что «злой контент с большей вероятностью будет привлекать внимание, и об этом знают производители контента и политические партии».»

Одна модель

Что, если бы вместо этого одна модель была вынуждена искать компромисс между вовлеченностью (положительно) и плохим контентом (отрицательно). Простой пример: никогда не удаляйте никакие данные из обучения и ставьте +1 за публикацию, с которой кто-то взаимодействовал, и -10 за публикацию, которая позже была удалена в нарушение правил.

Это может применить наши сложные методы машинного обучения для поиска интересного, но не плохого контента. Тем не менее, такая модель также может рекомендовать только мимимишный контент, который никого не оскорбляет и серьезно снижает вовлеченность. Я хотел бы узнать больше.

Возможно, Facebook уже экспериментировал с этой техникой, но я не видел публичного упоминания о ней. Если у кого-то есть, дайте мне знать.