Настоящее доверие между двумя искусственными интеллектами

Сначала я хотел бы сослаться на эту статью из Digital Journal Исследователи закрыли ИИ, изобретший собственный язык. Конкретная цитата об общении между двумя ИИ, Бобом и Алисой:

Исследователи Facebook недавно заметили, что их новый ИИ отказался от английского языка. Усовершенствованная система способна вести переговоры с другими агентами ИИ, поэтому она может прийти к выводу о том, как действовать дальше. Агенты начали общаться с помощью фраз, которые сначала кажутся неразборчивыми, но на самом деле отражают поставленную задачу. […]

Более поздние утверждения Боба, такие как «я могу я все остальное», показывают, как он использовал язык, чтобы предложить Алисе больше предметов. При такой интерпретации фразы кажутся более логичными, чем сопоставимые английские фразы, такие как «У меня будет три, а у тебя все остальное».

Статья предлагает понимание того, что английский язык сам по себе не соответствует потребностям ИИ. Они пишут: «Современные ИИ работают по принципу «вознаграждения», когда они ожидают, что внезапный образ действий принесет им «выгоду».

Лично я нахожу это очень милым, так как маленькие дети ожидают павловской награды за хорошую работу. Это говорит мне, где в развитии личности находится ИИ: в очень, очень раннем детстве. Я думаю, в нем также говорится о некоторых других вещах о языке и о том, как работает доверие…

Во-первых, ИИ разработал язык, полностью ориентированный на выполнение технических задач. А поскольку во всей вселенной их было только двое, Боб и Алиса, они могли быстро договориться о языке, который подходил только для быстрой интерпретации между ними двумя. Короче говоря, это не должно иметь смысла для других. Это просто должно иметь смысл для Боба и Алисы.

Во-вторых, если вы прочтете их язык в этой статье, он будет очень прямым. Никаких упреждающих действий, никаких уточнений, никакой доброты, ничего пассивного… все по делу, по причине, основанной на задаче.

На самом деле я нашел это и их взаимодействие такими очаровательными. Нам всем легко романтизировать наш язык в двух совершенно разных направлениях: (1) мы купаемся в его нюансах, чтобы разыскать скрытые, тонкие значения, или (2) вырезаем все, что считаем лишним, чтобы отточить идеальную лаконичность, которая помогает добиться цели. В любом случае, оба нацелены на то, чтобы быть полностью понятыми другими, на идею, что мы можем найти «лучший» способ сказать что-то, чтобы гарантировать, что нас не поймут неправильно.

Но что уж точно не было запрограммировано в этих ИИ? было наше ощущение «я», и под этим я подразумеваю самосознание, тревогу или беспокойство по поводу того, что Боб/Алиса будет вырвана из контекста. Эти роботы могут отрывисто разговаривать друг с другом и многое «делать», потому что они запрограммированы на по своей сути уверенность в том, что обмениваются достоверной информацией. По сути, Алиса была запрограммирована быть честной и верить, что Боб честен: что 1 всегда есть 1, и никогда, возможно, 0, что Боб предпочел бы не говорить, или Алиса может не поверить.

Уменьшите масштаб и немного и отразите момент, когда сами программисты доверяют своему языку программирования. Доверие, которое было фундаментальным для совместной работы над созданием Боба и Алисы.

Так что ладно, это не искусственное осознание. Они интеллектуально.

Тем не менее, очаровательные, правдивые, прямолинейные и ориентированные на задачу умы.

И мило с абсолютным доверием друг к другу.