Хотя все, что вы говорите, уместно, то, что не включено, так же плохо или даже хуже, чем ваши предостережения.

Во-первых, правительственные военные и разведывательные службы во всем мире не играют по этим правилам. Первое и самое быстрое — это то, что действует в пользу страха перед AGI или ASI, способными доминировать над всеми конкурентами. Во-вторых, как только машинное обучение переходит к пониманию Интернета, способность опережать людей становится реальной проблемой.

Другими словами, любая ситуация, которая приводит к взрыву интеллекта ОИИ, может быть такой же плохой, как плохой, неправильный или плохой дизайн.

Кроме того, предположим, что Наше последнее изобретение Баррата читабельнее, чем Бостром.

Публикация My Medium, Страсть к развитию, содержит ряд статей, посвященных всем этим вопросам, например, Почему следует бояться искусственного интеллекта. -AI», Только 6 возможных исходов в следующие 20 лет [ — 4 из них плохие — ],и длинное, но подробное обсуждение эволюционного контекста и рисков в целом, Макроскопическая эволюционная парадигма.

Док Хьюстон