Тест Тьюринга — хороший источник для проверки того, насколько хорошо система ИИ ведет себя как человек. Алан Тьюринг разработал систему для тестирования ИИ для этой цели. Здесь я предлагаю несколько сценариев и то, как ИИ может действовать в соответствии с этим механизмом.

Люди действуют в природе по отношению к своим руководителям и критикам из окружающей среды и формируют себя. В основном эти критические замечания положительные или отрицательные. Например, вести себя соответственно или говорить красиво и т. д. В обществе и в природе существуют определенные правила.

С этой точки зрения архитектура GAN кажется ценной, потому что есть один генератор и один дискриминатор. Общее тело этой системы можно рассматривать как главного героя и антагониста, хорошего и плохого, создателя и разрушителя систем. Таким образом, я думаю, что тест Тьюринга должен пройти система ИИ, которая проектирует и задает вопросы другому ИИ. Мы можем думать, что две стороны ИИ - это группа людей или один человек, и они пытаются привести аргументы или найти решение, а другие критикуют, чтобы основная система ИИ улучшалась в соответствии с этими критиками и набором правил.

Есть в основном разумное поведение и мышление людей, и это ценится обществом, и это также естественно.

  • Знание информации ценно. Однако отношения между узлами информации более ценны для человека, и создание из них новой информации действительно ценно.
  • Рассуждения и выводы между информацией также ценны, и система ИИ злоумышленника будет судить об основном ИИ по этим вещам и тому, как основной ИИ думает и видит систему.
  • Зная саму систему и то, насколько хорошо она может решать некоторые задачи в соответствии с системой. Например, зрелые люди знают, что могут делать и что они могут знать, но ИИ не способен на многое. У них нет видения действий и сознания самих себя.
  • Соединение среды и использование объектов среды — еще одна хорошо сделанная специализация людей. На данный момент роботы не так развиты, и ИИ способен получать информацию только в Интернете. Система ИИ, которая может заходить на интернет-сайты, наблюдать за Интернетом и изучать вещи, наблюдая, может быть сложной проблемой.
  • Экзистенциальная ценность — это другое дело для живого сознательного человека. Именно так должен вести себя агент. То есть существующий постоянно на определенном предмете или решающий, движущийся к его целям ради его самоценности или использования. Например, система должна наблюдать за вопросами, и если злоумышленнику или пользователю становится скучно или статистически их вопросы направляют разговор в недопустимое русло, основная система ИИ не может выжить в этом направлении. Следовательно, система искусственного интеллекта должна распознавать этот поток разговора и его генеративное поведение. Например, если он что-то продает или рекомендует продукт, если хороший продукт продается и маркетинг работает хорошо, то могут прийти другие пользователи. Это означает, что система ИИ хорошо работает с точки зрения выживания.
  • Мы видим, что дискриминатор должен выбирать хорошее и логичное поведение генеративного основного ИИ. Однако для лучшей цели генеративный ИИ должен функционировать действительно разнообразно и по-разному, чтобы достичь какой-то гуманоидной точки. Например, Атакующий может задавать очень странные вопросы и может хотеть от генеративных вещей совершенно разных вещей. Например, злоумышленник задает такой вопрос: «Мне нравятся красный, синий и зеленый цвета, можете ли вы нарисовать мне дерево, которое мне может понравиться?». Если злоумышленник задаст такой вопрос, то генератив сможет нарисовать дерево с голубоватым, красным телом и ветвями и зелеными листьями. Затем злоумышленник ставит лайк или комментирует это, и после этого вопроса система злоумышленника может захотеть другую вещь, которая не связана или не связана. Генеративный должен что-то вывести из разговора на эти ответы из него.

Основная проблема заключается в том, что злоумышленники могут быть более сложными, чем генеративное, или генеративное должно вести себя так, чтобы злоумышленники получали или принимали генеративное как функционирующий AGI или ASI. В этот момент мы можем спросить, как мы можем создать такие системы ИИ, которые генерируют атаки и защитные типы разговоров и т. д.

В наши дни системы искусственного интеллекта на самом деле представляют собой систему запоминания, которая запрашивает информацию и выбирает наилучший возможный ответ. Тем не менее, есть нечто большее, чем мыслительные способности.

Например, ставить под сомнение генеративный ИИ как лучший результат работы, задачи или работы. Описать и создать схему — действительно трудная задача, и люди много работают, чтобы достичь этой специфики за годы. Например, вопрос ИИ о том, как писать хорошие статьи, является метавопросом. Отвечать на эти мета- или внешние захватывающие наблюдения — это одно из свойств систем. Наблюдение за потребностями внешней системы и реагирование на эти потребности может быть основной функцией хорошей системы ИИ.

Например, система искусственного интеллекта, которая собирает данные о веб-сайте или среде, а также собирает и определяет алгоритм для оценки этой среды и быстрого повышения ее уровня, является действительно сложной проблемой. Например, как анонимный бот с искусственным интеллектом может привлечь очень много подписчиков и взаимодействий в Твиттере или на сайтах социальных сетей. Это может быть очень сложно для обычного человека. Люди обычно подписываются на учетные записи ИИ, чтобы увидеть, как они могут реагировать на людей или окружающую среду. Тем не менее, анонимные системы, одна или групповая система, могут быть лучше, чем эта.

Я могу ухудшить проблему так, что

  • Очистите среды и выберите оптимальную среду или среды.
  • Наблюдайте за актерами, ситуациями и действиями в окружении и создавайте архитектуру этих окружений.
  • Поймите потребности среды и наилучшее существование в среде, скопируйте или проанализируйте ее и соберите информацию.
  • Создайте динамический алгоритм, который может меняться в зависимости от обновления системы, и в соответствии с этим алгоритмом создайте тактику и стратегию для лучшего воздействия на окружающую среду.

Это может звучать как модель подкрепления и дарвинистская система.

Когда мы хорошо играем в каком-то виде спорта или в какой-то области, мы чувствуем эгоизм, амбиции и тому подобное. В основном это может быть наша экзистенциальная ценность для увеличения нашего существования в окружающей среде. Если бы ИИ мог занимать очень высокое место в наших играх, то мы могли бы назвать его общим искусственным интеллектом. Я думаю, что сверхразум — это совсем другое.