ИИ: РАЗВИВАЕМСЯ ВМЕСТЕ, ЧТОБЫ СНИЖАТЬ РИСКИ!

ЧЕГО МЫ ДОЛЖНЫ ДОСТИЧЬ НА ПУТИ РАЗВИТИЯ AAI ДО AGI…

Введение

Известные ученые-компьютерщики делали прогнозы относительно ИИ и его возможностей еще в 80-х годах. Но недавние исследования сделали революционные технологии искусственного интеллекта возможными гораздо раньше, чем предполагалось изначально. Сегодня пионеры в этой области больше обеспокоены потенциальными опасностями после разрушения, которое уже создали системы с поддержкой ИИ.

Что такое искусственный интеллект?

Искусственный интеллект заставляет повседневные вещи, такие как холодильник, телевизор, телефон или даже новостной сайт, которые мы посещаем, думать, имитируя те же процессы, которые мы используем, чтобы думать для вовлечения сторон (вы, пользователь, производитель или хакер!). Хотя в системе искусственного интеллекта нет биологического нейрона, который стареет, умирает или забывает что-то, как это делаем мы, в ней есть своего рода нейроны, построенные с помощью компьютерной логики.

Давайте разберем его дальше и погрузимся глубже…

Термин «искусственный интеллект» используется в более широком смысле. Есть несколько подмножеств технологий, которые в целом подпадают под то, что мы знаем как искусственный интеллект. Сказав это, давайте двигаться вперед, чтобы понять это байт за байтом.

  • Искусственный интеллект, как правило, включает в себя технологии, которые делают машины способными думать таким образом, чтобы они могли распознавать ваше лицо, когда вы включаете свой ноутбук, или отображать наиболее релевантные результаты во время работы в Интернете. путем анализа ваших интересов, демографии или географического положения.
  • ИИ ни в коем случае не дальше человеческого интеллекта, поскольку машинам тоже нужно учиться, чтобы стать искусственным интеллектом. Основываясь на том, как ИИ заставляет машины учиться, мы можем выделить два подмножества ИИ: машинное обучение и глубокое обучение.

Машинное обучение. Когда система ИИ получает доступ к большому количеству данных и учится предсказывать определенные общие закономерности на основе этого огромного набора данных, это называется обучением с учителем. Это связано с машинным обучением. Это восходящий процесс, вы вводите все данные в систему, затем вы определяете правила для системы, чтобы использовать данные шланга, которые называются моделями, и система прогнозирует соответствующие предоставленные случаи на основе шаблонов, которые она обнаруживает из набор данных с использованием правил, представленных в виде моделей.

Глубокое обучение. Глубокое обучение использует тот же процесс, который вы используете для обучения малышей дома. Ребенок сначала смотрит на предмет, затем издает «у-у-у!» (удивляется), а потом вы говорите ему, что это была кукла, он подходит к другому предмету и снова удивляется, а потом вы говорите ему, что это было или было». т кукла. Ребенка не волнует, почему он должен называть тот или иной предмет «куклой». Он просто смотрит на объект, распознает его характеристики и полагается на то, что вы назовете его именем. Глубокое обучение работает точно так же. В отличие от системы машинного обучения, сначала она не подвергается воздействию большого количества данных. Система искусственного интеллекта с глубоким обучением будет перебирать предоставленные образцы и запрашивать метки. Пусть в нашем случае образцом является «кошка», а целью нашей системы является распознавание «изображений кошек». Система будет перебирать кучу фотографий животных и запрашивать ярлыки, и вы должны пометить их как «кошка» или «не кошка». После нескольких часов обучения наша система сможет распознавать немаркированные изображения «кошки».

Вспомните повседневный пример. Мы все загружаем фотографии на Facebook. Если у вас есть (раздражающая?) привычка отмечать своих друзей на фотографиях, которые вы загружаете, вы могли заметить, что сразу после того, как вы коснетесь лица своего друга, чтобы отметить его, Facebook предлагает несколько вариантов имен, среди которых вы получаете имя своего друга. друг! (ну, по крайней мере, в большинстве случаев!). Facebook может представить такие предложения, потому что у него есть много фотографий вашего друга, загруженных вами или другими вашими друзьями. Алгоритм глубокого обучения Facebook знает края и линии изображения вашего друга. И как определенное количество людей отметило вашего друга на других его фотографиях; он сравнивает фотографию, которую вы только что загрузили, с этими фотографиями и представляет имена людей, у которых есть похожие линии и края в их друзьях.

Итак, теперь мы знаем разницу между контролируемым и неконтролируемым обучением и как они работают. Теперь вы можете задаться вопросом, если ИИ учится так же, как люди, то почему некоторые люди думают, что ИИ здесь, чтобы уничтожить вселенную? Или почему некоторые люди вкладывают миллиарды в разработку какой-то системы искусственного интеллекта, которая потенциально может лишить людей всех рабочих мест?

Давайте углубимся в это…

Некоторые распространенные мысли о рисках, связанных с ИИ, включают:

  • ИИ может отслеживать каждое ваше движение. В современной городской жизни камеры повсюду. А системы распознавания лиц доступны бесплатно. Таким образом, не так уж сложно отслеживать свои шаги по пути в офис. Теперь подумайте, получит ли преступник доступ к этой системе; это будет очень страшно!
  • ИИ может манипулировать вашим мнением. Да, ИИ можно использовать для распространения пропаганды. Доказано, что это эффективный инструмент для пропагандистов. Считается, что на президентские выборы в США в 2016 году сильно повлияла утечка данных Cambridge Analytica.
  • ИИ может быть более разрушительным, чем ядерное оружие. ИИ построен с большой вычислительной мощностью. Если не использовать должным образом, это может быть жестоко. Вооруженные силы некоторых стран разработали множество передовых боевых машин, которые могут отслеживать, преследовать и поражать цели с большей точностью, чем когда-либо прежде, с помощью ИИ. Были разработки дронов с поддержкой ИИ, БПЛА, кораблей-дронов и т. д.
  • Машины с искусственным интеллектом обладают высокой эффективностью, но если машина не будет чутким, как мы, ее эффективность может стать проклятием для людей. Например, простая команда «отвези меня в больницу» для автоматизированной машины может быть слишком опасной. Машина может доставить вас в больницу в кратчайшее время, но может оставить следы аварий.

Но есть способы решить проблемы, созданные ИИ. Искусственно-интеллектуальные системы также должны быть чуткими и иметь общее общественное сознание!

Отличается ли человеческий разум от ИИ?

С самой общей точки зрения можно подумать, что ИИ — это нечто, созданное людьми, чтобы имитировать или, возможно, превосходить человеческий интеллект, но, прочитав предыдущую часть этой статьи, вы, возможно, получили представление о том, насколько процессы, используемые ИИ, аналогичны мыслительным процессам, которые мы используем в нашей повседневной жизни. Вся цель приведенного выше обсуждения состоит в том, чтобы четко заявить, что я думаю, как и многие современные евангелисты философии разума, что Интеллект/Интеллект может опираться или строиться на чем-то физическом, а не на человеческом мозгу (что-то, что Алан Тьюринг утаил много лет назад!) . Что подтверждает, что «Разум» можно построить на небиологическом устройстве.

Мы, люди, приобрели наши аналитические способности/логические способности в результате очень длительного процесса механической эволюции. ИИ ничем не отличается от нас. Мы использовали наши чувства, рациональность или комбинацию того и другого, чтобы улавливать данные и явления из нашего окружения, а затем, используя нашу рациональность/логические и аналитические способности, отделяли хорошее от плохого, отличали моральное от безнравственного, находили интерес в вещах, которые вредят нам, и использовали эти идеи позже. одновременно совершенствовали наши способности.

Аналогичным образом ИИ начинает с использования наборов данных для построения своих логических способностей, а затем, используя эти логические способности, продвигается вперед, чтобы лучше понимать наборы данных, что помогает ему совершенствовать свои способности, лучше анализировать наборы данных и так далее. Разве это технически не похоже на эволюцию? Я считаю, что это так.

В перспективе AGI

60 лет назад человечество впервые представило себе машину, которая может учиться и рассуждать, как люди. Хотя до сегодняшнего дня нам удалось достичь только того, что называется AAI (прикладной искусственный интеллект), который ограничен определенными областями в природе. Мы разработали системы с поддержкой ИИ, которые могут распознавать изображения, выявлять болезни, управлять автомобилем (даже ракетой), предсказывать акции или рынки и т. д. Мы не могли ничего сделать до недавнего времени (после 2000-х), когда аппаратное обеспечение стало достаточно мощным. Некоторые ученые и исследователи изо всех сил стараются достичь ОИИ, что означает единую систему, которая может постепенно обучаться, рассуждать абстрактно и эффективно действовать в широком диапазоне областей — так же, как люди. По словам Питера Восса,

«Компьютерная система, которая соответствует или превосходит когнитивные (не физические) способности в реальном времени умного, хорошо образованного человека».

Термин AGI используется с термином «Настоящий AI» взаимозаменяемо. Поскольку определение предполагает, что он может учиться в режиме реального времени, учиться на своем опыте и работать с недостаточными данными, мы можем ожидать, что ОИИ может чему-то научиться, пройдя курс или класс или некоторые события, которые он замечает.

Здесь основной задачей является построение мозга таким образом, чтобы он мог быть полностью отключен от всего внешнего мира, но при этом нормально функционировать.

Теперь возникает вопрос: если мы хотим создать такой основной мозг для ОИИ, то с чего нам начать?

Должны ли мы создать его, явно запрограммировав используемые нами ментальные инструменты?

Нет! Тогда мы не сможем достичь основных целей AGI, обучаясь без присмотра в режиме реального времени. Ожидается, что AGI воспользуется умственными инструментами во время разговора с другими, чтения книги или посещения тренинга, не так ли? Вот как мы разработали наши ментальные инструменты, и именно это ожидается от ОИИ, потому что мы хотим, чтобы он обладал человеческими способностями.

Если да, то какими возможностями должен обладать AGI на момент его рождения?

Мы, люди, рождаемся с инстинктами. Под «инстинктами» я подразумеваю ментальные инструменты, которые заставляют нас чувствовать голод/боль, заставляют задуматься и т. д. Можно долго спорить об умственных способностях новорожденного. Но я не буду углубляться в это. На этом этапе я хочу прояснить, что умственные инструменты, которые используют нормальные, здоровые взрослые, не являются чем-то, что она наследует от рождения, она развивает эти инструменты в течение длительного периода времени в процессе обучения и социального взаимодействия. Благодаря обучению и социальному взаимодействию мы избавляемся от плохих инстинктов или преодолеваем их и развиваем хорошие (такие как доброта, наша дающая природа и все, что мы делаем, чтобы быть и вести себя как хорошие граждане). Для меня мы как бы наследуем наш интеллект от нашего общества. Мы — то, что представляет собой совокупность того, чем «мы были в далекой истории», как содержит понятие Маркса «историческая действительность» (теория, состоящая в том, чтобы понять объект, в реальности мы должны учитывать исторические этапы его). Поэтому можно сказать, что объект действительности, каков он есть сегодня, мы получаем его через все исторические этапы, какими он был в прошлом. Мы, Люди, также являемся результатом процесса исторической эволюции. Мы исторически унаследовали наш интеллект и умственные способности от наших действий/взаимодействий в обществе.

Как упоминалось ранее, система ИИ проходит обучение, прежде чем она сможет начать полноценно функционировать. Не исключение и для AGI. AGI должны пройти обучение. Хотя процесс обучения или обучения ОИИ будет намного быстрее, чем у людей, поскольку у ОИИ нет биологических механизмов, которые есть у нас, людей. Он не устает, не перегружается, может учиться без перерыва и развивать ментальные инструменты за одну ночь.

И главное, что нужно AGI на пути к обучению, — это способность проявлять любопытство. Принимая автономные входные данные, анализируйте и стройте свое объяснение внешнего мира (может быть, с помощью вопросов, словесных слов или невербальных жестов к нам, людям). Точно так же, как новорожденный, интересуясь объектами, он будет собирать данные через дрессировщиков или окружающих разумных существ, а затем делать объяснение этого объекта для себя, а затем использовать это объяснение для дальнейшего построения другого объяснения другого объекта для себя.

Итак, как регулировать поведение системы ИИ, которая обучается с помощью неконтролируемой модели глубокого обучения в социальной среде?

До этого момента мы обсуждали, как мы можем запустить AGI. Мы упоминали, что ОИИ будет собирать (но не ограничиваться) данные из своего окружения. Но как модерировать данные, которые получает ИИ. Как убедиться, что в социальном окружении система с поддержкой AGI не подвергается влиянию плохой/аморальной мысли?

Вот и приходит на помощь мудрость толпы, которая удерживает то,

Если мы попросим группу людей угадать результат, то предположение группы будет лучше, чем у любого отдельного эксперта.

Традиционно считалось, что,

Если группу людей попросить что-то спрогнозировать, они сообща сделают прогнозы лучше, чем эксперты, если и только если им не разрешат разговаривать друг с другом.

Но в недавнем открытии профессора (Чентола, адъюнкт-профессор в Анненбергской школе коммуникаций и Школе инженерии и прикладных наук Пенна и директор Группы сетевой динамики) было показано, что,

Когда люди разговаривают друг с другом, толпа становится умнее.

Это изобретение делает теорию более динамичной и идеально применимой в социальной среде. Все, что нам нужно сделать, это сделать так, чтобы ОИИ смог открыться как можно большему количеству людей и получить данные от его взаимодействия с людьми. Потому что Человеческие способности могут быть лучше реализованы только через человеческие взаимодействия.

Таким образом, нам не нужно явно программировать ментальные инструменты ОИИ. В ядре мозга ОИИ нам нужно запрограммировать такие интеллектуальные способности, которые позволят ему учиться на взаимодействиях с людьми. И, таким образом, моральные проблемы ОИИ сводятся к минимуму, поскольку он будет полагаться на мудрость подхода толпы к анализу, пониманию и решению «хорошего» от «плохого».

Можно спорить о том, что в нашем обществе есть аморальные и плохие люди, что, если AGI свяжется с ними и разовьет в себе безнравственность или плохие вещи?

Да, нет сомнения, что в нашем обществе есть плохие люди. Но прелесть AGI в том, что он так же динамичен, как и мы. Мы участвовали в войнах, а затем поняли, какое негативное воздействие они оказывают на общества/нации, отказались от войн и создали Организацию Объединенных Наций. Я хочу сказать, что независимо от того, насколько велико количество плохих людей в нашем обществе, количество хороших людей, количество людей, поддерживающих мир, все равно выше. Это то, что удерживает большую часть мира в покое.

Если ОИИ будет развиваться вместе с людьми, он адаптируется к общей воле людей.

В разных странах, в разных обществах люди имеют разные мнения, мы уважаем людей с разными мнениями. ОГИ, когда возникает, следует считать равным другим членам общества, а не меньшим. Мы должны участвовать инклюзивно или, по крайней мере, иметь волю вместе с AGI в социальных функциях. Таким образом, AGI и мы сможем лучше понять друг друга и свести к минимуму масштабы конфликтов.

Но есть одна вещь, с которой нам нужно быть осторожными, это то, что основной мозг ОИИ должен быть беспристрастным по отношению к Властям, он должен иметь свободную волю и достаточно сочувствия, чтобы функционировать в социальной среде.

Обладая свободной волей, он может решить быть разрушительным, но это верно и для нас, людей. Тогда это эмпатия в своей основе, которая может вернуться от причинения катастрофы. Развитие его основного мозга должно быть параллельным, все, что предлагается в этой статье для включения в основной мозг ОИИ, ничего не должно. Мы не должны ожидать его как готового продукта когда-либо. В умеренных средах продолжаются эксперименты по тому, что работает, а что нет. Мы очень хотим увидеть результаты.

В социальной среде, в социальном ключе, через взаимодействие с людьми — вот такой подход нужно использовать при разработке ОИИ. Существует высокая вероятность того, что если ОИИ будет представлено обществу, то он получит понимание большинства населения общества и в соответствии с их общей волей.

Я искренне верю, что преимущества ИИ могут перевесить вред. И мы должны стараться минимизировать риски, чтобы не устранять и не ограничивать силу, которой обладает ИИ.

#ref:

  1. https://newsroom.intel.com/news/many-ways-define-artificial-intelligence/#gs.wt97zg
  2. https://www.guru99.com/deep-learning-tutorial.html
  3. https://www.forbes.com/sites/bernardmarr/2018/11/19/is-artificial-intelligence-dangerous-6-ai-risks-everyone-should-know-about/#3e6cf3702404
  4. https://hub.packtpub.com/stephen-hawking-artificial-intelligence-quotes/
  5. https://emerj.com/ai-future-outlook/elon-musk-on-the-dangers-of-ai-a-catalogue-of-his-statements/
  6. https://emerj.com/ai-future-outlook/bill-gates-on-artificial-intelligence-a-catalogue-of-his-statements/
  7. https://medium.com/intuitionmachine/what-is-agi-99cdb671c88e
  8. https://penntoday.upenn.edu/news/penn-professor-refutes-groupthink-proving-wisdom-crowds-can-prevail
  9. http://ndg.asc.upenn.edu/experiments/collective-intelligence/