Компьютеры не обгонят наши человеческие возможности и мы не устареем надолго?

Сингулярность — обман, сто лет назад наш интеллект был совсем другим, чем сейчас. Честно говоря, лет через сто наш интеллект превратится во что-то, чего мы пока не можем понять. Будучи уверенным, да, есть одна вещь, которую мы знаем, и это тот факт, что у нас нет ни малейшего представления о том, как работает мозг в целом, так как что-то искусственное должно работать лучше, например. эмоция? Поведение машин есть и будет предметом различных научно-фантастических голливудских блокбастеров. Например, в недавних фильмах: Ex Machina, Her and Chappie и еще в истории фильмов, связанных с искусственным интеллектом, таких как; 2001: Космическая одиссея, Метрополис и ИИ: Искусственный интеллект. Мне очень нравятся эти истории, и я понимаю, что на самом деле мы живем в эпоху, когда мы должны обсуждать темы «машинного интеллекта» и «этической проверки». Сингулярность и автономное поведение — это термин, который теперь используется все чаще не только в киноиндустрии, но и в большей степени в результате мышления, основанного на данных вокруг нас.

Начнем с истории, связанной с машинным интеллектом и инновациями.
История об Икаре и Дедале. Для ускорения я дам вам сюжет этого мифологического произведения; речь идет о вечном стремлении к инновациям и в то же время о способности достичь следующего уровня в любой дисциплине, а также о том, чтобы найти правильный импульс и баланс в выполнении и выполнении этих типов путешествий.

(Дедалу нужно было изобрести что-то богоподобное. Дедал создал крылья для своего сына Икара, крылья действительно были тем краем, который ему был нужен, но к ним также была прикреплена важная листовка. Если вы подлетите слишком близко к солнцу, воск между крыльями растает, и вы рухнете. Подлетите слишком близко к океану, и крылья впитают много океанской воды, и вы рухнете. Икар, сын Дедала, стал уверенным в себе и стал летать все выше и выше, в результате чего воск тает, что обернулось для Дедала трагедией: Икар рухнул в море и утонул)

Мораль истории

Мы всегда стараемся выйти на новый уровень технологий. Учитывая этот факт, мы также всегда пытаемся найти правильный баланс между этикой, экономикой, конфиденциальностью и многими другими вещами, чтобы добиваться и выполнять эти улучшения, не всегда думая о гражданских или личных последствиях.

Сказав все это, следующая тема, которую нам нужно обсудить при принятии решений, — это прозрачность наших так называемых безупречных прогностических моделей. Факт: будет огромное количество данных, и в то же время в ближайшие годы будет нехватка специалистов по данным. В результате появится множество инструментов промежуточного программного обеспечения и поставщиков, которые также будут делиться данными о решениях для масс. Итак, вот вопрос: как мы можем управлять или направлять эту массу полезных данных в действительно надежные данные, соответствующие решения и не добавлять к шуму сегмента. Чтобы получить эту большую цель и механизм обучения в непрерывном потоке улучшений (кстати, я большой поклонник кайдзен), нам нужны судьи, работающие круглосуточно и без выходных, которые не предвзяты и могут делиться определенной информацией и в то же время соблюдать правила для определенные события, будь то этические, будь то бизнес. Этот судья должен иметь возможность хранить и обмениваться всеми важными данными аудита, которые использовались для принятия решений, в постоянном и неизменном реестре.

Почему? Основным драйвером будет доверие, вторым хорошим фактором будет возможность прозрачности, когда это необходимо для клиента и его опыта. Еще одно преимущество с точки зрения бизнеса заключается в том, что модели, в большей степени относящиеся к гражданскому или общественному достоянию, соответствуют нормативным требованиям и параметрам соответствия и в то же время поддаются аудиту.

Справедливо предположить, что нам понадобится сделать машинный интеллект поддающимся проверке. Решение заключается в простом триггере, который может отслеживать критическую модель вашей организации или бизнеса. В конечном итоге триггер приводит к записи и сохранению наиболее важных значений и функций любого типа алгоритмической модели. Это приведет к необходимости создания прозрачной модели, которая может быть проверена, например. налогообложение в рамках общественного достояния, или это может привести к доверию и консенсусу, необходимым в отношении услуг в рамках здравоохранения; врач подтвердит диагноз, поставщик подтвердит, что лечение было проведено, а плательщик подтвердит, что страховое покрытие действительно. Другой пример использования может быть в области страхования или финансов, когда вы узнаете, почему ваш кредитный рейтинг отклонен, ваша организация разделяет доверие.

Alvis выступает за создание надежных доверительных решений, которые могут быть проверены в любое время и в любое время для бизнеса с нормативными обязательствами. Мы упрощаем подключение моделей, которые должны быть общедоступны и могут быть проверены, подтверждены и проверены. Alvis готовится к третьей волне, когда у бизнеса в сочетании с государственными службами возникает потребность в создании доверия и возможности предоставления безопасных, неизменяемых и постоянных решений с распределенным реестром.

Вывод

Способность сделать модели пригодными для аудита — это хороший первый шаг не только к пониманию тенденций, но и к помощи в формировании нашего поведения в будущем.
Самый большой выигрыш будет заключаться в том, что гражданин и в то же время клиент будут иметь прозрачность и доверие в отношении принятых решений, которые оказали наибольшее влияние на исход этого конкретного сценария. У него есть возможность применять больший контроль над алгоритмами, которые выходят из-под контроля, он может обеспечить сквозное шифрование для обеспечения безопасных, децентрализованных процессов между миллионами узлов с одной целью, сделать алгоритмические модели подотчетными, когда это необходимо.

Alvis предлагает единую платформу для проверяемых моделей, помощь в обеспечении соответствия моделям и добавление бизнес-правил и этических правил ко всем типам моделей, управляемых данными. По моему честному мнению, мы должны осознавать право на контроль или, по крайней мере, представление о доверии и открытых экспертных оценках в отношении фабрикации определенных решений.

Давайте сделаем машинный интеллект поддающимся проверке.