Еще в марте я выложил видео с Dr. Фредрик Брюн, генеральный директор Unibap , и я говорили о том, что происходило на переднем крае ИИ в отношении компьютерного зрения и производства роботов . В продолжение этого видео я хотел бы поделиться ссылкой на статью, которую Боб Горли, соучредитель OODA и издатель CTOvision, и я сделали на Управление рисками ИИ и алгоритмов. для организаций, обществ и нашего цифрового будущего .

Не углубляясь в полную статью (я разместил начальное введение и ссылку на полную статью ниже) - главный вывод заключается в том, что хотя ИИ может обладать большим потенциалом, включая машинное обучение и искусственные нейронные сети, следует также принять некоторые меры предосторожности. посоветовал. Эти технологии могут содержать незначительные предубеждения или ошибки, которые могут иметь серьезные последствия для отдельных лиц и сообществ. И политикам, и поставщикам услуг, использующим их, следует уделить время тому, чтобы узнать о сильных сторонах, рисках и недостатках. Многое из того, что мы стремимся сделать с помощью Интернет-коалиции, ориентированной на людей, - это помочь группам сообществ, руководящим советам и лидерам, ориентированным на влияние рассмотреть более значимые и вдохновляющие подходы в отношении того, как мы решаем использовать новые технологии для Приносят пользу как отдельным людям, так и сообществам.

1. Управление рисками ИИ и алгоритмов для организаций, обществ и нашего цифрового будущего

Боб: ИИ может способствовать снижению рисков в организациях любого размера. Для малых предприятий, у которых нет собственных экспертов по данным для разработки решений искусственного интеллекта, наиболее вероятный вклад искусственного интеллекта в снижение рисков будет заключаться в выборе продуктов безопасности, которые поставляются со встроенным искусственным интеллектом. Например, устаревший антивирус многих лет назад, которые люди ставили на свои настольные компьютеры, теперь превратилось в антивирусные и антивирусные решения нового поколения, которые используют методы машинного обучения для работы с вредоносным кодом. Подобные решения сегодня используются предприятиями любого размера. Традиционные поставщики, такие как Symantec и McAfee, все улучшили свои продукты, чтобы использовать более умные алгоритмы, как и многие новые фирмы, такие как Cylance.

Более крупные организации могут уникальным образом использовать свои собственные данные, например, создав собственный корпоративный центр данных. Здесь вы объединяете все свои данные, используя возможности платформы машинного обучения, такие как основной центр данных Cloudera, а затем сами запускаете машинное обучение. Это требует ресурсов, поэтому я говорю, что это для более крупных предприятий. Но как только это будет сделано, вы сможете гораздо быстрее найти доказательства мошенничества или признаки взлома и вредоносного ПО с помощью машинного обучения и методов искусственного интеллекта. Многие облачные возможности снижения рисков также используют ИИ. Например, провайдер данных об угрозах Recorded Future использует передовые алгоритмы, чтобы выявлять наиболее важную информацию и доводить ее до сведения фирмы. В целом я хочу отметить, что организации любого размера теперь могут извлечь выгоду из защитной защиты искусственного интеллекта.

Дэвид: Боб точно понимает, что происходит демократизация использования методов искусственного интеллекта », которые теперь могут быть доступны даже небольшим компаниям и стартапам, которые раньше, возможно, не использовались. доступны, если у них не было достаточных ресурсов. Он также прав насчет вопроса масштабирования. Дополнительный объектив, который я хотел бы добавить, - это размышления о том, как можно использовать ИИ как для того, что организация представляет внешнему миру, так и для того, что она делает внутри. Например, как вы можете использовать ИИ, чтобы понять, есть ли на вашем веб-сайте или в ваших мобильных приложениях вещи, которые можно оценивать на предмет уязвимости на постоянной основе?

Угрозы всегда меняются. Вот почему возможность использовать непрерывные сервисы для сканирования того, что вы представляете извне, на предмет потенциальной поверхности атаки будет преимуществом как для больших, так и для малых компаний.

Другая линза - искать ненормальные закономерности, которые могут происходить внутри вашей организации. Риск возникает между комбинацией людей и технологий. Небольшие компании могут получать новые инструменты с помощью программного обеспечения как услуги, а более крупные компании используют специальные инструменты для поиска моделей жизни. Эти инструменты пытаются установить, какими должны быть нормальные модели жизни в вашей организации, чтобы, если обнаружится что-то еще, что не соответствует этому образцу, достаточно, чтобы поднять флаг. Общая цель - использовать ИИ для повышения безопасности и устойчивости организации с точки зрения внешнего вида и внутренней работы.

Дэвид: Вы можете представить искусственный интеллект как пятилетнего ребенка, который получает достаточное количество языковых данных, учится говорить: «Я сегодня сбегу в школу». И когда вы спрашиваете пятилетнего ребенка: «Почему вы так сказали, а не« Сегодня в школу я сбегу »», что звучит несколько неловко, пятилетний ребенок собирается сказать: «Ну, это просто потому, что я никогда не слышал, чтобы это было так сказано».

То же самое верно и для нынешней третьей волны ИИ, которая включает в себя методы искусственных нейронных сетей для обеспечения безопасности и устойчивости организации. Он ищет вещи, которые соответствуют шаблонам или выходят за рамки шаблонов. При этом не различают, являются ли шаблоны или вещи за их пределами этически правильными.

[… Полные интервью наших дискуссий доступны по адресу https://www.aitrends.com/executive-interview/executive-interview-david-bray-and-bob-gourley-technology-entrepreneurs-and-Threet-leaders/ …] 24 июня мы выступаем сопредседателями и выступаем на утреннем саммите, посвященном управлению ИИ, большим данным и этике, после которого во второй половине дня состоятся дискуссии по безопасности и устойчивости ИИ.

2. Вместе быстрее: совершенствование управления ИИ, больших данных и этических норм в разных секторах и странах

В качестве еще одного быстрого обновления с передовой AI, недавно Dr. Кэрил Бризмиалкевич, помощник генерального инспектора и главный специалист по обработке данных Министерства здравоохранения и социальных служб; Доктор Энтони Скриффиньяно, старший вице-президент и главный специалист по данным , Dun & Bradstreet; и у меня была возможность провести вебинар перед запланированным на 24 июня саммитом.

Модератором вебинара был Билл Вальдез, президент Ассоциации руководителей высшего звена. Я встроил предварительное видео ниже со ссылкой на полное 30-минутное обсуждение.

Скоро будет обновленная часть 3 с доктором Фредриком Брюном, а также его коллегой Дерри Гобердхансингхом, основателем и генеральным директором Harper-Paige относительно того, что они видят в отношении долгосрочных тенденций с AI, который уже присутствует сегодня.