Публикации по теме 'fairness'


LIME: пакет, объясняющий машинное обучение
Учебное пособие по концепции LIME и тому, как начать с ней работать. В последние годы модели машинного обучения становятся все более популярными благодаря их способности делать прогнозы и принимать решения с высокой точностью. Однако внутренняя работа этих моделей часто представляет собой черный ящик, что затрудняет понимание того, как они пришли к своим выводам. Это отсутствие прозрачности может стать серьезной проблемой в таких приложениях, как медицина, финансы и юриспруденция, где..

fairmodels: давайте бороться с предвзятыми моделями машинного обучения
часть 3: смягчение TL;DR Пакет R fairmodels упрощает обнаружение смещения посредством визуализации модели . Он реализует несколько стратегий смягчения, которые могут уменьшить смещение. Это позволяет легко использовать проверки показателей справедливости и сравнения между различными моделями машинного обучения (ML). Длинная версия Снижение предвзятости - важная тема в области справедливости машинного обучения (ML). Для пользователей python есть уже реализованные, хорошо..

FairVis - обнаружение предвзятости в машинном обучении с помощью визуальной аналитики
Ежегодно более 10 миллионов американцев попадают в тюрьму, после чего судья решает, отпустить ли подсудимого под залог. Часто за насильственные преступления или рецидивистов судья отказывает человеку в освобождении под залог до суда. Решения об освобождении под залог принимаются судьей с использованием различных факторов, но они показали свою предвзятость по расовому признаку . Машинное обучение (ML) рекламируется как панацея для принятия решений, включая решение об освобождении под..

Можем ли мы изучать модели на основе данных без наследования предубеждений?
Минимизация общего справедливого эмпирического риска ПРИМЕЧАНИЕ РЕДАКТОРА Лука Онето в настоящее время является адъюнкт-профессором Пизанского университета, и его карьера сосредоточена на проблемах обучения на основе данных, как с теоретической, так и с практической точки зрения. Недавно он заинтересовался проблемой справедливого обучения, без дискриминации и предубеждений. Он выиграл премию AWS Machine Learning Research Award по теме «Алгоритмическая справедливость» и стал соавтором..

Взгляд на усилия Google по завоеванию общественного доверия с помощью справедливого машинного обучения и ответственного искусственного интеллекта
В течение многих лет мы слышали о крупных инициативах в области ИИ на международных предприятиях. Согласно отчету Gartner, в ходе которого было опрошено более 3000 руководителей в 89 странах, компании, опасающиеся остаться позади в революции ИИ, увеличили ее внедрение на колоссальные 270% с 2015 по 2019 год. Наряду с промышленностью, искусственный интеллект также позволяет нашим современным умным домам и даже нашел свое применение в играх и развлечениях. Растущее присутствие ИИ..

Пробудитесь на автобане: ученые, алгоритмы и ответственность
Кэти О’Нил была одним из самых важных общественных деятелей, выразивших озабоченность по поводу неизбирательного использования алгоритмов при принятии решений и той опасности, которую это представляет для общества. Для многих из нас ее книга Оружие разрушения математики стала мощным мотиватором для нашей работы и для наших студентов, что еще больше озадачивает то, что она написала New York Times Op-Ed , в котором академиков обвиняют в засыпать за рулем , когда речь идет о том, чтобы..

Инклюзивное машинное обучение: решение проблемы справедливости модели
Что такое справедливость в ИИ? Как мы можем это решить? Реализация сценария использования модели справедливости. Системы искусственного интеллекта (AI) и машинного обучения (ML) все чаще используются во всех секторах и обществах. Наряду с этим в последние годы все большее внимание уделяется модели справедливости . Это поле предназначено для оценки того, насколько справедлива модель при обработке ранее существовавших предубеждений в данных: справедливо ли, что система подбора..