Что такое предвзятость ИИ и как ее избежать? Определение от Digimagg
Понимание предвзятости ИИ имеет решающее значение для ответственной разработки ИИ. Узнайте, что такое предвзятость ИИ, ее последствия и как их смягчить, из этого подробного руководства.
Алгоритмы проявляют предвзятость, когда они по-разному оценивают людей, события или объекты для разных целей. Крайне важно понять эти предубеждения, чтобы разработать решения для создания объективных систем искусственного интеллекта. В этой статье мы рассмотрим предвзятость ИИ, ее типы, примеры и стратегии по ее смягчению. Начнем с определения предвзятости ИИ.
Что такое предвзятость ИИ?
Предвзятость машинного обучения, также называемая предвзятостью алгоритма или искусственного интеллекта, описывает тенденцию алгоритмов отражать человеческие предубеждения. Это происходит, когда алгоритм постоянно выдает предвзятые результаты из-за ошибочных предположений в процессе машинного обучения. В сегодняшних условиях, характеризующихся стремлением к большему представительству и разнообразию, эта проблема становится особенно актуальной, поскольку алгоритмы могут непреднамеренно усиливать предвзятость.
Например, алгоритм распознавания лиц может лучше распознавать белых людей, чем чернокожих, поскольку он преимущественно обучался на данных, содержащих больше белых лиц. Это может иметь пагубные последствия для групп меньшинств, закрепляя дискриминацию и препятствуя обеспечению равных возможностей. Проблема заключается в непреднамеренном характере этих предубеждений, из-за чего их трудно выявить, пока они не встроены в программное обеспечение.
3 примера предвзятости ИИ
Поскольку технология искусственного интеллекта проникает в различные аспекты нашей жизни, обеспечение ее справедливости и беспристрастности имеет решающее значение. Предвзятость ИИ может привести к реальным последствиям, таким как несправедливое обращение и неточные решения. Хотя ИИ предлагает значительные преимущества, понимание его предвзятости необходимо перед развертыванием систем ИИ.
Процедурная справедливость или ее отсутствие могут существенно повлиять на различные отрасли:
- Финансовые услуги: ИИ все чаще используется в финансовых компаниях для одобрения кредитов и кредитных рейтингов. Предвзятые алгоритмы могут несправедливо отказывать в кредитах или предоставлять неточные кредитные рейтинги. Например, алгоритм ИИ, обученный на данных преимущественно одной расовой группы, может несправедливо отказывать в кредитах лицам из других расовых групп.
- Система образования: ИИ используется при приеме студентов, где предвзятые алгоритмы могут несправедливо принимать или отклонять студентов в зависимости от их происхождения. Например, ИИ, обученный на предвзятых данных, может отдавать предпочтение определенному полу или расе при принятии решений о приеме.
- Правоохранительные органы: Неправильная идентификация с помощью технологии распознавания лиц может привести к неправомерным арестам. Предвзятые алгоритмы анализа лиц могут привести к ложным срабатываниям, особенно затрагивая цветных людей, которые и так непропорционально представлены в арестах.
Устранение предвзятости ИИ имеет решающее значение для создания надежных систем ИИ, которые приносят пользу обществу в целом.
Как предвзятость ИИ отражает предубеждения, существующие в обществе?
К сожалению, ИИ не застрахован от человеческих предубеждений. Хотя это может помочь людям принимать более беспристрастные решения, это возможно только в том случае, если мы будем активно работать над обеспечением справедливости в системах ИИ. Основная причина предвзятости ИИ часто кроется в исходных данных, а не в самом методе. Вот некоторые ключевые выводы исследования McKinsey по устранению предвзятости ИИ:
- Модели можно обучать на данных, которые отражают человеческий выбор или социальные различия. Например, встраивание слов, обученное на новостных статьях, может демонстрировать гендерные предубеждения, распространенные в обществе.
- Данные могут быть необъективными из-за того, как они собираются или отбираются для использования. В моделях искусственного интеллекта уголовного правосудия избыточная выборка в определенных областях может привести к получению большего количества данных о преступности в этих областях, что потенциально может привести к предвзятому правоприменению.
- Данные, сгенерированные пользователем, могут создать петлю обратной связи с предвзятостью. Например, поисковые запросы, содержащие слово «арест», чаще встречались по именам, идентифицирующим афроамериканцев, по сравнению с именами, идентифицирующими белых, возможно, из-за взаимодействия пользователей с результатами поиска.
- Системы машинного обучения могут выявлять статистически значимые корреляции, которые являются социально неприемлемыми или незаконными. Например, модель ипотечного кредитования может ошибочно прийти к выводу, что пожилые люди с большей вероятностью объявят дефолт, что приведет к возрастной дискриминации.
- Ярким примером из реальной жизни является проблема с кредитной картой Apple, когда заявителям-мужчинам были предложены значительно более высокие кредитные лимиты, чем заявителям-женщинам, что подчеркивает опасность гендерной предвзятости в алгоритмах ИИ.
Как мы можем устранить предвзятости в ИИ?
Вот некоторые предлагаемые решения:
- Тестирование алгоритмов в реальных сценариях. При использовании ИИ для таких задач, как отбор кандидатов на работу, крайне важно протестировать алгоритм на различных пулах кандидатов. Это помогает выявить и устранить систематические ошибки, которые могут возникнуть при применении алгоритма к группам, недостаточно представленным в обучающих данных.
- Принимая во внимание контрфактическую справедливость: Справедливость в ИИ может быть сложной и зависеть от контекста. Исследователи разработали методы, обеспечивающие соответствие систем ИИ критериям справедливости, такие как предварительная обработка данных, постфактум корректировка решений системы или включение определений справедливости в процесс обучения. Например, контрфактическая справедливость гарантирует, что решения ИИ останутся прежними в гипотетическом мире, где изменяются такие чувствительные атрибуты, как раса или пол.
- Внедрение систем «Человек в цикле». Технология «Человек в цикле» направлена на решение проблем, которые ни люди, ни компьютеры не могут решить независимо. Такой подход создает петлю обратной связи, в которой люди вмешиваются, когда машины сталкиваются с проблемами, что со временем приводит к повышению производительности и точности.
- Реформа научно-технического образования: Крейг С. Смит предлагает серьезно изменить то, как люди получают образование в области технологий и науки. Он выступает за реформу, которая будет способствовать междисциплинарному сотрудничеству и переоценке образовательных подходов. Проблемы следует решать на глобальном или местном уровне, аналогично роли FDA в регулировании продуктов питания и лекарств. Принципы, стандарты, регулирующие органы и мнение общественности должны быть частью процессов проверки алгоритмов. Простой диверсификации сбора данных недостаточно для решения проблем; это лишь один аспект комплексного подхода.
Решат ли эти решения все проблемы?
Хотя эти корректировки были бы выгодными, некоторые проблемы могут потребовать чего-то большего, чем технологические решения, и потребовать междисциплинарного подхода, включающего идеи специалистов по этике, социологов и других ученых-гуманитариев.
Более того, одних этих изменений может быть недостаточно в таких сценариях, как оценка справедливости системы для выпуска или определение того, следует ли разрешить полностью автоматизированное принятие решений в определенных контекстах.
Будет ли когда-нибудь ИИ свободен от предвзятости?
Простой ответ? Да и нет. Достичь полностью объективного ИИ теоретически возможно, но практически сложно. Точно так же, как маловероятно существование совершенно беспристрастного человеческого разума, беспристрастность ИИ во многом зависит от качества его входных данных. Если вы сможете тщательно удалить из своего набора обучающих данных сознательные и бессознательные предубеждения, связанные с расой, полом и другими идеологическими факторами, вы сможете создать систему искусственного интеллекта, способную принимать объективные решения на основе данных.
Однако на самом деле это сложная задача. Обучение ИИ основано на получаемых им данных, которые генерируются людьми. Люди, склонные к предубеждениям, создают данные, а постоянное выявление новых предубеждений усложняет задачу. Таким образом, достижение полной беспристрастности как у людей, так и у ИИ может оказаться недостижимым. Поскольку люди производят искаженные данные, а люди и созданные человеком алгоритмы проверяют их, полное устранение предвзятости в системах ИИ является постоянной проблемой.
Тем не менее, борьба с предвзятостью ИИ возможна посредством тщательного тестирования данных и алгоритмов, а также внедрения передового опыта в сборе, использовании и разработке алгоритмов ИИ.
По мере развития искусственного интеллекта (ИИ) его влияние на принятие решений растет. Алгоритмы искусственного интеллекта, используемые в таких областях, как медицинская информация и политика, могут существенно повлиять на жизнь людей. Следовательно, понимание и устранение предубеждений в области ИИ имеют решающее значение.
В этой статье предлагается несколько решений, включая тестирование алгоритмов в реальных сценариях, учет контрфактической справедливости, внедрение систем «человек в цикле» и реформирование научно-технического образования. Однако эти решения могут не полностью устранить предвзятость ИИ и могут потребовать междисциплинарного подхода. Чтобы эффективно бороться с предвзятостью, важно тщательно оценивать как данные, так и алгоритмы, а также придерживаться лучших практик в обработке данных и разработке алгоритмов ИИ.