Этика, доверие и объяснимость в искусственном интеллекте (ИИ)
Взлом "черного ящика" ИИ и понимание этики ИИ
Поскольку искусственный интеллект (ИИ) продолжает развиваться быстрыми темпами, становясь частью все большего числа бизнес-процессов, а давление со стороны регулирующих органов и клиентов продолжает расти, нам необходимо решить некоторые очень глубокие этические вопросы. Проектировщики и разработчики ИИ, в частности, могут помочь снизить уровень предвзятости и дискриминации, обращаясь к этим этическим аспектам и используя вспомогательные наборы инструментов.
Если бы вам сказали, что ваша заявка на кредит была отклонена без видимых причин, приняли бы вы такое решение? А если бы вы знали, что автономным автомобилем можно манипулировать, чтобы он неправильно интерпретировал знаки скорости, стали бы вы на нем ездить? Конечно, нет.
Мы, люди, живем в соответствии с принятыми этическими нормами, которые обеспечиваются законами, правилами, социальным давлением и общественным обсуждением. Хотя этические нормы и ценности могут меняться со временем и в разных культурах, они играют важнейшую роль в принятии решений со времен ранней человеческой цивилизации.
В бизнесе вопрос этики также не нов. Но поскольку искусственный интеллект (ИИ) продолжает развиваться быстрыми темпами, входя во все большее число бизнес-процессов и поддерживая процесс принятия решений, нам необходимо незамедлительно обратиться к очень глубоким этическим вопросам.
Index
Этические камни преткновения искусственного интеллекта
В 2019 году появились жалобы клиентов, обвиняющие алгоритм кредитного скоринга Apple Card в гендерной дискриминации заявителей. А исследователи безопасности из McAfee использовали простой трюк, чтобы обмануть интеллектуальный круиз-контроль Tesla. Для этого исследователи наклеили двухдюймовую ленту на знак скорости 35 миль/ч (сделав среднюю часть цифры 3 немного длиннее), а система автомобиля неправильно интерпретировала ее как 85 миль/ч и соответствующим образом скорректировала скорость.
Таким образом, ответственное использование данных стало центральным элементом конкурентного преимущества.
В то время как потребители озабочены такими общественными проблемами, как общее процветание, инклюзивность и влияние ИИ на занятость, компании сосредоточены на организационных последствиях, таких как:
- Регулирующие органы, а также Европейский союз работают над созданием соответствующих правовых рамок, которые становятся все более обязательными для компаний. 21 апреля 2021 года Европейская комиссия представила первую в истории правовую базу для ИИ, в которой сделана попытка разделить ИИ на категории риска.
- Если модель необоснованно дискриминирует определенную группу клиентов, это может привести к серьезному репутационному ущербу.
- Прозрачное принятие решений укрепляет доверие потребителей и повышает их готовность делиться данными. Например, 81% потребителей говорят, что за последний год они стали больше беспокоиться о том, как компании используют их данные.
Пример: Руководство по этике IBM
Соответственно, многие компании уже ввели свои собственные рекомендации по этичному ИИ. Компания IBM, которая уже более 100 лет стремится к ответственным инновациям, выделяет следующие пять основных направлений в разработке ответственных систем ИИ:
- Подотчетность : Проектировщики и разработчики ИИ несут ответственность за этичные системы ИИ и их результаты.
- Согласование с ценностями : ИИ должен быть разработан таким образом, чтобы соответствовать нормам и ценностям вашей группы пользователей.
- Объяснимость : ИИ должен быть разработан таким образом, чтобы человек мог понять процесс принятия решений.
- Справедливость : ИИ должен быть разработан таким образом, чтобы минимизировать предвзятость и способствовать инклюзивности.
- Права пользователей на данные: ИИ должен быть разработан таким образом, чтобы он защищал данные пользователей и чтобы они сохраняли контроль над доступом к данным и их использованием.
Будущее этичных систем искусственного интеллекта
Критерии и метрики для этичных систем ИИ в конечном итоге будут зависеть от отрасли и случая использования, в котором они будут применяться. Но проектировщики и разработчики ИИ могут помочь уменьшить предвзятость и дискриминацию, принимая во внимание эти пять областей этического рассмотрения.
Системы ИИ должны оставаться достаточно гибкими, чтобы их можно было постоянно поддерживать и совершенствовать по мере обнаружения и решения этических проблем. Различные приборные панели или наборы инструментов, доступные для разработки, могут поддержать этот процесс. Например, «AI Fairness 360«, инструментарий с открытым исходным кодом, который может помочь исследовать, сообщать и смягчать дискриминацию и предвзятость в моделях ИИ. Или инструментарий с открытым исходным кодом «AI Explainability 360«, который может помочь объяснить алгоритмы ИИ.
Резюме
Принятие этических решений — это не просто еще одна форма решения технических проблем, оно должно быть встроено в процесс проектирования и разработки ИИ с самого начала. Этичный, ориентированный на человека ИИ должен проектироваться и разрабатываться в соответствии с ценностями и этикой общества или сообщества, на которое он влияет.
Для компаний, использующих ИИ, это должно быть главным приоритетом. Необходимо убедиться, что каждый сотрудник понимает риски и чувствует ответственность за успех ИИ в компании.
Комментарии закрыты.