Этика, доверие и объяснимость в искусственном интеллекте (ИИ)

Взлом "черного ящика" ИИ и понимание этики ИИ

Поскольку искусственный интеллект (ИИ) продолжает развиваться быстрыми темпами, становясь частью все большего числа бизнес-процессов, а давление со стороны регулирующих органов и клиентов продолжает расти, нам необходимо решить некоторые очень глубокие этические вопросы. Проектировщики и разработчики ИИ, в частности, могут помочь снизить уровень предвзятости и дискриминации, обращаясь к этим этическим аспектам и используя вспомогательные наборы инструментов.

Если бы вам сказали, что ваша заявка на кредит была отклонена без видимых причин, приняли бы вы такое решение? А если бы вы знали, что автономным автомобилем можно манипулировать, чтобы он неправильно интерпретировал знаки скорости, стали бы вы на нем ездить? Конечно, нет.

Мы, люди, живем в соответствии с принятыми этическими нормами, которые обеспечиваются законами, правилами, социальным давлением и общественным обсуждением. Хотя этические нормы и ценности могут меняться со временем и в разных культурах, они играют важнейшую роль в принятии решений со времен ранней человеческой цивилизации.

В бизнесе вопрос этики также не нов. Но поскольку искусственный интеллект (ИИ) продолжает развиваться быстрыми темпами, входя во все большее число бизнес-процессов и поддерживая процесс принятия решений, нам необходимо незамедлительно обратиться к очень глубоким этическим вопросам.

Этические камни преткновения искусственного интеллекта

В 2019 году появились жалобы клиентов, обвиняющие алгоритм кредитного скоринга Apple Card в гендерной дискриминации заявителей. А исследователи безопасности из McAfee использовали простой трюк, чтобы обмануть интеллектуальный круиз-контроль Tesla. Для этого исследователи наклеили двухдюймовую ленту на знак скорости 35 миль/ч (сделав среднюю часть цифры 3 немного длиннее), а система автомобиля неправильно интерпретировала ее как 85 миль/ч и соответствующим образом скорректировала скорость.

Таким образом, ответственное использование данных стало центральным элементом конкурентного преимущества.

В то время как потребители озабочены такими общественными проблемами, как общее процветание, инклюзивность и влияние ИИ на занятость, компании сосредоточены на организационных последствиях, таких как:

  • Регулирующие органы, а также Европейский союз работают над созданием соответствующих правовых рамок, которые становятся все более обязательными для компаний. 21 апреля 2021 года Европейская комиссия представила первую в истории правовую базу для ИИ, в которой сделана попытка разделить ИИ на категории риска.
  • Если модель необоснованно дискриминирует определенную группу клиентов, это может привести к серьезному репутационному ущербу.
  • Прозрачное принятие решений укрепляет доверие потребителей и повышает их готовность делиться данными. Например, 81% потребителей говорят, что за последний год они стали больше беспокоиться о том, как компании используют их данные.

Пример: Руководство по этике IBM

Соответственно, многие компании уже ввели свои собственные рекомендации по этичному ИИ. Компания IBM, которая уже более 100 лет стремится к ответственным инновациям, выделяет следующие пять основных направлений в разработке ответственных систем ИИ:

  • Подотчетность : Проектировщики и разработчики ИИ несут ответственность за этичные системы ИИ и их результаты.
  • Согласование с ценностями : ИИ должен быть разработан таким образом, чтобы соответствовать нормам и ценностям вашей группы пользователей.
  • Объяснимость : ИИ должен быть разработан таким образом, чтобы человек мог понять процесс принятия решений.
  • Справедливость : ИИ должен быть разработан таким образом, чтобы минимизировать предвзятость и способствовать инклюзивности.
  • Права пользователей на данные: ИИ должен быть разработан таким образом, чтобы он защищал данные пользователей и чтобы они сохраняли контроль над доступом к данным и их использованием.

Будущее этичных систем искусственного интеллекта

Критерии и метрики для этичных систем ИИ в конечном итоге будут зависеть от отрасли и случая использования, в котором они будут применяться. Но проектировщики и разработчики ИИ могут помочь уменьшить предвзятость и дискриминацию, принимая во внимание эти пять областей этического рассмотрения.

Системы ИИ должны оставаться достаточно гибкими, чтобы их можно было постоянно поддерживать и совершенствовать по мере обнаружения и решения этических проблем. Различные приборные панели или наборы инструментов, доступные для разработки, могут поддержать этот процесс. Например, «AI Fairness 360«, инструментарий с открытым исходным кодом, который может помочь исследовать, сообщать и смягчать дискриминацию и предвзятость в моделях ИИ. Или инструментарий с открытым исходным кодом «AI Explainability 360«, который может помочь объяснить алгоритмы ИИ.

Резюме

Принятие этических решений — это не просто еще одна форма решения технических проблем, оно должно быть встроено в процесс проектирования и разработки ИИ с самого начала. Этичный, ориентированный на человека ИИ должен проектироваться и разрабатываться в соответствии с ценностями и этикой общества или сообщества, на которое он влияет.

Для компаний, использующих ИИ, это должно быть главным приоритетом. Необходимо убедиться, что каждый сотрудник понимает риски и чувствует ответственность за успех ИИ в компании.

As the "Head of Data Strategy & Data Culture" at O2 Telefónica, Britta champions data-driven business transformation. She is also the founder of "dy.no," a platform dedicated to empowering change-makers in the corporate and business sectors. Before her current role, Britta established an Artificial Intelligence department at IBM, where she spearheaded the implementation of AI programs for various corporations. She is the author of "The Disruption DNA" (2021), a book that motivates individuals to take an active role in digital transformation.

Комментарии закрыты.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More