Ética, confianza y explicabilidad en la Inteligencia Artificial (IA)

Romper la caja negra de la IA y comprender la ética de la IA

A medida que la inteligencia artificial (IA) sigue evolucionando a un ritmo rápido, pasando a formar parte de cada vez más procesos empresariales, y a medida que las presiones normativas y de los clientes siguen aumentando, tenemos que abordar algunas cuestiones éticas muy profundas. Los diseñadores y desarrolladores de IA, en particular, pueden ayudar a reducir el sesgo y la discriminación abordando estas áreas de consideración ética y utilizando conjuntos de herramientas de apoyo.

Si le dijeran que su solicitud de préstamo ha sido rechazada sin ninguna razón discernible, ¿aceptaría esta decisión? Y si supiera que un vehículo autónomo puede ser manipulado para malinterpretar las señales de velocidad, ¿lo conduciría? Desde luego que no.

Los seres humanos vivimos según normas éticas establecidas en común que se hacen cumplir mediante leyes, reglas, presión social y discurso público. Aunque la ética y los valores pueden variar con el tiempo y entre culturas, ha desempeñado un papel crucial en la toma de decisiones desde los primeros tiempos de la civilización humana.

En el mundo empresarial, el tema de la ética tampoco es nuevo. Pero a medida que la inteligencia artificial (IA) sigue evolucionando a un ritmo acelerado, entrando en cada vez más procesos empresariales y apoyando la toma de decisiones, necesitamos abordar sin demora cuestiones éticas muy profundas.

Los escollos éticos de la IA

En 2019 hubo quejas de clientes que acusaban al algoritmo de puntuación crediticia de la tarjeta de Apple de discriminación de género. Y los investigadores de seguridad de McAfee utilizaron un sencillo truco para engañar al control de crucero inteligente de Tesla. Para ello, los investigadores pegaron una tira de cinta adhesiva de 5 centímetros en una señal de velocidad de 35 mph (haciendo la parte central del 3 un poco más larga), y el sistema del coche la interpretó erróneamente como 85 mph y ajustó su velocidad en consecuencia.

El uso responsable de los datos se ha convertido así en un elemento central de la ventaja competitiva.

Mientras los consumidores se preocupan por cuestiones sociales como la prosperidad compartida, la inclusión y el impacto de la IA en el empleo, las empresas se centran en impactos organizativos como:

  • Las autoridades reguladoras, así como la Unión Europea, están trabajando en los correspondientes marcos jurídicos que obligan cada vez más a las empresas. El 21 de abril de 2021, la Comisión Europea presentó el primer marco jurídico para la IA, que intenta clasificar la IA en categorías de riesgo.
  • Si un modelo discrimina injustificadamente a un determinado grupo de clientes, esto podría provocar graves daños a la reputación.
  • Una toma de decisiones transparente genera confianza en los clientes y aumenta su disposición a compartir datos. Por ejemplo, el 81 % de los consumidores afirman que en el último año se han preocupado más por la forma en que las empresas utilizan sus datos.

Ejemplo: Directrices éticas de IBM

En consecuencia, muchas empresas ya han impuesto sus propias directrices para una IA ética. IBM, que lleva más de 100 años esforzándose por lograr una innovación responsable, esboza las siguientes cinco áreas de interés en el desarrollo de sistemas de IA responsables:

  • Responsabilidad: los diseñadores y desarrolladores de IA son responsables de la ética de los sistemas de IA y de sus resultados.
  • Alineación de valores: la IA debe diseñarse de forma que se ajuste a las normas y valores de su grupo de usuarios.
  • Explicabilidad: la IA debe diseñarse para que los humanos puedan entender su proceso de toma de decisiones.
  • Imparcialidad: la IA debe diseñarse para minimizar los prejuicios y promover la inclusión.
  • Derechos de los usuarios: La IA debe diseñarse de forma que proteja los datos de los usuarios y que éstos conserven el control sobre el acceso y uso de los datos.

El futuro de los sistemas éticos de IA

Los criterios y métricas de los sistemas éticos de IA dependerán en última instancia del sector y del caso de uso en el que se implanten. Pero los diseñadores y desarrolladores de IA pueden ayudar a reducir el sesgo y la discriminación teniendo en cuenta estas cinco áreas de consideración ética.

Los sistemas de IA deben ser lo suficientemente flexibles como para ser mantenidos y mejorados constantemente a medida que se descubren y abordan cuestiones éticas. Varios cuadros de mando o conjuntos de herramientas disponibles para el desarrollo pueden apoyar el proceso. Como «AI Fairness 360«, un conjunto de herramientas de código abierto que puede ayudar a investigar, informar y mitigar la discriminación y la parcialidad en los modelos de IA. O el conjunto de herramientas de código abierto «AI Explainability 360«, que puede ayudar a explicar los algoritmos de IA.

Resumen

La toma de decisiones éticas no es una forma más de resolver problemas técnicos, sino que debe integrarse en el proceso de diseño y desarrollo de la IA desde el principio. La IA ética y centrada en el ser humano debe diseñarse y desarrollarse de forma coherente con los valores y la ética de la sociedad o comunidad a la que afecta.

Para las empresas que utilizan IA, esto debe ser una prioridad absoluta. Hay que asegurarse de que todos los empleados comprendan los riesgos y se sientan responsables del éxito de la IA en la empresa.

As the "Head of Data Strategy & Data Culture" at O2 Telefónica, Britta champions data-driven business transformation. She is also the founder of "dy.no," a platform dedicated to empowering change-makers in the corporate and business sectors. Before her current role, Britta established an Artificial Intelligence department at IBM, where she spearheaded the implementation of AI programs for various corporations. She is the author of "The Disruption DNA" (2021), a book that motivates individuals to take an active role in digital transformation.

Los comentarios están cerrados.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More