Éthique, confiance et explicabilité dans l’intelligence artificielle (IA)
Percer la boîte noire de l'IA et comprendre l'éthique de l'IA
Alors que l’intelligence artificielle (IA) se développe rapidement, qu’elle s’intègre dans de plus en plus de processus d’entreprise et que la pression des régulateurs et des clients finaux ne cesse de croître, nous devons rapidement nous pencher sur des questions éthiques très profondes. Les concepteurs et les développeurs d’IA, en particulier, peuvent contribuer à réduire les préjugés et la discrimination en tenant compte de certains domaines de réflexion éthique et en utilisant des boîtes à outils de soutien.
Si vous appreniez que votre demande de crédit a été refusée sans raison apparente, accepteriez-vous cette décision ? Et si vous saviez qu’un véhicule autonome pouvait être manipulé pour mal interpréter les panneaux de vitesse, le conduiriez-vous ? Certainement pas.
Nous, les êtres humains, vivons selon des normes éthiques définies en commun, qui sont imposées par des lois, des règles, la pression sociale et le discours public. Même si l’éthique et les valeurs peuvent varier au fil du temps et entre les cultures, elles jouent un rôle crucial dans la prise de décision depuis les débuts de la civilisation humaine.
Dans le monde des affaires, la question de l’éthique n’est pas non plus nouvelle. Mais à une époque où l’intelligence artificielle (IA) se développe rapidement, s’intègre dans de plus en plus de processus d’entreprise et aide à la prise de décision, nous devons rapidement nous pencher sur des questions éthiques très profondes.
Index
Les pierres d’achoppement éthiques de l’IA
En 2019, des plaintes de clients ont été déposées, accusant l’algorithme de solvabilité des demandeurs de carte Apple de discrimination sexuelle. Et des chercheurs en sécurité de McAfee ont utilisé une astuce simple pour déjouer le régulateur de vitesse intelligent de Tesla. Pour ce faire, les chercheurs ont collé une bande de ruban adhésif de 2 pouces sur un panneau de vitesse de 35 mph (ce qui a rendu la partie centrale du 3 un peu plus longue) et le système de la voiture l’a interprété à tort comme étant de 85 mph et a ajusté sa vitesse en conséquence.
L’utilisation responsable des données est donc devenue le point central de l’avantage concurrentiel.
Alors que les consommateurs sont préoccupés par des questions sociétales telles que la prospérité partagée, l’inclusion et l’impact de l’IA sur l’emploi, les entreprises se concentrent sur les implications organisationnelles, telles que :
- Les autorités de régulation ainsi que l’Union européenne travaillent à l’élaboration d’un cadre juridique qui impose de plus en plus d’obligations aux entreprises. Le 21 avril 2021, la Commission européenne a présenté le tout premier cadre juridique pour l’IA, qui tente de classer l’IA en catégories de risque.
- Si un modèle discrimine de manière injustifiée un certain groupe de clients, cela pourrait porter gravement atteinte à la réputation de l’entreprise.
- Une prise de décision transparente inspire confiance aux clients et les rend plus enclins à partager leurs données. Ainsi, 81% des consommateurs déclarent s’être davantage préoccupés de la manière dont les entreprises utilisent leurs données au cours de l’année écoulée.
Exemple : lignes directrices éthiques d’IBM
En conséquence, de nombreuses entreprises ont déjà adopté leurs propres lignes directrices pour une IA éthique. IBM, qui s’efforce depuis plus de 100 ans d’innover de manière responsable, décrit les cinq domaines prioritaires suivants dans le cadre du développement de systèmes d’IA responsables :
- Responsabilité : les concepteurs et les développeurs d’IA sont responsables de l’éthique des systèmes d’IA et de leurs résultats.
- Alignement des valeurs : l’IA devrait être conçue de manière à s’aligner sur les normes et les valeurs de votre groupe d’utilisateurs.
- Explicabilité : l’IA doit être conçue de manière à ce que l’être humain puisse comprendre son processus de décision.
- Équité : l’IA doit être conçue de manière à minimiser les préjugés (biais) et à favoriser l’inclusion.
- Droits des données des utilisateurs : L’IA doit être conçue de manière à protéger les données des utilisateurs et à leur permettre de conserver le contrôle de l’accès aux données et de leur utilisation.
L’avenir des systèmes d’IA éthiques
Les critères et les métriques des systèmes d’IA éthiques dépendront en fin de compte du secteur et de l’application dans lesquels ils seront utilisés. Mais les concepteurs et les développeurs d’IA peuvent contribuer à réduire les préjugés et la discrimination en tenant compte de ces cinq domaines de réflexion éthique.
Les systèmes d’IA doivent rester suffisamment flexibles pour pouvoir être entretenus et améliorés en permanence lorsque des problèmes éthiques sont découverts et résolus. Divers tableaux de bord ou boîtes à outils disponibles pour le développement peuvent soutenir le processus. Comme par exemple « AI Fairness 360« , une boîte à outils open source qui peut aider à examiner, signaler et atténuer la discrimination et les préjugés dans les modèles d’IA. Ou la boîte à outils open-source « AI Explainability 360« , qui peut aider à expliquer les algorithmes d’IA.
Résumé
La prise de décision éthique n’est pas seulement une autre forme de résolution de problèmes techniques, mais doit être intégrée dès le départ dans le processus de conception et de développement de l’IA. Une IA éthique, centrée sur l’humain, doit être conçue et développée de manière à être en accord avec les valeurs et les principes éthiques de la société ou de la communauté qu’elle concerne.
Pour les entreprises qui utilisent l’IA, cela doit être une priorité absolue. Il faut s’assurer que chaque employé comprend les risques et se sent responsable du succès de l’IA dans l’entreprise.
Comments are closed.