Quelles sont les principales faiblesses de l’IA générative ?

5 Principales faiblesses de l'IA générative

Les experts ont étudié l’IA générative de manière approfondie. Cet article met en évidence les principales faiblesses de l’IA générative, en donnant un aperçu de ses limites basé sur la recherche.

Latanya Sweeney, professeur de gouvernement numérique à Harvard, a deviné que plus de 90 % du contenu sera généré par l’IA et les bots à l’avenir.

Les récentes innovations en matière d’intelligence artificielle redéfinissent la façon dont nous interagissons avec nos mondes. Latanya a également rappelé que les leaders du secteur de la confidentialité des données et des technologies émergentes ont fait des recherches sur les limites et les développements de l’IA et ont découvert comment le Chatgpt annonce un changement majeur dans la façon dont nous utilisons Internet et communiquons les uns avec les autres et avec le monde en général.

Une enquête de 2024 a sondé l’opinion publique sur la question de savoir si le contenu généré par l’IA est meilleur en termes de qualité que le contenu généré par l’homme. Le résultat a révélé que plus de 50 % des personnes interrogées se prononçaient en faveur des contenus créés par des humains. En outre, une personne interrogée sur cinq est d’avis que les contenus générés par l’IA sont un peu meilleurs ou beaucoup meilleurs que les œuvres créées par l’homme.

Nous voulons explorer les craintes et les préoccupations des 4 personnes sur 5 interrogées dans cette étude en nous appuyant sur une autre recherche menée par Microsoft, qui a mis en évidence certains inconvénients liés à l’IA générative .

Pour insister, l’IA générative est un aspect de l’IA qui exploite de grands modèles d’IA ou des modèles de fondation pour créer de nouveaux contenus tels que des vidéos, de l’audio, de la musique, des images et du texte. Cette technologie peut mettre en œuvre des tâches prêtes à l’emploi plus rapidement que les humains, résumer du contenu, répondre à des questions, classer et faire bien plus encore.

Comme toute autre innovation, les plateformes d’IA générative telles que Midjourney, Chatgpt, Meta AI et Claude peuvent améliorer la productivité et peuvent être abusées ou utilisées pour des escroqueries. L’enquête menée par Microsoft a révélé que les internautes du monde entier sont dérangés par les faux, les abus et les escroqueries. Mettons en lumière certains de ces inconvénients et explorons quelques cas où ils se sont produits avec leurs conséquences.

Escroqueries renforcées par l’IA

Une entreprise sur quatre a interdit l’utilisation de l’IA générative sur le lieu de travail.

Pourtant, les cybercriminels persistent à inciter les employés à partager des informations sensibles ou à effectuer un paiement frauduleux. Les criminels peuvent utiliser ChatGPT ou son frère jumeau déraillé dans le dark web FraudGPT pour fabriquer de fausses pièces d’identité et de vraies vidéos d’états financiers ou même utiliser la voix et l’image d’un cadre de l’entreprise pour créer des deep fakes convaincants.

Quant aux statistiques sur cette nouvelle révélation, elles sont lugubres. 65 % des personnes interrogées ont vu leur entreprise être victime d’une escroquerie au paiement réelle ou d’une tentative d’escroquerie en 2022. 71 % de ceux qui ont perdu de l’argent ont été hameçonnés par courriel. L’attaque a ciblé les grandes organisations dont le chiffre d’affaires annuel s’élève à 1 milliard de dollars d’après l’enquête menée par l’Association des professionnels de la finance avec les escroqueries par courriel.

L’email de phishing est l’une des formes courantes d’email frauduleux. Avant l’entrée de l’IA générative, tu pouvais facilement repérer un email de phishing avec une erreur typographique. À l’heure actuelle, il te faudrait plus que de l’intuition et du flair pour ne pas être victime de faux courriels parfaitement élaborés qui ont l’air d’une source fiable. Je parle ici de sites Web d’apparence convaincante comme eBay, Amazon ou Chase. Un lien dans le faux courriel dirige généralement les victimes vers une connexion et le partage de détails confidentiels. Avec ces informations sur les victimes entre les mains des cybercriminels, ils peuvent faire du commerce avec les identifiants, les utiliser pour réaliser d’autres crimes odieux ou vider les comptes bancaires des victimes.

Le spear phishing est un autre type d’escroquerie par courriel, mais il est plus spécifique. Tu ne tomberas peut-être pas dans le piège d’une escroquerie générique par courriel. Cependant, lorsque tu vois un courriel dans lequel l’auteur de la menace s’adresse à toi ou à ton organisation après avoir recherché l’intitulé de ton poste et les noms de ton directeur, de tes superviseurs ou de tes collègues, tu as davantage tendance à tomber dans le panneau.

Ces escroqueries ne sont pas nouvelles, mais le cas ici est que l’IA générative rend difficile la différenciation entre ce qui est authentique et ce qui est faux. L’époque où tu pouvais détecter les courriels de phishing grâce à des polices de caractères bancales ou à une écriture bizarre est révolue. L’IA générative permet aux criminels d’usurper l’identité d’un dirigeant d’entreprise et de détourner sa voix pour l’utiliser dans une fausse conversation téléphonique ou vidéo.

C’est ce qui s’est passé lors d’un incident récent à Hong Kong, lorsqu’un cadre financier pensait avoir reçu un courriel d’un directeur financier basé au Royaume-Uni demandant le transfert de 25,6 millions de dollars. Bien qu’il ait d’abord soupçonné qu’il s’agissait d’un courriel d’hameçonnage, son doute a été trempé après avoir vu le directeur financier et quelques autres associés qu’il pouvait reconnaître dans la vidéo. Il s’est avéré que l’appel avait été profondément truqué. Il l’a appris après avoir vérifié auprès du siège social, mais le transfert avait déjà été effectué. Christopher Budd, directeur chez Sophos, une société de cybersécurité, a décrit les recherches et le niveau de travail investi dans cette escroquerie comme « assez impressionnants ».

Nous avons également vu des deep fakes de plusieurs célébrités. Nous n’oublierons pas comment un deep fake Elon Musk a été utilisé pour promouvoir une plateforme qui n’a jamais existé dans le cadre d’un plan d’investissement bidon, ni celui de Gayle King, une présentatrice de CBS News, Tucker Carlson, ancien animateur de Fox News, et Bill Maher , un animateur de talk-show, qui ont tous fait la promotion à dessein de la nouvelle plateforme d’investissement de Musk. Il est intéressant de noter que les vidéos sont devenues virales sur YouTube, Facebook et TikTok.

Les experts du secteur ont soutenu que les gens peuvent rapidement générer des identités synthétiques en s’appuyant sur l’IA générative. Les cybercriminels peuvent miser sur de nombreuses informations sur Internet aujourd’hui et, avec l’aide de l’IA générative, créer un email de phishing qui cassera ton compte en banque. Devrions-nous nous inquiéter de cela ?

L’IA générative est hallucinante.

Les grands modèles de langage (LLM) ne sont pas infaillibles, pourtant nous allons explorer plusieurs cas où ils fournissent des réponses qui semblent authentiques mais qui n’étaient que des données fabriquées.

Les hallucinations de l’IA sont des résultats trompeurs ou incorrects générés par les modèles d’IA. Soixante et un pour cent des personnes interrogées dans le cadre d’une enquête internationale de TELUS ont fait part de leurs inquiétudes quant à la tendance de l’IA générative à continuer à dispenser et à diffuser des informations inexactes. L’IA générative peut donc produire 5 résultats, et 2 d’entre eux sont fabriqués et carrément faux ou absurdes. Un avocat new-yorkais a utilisé un chatbot conversationnel pour effectuer des recherches juridiques alors qu’il représentait un client pour une plainte pour préjudice corporel. Le juge fédéral qui supervisait le procès a découvert six affirmations bidon parmi les précédents cités par l’avocat dans son mémoire. La partie la plus intéressante de l’histoire est que le chatbot a inventé la fausse revendication et a référencé l’endroit où les revendications pouvaient être trouvées dans les bases de données juridiques. C’est pourquoi avoir des garde-fous pour faire face aux hallucinations de la GenAI n’est pas une option mais une nécessité.

Nous pouvons établir des garde-fous lorsque nous comprenons comment les hallucinations de l’IA se produisent. Les experts de l’industrie de l’IA n’ont peut-être pas les raisons réelles des hallucinations de l’IA, mais plusieurs déclencheurs ont été identifiés.

Si tu entraînes un modèle avec des lacunes insuffisantes ou significatives en entrée qui culminent dans des cas limites auxquels le modèle n’est pas habitué, des hallucinations peuvent se produire. Disons que tu veux rédiger un contrat ; une IA générative formée avec des données de contrats du secteur de la santé peut avoir besoin d’être davantage exposée au jargon technique, aux concepts et aux termes des services financiers. L’IA générative fonctionne en produisant une réponse basée sur une invite. La qualité de l’invite détermine l’invite que tu génères : garbage in, garbage out. Sais-tu que parfois, si GenAi a besoin d’aide pour comprendre l’invite, elle te fournira tout de même une réponse en utilisant les données insuffisantes auxquelles elle a été formée, produisant ainsi un résultat erroné et dommageable ?

Un autre élément déclencheur est la façon dont les messages-guides et les textes de formation sont codés. En général, les LLM associent les termes à un ensemble de nombres appelés codages vectoriels, et ils présentent certains avantages. Un mot tel que « banque » a plusieurs significations. Ce type de mot peut avoir un codage par sens pour réduire l’ambiguïté. Toute erreur lors de l’encodage et du décodage des représentations et du texte peut faire halluciner l’IA générative.

Les LLM doivent être formés avec des données précises et suffisantes, et les parties prenantes doivent adopter la transparence et établir un contrôle de qualité pour éviter les hallucinations.

L’IA générative aide à la production de contenus pédopornographiques.

Tu voudras peut-être ne pas être d’accord avec cette affirmation, mais nous pouvons tous convenir que l’IA générative simplifie la façon dont les prédateurs d’enfants créent rapidement des contenus pédopornographiques (CSAC) à grande échelle. Ils utilisent souvent des images et des vidéos originales et les adaptent pour générer de nouveaux contenus abusifs. Ils peuvent même transformer le contenu anodin d’enfants et les sexualiser pour produire du CSAC généré par l’IA.

Le National Center for Missing and Exploited Children (Centre national pour les enfants disparus et exploités) des États-Unis a indiqué en janvier qu’il avait reçu 4 700 signalements de contenus générés par l’IA et décrivant l’exploitation sexuelle d’enfants. L’organisation s’attend à ce que ce chiffre augmente à mesure que l’IA évolue.

Les prédateurs d’enfants peuvent utiliser l’IA générative pour concevoir de nouvelles façons de victimiser et de revictimiser les enfants. Ils peuvent générer de nouvelles images correspondant à l’apparence d’un enfant et concevoir de nouvelles poses, des contenus flagrants ou des efforts de sextorsion à grande échelle. La technologie peut également produire un guide facile à utiliser pour les mauvais acteurs sur la façon d’abuser sexuellement et de contraindre un enfant ou de détruire des procès et de déformer des artefacts d’abus.

L’IA générative amplifie les préjugés.

Les humains sont naturellement biaisés. Les données utilisées pour former les modèles d’IA générative proviennent des humains. À quoi dois-tu t’attendre ? Si les humains sont biaisés, attends-toi au pire de la part de l’IA générative.

Stable diffusion a généré 500 images en se basant sur des invites écrites. Le résultat était une distorsion complète de la réalité. Une analyse du résultat a révélé que la diffusion stable de l’IA a porté les disparités entre les sexes et les races au-delà des extrêmes plus que ce qui est obtenu dans la vie réelle.

J’adore la façon dont une chercheuse scientifique, Sasha Luccin, l’a légendé. Selon elle, nous projetons une vision du monde dans un monde avec des cultures diverses et plusieurs identités visuelles. Par exemple, si tu entraînes des modèles d’IA avec des affirmations telles que « le noir est synonyme de crime, et les femmes sont des infirmières, pas des médecins », cela finira par amplifier ces préjugés.

L’IA générative met en danger la confidentialité des données.

La protection de la vie privée est une préoccupation importante malgré les progrès notables de l’IA générative. Qu’attends-tu d’un modèle qui n’a pas été formé avec des algorithmes qui préservent la vie privée.

Les données générées par le modèle d’IA sont nouvelles et ressemblent à celles qu’il a utilisées pendant la formation. Si les données d’entraînement comprennent des informations sensibles, il y a une probabilité de violer les données sensibles d’un individu, voir les bases de données d’entraînement comprennent les données personnelles de n’importe quel individu sans qu’aucun consentement explicite n’ait été demandé.

La formation au LLM implique l’utilisation de millions de mots dans le cadre de différentes tâches de langage naturel. Prends note que les LLM sont un sous-ensemble de la GenAI, et des études ont révélé que malgré la possibilité de mémoriser des volumes massifs de données, y compris des informations confidentielles, ils posent toujours des risques pour la vie privée , auxquels les acteurs de la menace peuvent accéder pour mener des activités néfastes.

Une exfiltration est une forme d’attaque qui aggrave toute la situation. Des recherches ont démontré qu’une personne non autorisée peut accéder à des ensembles de données de formation, les transférer, les migrer ou les voler. Un autre angle d’attaque est la divulgation d’informations sensibles lors de la création d’invites.

Maintenant que les entreprises synchronisent des apps non vérifiées qui exploitent la GenAI dans leurs opérations et systèmes commerciaux, il y a plus de risques de violation de la conformité et d’atteinte à la protection des données.

En fin de compte, si nous voulons faire face à toutes ces faiblesses et maximiser les avantages de la technologie à notre époque, chaque partie prenante doit embrasser des efforts concertés pour s’assurer que ce qui est conçu pour le bien ne finira pas comme un outil autodestructeur . Il ne tient qu’à nous de rendre le monde meilleur et plus sûr.

Références

Cisco, (2024). More than 1 in 4 organizations banned use of GenAI over privacy and data security risks. Available at: https://newsroom.cisco.com/c/r/newsroom/en/us/a/y2024/m01/organizations-ban-use-of-generative-ai-over-data-privacy-security-cisco -study.html (Accessed: 02 April 2024)

Collier, K. (2023). Deepfake scams have arrived: Fake videos spread on Facebook, TikTok and YouTube . Available at https://www.nbcnews.com/tech/tech-news/deepfake-scams-arrived-fake-videos-spread-facebook-tiktok-youtube-rcna101415 (Accessed: 02 April 2024)

Kong, H., (2024). Everyone looked real’: multinational firm’s Hong Kong office loses HK$200 million after scammers stage deepfake video meeting . Available at https://www.scmp.com/news/hong-kong/law-and-crime/article/3250851/everyone-looked-real-multinational-firms-hong-kong-office-loses-hk200-million- after-scammers-stage (Accessed: 02 April 2024)

Missing Kids, (2024). Generative AI CSAM is CSAM . Available at: https://www.missingkids.org/blog/2024/generative-ai-csam-is-csam (Accessed: 02 April 2024)

Nicoletti, L. & Bass, D. (2023). HUMANS ARE BIASED. GENERATIVE AI IS EVEN WORSE . Available at: https://www.bloomberg.com/graphics/2023-generative-ai-bias/ (Accessed: 02 April 2024)

Rubenstein, A. (2023). ChatGPT is not quite ready to be your lawyer . Available at: https://www.morningbrew.com/daily/stories/2023/05/29/chatgpt-not-lawyer?mbcid=31642653.1628960&mblid=407edcf12ec0&mid=964088404848b7c2f4a8ea179e251bd1&utm_campaign=mb&utm_medium=newsletter&utm_source=morning_brew (Accessed: 02 April 2024)

Sheng, E. (2024). Generative AI financial scammers are getting very good at duping work emails . Available at: https://www.cnbc.com/2024/02/14/gen-ai-financial-scams-are-getting-very-good-at-duping-work-email.html (Accessed: 02 April 2024 )

Statista, (2024). Opinion of AI-generated content being better than human-created content among consumers in the United States as of 2024. Available at: https://www.statista.com/statistics/1461390/ai-generated-content-better-than- human-created-content/ (Accessed: 02 April 2024)

Tellux, (2023). Generative AI hallucinations: Why they occur and how to prevent them . Available at: https://www.telusinternational.com/insights/ai-data/article/generative-ai-hallucinations (Accessed: 02 April 2024)

Thorn, (2023) Thorn and All Tech Is Human Forge Generative AI Principles with AI Leaders to Enact Strong Child Safety Commitments. Available at: https://www.thorn.org/blog/generative-ai-principles/ (Accessed: 02 April 2024)

University of Sheffield, (nd). University Library: Generative AI literacy . Available at: https://sheffield.libguides.com/genai/perspectives (Accessed: 02 April 2024)

Usenix, (2021). Extracting training data from large language models. This paper is included in the Proceedings of the 30th USENIX Security Symposium. Available at: https://www.usenix.org/system/files/sec21-carlini-extracting.pdf

Falode, E. (2023). Is generative AI a threat to cybersecurity? Elijah Falode. https://elijahfalode.com/is-generative-ai-a-threat-to-cybersecurity/ (Accessed: 05 May 2024)

Elijah is an expert tech content writer and a sought-after technology ebook ghostwriter with over ten years of experience helping businesses become visible and stay secure online. He holds the Cybersecurity & Infrastructure Security Agency's Certificates on the cybersecurity of industrial control systems(ICS) and a Crisis Management Certificate from the London School of Public Relations Limited. He writes blog articles, books, whitepapers, and web copies on digital transformation, blockchain technology, information security, governance, risk and compliance (GRC), emerging technologies, and NFTs. He currently provides cybersecurity content development and SEO services for Cybersecurity/SaaS/B2B companies via Upwork and Fiverr. He is also the Editor at Claribel.net.

Comments are closed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More