Was sind die größten Schwächen der generativen KI?
5 Schwachstellen der generativen KI
Experten haben generative KI ausgiebig untersucht. Dieser Artikel hebt die wichtigsten Schwächen der generativen KI hervor und gibt Einblicke in ihre Grenzen auf der Grundlage von Forschungsergebnissen.
Latanya Sweeney, eine Harvard-Professorin für Digital Government, schätzt, dass in Zukunft über 90 % der Inhalte von KI und Bots generiert werden.
Die jüngsten Innovationen im Bereich der künstlichen Intelligenz definieren die Art und Weise, wie wir mit unserer Welt interagieren, neu. Latanya wies auch darauf hin, dass Branchenführer im Bereich Datenschutz und aufkommende Technologien die Grenzen und Entwicklungen der KI erforscht haben und herausgefunden haben, dass Chatgpt einen großen Wandel in der Art und Weise einläutet, wie wir das Internet nutzen und miteinander und mit der Welt im Allgemeinen kommunizieren.
In einer Umfrage von 2024 wurde die öffentliche Meinung darüber abgefragt, ob KI-generierte Inhalte qualitativ besser sind als von Menschen erstellte Inhalte. Das Ergebnis zeigte, dass mehr als 50 % der Befragten für von Menschen erstellte Inhalte plädieren. Außerdem vertrat jeder fünfte Befragte die Meinung, dass von KI generierte Inhalte etwas oder viel besser sind als von Menschen erstellte Werke.
Wir wollen die Ängste und Bedenken der 4 von 5 Befragten in dieser Studie untersuchen, indem wir auf eine andere von Microsoft durchgeführte Studie aufbauen, die einige Nachteile der generativen KI aufzeigt.
Generative KI ist ein Aspekt der KI, bei dem große KI-Modelle oder Basismodelle genutzt werden, um neue Inhalte wie Videos, Audio, Musik, Bilder und Text zu erstellen. Diese Technologie kann Out-of-the-Box-Aufgaben schneller umsetzen als Menschen, Inhalte zusammenfassen, Fragen beantworten, klassifizieren und vieles mehr.
Wie jede andere Innovation können auch generative KI-Plattformen wie Midjourney, Chatgpt, Meta AI und Claude die Produktivität verbessern, aber auch missbraucht oder für Betrügereien genutzt werden. Die Umfrage von Microsoft hat ergeben, dass Internetnutzer/innen auf der ganzen Welt über Fälschungen, Missbrauch und Betrug besorgt sind. Werfen wir einen Blick auf einige dieser Schattenseiten und erkunden wir einige Fälle, in denen sie auftraten, mit den entsprechenden Konsequenzen.
Index
KI-unterstützter Betrug
Eines von vier Unternehmen hat den Einsatz von generativer KI am Arbeitsplatz verboten.
Trotzdem bringen Cyberkriminelle immer wieder Angestellte dazu, vertrauliche Informationen preiszugeben oder eine betrügerische Zahlung zu tätigen. Kriminelle können ChatGPT oder seinen entgleisten Zwillingsbruder im Dark Web, FraudGPT, nutzen, um gefälschte Ausweise und echte Videos von Finanzberichten zu erstellen oder sogar die Stimme und das Bild einer Führungskraft eines Unternehmens zu verwenden, um überzeugende Deep Fakes zu erstellen.
Was die Statistiken zu dieser neuen Enthüllung angeht, sind sie erschreckend. Bei 65% der Befragten wurde ihr Unternehmen im Jahr 2022 Opfer eines tatsächlichen oder versuchten Zahlungsbetrugs. 71% derjenigen, die Geld verloren haben, wurden per E-Mail gephisht. Der Angriff zielte auf große Unternehmen mit einem Jahresumsatz von 1 Milliarde US-Dollar, wie aus der Umfrage der Association of Financial Professionals mit E-Mail-Betrug hervorgeht.
Phishing-E-Mails sind eine der häufigsten Formen von betrügerischen E-Mails. Vor dem Aufkommen der generativen KI konntest du eine Phishing-E-Mail mit einem Tippfehler leicht erkennen. Jetzt brauchst du mehr als Intuition und Bauchgefühl, um nicht Opfer von perfekt gestalteten gefälschten E-Mails zu werden, die wie eine vertrauenswürdige Quelle aussehen. Ich spreche von überzeugend aussehenden Websites wie eBay, Amazon oder Chase. Ein Link in der gefälschten E-Mail fordert die Opfer in der Regel auf, sich einzuloggen und vertrauliche Daten preiszugeben. Mit diesen Opferinformationen in den Händen können Cyberkriminelle mit den IDs Handel treiben, sie für andere abscheuliche Verbrechen nutzen oder die Bankkonten der Opfer leeren.
Spear-Phishing ist eine andere Art von E-Mail-Betrug, aber er ist spezifischer. Auf einen allgemeinen E-Mail-Betrug fällst du vielleicht nicht herein. Wenn du jedoch eine E-Mail siehst, in der der Täter dich oder dein Unternehmen anspricht, nachdem er deine Berufsbezeichnung und die Namen deines Managers, deiner Vorgesetzten oder deiner Kollegen recherchiert hat, ist die Wahrscheinlichkeit größer, dass du darauf hereinfällst.
Diese Betrügereien sind nicht neu, aber in diesem Fall macht es die generative KI schwer zu unterscheiden, was echt und was gefälscht ist. Vorbei sind die Zeiten, in denen man Phishing-E-Mails an schrägen Schriftarten oder merkwürdigen Texten erkennen konnte. Generative KI macht es Kriminellen möglich, sich als Führungskraft eines Unternehmens auszugeben und deren Stimme für ein gefälschtes Telefon- oder Videogespräch zu übernehmen.
Dies war kürzlich bei einem Vorfall in Hongkong der Fall, als ein Finanzmanager dachte, er hätte eine E-Mail von einem Finanzchef aus Großbritannien erhalten, in der er um die Überweisung von 25,6 Millionen Dollar bat. Während er zunächst vermutete, dass es sich um eine Phishing-E-Mail handelte, wurden seine Zweifel zerstreut, als er den Finanzvorstand und ein paar andere Mitarbeiter, die er in dem Video erkennen konnte, sah. Es stellte sich heraus, dass der Anruf gründlich gefälscht worden war. Er erfuhr davon, nachdem er in der Zentrale nachgefragt hatte, aber da war die Überweisung bereits erfolgt. Christopher Budd, ein Direktor bei Sophos, einem Cybersicherheitsunternehmen, beschrieb die Recherche und den Aufwand, der in diesen Betrug investiert wurde, als „ziemlich beeindruckend“.
Wir haben auch schon einige Fälschungen von Berühmtheiten gesehen. Wir werden nicht vergessen, wie ein gefälschter Elon Musk benutzt wurde, um für eine Plattform zu werben, die nie existierte, oder Gayle King, Nachrichtensprecherin bei CBS News, Tucker Carlson, ehemaliger Fox News-Moderator, und Bill Maher, ein Talkshow-Moderator, die alle absichtlich für die neue Investitionsplattform von Musk warben. Interessanterweise gingen die Videos auf YouTube, Facebook und TikTok viral.
Branchenexperten haben behauptet, dass Menschen durch den Einsatz generativer KI schnell synthetische Identitäten erstellen können. Cyberkriminelle können heute auf viele Informationen im Internet zurückgreifen und mit Hilfe von generativer KI eine Phishing-E-Mail erstellen, die dein Bankkonto sprengt. Sollten wir uns darüber Sorgen machen?
Generative KI kann halluzinieren
Große Sprachmodelle (LLM) sind nicht unfehlbar, aber wir werden einige Fälle untersuchen, in denen sie Antworten geben, die authentisch erscheinen, aber nur gefälschte Daten waren.
KI-Halluzinationen sind irreführende oder falsche Ergebnisse, die von KI-Modellen erzeugt werden. Einundsechzig Prozent der Befragten einer internationalen TELUS-Umfrage äußerten sich besorgt über die Tendenz der generativen KI, immer wieder ungenaue Informationen zu liefern und zu verbreiten. So kann die generative KI 5 Ergebnisse liefern, von denen 2 gefälscht und völlig falsch oder unsinnig sind. Ein New Yorker Anwalt benutzte einen Chatbot, um juristische Nachforschungen anzustellen, während er einen Klienten in einem Schadensfall vertrat. Der Bundesrichter, der die Klage beaufsichtigte, entdeckte sechs falsche Ansprüche aus den Präzedenzfällen, die der Anwalt in seinem Schriftsatz zitierte. Das Spannende an der Geschichte war, dass der Chatbot die gefälschten Ansprüche erfand und darauf hinwies, wo die Ansprüche in den juristischen Datenbanken zu finden waren. Aus diesem Grund sind Leitplanken für den Umgang mit GenAI-Halluzinationen keine Option, sondern ein Muss.
Wir können Leitplanken aufstellen, wenn wir verstehen, wie KI-Halluzinationen entstehen. KI-Branchenexperten kennen zwar keine konkreten Gründe für KI-Halluzinationen, aber es wurden mehrere Auslöser identifiziert.
Wenn du ein Modell mit unzureichenden oder erheblichen Eingabelücken trainierst, die in Randfällen gipfeln, an die das Modell nicht gewöhnt ist, können Halluzinationen auftreten. Nehmen wir an, du willst einen Vertrag aufsetzen; eine generative KI, die mit Vertragsdaten aus dem Gesundheitswesen trainiert wurde, muss möglicherweise mehr mit dem Fachjargon, den Konzepten und Begriffen der Finanzdienstleistungen vertraut gemacht werden. Generative KI produziert eine Antwort auf der Grundlage einer Aufforderung. Die Qualität des Prompts bestimmt die Antwort, die du generierst: Garbage in, garbage out. Wusstest du, dass GenAi manchmal, wenn sie Hilfe braucht, um den Prompt zu verstehen, dir trotzdem eine Antwort mit den unzureichenden Daten gibt, mit denen sie trainiert wurde, und so ein fehlerhaftes und schädliches Ergebnis erzeugt?
Ein weiterer Auslöser ist die Art und Weise, wie Trainingsprompts und Texte kodiert sind. Normalerweise verknüpfen LLMs Begriffe mit einer Reihe von Zahlen, die als Vektorkodierungen bezeichnet werden, und sie haben einige Vorteile. Ein Wort wie „Bank“ hat mehrere Bedeutungen. Es kann ein Finanzinstitut oder eine Bank bedeuten. Für diese Art von Wörtern kann es eine Kodierung pro Bedeutung geben, um Mehrdeutigkeit zu vermeiden. Jeder Fehler bei der Kodierung und Dekodierung von Darstellungen und Texten kann dazu führen, dass die generative KI halluziniert.
LLMs müssen mit genauen und ausreichenden Daten trainiert werden, und die Beteiligten müssen für Transparenz sorgen und eine Qualitätskontrolle einrichten, um Halluzinationen zu vermeiden.
Generative KI hilft bei der Produktion von Inhalten über sexuellen Kindesmissbrauch.
Du magst dieser Aussage vielleicht nicht zustimmen, aber wir sind uns alle einig, dass generative KI es Kinderschändern erleichtert, schnell und in großem Stil Inhalte zum sexuellen Missbrauch von Kindern zu erstellen. Sie verwenden oft Originalbilder und -videos und passen sie an, um neues Missbrauchsmaterial zu erstellen. Sie können sogar die harmlosen Inhalte von Kindern umwandeln und sexualisieren, um KI-generierte CSAC zu erzeugen.
Das United States National Center for Missing and Exploited Children berichtete im Januar, dass es 4.700 Meldungen über KI-generierte Inhalte erhalten hat, die die sexuelle Ausbeutung von Kindern zeigen. Die Organisation geht davon aus, dass diese Zahl mit der Weiterentwicklung der KI noch steigen wird.
Kinderschänder können generative KI nutzen, um neue Wege zu finden, Kinder zu Opfern zu machen und sie erneut zu Opfern zu machen. Sie können neue Bilder generieren, die dem Aussehen eines Kindes entsprechen, und neue Posen, ungeheuerliche Inhalte oder groß angelegte Sextortionsversuche entwerfen. Die Technologie kann auch einen leicht zu bedienenden Leitfaden für böswillige Täter/innen erstellen, wie sie ein Kind sexuell missbrauchen und zwingen können, oder sie kann Prozesse zerstören und Artefakte des Missbrauchs verzerren.
Generative KI verstärkt Voreingenommenheit.
Menschen sind von Natur aus voreingenommen. Die Daten, die zum Training der LLM-Modelle verwendet werden, stammen von Menschen. Was erwartest du also? Wenn Menschen voreingenommen sind, dann erwarte das Schlimmste von der generativen KI.
Stable Diffusion hat 500 Bilder auf der Grundlage von schriftlichen Aufforderungen erstellt. Das Ergebnis war eine völlige Verzerrung der Realität. Eine Analyse des Ergebnisses zeigte, dass die stabile Diffusion aus der stabilen KI geschlechts- und rassenbedingte Ungleichheiten stärker in den Vordergrund rückte, als dies im echten Leben der Fall ist.
Ich liebe die Art und Weise, wie eine Forscherin, Sasha Luccin, es betitelt hat. Sie sagte, wir projizieren ein Weltbild in eine Welt mit verschiedenen Kulturen und mehreren visuellen Identitäten. Wenn du zum Beispiel KI-Modelle mit Aussagen wie „Schwarz ist gleichbedeutend mit Verbrechen, und Frauen sind Krankenschwestern und keine Ärztinnen“ trainierst, werden diese Vorurteile noch verstärkt.
Generative KI gefährdet den Datenschutz.
Der Datenschutz ist trotz der beachtlichen Fortschritte bei der generativen KI ein großes Problem. Was erwartest du von einem Modell, das nicht mit Algorithmen trainiert wurde, die die Privatsphäre schützen?
Die vom KI-Modell erzeugten Daten sind neu und sehen aus wie die Daten, die es beim Training verwendet hat. Wenn die Trainingsdaten sensible Informationen enthalten, besteht die Wahrscheinlichkeit, dass die sensiblen Daten einer Person verletzt werden, denn die Trainingsdatenbanken enthalten die persönlichen Daten jeder Person, ohne dass eine ausdrückliche Zustimmung eingeholt wurde.
Beim LLM-Training werden Millionen von Wörtern für verschiedene natürlichsprachliche Aufgaben verwendet. Studien haben gezeigt, dass LLMs trotz der Möglichkeit, riesige Datenmengen, einschließlich vertraulicher Informationen, zu speichern, immer noch Risiken für die Privatsphäre bergen, auf die Bedrohungsakteure zugreifen können, um ruchlose Aktivitäten durchzuführen.
Eine Exfiltration ist eine Form des Angriffs, die die ganze Situation verschlimmert. Untersuchungen haben gezeigt, dass Unbefugte auf Trainingsdatensätze zugreifen, sie übertragen, migrieren oder stehlen können. Ein weiterer Aspekt ist die Offenlegung sensibler Informationen bei der Erstellung von Aufforderungen.
Jetzt, wo Unternehmen ungeprüfte Apps, die GenAI nutzen, in ihre Geschäftsabläufe und Systeme einbinden, steigt das Risiko von Compliance-Verstößen und Datenverletzungen.
Die Quintessenz ist: Wenn wir mit all diesen Schwächen umgehen und die Vorteile der Technologie in unserer Zeit maximieren wollen, müssen alle Beteiligten konzertierte Anstrengungen unternehmen, um sicherzustellen, dass das, was für das Gute gedacht ist, nicht als selbstzerstörerisches Werkzeug endet. Es liegt an uns, die Welt zu einem besseren und sichereren Ort zu machen.
Referenzen
Cisco, (2024). Mehr als 1 von 4 Unternehmen verbietet den Einsatz von GenAI aufgrund von Datenschutz- und Datensicherheitsrisiken. Verfügbar unter: https://newsroom.cisco.com/c/r/newsroom/en/us/a/y2024/m01/organizations-ban-use-of-generative-ai-over-data-privacy-security-cisco -study.html (Zugriff: 02. April 2024)
Collier, K. (2023). Der Deepfake-Betrug ist da: Gefälschte Videos verbreiten sich auf Facebook, TikTok und YouTube. Verfügbar unter https://www.nbcnews.com/tech/tech-news/deepfake-scams-arrived-fake-videos-spread-facebook-tiktok-youtube-rcna101415 (Zugriff: 02. April 2024)
Kong, H., (2024). Alle sahen echt aus“: Das Hongkonger Büro eines multinationalen Unternehmens verliert 200 Millionen HK$, nachdem Betrüger ein Deepfake-Video-Meeting inszeniert haben. Verfügbar unter https://www.scmp.com/news/hong-kong/law-and-crime/article/3250851/everyone-looked-real-multinational-firms-hong-kong-office-loses-hk200-million- after-scammers-stage (Zugriff: 02. April 2024)
Missing Kids, (2024). Generative KI CSAM ist CSAM . Verfügbar unter: https://www.missingkids.org/blog/2024/generative-ai-csam-is-csam (Zugriff: 02. April 2024)
Nicoletti, L. & Bass, D. (2023). MENSCHEN SIND VOREINGENOMMEN. GENERATIVE KI IST NOCH SCHLIMMER . Verfügbar unter: https://www.bloomberg.com/graphics/2023-generative-ai-bias/ (Zugriff: 02. April 2024)
Rubenstein, A. (2023). ChatGPT ist noch nicht bereit, dein Anwalt zu sein. Available at: https://www.morningbrew.com/daily/stories/2023/05/29/chatgpt-not-lawyer?mbcid=31642653.1628960&mblid=407edcf12ec0&mid=964088404848b7c2f4a8ea179e251bd1&utm_campaign=mb&utm_medium=newsletter&utm_source=morning_brew (Accessed: 02 April 2024)
Sheng, E. (2024). Generative KI-Finanzbetrüger werden sehr gut darin, Arbeits-E-Mails zu fälschen. Verfügbar unter: https://www.cnbc.com/2024/02/14/gen-ai-financial-scams-are-getting-very-good-at-duping-work-email.html (Zugriff: 02. April 2024 )
Statista, (2024). Meinung der Verbraucher in den Vereinigten Staaten, dass KI-generierte Inhalte besser sind als von Menschen erstellte Inhalte (Stand 2024). Verfügbar unter: https://www.statista.com/statistics/1461390/ai-generated-content-better-than- human-created-content/ (Zugriff: 02. April 2024)
Tellux, (2023). Generative KI-Halluzinationen: Warum sie auftreten und wie man sie verhindern kann. Verfügbar unter: https://www.telusinternational.com/insights/ai-data/article/generative-ai-hallucinations (Zugriff: 02. April 2024)
Thorn, (2023) Thorn und All Tech Is Human schmieden generative KI-Prinzipien mit KI-Führungskräften, um starke Verpflichtungen zum Schutz von Kindern durchzusetzen. Verfügbar unter: https://www.thorn.org/blog/generative-ai-principles/ (Zugriff: 02. April 2024)
University of Sheffield, (nd). Universitätsbibliothek: Generative AI literacy . Verfügbar unter: https://sheffield.libguides.com/genai/perspectives (Zugriff: 02. April 2024)
Usenix, (2021). Extrahieren von Trainingsdaten aus großen Sprachmodellen. Dieses Papier ist in den Proceedings of the 30th USENIX Security Symposium enthalten. Verfügbar unter: https://www.usenix.org/system/files/sec21-carlini-extracting.pdf
Falode, E. (2023). Ist generative KI eine Bedrohung für die Cybersicherheit? Elijah Falode. https://elijahfalode.com/is-generative-ai-a-threat-to-cybersecurity/ (Zugriff: 05. Mai 2024)
Die Kommentarfunktion ist geschlossen.