Realität und Irrtümer über die Zukunft der Künstlichen Intelligenz (KI)

Ein Deep-Dive in vier wiederkehrende Aussagen zu KI

Die KI hat eindeutig eine Schlüsselrolle in der Geschäftswelt zu spielen – jetzt und in der Zukunft. Sie birgt ein beispielloses Potenzial für Effizienzsteigerungen und neue Geschäftsmodelle. Da KI anders als jede andere Technologie ist, birgt sie auch das Potenzial für unerwartete Folgen und Störungen in einem bisher nicht gekannten Ausmaß. Kein Unternehmen sollte KI blindlings und ohne Strategie einsetzen, und kein verantwortungsbewusster Vorstand kann es sich leisten, sich nicht mit ihrem Potential zu beschäftigen und es zu verstehen.

Künstliche Intelligenz (KI) verändert die Art und Weise, wie Maschinen und Menschen zusammenarbeiten. Sie verbessert branchenübergreifend die Kundeninteraktion und treibt die Betriebs- und Prozessverbesserungen voran. Mehr als 40% der Unternehmen erwarten, dass die KI ein „Game-Changer“ sein wird. So will auch die deutsche Regierung die Einführung und Entwicklung von KI-Technologien beschleunigen. Sie plant bis 2025 3 Mrd. Euro in die KI-Forschung zu investieren.  Doch sagen 77% der Unternehmen auch, dass die Akzeptanz in der Wirtschaft eine Herausforderung ist. Bis heute sind nur wenige Vorstandsetagen bereit, die mit der KI verbundenen Risiken und Chancen abzuwägen.

KI unterscheidet sich von anderen Technologie-Innovationen. Um ein vollständigeres Bild der verfügbaren Fähigkeiten und Möglichkeiten zu haben, gehe ich in diesem Artikel auf vier Aussagen ein, die Kunden am häufigsten an mich adressieren:

„KI fördern die Innovation und den Erfolg von Unternehmen.“

Das Herzstück der KI und anderer führender Technologien sind Daten. Dabei mangelt es meist nicht an der Quantität der Daten, diese sind im Zeitalter steigender Datenmengen in der Regel mehr als genug vorhanden. Laut Statista wird der weltweite große Datenmarkt bis 2027 auf 103 Milliarden US-Dollar wachsen, was mehr als eine Verdoppelung der Marktgröße im Jahr 2018 bedeutet.

KI-Modelle sind neben der Quantität auch von der Qualität der Daten abhängig, die sicher gestellt werden muss.  Zudem ist die Herausforderung für die meisten Unternehmen die Erfassung und Erstellung aussagekräftiger Korrelationen von Daten, die in Silos im gesamten Unternehmen gespeichert sind, von Daten aus externen Quellen und von Daten, die in Echtzeit in das Unternehmen übertragen werden. 

Das Management großer Datenmengen erfordert ein langfristiges Engagement und eine Planung, um zukünftiges Wachstum zu bewältigen. Zu klein gedacht wird es unter Umständen sehr lange dauern, bis sich ein KI-Investment wirtschaftlich auszahlt und sich der Business Case rechnet.

Auch die Auswahl der falschen Plattform, Tools oder eine schlechte Integration kann wertvolle Zeit verschwenden und die Implementierung und das laufende Management mit erheblichen Kosten und Komplexität belasten. Governance- und Sicherheitsstrategien auf Unternehmensebene sind entscheidend für die Vermeidung von Problemen bei der Einhaltung gesetzlicher und behördlicher Vorschriften bei der Entwicklung neuer Technologien. Wie in anderen Bereichen entwickelt sich die KI-Technologie schneller als die Regulatorik. Doch die Weiterentwicklung von (manchmal auf Länderbasis ausgelegten) Daten und KI-Vorschriften werden zunehmen. Da es sich kein verantwortungsbewusster Vorstand leisten kann, unvorbereitet zu bleiben aber Potenziale dennoch zu nutzen, ist es zum Beispiel eine Überlegung, die KI-Strategie in die jährliche Bewertung der unternehmensweiten Ethik- und Verhaltensrichtlinien einzubeziehen.

„KI bedeutet eine Revolution der Intelligenz.“

Obwohl die KI in letzter Zeit sprunghaft angestiegen ist, ist sie immer noch nur ‚intelligent‘ im engsten Sinne des Wortes. Es wäre wahrscheinlich nützlicher, das, was wir erreicht haben, als eine Revolution in der Computerstatistik zu betrachten, als eine Revolution in der Intelligenz.

Bislang liegen die meisten Fortschritte in dem oft als „narrow AI“ (deutsch: schwache Künstliche Intelligenz) bezeichneten Bereich. Mit maschinellen Lerntechniken werden Algorithmen und Systeme zur Lösung spezifischer Probleme, wie zum Beispiel die Verarbeitung natürlicher Sprache, entwickelt.

Die komplexeren Probleme liegen im Bereich der so genannten „general AI“ (deutsch: allgemeine Künstliche Intelligenz). Die Herausforderung liegt darin, eine KI zu entwickeln, die allgemeine Probleme in der gleichen Weise wie der Mensch lösen kann. Viele Forscher sind der Ansicht, dass dies noch Jahrzehnte davon entfernt ist, Realität zu werden.

Im Moment ist die Sorge um die böse KI ein bisschen wie die Sorge über eine Überbevölkerung auf dem Mars. Die größere Gefahr dabei ist eher der Mensch an sich. Kein Objekt und kein Algorithmus ist jemals an sich gut oder böse. Es kommt darauf an, wie sie benutzt werden. Ein 3D-Drucker kann Prothesen oder auch Waffen drucken. Das GPS wurde erfunden, um Atomraketen abzufeuern, und hilft heute bei der Auslieferung von Pizzas. Sich eine Meinung über einen Algorithmus zu bilden, bedeutet, die Beziehung zwischen Menschen und Maschine zu verstehen.

„Die Entscheidung eines Algorithmus kann nicht nachvollzogen werden.“

Regelbasierte Algorithmen enthalten von Menschen geschriebene Anweisungen und sind daher leicht zu verstehen.  Theoretisch kann sie jeder öffnen und der Logik dessen folgen, was darin geschieht. Doch haben regelbasierte Algorithmen einen großen Nachteil: Sie funktionieren nur für die Probleme, für die Menschen wissen, wie man Anweisungen schreibt. Auch die Skalierbarkeit ist begrenzt. Maschinelle Lernalgorithmen hingegen erweisen sich bemerkenswert gut bei Problemen, bei denen das Schreiben einer Liste von Anweisungen nicht funktioniert. Den Weg, den die Maschine für die Lösung nimmt, macht für einen menschlichen Beobachter oft nicht viel Sinn.

„Künstliche Intelligenz (KI) hat eine hoher Fehleranfälligkeit und verzerrt Daten.“

Dabei gibt es ein spannendes Paradoxon in der menschlichen Beziehung zu Maschinen. Während nachweislich viele Menschen Dingen, die sie nicht verstehen, zu sehr vertauen, lehnen sie Algorithmen ab, sobald sie wissen, dass ein Algorithmus Fehler machen kann. Das ist den Forschern als Algorithmus-Aversion bekannt. Menschen sind weniger tolerant gegenüber den Fehlern eines Algorithmus als gegenüber ihren eigenen – auch wenn ihre eigenen Fehler größer sind.

KI-Systeme sind nur so gut wie die Daten, die wir in sie hineingeben. Schlechte Daten oder eine schlechte Datenqualität können zudem implizite rassistische, geschlechtsspezifische oder ideologische Vorurteile enthalten. Stellen Sie sich die Auswirkungen auf die Marke eines Kreditanbieters vor, wenn entdeckt werden würde, dass er routinemäßig Anträge aufgrund von Verzerrungen in seinem KI-Training ablehnt. Daher ist es entscheidend, diese Systeme mit unvoreingenommenen Daten zu entwickeln und zu trainieren und Algorithmen zu entwickeln, die leicht zu erklären sind. Verschiedene Forschungsgruppen, wie auch IBM Research, entwickeln bereits Methoden, um die Verzerrung („Bias“) zu reduzieren, die in einem Trainingsdatensatz vorhanden sein kann.

Um Vertrauen zwischen Menschen und Maschine zu schaffen, müssen wir zudem politische Maßnahmen ergreifen und in Systeme investieren, die die gemeinsame Entwicklung und das gemeinsame Lernen fördern. Zum Beispiel bieten die Ethischen Richtlinien für vertrauenswürdige KI, die von der unabhängigen Expertengruppe für KI der Europäischen Kommission erstellt wurden, eine Reihe neuer Grundsätze für Unternehmen, die in der Europäischen Union tätig sind. Wenn immer mehr Produkte und Software maschinelle Intelligenz enthalten, sollten wir nach Wegen suchen, um tugendhafte und ethische Lernzyklen zwischen dem Unternehmen, die es produziert, und den Menschen, die sie benutzen, aufzubauen.

Die KI hat eindeutig eine Schlüsselrolle in der Geschäftswelt zu spielen – jetzt und in der Zukunft. Sie birgt ein beispielloses Potenzial für Effizienzsteigerungen und neue Geschäftsmodelle. Da KI anders als jede andere Technologie ist, birgt sie auch das Potenzial für unerwartete Folgen und Störungen in einem bisher nicht gekannten Ausmaß. Kein Unternehmen sollte KI blindlings und ohne Strategie einsetzen, und kein verantwortungsbewusster Vorstand kann es sich leisten, sich nicht mit ihrem Potential zu beschäftigen und es zu verstehen.

As the "Head of Data Strategy & Data Culture" at O2 Telefónica, Britta champions data-driven business transformation. She is also the founder of "dy.no," a platform dedicated to empowering change-makers in the corporate and business sectors. Before her current role, Britta established an Artificial Intelligence department at IBM, where she spearheaded the implementation of AI programs for various corporations. She is the author of "The Disruption DNA" (2021), a book that motivates individuals to take an active role in digital transformation.

Die Kommentarfunktion ist geschlossen.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More