Wirtschaftsethik

Künstliche Intelligenz und angewandte Ethik (Teil 2) – Risiken und Lösungen

Wie im ersten Teil zu dieser Artikelreihe versprochen, wollen wir nun im zweiten Teil die Risiken künstlicher Intelligenz genauer beleuchten, aber auch versuchen Lösungsansätze anzubieten. Eine Englische Fassung dieses Artikel finden Sie hier: English Version. Legen wir los:

Risiken bei der Anwendung von KI-Systemen und mögliche Lösungen aus ethischer Sicht

Mangelnde Transparenz bei den Trainingsdaten und den Algorithmen von KI-Systemen, die deren „künstliche Intelligenz“ im Wesentlichen ausmachen, insbesondere bei Deep-Learning-Modellen, also generativer KI wie etwa ChatGPT, die komplex und schwer zu interpretieren und zu steuern sein können, ist ein drängendes Problem. Diese Undurchsichtigkeit verschleiert die Entscheidungsprozesse der KI-Systeme und damit die zugrunde liegende Logik dieser Technologien. Wenn Menschen aber nicht mehr im Einzelnen nachvollziehen können, wie ein KI-System zu seinen Ergebnissen, also zu seinem „Output“ kommt, verliert der Mensch den Zugriff und die Steuerungsfähigkeit und damit auch auf die ethischen Grundlagen der Ergebnisse. So kann es bei den heute schon nachgebesserten, generativen KI-Systemen immer noch dazu kommen, dass Output generiert wird, der irreführend, inhaltlich falsch oder sogar in seinen Aussagen aus ethischen Gesichtspunkten bedenklich oder verwerflich ist. Nehmen wir das Beispiel der sog. KI-Halluzinationen: das ist falscher oder irreführender Output. Er kann auftreten, wenn er auf Mustern beruht, die objektiv falsch sind, oder wenn die KI Vorurteile, Hassreden und Fehlinformationen in ihrem Output verarbeitet. KI-Halluzinationen können in unterschiedlichen Formen auftreten – Satzwidersprüche, Widersprüche bei Aufforderungen oder Widersprüche bei Fakten. So behauptete der KI-Bard-Chatbot von Google einmal fälschlicherweise, das James-Webb-Weltraumteleskop habe die weltweit ersten Bilder eines Planeten außerhalb unseres Sonnensystems aufgenommen – ein harmloses Beispiel. Es gibt viele solcher Beispiele, die nicht alle so harmlos sind. Hieraus wird offensichtlich, dass gesunde Skepsis, Kontrolle und Verifizierung von KI-generiertem Output immer für einen aufgeklärten Umgang mit KI-Systemen essenziell sein werden.

Eine Konsequenz dieser mangelnden Transparenz kann auch sein, dass KI-Systeme ungewollt Vorurteile aufrechterhalten oder verstärken, wenn sie auf voreingenommene Trainingsdaten oder voreingenommene Algorithmen zurückgreifen. Beispielsweise wiesen die Gesichtserkennungsalgorithmen von Microsoft, IBM und Face++ alle Verzerrungen auf, wenn es darum ging, das Geschlecht von Menschen zu erkennen; diese KI-Systeme waren in der Lage, das Geschlecht von weißen Männern genauer zu erkennen als das von Männern mit dunklerer Hautfarbe. Eine Studie aus dem Jahr 2020, in der die Spracherkennungssysteme von Amazon, Apple, Google, IBM und Microsoft untersucht wurden, ergab außerdem, dass sie bei der Transkription der Stimmen von Schwarzen eine höhere Fehlerquote aufweisen als bei der von Weißen. Ein anderes Beispiel: Amazon hat die Verwendung von KI bei der Rekrutierung und Einstellung von Mitarbeitern eingestellt, weil der Algorithmus männliche Bewerber gegenüber weiblichen bevorzugte. Der Grund dafür war, dass das System von Amazon mit Daten trainiert wurde, die über einen Zeitraum von 10 Jahren gesammelt wurden und überwiegend von männlichen Bewerbern stammten. Die Algorithmen lernten das (voreingenommene) Muster aus den historischen Daten und erstellten Vorhersagen für die Gegenwart/Zukunft, wonach diese Art von Bewerbern am ehesten die Stelle bekommen würden. Daher erwiesen sich die vom KI-System getroffenen Einstellungsentscheidungen als voreingenommen gegenüber weiblichen und Minderheiten angehörenden Bewerbern. Um Diskriminierung zu minimieren und Fairness zu gewährleisten, wird es aus ethischer Sicht daher immer wichtiger werden, in die Entwicklung unvoreingenommener Algorithmen und vielfältiger Trainingsdatensätze zu investieren und dies auch in ausreichendem Maße zu überwachen.

Eine andere Gefahr auf Grund von mangelnder Transparenz besteht darin, dass Ungleichheit – vor allem wirtschaftliche Ungleichheit – in der Gesellschaft bewusst verschärft werden könnte, da die KI-Entwicklung von einigen wenigen Großunternehmen und Regierungen dominiert wird. Großunternehmen könnten so immer mehr Kapital und Macht anhäufen, während kleinere Unternehmen Mühe haben, zu konkurrieren. Eine solche Machtkonzentration kann daher die Vielfalt der KI-Anwendungen einschränken, was negative Konsequenzen auf den Wettbewerb haben kann. Die Förderung einer dezentralen und kollaborativen KI-Entwicklung (Open-Source Modellen) könnte dabei ein möglicher Schlüssel zur Vermeidung von Machtkonzentration und all seinen unethischen Auswüchsen sein. Außerdem könnten legislative Maßnahmen und Initiativen zur Förderung wirtschaftlicher Gerechtigkeit – wie etwa Umschulungsprogramme für die vom Einsatz von KI-Systemen betroffenen Arbeitnehmern, deren Arbeitsplatz eventuell überflüssig geworden ist, oder die Anpassung sozialer Sicherheitsnetze und eine integrative KI-Entwicklung, die eine ausgewogenere Verteilung der Chancen gewährleistet – dazu beitragen, Ungleichheit zu bekämpfen.

Zu dem Risikokomplex „mangelnde Transparenz“ im weitesten Sinne gehört auch KI-generierter Inhalt, der falsche Informationen verbreitet und geeignet ist die öffentliche Meinung zu manipulieren, wie z. B. Deepfakes. Es steht außer Zweifel, dass ein Transparenzgebot und falls sich Deepfake-Ersteller nicht daranhalten, Maßnahmen zur Aufdeckung und Bekämpfung von KI-generierten Fehlinformationen absolut entscheidend für die Wahrung der Integrität von Informationen im digitalen Zeitalter sind.

In einer Studie der Stanford University über die dringlichsten Gefahren der KI erklärten die Forscher hierzu:

KI-Systeme werden im Dienste der Desinformation im Internet eingesetzt und haben das Potenzial, zu einer Bedrohung für die Demokratie und zu einem Werkzeug des Faschismus zu werden. Von Deepfake-Videos bis hin zu Online-Bots, die den öffentlichen Diskurs manipulieren, indem sie einen Konsens vortäuschen und gefälschte Nachrichten verbreiten – es besteht die Gefahr, dass KI-Systeme das gesellschaftliche Vertrauen untergraben. Die Technologie kann von Kriminellen, Schurkenstaaten, ideologischen Extremisten oder einfach von speziellen Interessengruppen genutzt werden, um die Menschen zu manipulieren und ihnen wirtschaftliche Vorteile oder politische Vorteile zu verschaffen.

Neben der von Entwicklern von KI-Systemen eventuell sogar „gewollten“ mangelnden Transparenz, kann aber auch eine ungewollte mangelnde Transparenz ein enormes Risiko darstellen. Eine solche kann auf Grund der Komplexität, Autonomie und Anpassungsfähigkeit von KI-Systemen und der damit einhergehenden fehlenden menschlichen Kontrolle entstehen, die unerwartete Verhaltensweisen zeigen oder Entscheidungen mit unvorhersehbaren Folgen treffen kann. Je nachdem wie solche komplexen KI-Systeme eingesetzt werden, kann diese Unvorhersehbarkeit zu Ergebnissen führen, die sich negativ auf Einzelpersonen, Unternehmen oder die Gesellschaft als Ganzes auswirken. Nur robuste Test-, Validierungs- und Überwachungsprozesse werden Entwicklern und Forschern dabei helfen, diese Art von Problemen zu erkennen und zu beheben, bevor sie eskalieren und zu verheerenden Schäden führen. Um diese Risiken zu minimieren, die je nach Einsatzgebiet eines KI-Systems existenzielle Auswirkungen für die Menschheit haben kann, wird sich die KI-Forschungsgemeinschaft aktiv an der Sicherheitsforschung beteiligen, an ethischen Richtlinien mitarbeiten und die Transparenz bei der Entwicklung von KI-Systemen fördern müssen. Ohne Zweifel muss sichergestellt werden, dass KI der Menschheit dienen und keine Bedrohung für unsere Existenz darstellen darf!

Ein weiteres Risiko von KI-gestützter Automatisierung wird sein, dass es in verschiedenen Branchen zum Verlust von Arbeitsplätzen führen kann – nicht unbedingt muss, und nicht nur bei gering qualifizierten Arbeitnehmern. Bis durch die Entwicklung und Anwendung von KI neue Beschäftigungsfelder entstehen und so durch den Einsatz von KI wieder neue Arbeitsplätze geschaffen werden, könnte es in der anstehenden Umbruchzeit noch dauern. Es gibt aber auch Untersuchungen, dass KI-Systeme die Art der Arbeit eher verbessern werden, denn Arbeitsplätze vernichten – so in einer UN-Studie von Mitte 2023. Ein wichtiges Thema wird hier aber so oder so unsere eigene Anpassungswilligkeit und -fähigkeit bleiben. Da sich KI-Technologien weiterentwickeln und immer effizienter werden, werden sich die Arbeitskräfte anpassen und neue Fähigkeiten erwerben müssen, um in der sich verändernden Arbeitslandschaft relevant zu bleiben.

Ein auch nicht zu unterschätzendes Risiko ist ein übermäßiges Vertrauen in den „Output“ von KI-Systemen. Es wird wohl unweigerlich zu einem gewissen Grad an Verlust von Kreativität, kritischem Denken und menschlicher Intuition kommen. Ein KI-System basiert auf den Trainingsdaten, mit denen es „gefüttert“ worden ist und greift daher auf einen bestehenden Pool an Daten und Algorithmen zurück – fügt aber eigentlich nichts gänzlich Neues hinzu und ist insoweit durch seinen Pool an Trainingsdaten, bereits vorhandenen -informationen und durch ihre Programmierung determinierten Algorithmen limitiert. Eine Transzendenz, also die Fähigkeit die von seinen Programmierern/Erschaffern in ihm verankerte Determiniertheit zu „überschreiten“, wie ein Mensch dazu in der Lage ist, fehlt einem KI-System, das ausschließlich kausalen Prozessen folgt. Es wird daher für den Erhalt unserer menschlichen, transzendenten, kognitiven und kreativen Fähigkeiten ein Gleichgewicht zwischen KI-gestützter Entscheidungsfindung und menschlichem Input hergestellt werden müssen.

Ein heikles Risiko sind KI-Technologien, die große Mengen an personenbezogenen Daten sammeln und analysieren, die sie aus allen nur verfügbaren Quellen „absaugen“. Die Verarbeitung von personenbezogenen Daten, also von Daten, die einem Individuum eindeutig zugeordnet werden können, wirft also auch Fragen des Datenschutzes und der Sicherheit auf. Wer will schon zum „gläsernen Menschen“ werden, der durch den Einsatz mächtiger KI-Systeme noch leichter zum Ziel politischer Verfolgung, von Manipulation, Ausbeutung, Betrug (Scam) oder Bloßstellung werden könnte. Um die Risiken für den Schutz der Privatsphäre auszuschließen, wird man für strenge Datenschutzbestimmungen und jeder Einzelne selbst für sichere Praktiken im Umgang mit seinen Daten sorgen müssen.

In dem Maße, wie KI-Technologien immer ausgefeilter werden, steigen auch die mit ihrem Einsatz verbundenen Sicherheitsrisiken und bis dato ungeahnte Möglichkeiten des Missbrauchs. Hacker und böswillige Akteure können sich die Macht der KI zunutze machen, um fortgeschrittenere Cyberangriffe zu entwickeln, Sicherheitsmaßnahmen zu umgehen und Schwachstellen in Systemen für die Daseinsvorsorge, wie etwa Elektrizitätswerken, Atomkraftwerken, etc. auszunutzen.

Das Aufkommen von KI-gesteuerten Systemen, wie etwa selbstfahrenden Autos, Robotern, Drohnen, aber auch Waffensystemen, gibt auch Anlass zur Sorge über deren Gefahren, vor allem, wenn wir den potenziellen Verlust menschlicher Kontrolle bei kritischen Entscheidungsprozessen berücksichtigen. Um diese Sicherheitsrisiken zu mindern, werden staatliche Organisationen Best Practices für die sichere Entwicklung und den Einsatz von KI entwickeln müssen und die internationale Zusammenarbeit fördern, um globale Normen und Vorschriften zum Schutz vor KI-Sicherheitsbedrohungen zu schaffen.

Schaut man sich die sozialen Fähigkeiten bereits heutiger KI-Systeme an, die es einem schwer machen zu erkennen, ob man es mit einem Menschen oder einer KI zu tun hat, liegt darin zum Teil ein Segen, gerade zum Beispiel in der Alten- oder Behindertenpflege und in der Bekämpfung von Einsamkeit, da KI-Systeme bereits heute in der Lage sind einen sinnhaften und spielerischen Austausch zu haben. Die zunehmende Abhängigkeit von KI-gesteuerter Kommunikation und Interaktion könnte aber zum anderen auch zu einem Verlust an Empathie, sozialen Fähigkeiten und menschlichen Beziehungen führen. Um die Essenz unserer sozialen Natur zu bewahren und uns als Menschen überhaupt in einem ethischen Sinne weiterentwickeln zu können, werden wir ein Gleichgewicht zwischen Technologie und menschlicher Interaktion anstreben müssen und sollten uns nicht aus Bequemlichkeit oder anderen Gründen von der Gesellschaft und unseren Nächsten „abkoppeln“, wenn angewandte Empathie eigentlich das „menschliche“ Gebot der Stunde wäre. Kein KI-System, sei es in seiner Erscheinung und seinem Habitus auch noch so menschlich, wird den aufrichtigen, empathischen und wohlgemeinten Gedankenaustausch zwischen zwei Menschen ersetzen können – gerade im Hinblick auf die Wirkungen, die ein solcher Austausch auf die Psyche der interagierenden Menschen hat.

Schlussfolgerung und Ausblick

Wir befinden uns noch am Anfang der KI-Entwicklung. Jedes Land der Welt und jedes größere Unternehmen, das es sich leisten kann, denkt über den Einsatz oder sogar die Entwicklung von KI-Systemen nach – und zwar so schnell wie nur irgendwie möglich, um Wettbewerbsnachteile zu vermeiden. Gerade hierin liegt ein enormes Risiko an sich, da sich auf Grund der „Schnelligkeit“ der Entwicklungssprünge all die in diesem Artikel beschriebenen Risiken noch viel wahrscheinlicher verwirklichen können, da wir uns einfach nicht genug Zeit lassen, all die Risiken vernünftig zu regulieren und zu „managen“. Ein schönes Beispiel für die unglaubliche Schnelligkeit mit der neue, immer noch mächtigere KI-Systeme in unsere Welt drängen, bietet dieses Video über die Anwendung von ChatGPT-4o, als multimodales KI-System, dass einem Jungen bei seinen Mathematik Aufgaben behilflich ist. Im April 2024, als die erste Version dieses Artikels geschrieben wurde, gab es noch keine multimodalen KI-Systeme für die Öffentlichkeit … nun im Juni 2024, 2 Monate später, sind sie bereits für alle verfügbar.

Es tobt gerade eine Art KI-Wettrüsten, dass daher zu einer Entwicklung von KI-Technologien mit potenziell schädlichen Folgen für uns alle führen kann. Die Menschheit hat sich noch nicht an den Umgang mit KI gewöhnt; hat noch nicht die nötige Immunität und gesunde Skepsis gegenüber KI-generierten Inhalten entwickelt – das ist ja, wenn wir ehrlich mit uns sind, selbst schon bei rein menschengenerierten Inhalten so –, die es braucht, um mit dem „Output“ und vor allem auch der fast schon unglaublichen Effizienz dieser Systeme vernünftig, vertrauensvoll und vor allem auch in einem ethischen Sinne umzugehen.

KI ist eben eine neue Technologie, die je nach Einsatzgebiet – und es wird in Zukunft wenige Lebensbereiche geben, die nicht von KI in irgendeiner Art und Weise beeinflusst oder gar gesteuert sein werden – die Menschheit ohne Zweifel stark verändern wird. Sinnvolle Veränderung sollte vernünftig gesteuert und in richtige Bahnen gelenkt werden, die sich an rechtlichen Rahmenbedingungen ausrichten, die auf ethischen Grundprinzipien beruhen. Es ist daher von entscheidender Bedeutung, neue rechtliche Rahmenbedingungen und Vorschriften zu entwickeln, um die einzigartigen Risiken und Probleme zu lösen, die sich aus KI-Technologien ergeben. Die Rechtssysteme müssen sich schnell weiterentwickeln, um mit den technologischen Fortschritten Schritt zu halten und die Pflichten im Umgang mit KI-Systemen festzulegen mit dem Ziel die Rechte aller zu schützen. Ein erster Schritt in diese Richtung ist zumindest in der Europäischen Union getan. Der sog. EU „AI Act“ (Verordnung über künstliche Intelligenz) wird noch in 2024 in Kraft treten. Diese weltweit ersten umfassenden KI-Vorschriften regeln insbesondere Bereiche wie Transparenz von KI-Systemen, Einsatz von KI im öffentlichen Raum und für den Einsatz in Hochrisikosystemen. Sie sollen die Sicherheit und ethische Nutzung von KI-Systemen gewährleisten und gleichzeitig die Grundrechte und Werte der EU wahren. Für KI-Modelle mit großen Auswirkungen und systemischen Risiken gelten dabei strenge Anforderungen, einschließlich Modellbewertung, Risikominderung und Meldung von Vorfällen, etc.

Die Verankerung moralischer und ethischer Werte in KI-Systemen, insbesondere in Entscheidungskontexten mit erheblichen Konsequenzen, stellt dabei eine der größten Herausforderung dar. Damit wir das Zeitalter der KI meistern – es gibt ohnehin kein Zurück mehr – sollten vor allem Forscher und Entwickler den ethischen Implikationen von KI-Technologien Priorität einräumen.

In diesem Zusammenhang sei auch erwähnt, dass in 2023, kurz nach dem öffentlichen Start von ChatGPT, mehr als tausend Technologieforscher und führende Persönlichkeiten, darunter der Mitbegründer von Apple, Steve Wozniak, und sogar Elon Musk, der nicht gerade als “Warner” bekannt ist, die KI-Entwicklungszentren aufgefordert haben, die Entwicklung fortgeschrittener KI-Systeme zu pausieren. In dem Schreiben heißt es, dass KI-Systeme „tiefgreifende Risiken für die Gesellschaft und die Menschheit“ darstellen. In dem Brief erklären diese führenden Köpfe aber auch:

Die Menschheit kann mit KI eine blühende Zukunft genießen. Nachdem es uns gelungen ist, leistungsfähige KI-Systeme zu schaffen, können wir jetzt einen ‚KI-Sommer‘ genießen, in dem wir die Früchte ernten, diese Systeme zum klaren Nutzen aller entwickeln und der Gesellschaft die Chance geben, sich anzupassen.

Autor: Michael Winkler. Herr Winkler arbeitet mit Schwerpunkt „Internationales und Europäisches Wirtschaftsrecht“ seit 15 Jahren als Syndikusrechtsanwalt für ein weltweit agierendes amerikanisches Unternehmen, dass in der Entwicklung und Vermarktung von KI-Lösungen eine führende Stellung einnimmt.