Künstliche Intelligenz ist nicht nur in aller Munde – KI oder auf Englisch AI (Artificial Intelligence) trifft bereits jetzt kritische Entscheidungen, die großen Einfluss auf das Leben einzelner Menschen haben, ebenso wie auf das Schicksal großer Bevölkerungsgruppen und Staaten.
KI-gestützte Operationen, Social Scoring, biometrische Identifizierungssysteme oder auch kognitive Verhaltensmanipulation sind nur einige der Beispiele. Dies macht eine sinnvolle Antwort auf die schier endlos scheinenden Anwendungsbereiche unkontrolliert eingesetzter künstlicher Intelligenz dringend erforderlich. Die Antwort der EU auf den chancen- ebenso wie risikoreichen Einsatz von AI-Systemen heißt Regulierung.
Auf der Seite des Europäischen Parlaments wird das zu diesem Zweck gedachte KI-Gesetz, das allerdings noch einen komplexen Gesetzgebungsprozess zu absolvieren hat, gleich in der Überschrift näher definiert als „erste Regulierung der künstlichen Intelligenz“. Den Bezeichnungen „erste“ und „Regulierung“ kommt eine ganz besonders wichtige Bedeutung zu. Das Wort „erste“ ist bei näherer Betrachtung brisant. Offensichtlich ist den Parlamentariern bewusst, dass sie mit ihrem Versuch einer Regulierung gewissermaßen Neuland beschreiten, dessen Grenzen an allen Seiten Unschärfen aufweisen. Was die Vertreter der EU-Bürger gesetzgeberisch angehen, hat noch nie jemand erfolgreich durchgeführt, da es sich bei Künstlicher Intelligenz um eine bahnbrechende neue Technologie handelt, die es so in der Menschheitsgeschichte schlichtweg noch nicht gab, obwohl sie von vielen Menschen seit Dekaden ersehnt wurde. Jetzt ist sie da und die Gefahren des großen Potenzials und missbräuchlicher Verwendung werden augenfällig.
In seinem Drama „Die Physiker“, in welchem Chancen und Risiken der damals neuen Kernfusion kontrovers diskutiert werden, skizziert der Autor Friedrich Dürrenmatt das Hauptproblem neuer revolutionärer Entwicklungen: „Was einmal gedacht wurde, kann nicht mehr zurückgenommen werden.“. Da nützt es auch nichts, wenn die Physiker in dem Drama ins Irrenhaus weggeschlossen werden – die neuartige Technologie ist nun einmal da und wird eine wie auch immer geartete Anwendung finden. Genau dieser Situation sind sich die Abgeordneten bewusst, wenn sie eine „erste Regulierung“ des Einsatzes künstlicher Intelligenz mithilfe von Gesetzgebungsverfahren und Gesetzen durchführen möchten.
Dass es die Menschheit beim Thema Artificial Intelligence mit großem Potenzial und zugleich auch mit großem Gefahrenpotenzial zu tun hat, wurde selbst Laien bewusst, als im März 2023 mehr als 1000 Experten aus Forschung und Hightech-Bereichen in einem offenen Brief forderten, die Entwicklungsarbeit im Bereich der Künstlichen Intelligenz zu pausieren. Ihnen zufolge müssten zunächst geeignete Sicherheitsstandards definiert werden.
Sie sehen also, dass im Zusammenhang mit KI die Sicherheit ein besonders wichtiger Aspekt ist. Doch warum ist das so und wieso ist das für Menschen, die sich mit Künstlicher Intelligenz nicht beschäftigen, kaum ersichtlich?
Nun, als Dürrenmatt mit seinem Drama das Vernichtungspotenzial der Atombombe diskutierte, war deren Gefahrenpotenzial mehr als deutlich sichtbar: Vor dem charakteristischen Atompilz hatte nahezu jeder Angst. Bei Künstlicher Intelligenz ist das nicht so transparent und offensichtlich, da sich die Sprengkraft dieser Technologie hinter aufwendigen Machine Learning-Verfahren, Big Data und letztendlich – in immer mehr Fällen – hinter kaum nachvollziehbaren Algorithmen verbirgt. Nicht umsonst werden Transparenz und Nachvollziehbarkeit bei KI-Anwendungen gefordert, womit wir bei zwei weiteren zentralen Aspekten wären, die den EU-Parlamentariern mit dem AI Act am Herzen liegen – übrigens zurecht.
Wir fassen also zusammen: Beim KI-Gesetz geht es um Sicherheit, die nur mittels transparenter und nachvollziehbarer Prozesse bei Programmierung und Machine Learning zuverlässig kontrolliert und somit sichergestellt werden kann. Bevor wir nun näher auf einzelne Zielsetzungen des geplanten Gesetzes eingehen oder Details erörtern, möchten wir kurz auf eine globale Perspektive eingehen und die daraus resultierenden Probleme erörtern.
Was bringt der AI Act außerhalb von Europa?
So revolutionär das Vorhaben der EU-Parlamentarier auch sein mag, es gebietet der weltweiten Entwicklung von KI-Systemen weder Einhalt, noch wird es andere globale Akteure davon abhalten, bedenkliche KI-Anwendungen zu planen und einzusetzen. Insbesondere dann, wenn es um staatliche Kontrolle und militärische AI-Forschung geht, werden Mächte wie China und Russland es sich nicht nehmen lassen, jeden erdenklichen digitalen Vorsprung zu nutzen. In den USA sieht die Sache hingegen schon anders aus. Das Office of Science and Technology Policy, das den US-Präsidenten in Technologiefragen berät, hat bereits einen Vorschlag für eine sogenannte „Bill of Rights“ vorgelegt, die den Bereich der Künstlichen Intelligenz regulieren soll.
Positiv für die Technologie-Unternehmen in der EU, die sich im KI-Bereich engagieren und auch in den USA aktiv sind, ist, dass die amerikanischen Anforderungen den europäischen Regeln in vielen Aspekten ähnlich sind oder sogar ganz gleichen. Das ist besonders wichtig, da ein globales Regelwerk, selbst wenn es erst in ferner Zukunft zustande kommen sollte, ohne Global Player wie die USA, die EU oder führende asiatische Staaten nur schwer denkbar ist. Und wenn das Voranschreiten der EU-Parlamentarier mit ihrer „ersten Regulierung der künstlichen Intelligenz“ und die mahnenden Worte von Tech-Experten eines gezeigt haben, dann, dass es wirklich eilt. Zumal Unternehmen für ihre wirtschaftlichen Planungen auch auf Rechtssicherheit und klare Verhältnisse angewiesen sind.
Wenn wir uns im Folgenden also mit der Regulierung durch die EU auseinandersetzen, müssen Sie immer im Blick behalten, dass diese – sehr sinnvollen Regeln – nicht global gelten. Somit wird es für global agierende Unternehmen also zunächst eine Herausforderung bleiben, mit Konkurrenz umzugehen, die sich an keine oder an ganz andere Regeln hält.
Welche Vorteile bietet der AI Act den Bürgern und Unternehmern der EU?
Zunächst einmal geht es beim KI-Gesetz, wie eingangs dargestellt darum, bei KI-Anwendungen für ein möglichst hohes Maß an Sicherheit zu sorgen – etwa mittels transparenter und nachvollziehbarer Prozesse bei Programmierung und Machine Learning.
Insbesondere bei detaillierten Fragestellungen ist es sinnvoll, wenn Sie daran denken, dass es sich um ein Gesetzesvorhaben handelt, denn der Gesetzgebungsprozess ist noch längst nicht abgeschlossen. Vorgaben und Zielsetzungen des AI ACT können sich daher durchaus noch ändern. Die Erwartungshaltung der EU-Parlamentarier ist auf ihrer Webseite jedoch klar formuliert: Die „in der EU eingesetzten KI-Systeme [sollen] sicher, transparent, nachvollziehbar, nichtdiskriminierend und umweltfreundlich [sein].“ Weiter heißt es geradezu herausfordernd und vielversprechend: „KI-Systeme sollten von Menschen und nicht von der Automatisierung überwacht werden, um schädliche Ergebnisse zu verhindern.“
Damit diese Zielsetzungen erreicht werden können, ist ein zentraler Aspekt des KI-Gesetzes die Kategorisierung von KI-Anwendungen und KI-Lösungen in verschiedene Risikostufen:
- Begrenztes Risiko
- Generative KI
- Hochrisiko-KI-Systeme
- Unannehmbares Risiko
Bemerkenswert hierbei ist, dass die Hälfte der vier Kategorien hochriskante und unannehmbare Risiken erfasst. Schon bei dieser einfachen Einteilung werden Potenzial und – damit einhergehend – Gefahren der Technologie verdeutlicht.
a) Zu den KI-Systemen, die nur begrenzt riskant sind, zählen Anwendungen, bei welchen der User über ihren KI-Charakter informiert ist und selbst entscheiden kann, ob sie ihm nützen oder nicht. Das EU-Parlament führt für diese Kategorie explizit Deepfakes beziehungsweise die Manipulation von Bild- und Tondateien als Beispiele an.
b) Chat-GPT hingegen zählt zu den generativen KI, die offensichtlich schon als gefährlicher eingestuft werden, wobei die Webseite der EU auf Begriffe wie „riskanter“ oder „gefährlicher“ augenscheinlich bewusst verzichtet. Allerdings wird darauf hingewiesen, dass zusätzliche Transparenzanforderungen zu erfüllen seien, etwa die Veröffentlichung von Trainingsdaten, die Kennzeichnung von Texten als KI-Content und die Verhinderung illegaler Inhalte.
c) Hochrisiko-KI-Systeme sind gegenüber a) und b) eindeutig gefährlich: Sie können potenziell Grundrechte, Gesundheit und Sicherheit von Menschen gefährden und werden in zwei Unterkategorien aufgeteilt:
Die erste Unterkategorie umfasst Produktsicherheitsvorschriften, beispielsweise für Medizintechnik, Pkw, Flugzeuge und Spielzeug.
Die zweite Unterkategorie umfasst acht spezielle Bereiche:
1) biometrische Anwendungen
2) KI-Anwendungen im Bereich von kritischen Infrastrukturen
3) KI im Bildungsbereich
4) KI im Arbeitnehmerbereich
5) KI im Dienstleistungsbereich
6) KI im Bereich der Strafverfolgung
7) KI im Migrationsbereich, auch Asyl und Grenzkontrollen
8) KI, die hilft, Gesetze anzuwenden und auszulegen
d) Unannehmbare Risiken definiert das Parlament aktuell insbesondere bei drei verschiedenen Anwendungsmöglichkeiten:
1) Spielzeug, das dazu geeignet ist, gefährliches Verhalten von Kindern herbeizuführen (kognitive Verhaltensmanipulation)
2) Wenn Menschen aufgrund ihres Status, ihres Verhaltens oder anhand von persönlichen Merkmalen eingestuft werden (Social Scoring)
3) Gesichtserkennungssysteme und vergleichbare biometrische Echtzeit-Identifizierungssysteme
Wir haben Ihnen diese zusammenfassende, jedoch nahezu umfassende Aufzählung mit Bedacht präsentiert. Einerseits haben Sie so die Möglichkeit, den breit gefächerten Ansatz der EU-Parlamentarier in seiner Vielschichtigkeit zu überblicken. Andererseits bleibt Ihnen ein stark gekürzter Auszug erspart, der Ihnen aufgrund von Auslassungen einen falschen Eindruck verschaffen könnte. Dadurch haben Sie die Möglichkeit, selbst zu erfassen, welche Aspekte von Kontrolle und Regulierung dem Parlament wichtig sind. Sofern Sie auf dem Gebiet der Künstlichen Intelligenz selbst unternehmerisch tätig sind, erkennen Sie somit auf den ersten Blick, ob speziell für Sie relevante Sachverhalte Gegenstand des Gesetzgebungsverfahrens sind oder nicht. Im Zweifel können Sie den Links folgen und Details recherchieren, denn die Pläne des Parlaments sind mit Kategorisierungen und bußgeldbewehrten Regulierungsmaßnahmen noch lange nicht abgeschlossen.
Das EU-Parlament hat weitergehende ambitionierte Pläne
Es ist für heutige Unternehmer und vom digitalen Wandel betroffene Menschen leicht nachvollziehbar, dass alleine die Kategorisierung bekannter KI-Technologien nicht ausreichend ist, um mit den überwältigenden technischen Neuerungen der heutigen Zeit Schritt zu halten. Das hat natürlich auch das EU-Parlament erkannt. Die Vertreter der EU-Bürger möchten im Rahmen der aktuellen Gesetzgebungsprozesse daher eine technologieneutrale, einheitliche Definition für KI festlegen, die auf zukünftige KI-Systeme angewendet werden könnte. Ob dieses ehrgeizige Projekt gelingen kann, werden allerdings erst die zukünftigen technischen Entwicklungen offenbaren.
Ohne Regulierung geht es nicht
Da die technologische Entwicklung nicht nur immer weiter geht, sondern durch die fortschreitende Digitalisierung auch immer mehr Fahrt aufnimmt, ist es einleuchtend, dass möglichst schnell geeignete Instrumente gefunden werden müssen, um die Entwicklung und den Betrieb moderner KI-Systeme zu kontrollieren und gesellschaftlich annehmbar zu gestalten. Ob diese „erste Regulierung der künstlichen Intelligenz“ ein geeignetes Instrument ist oder ob es noch weiterer Eingriffe und Sicherheitsmechanismen bedarf,
In diesem Zusammenhang sei aber auch auf den Abschnitt „Was bringt der AI Act außerhalb von Europa?“ verwiesen. Europa ist zwar ein wirtschaftlich starker und wichtiger Standort. Allerdings ist er weder der bevölkerungsreichste noch zählt er zu den flächenmäßig größten Wirtschaftsräumen. Geopolitisch verhält es sich ähnlich.
Global betrachtet ist der europäische AI Act infolgedessen lediglich ein bescheidener, wenngleich guter Anfang. Der transatlantische Schulterschluss und eine Harmonisierung des europäischen AI Act mit der zu erwartenden amerikanischen „Bill of Rights“ für den KI-Sektor sollte der nächste logische Schritt sein.
Der Abschnitt „Was bringt der AI Act außerhalb von Europa?“ birgt darüber hinaus noch einen weiteren Hinweis: „Wenn es um […] militärische AI-Forschung geht, würden es sich verschiedene Staaten der Erde nicht nehmen lassen, „jeden erdenklichen digitalen Vorsprung zu nutzen, wenn er sich denn bieten wird““, hatten wir ausgeführt.
Nun könnten sich aufmerksame Leser fragen, ob das europäische KI-Gesetz auch militärische Anwendungen reguliert? Eher weniger. Und das liegt in der Natur der Sache: Wenn nicht alle bei der Regulierung mitmachen, dann bereiten sich die einzelnen Akteure vorsichtshalber auf den schlimmsten anzunehmenden Ernstfall vor.
Der AI Act bleibt daher ein regulatorischer Anfang der europäischen Zivilgesellschaft, der bei Unternehmern für Planungssicherheit bei der KI-Gestaltung und bei den in der EU lebenden Menschen für ein vergleichsweise hohes Maß an Sicherheit und Datenschutz sorgt.
Das Problem bei dem Umgang mit bahnbrechenden Technologien – und dazu zählt Künstliche Intelligenz ganz besonders – wird dadurch jedoch nicht behoben: Zweifelhafte Einsatzbereiche, nicht nachvollziehbare Entscheidungen oder fatale Fehler können die Folge einer Legislative sein, die nicht mehr Herr der Entwicklungen wird. Und das Gesetzgebungsverfahren der EU kommt schon relativ spät: Schon 2017 wurden beim Champions-League-Finale in Cardiff nahezu 2000 Fans von einem KI-System aufgrund unzulänglicher Trainingsdaten als kriminell eingestuft. 2022 musste ein Mann im amerikanischen Georgia für eine Woche ins Gefängnis, weil ihn eine Anwendung fälschlicherweise als Dieb identifiziert hatte. Und diese Liste könnte sicherlich weiter fortgeführt werden…
Aufgrund solcher Erfahrungen mit „Fehlleistungen“ von KI-Systemen ist den EU-Parlamentariern bei einem Punkt, der auf ihrer Webseite aufgeführt wird, besonders zu danken:
„KI-Systeme sollten von Menschen und nicht von der Automatisierung überwacht werden, um schädliche Ergebnisse zu verhindern.“
Wir möchten diesen Ansatz noch ergänzen: KI-Systeme können und sollen den Menschen leistungsstark unterstützen. Allerdings sollte die Entscheidungsgewalt nicht blindlings an den maschinellen Helfer abgegeben werden. Nur so lassen sich fatale Fehler verhindern. Schließlich ist auch die beste KI nur so gut, wie es die zugrundeliegende Programmierung und das Machine Learning möglich machen. Transparenz und Nachvollziehbarkeit sind dabei zentral – nur so lassen sich fehlerhafte Einstellungen überprüfen und korrigieren.
Foto Overlay: Bild von Rob Grant & Bild von Gerd Altmann auf Pixabay.