Mit den aktuellen KI-Anwendungen wie ChatGPT oder Dell-E hat die Diskussion um Chancen und Gefahren von Künstlicher Intelligenz an Fahrt aufgenommen.
Dieser Beitrag soll dazu dienen, die Gefahren zu umreißen und Kriterien vorzustellen, mit denen eine verantwortungsvolle Entwicklung und Nutzung von KI zu gestalten ist. Denn eines ist bereits heute sichtbar: KI wird in vielfacher Weise unser zukünftiges Leben beeinflussen und ist schon jetzt in zahlreichen Sektoren unverzichtbar geworden – insbesondere im medizinischen Bereich.
Derzeit wird zwar viel über die Vor- und Nachteile von generischer KI1 diskutiert. Aber meist nur zu Einzelaspekten. Ist uns wirklich klar, was auf uns zukommt, wenn KI-Anwendungen alltäglich werden? In der letzten große Tech-Welle erfand ein findiges Marketing den Slogan „Gibt´s ne App für!“. In wenigen Jahren wird es so mit KI-Produkten sein. Die klassische Stadtführung wird tendenziell genauso durch KI ersetzt werden wie die Sportberichterstattung in Zeitungen. Werden wir die Kompetenz zum Recherchieren im Internet genauso verlieren wie das Kartenlesen beim Autofahren, weil Softwareagenten dies für uns schneller und besser erledigen?
Bei digitalen Anwendungen drehen sich die meisten Fragestellungen um die Themen Kontrolle, Autonomie und Transparenz.2 Zusätzlich kommen die Themen Fairness und Gleichberechtigung hinzu. Wie viel Kontrolle ist für welche KI-Systeme erforderlich und durch wen? Vergrößern KI-Anwendungen den für alle Internetplattformen geltenden Netzwerkeffekt3 und wie steigert sich dadurch die Macht der Mega-Konzerne? Wie viel Autonomie wollen wir als Gesellschaft diesen Systemen überlassen? Wie transparent müssen welche KI-Anwendungen sein, um die Nutzer:innen nicht zu entmündigen? Wie geht es den Menschen, die KI-Anwendungen präsentabel halten und oftmals für Hungerlöhne arbeiten?
In welche Richtung die derzeitige Gesetzgebung in der EU geht, zeigt die mit großer Mehrheit im Europäischen Parlament angenommen Verhandlungsposition zum Gesetz über Künstliche Intelligenz (KI)4. Der Grundgedanke des Gesetzes ist die Klassifizierung von KI-Anwendungen in begrenztes Risiko, Hochrisiko-KI-Systeme und unannehmbares Risiko. Letztere sollen mit dem Gesetz in der EU verboten werden. Hier geht es um biometrische Systeme zur Identifizierung oder Kategorisierung in der Öffentlichkeit, vorausschauende Polizeiarbeit, Emotionserkennung in der Strafverfolgung, beim Grenzschutz, am Arbeitsplatz oder in Bildungseinrichtungen sowie Datenbanken zur massenhaften Gesichtserkennung. Zudem sollen kognitive Verhaltensmanipulation von Personen oder bestimmten gefährdeten Gruppen und Social Scoring untersagt werden. Es gibt aber Ausnahmen wie bei der Verfolgung schwerer Straftaten, allerdings nur nach gerichtlicher Genehmigung.
Mit hohen Auflagen zugelassen werden sollen hingegen Hoch-Risiko-KI-Systeme. Hierunter fallen alle Systeme, die ein hohes Risiko für die Gesundheit und Sicherheit oder für die Grundrechte natürlicher Personen darstellen. Das sind zum einen Anwendungen, die unter die Produktsicherheitsvorschriften der EU fallen wie etwa in den Bereichen Spielzeug, Luftfahrt, Fahrzeuge, medizinische Geräte und Aufzüge. Und zum anderen zählen Systeme aus folgenden acht spezifischen Bereichen dazu:
- biometrische Identifizierung und Kategorisierung von natürlichen Personen;
- Verwaltung und Betrieb von kritischen Infrastrukturen;
- allgemeine und berufliche Bildung;
- Beschäftigung, Verwaltung der Arbeitnehmer und Zugang zur Selbstständigkeit;
- Zugang zu und Inanspruchnahme von wesentlichen privaten und öffentlichen Diensten und Leistungen;
- Strafverfolgung;
- Verwaltung von Migration, Asyl und Grenzkontrollen;
- Unterstützung bei der Auslegung und Anwendung von Gesetzen.
Diese Anwendungen werden in einer EU-Datenbank registriert und vor dem Inverkehrbringen und während des gesamten Lebenszyklus bewertet.
Für alle anderen Bereiche und Anwendungen wird ein begrenztes Risiko angenommen. Hier sollen minimale Transparenzanforderungen festgelegt werden. So sollen die Nutzer:innen darauf hingewiesen werden, wenn sie eine KI nutzen.
Für Angebote der generativen KI (ChatGPT, Dall-E, etc.) müssen zusätzliche Anforderungen erfüllt werden, wie eine Offenlegung, dass der Inhalt durch KI generiert wurde, eine Gestaltung des Modells, die die Generierung von illegalen Inhalten verhindert sowie die Veröffentlichung von Zusammenfassungen urheberrechtlich geschützter Daten, die für das Training verwendet wurden.
Derzeit laufen die Trilogverhandlungen des EU-Parlaments mit dem Rat und der Kommission. Vor dem Hintergrund der Europawahlen im kommenden Jahr sollen diese bis spätestens Anfang 2024 abgeschlossen sein.
Die Kritik an diesem Entwurf ist erwartungsgemäß vielfältig. Netzaktivisten befürchten, dass in diesem Verfahren einige Aufweichungen stattfinden werden. Besonders kritisiert werden Versuche, „biometrische Echtzeit-Fernidentifizierungssysteme“ in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken zulassen und Identifizierungen im Nachhinein (retrograde Identifizierung) breitflächig zu ermöglichen. Des Weiteren soll nach Ansicht der Kommission der militärische Bereich komplett von der Verordnung ausgenommen sein und so den Weg zu gefährlichen autonomen Waffensystemen ebnen.
Äußerst umstritten sind darüber hinaus die Versuche, weitere Ausnahmen bei Belangen der „nationalen Sicherheit“ sowie an den EU-Außengrenzen zuzulassen.5
Darüber hinaus enttäuscht der Entwurf in Sachen Qualität der Trainingsdaten. Neben dem Monitoring von risikobehafteten Anwendungen wären Anforderungen an die Gestaltung notwendig, die das Reproduzieren von Stereotypen oder Vorurteilen (Stichwort: Bias) verhindern oder kompensieren.6
Welch großem Druck der vorliegende Entwurf ausgesetzt ist, lässt sich auch an der Kritik der bayrischen Digitalministerin Judith Gerlach erkennen. Europa gerate ins Abseits und verlöre den Anschluss an die USA und China.7 Ihre Argumentation erinnert an die zurückliegenden Auseinandersetzungen um die EU-Datenschutzgrundverordnung.
Eines der ungelösten Probleme im Bereich der generativen KI sind die Fragen zum Urheberrecht. Die US-amerikanische Bildagentur Getty Images verklagt die KI-Firma Stability AI als Betreiber des Text-zu-Bild-Generators Stable Diffusion. Diese habe “Kopien von Milliarden urheberrechtlich geschützten Bildern ohne Erlaubnis heruntergeladen oder anderweitig bezogen“, um die Anwendung zu entwickeln. Von Getty Images selbst sollen 12 Millionen Bilder sein. Selbst das Wasserzeichen der Bildagentur sei auf neu generierten Bildern zu erkennen gewesen.
Fast völlig aus dem Blickfeld verschwunden sind die hinter den digitalen Anwendungen liegenden Macht- und Eigentumsverhältnisse. Es macht eben einen großen Unterschied, ob ein Angebot wie ChatGPT unter der Ägide von Microsoft entwickelt und vermarktet wird oder von einem Start-up. Wir beklagen zurecht die heutige Monopolisierung der Social-Media-Plattformen. Es wäre höchste Zeit für mehr Demokratie in der KI – oder haben wir uns bereits mit unserer Degradierung als Trainingsdaten liefernde Individuen abgefunden?
Im Projekt TOP.KI geht es um eine vergleichsweise kleine KI-Anwendung, die nicht auf den Massenmarkt zielt. Dennoch müssen auch wir uns Fragen stellen, wie sich die Prüfungsaufgabenerstellung durch den KI-Einsatz verändern wird. Dabei sehen wir große Chancen wie die notwendige stärkere Verbreitung der Textoptimierung in Prüfungen, aber auch Probleme durch ein möglicherweise „blindes Vertrauen“ in technische Lösungen.
Das Zusammenspiel Mensch-Maschine wird derzeit durch die sich entwickelnden KI-Lösungen neu justiert. Unser Ansatz dabei ist die Einbeziehung aller Beteiligten, um Lösungen zu entwickeln, die die Handlungsoptionen der involvierten Menschen stärkt und sie gleichzeitig durch KI unterstützt.
2 Lutz Goertz, Thomas Hagenhofer, Heike Krämer, Praktische ethische Fragen beim Einsatz digitaler Technik. In: Philipp Ramin (Hrsg.) Handbuch digitale Kompetenzentwicklung, 2021, Hanser Verlag