ChatGPT – eine Medienrevolution?
Wenn wir «Revolution» als eine «radikale Veränderung der bestehenden politischen und gesellschaftlichen Verhältnisse», «Umsturz», «tief greifende Wandlung» und «grundlegende Neuerung» betrachten, kann das Auftauchen von ChatGPT im Alltag vieler Menschen durchaus als Revolution bezeichnet werden.
Das aktuelle Bild sieht auf den ersten Blick so aus: Auf einmal können Menschen mit Internetzugang ohne Kenntnisse in IT, Programmieren oder Software allein auf Basis von schriftlich formulierten Wünschen, so genannten Prompts, Texte generieren und dank des Internets und Social Media diese neuen Texte öffentlich oder nicht öffentlich zugänglich zu machen.
Eine «radikale Veränderung der bestehenden politischen und gesellschaftlichen Verhältnisse» könnte die rasante Verbreitung von ChatGPT dabei zunächst im Bildungsbereich bewirken – eine längst überfällige offene und breite Debatte über den pädagogischen Wert von Hausaufgaben und Noten sowie das Prüfungswesen wurde schon angestoßen. Lücken in der Medienkompetenz großer Teile der Bevölkerung wenn etwa der Papst im topmodischen Daunenmantel als real wahrgenommen wird, werden noch breiter offensichtlich.
Doch sind mehrere gesellschaftliche Systeme betroffen, nicht nur die Bildung: Die Medienwelt vom Journalismus bis hin zur kreativen Grafik, Programmiere*innen, Musiker*innen, Drehbuchautor*innen, Callcenter-Beschäftigte – nach der Automatisierung der so genannten Blue Collar Work ist jetzt die White Collar Work dran und vielleicht ist das sogar der Anlass dafür, dass alle plötzlich hellwach sind. Die gesellschaftliche Akzeptanz und Neugier sind groß, der Markt ist entstanden, die Entwicklung lässt sich nicht mehr rückgängig machen. Das Lernen über KI gehört also nicht nur in die Schule, sondern in unser aller Alltag.
Nina Galla ist Büroleiterin und Wissenschaftliche Mitarbeiterin bei Dr. Petra Sitte, MdB.
Das Auftauchen von ChatGPT beeinflusste sogar den Zeitplan des EU-Parlaments bei der Ausarbeitung der KI-Verordnung, weil neue Regelungen für generative KI ausformuliert werden mussten.
Ja, das alles klingt nach einer Revolution. Ob sie friedlich oder mit Gewalt erfolgt, lässt sich aus verschiedenen Perspektiven betrachten: OpenAI hat einerseits ChatGPT trotz besseren Wissens um alle Risiken der Anwendung der Gesellschaft nach jahrelangem Training nun vor die Füße geworfen und ein gigantisches soziales Experiment gestartet. Gleichzeitig hat die Gesellschaft mit ihrer vorrangigen Begeisterung für alles Digitale das Experiment auch bereitwillig angenommen.
Und hierin liegt der Ausgangspunkt für die These, dass es keine Revolution durch ChatGPT gibt, sondern es sich hierbei allenfalls um eine Ausprägung einer weiteren technologischen Innovation handelt, die Menschen veranlasst, aktuell bestehende Strukturen stärker zu hinterfragen oder breiter unter Druck zu setzen, was wiederum eine gesamtgesellschaftliche Analyse erfordert, die über Ökonomie hinausgeht. Wie so oft in der neueren Geschichte der Technologie haben wir es eher mit einer Evolution zu tun als mit einer Revolution.
ChatGPT – technologisch nichts Neues
ChatGPT ist technologisch nicht so neu, wie es außerhalb der wissenschaftlichen und technischen Filterblase wahrgenommen wird. Und: ChatGPT ist nur die Spitze der Spitze des Eisbergs: ChatGPT ist eines von mehreren generativen KI-Systemen. Mit generativen KI-Systemen können Menschen mehr als Texte produzieren, sie können Bilder, Videos, Musik und Stimmen künstlich herstellen. Dabei ist generative KI wiederum nur eine Teilmenge der KI, denn mit weiteren KI-Systemen können Menschen noch viel mehr ermöglichen, von der Diagnostik in der Medizin bis hin zum autonom fahrenden Auto, die Beispiele und Möglichkeiten sind bekannt.
Was meist nicht bekannt ist, ist der Umfang, in dem KI schon im Alltag vieler Menschen angekommen ist, ohne dass sie es wissen. Wie die Kleinen Anfragen der Fraktion DIE LINKE. 2022 und 2023 gezeigt haben, setzt auch die Bundesregierung aktuell etwa 100 KI-Anwendungen in Ministerien und Bundesbehörden ein. Ohne, dass es eine ausreichende Rechtsgrundlage gibt. Das heißt konkret: Die Bundesregierung muss nicht vorab prüfen, ob das System einzelnen Personen oder Personengruppen Schaden zufügen kann, sie muss die Qualität der Systeme nicht überprüfen, die Ergebnisse nicht evaluieren, die Beschäftigten müssen nicht umfassend geschult werden. Leider zeigen die Antworten auf die Kleinen Anfragen, dass die Bundesregierung dies auch nicht freiwillig macht oder nur sehr eingeschränkt. Eine öffentliche Kommunikation oder gar eine breite gesellschaftliche Debatte, wie viel und welche KI wir auf staatlicher Seite wollen oder brauchen, gibt es nicht.
Während die meisten Menschen schnell verstanden haben, dass mit ChatGPT Texte produziert werden können, ist das Wissen darüber, dass das System nur ein statistisches ist, gering. Mit generativer KI können Inhalte berechnet werden, aber das System handelt nicht selbstständig oder versteht gar. Ebenfalls fehlt Wissen über die Entwicklungskette von KI mitsamt Arbeitsbedingungen, technischen Anforderungen und Grenzen von KI-Systemen, der politischen und wirtschaftlichen Bedeutung von Daten, den Chancen für das Gemeinwohl und den realen Risiken für die Gesellschaft und das Klima.
Es kann nicht oft genug gesagt werden: ChatGPT ist keine Suchmaschine und KI wird von Menschen gestaltet. Angefangen bei der Auswahl des Ziels, der Daten, die verarbeitet werden und des Trainings, bei dem den Systemen oft von Menschen beigebracht wird, was richtig und was falsch, was gut und was schlecht ist. Spätestens im Einsatz beobachten Menschen, wie das System wirkt und können auch dann noch entscheiden, wie sie mit den Erkenntnissen aus der Beobachtung umgehen. Der oft genannte menschliche Letztentscheid ist dabei aus technischer, rechtlicher und psychologischer Sicht in Frage zu stellen.
Die Schwächen von KI, also die Diskriminierungen, die Fehlentscheidungen, die Desinformation, die Beleidigungen – all das ist keine «künstliche Intelligenz», es sind statistische Verfahren, auch menschengemacht oder menschlich legitimiert. Die technologische Innovation muss dieses Unterlassen jedoch nicht zwangsläufig mit sich bringen. Ein technisch fehlerhaftes Auto darf nicht in den Straßenverkehr, ein Flughafen ohne ausreichenden Brandschutz darf nicht eröffnet werden, medizinische Geräte dürfen ohne Einhaltung von Sicherheitsstandards nicht benutzt werden. Genauso sollte auch der Einsatz von KI durch Menschen gestaltet werden: Eindeutige Anforderungen und klare Grenzen. An beidem fehlt es der KI-Verordnung derzeit.
Wenn ChatGPT eine unumkehrbare Evolution darstellt, ist eine nicht oder unzureichend regulierte oder fehlerhafte Anwendung, die das Leben vieler Menschen nachhaltig und strukturell verändern kann, ohne, dass sie darauf vorbereitet sind oder damit umgehen können, insbesondere durch den Staat dann nicht fahrlässig? Das Narrativ der Innovation, der Alternativlosigkeit und der Technikfeindlichkeit dominiert leider die Debatte und erlaubt – gestützt durch fehlendes Wissen und Bewusstsein in der Zivilgesellschaft – wenig Raum für eine konstruktiv-kritische Auseinandersetzung.
Das Zeitalter des Technologie-Optimismus auf Kosten der Gesellschaft
Technologie in Frage zu stellen, gilt als rückständig, sie zu begrüßen, als naiv. Interessanterweise werfen beide Seiten einander Inkompetenz vor: Die einen verstehen angeblich nicht, welche Chancen die Entwicklung mit sich bringt, die anderen angeblich nicht, welche Risiken sie im Gepäck hat. Beide Seiten neigen zu Extremen: KI wird jedoch weder die Menschheit auslöschen, noch gesellschaftliche Probleme lösen, wie Enthusiast*innen und vor allem Verkäufer*innen gern behaupten. Was fehlt, ist die Analyse der realistischen Möglichkeiten und Grenzen von KI sowie das «und» als die Bereitschaft, beide Perspektiven auf Chancen und Risiken gleichermaßen zuzulassen. Bei einem realen Überhang der chancenorientierten Narrative müssen die Risiken im Moment stärker betont werden, ohne dabei an Realismus zu verlieren. Über Risiken muss gesprochen werden, Warnungen und Offene Briefe über das Ende der Menschheit sind dabei aber keine Hilfe, denn sie verschleiern die heute schon existierenden Probleme zwischen Menschen und Maschinen, die gelöst werden müssen und können, die aber auch Verantwortung denjenigen zuschreiben sollten, die aktuell an der Innovation verdienen.
Das Zeitfenster, in dem Europa aushandelt, wie wir mit KI umgehen wollen, schließt sich gerade. Der Trilog um die KI-Verordnung hat begonnen und soll bis zum Jahresende beendet werden. Es gibt allerdings drei Perspektiven, die gesellschaftlich noch nicht ausreichend debattiert wurden:
1. Die Macht des technologischen Kapitals auf die Regulierung
Die KI-Verordnung zeigt deutlich den Einfluss von Lobbyismus und begünstigt aktuell die kommerzielle Innovation und nicht das menschliche Wohl, obwohl dies das erklärte primäre Ziel der Verordnung sein will (S. 63, Art. 1). Die Regelungsentwürfe sehen unter anderem vor, dass Anbieter ihre Systeme in eigener Verantwortung darauf prüfen müssen, wie hoch das gesellschaftliche Risiko ist. Zwingende Anforderungen gibt es aus der Verordnung nur für so genannte Hochrisiko-Systeme. Und selbst wenn das System in diese Kategorie fällt, wird die Einhaltung der Anforderungen nicht unbedingt extern kontrolliert. Ein Zulassungsverfahren, vergleichbar wie der TÜV für Autos, gibt es nicht, bzw. nur für bestimmte Einzelfälle. Wer KI-Systeme zu Forschungszwecken entwickelt, unterliegt gar keiner Regulierung. Die Freiheit der Forschung kann an ihre Grenzen kommen, wenn kommerzielle Unternehmen ihre eigenen oder mitfinanzierten Forschungsprojekte der Öffentlichkeit zugänglich machen und die Grenzen zwischen Produkt und Projekt verschwimmen. Das Vertrauen in Wissenschaft kann schwinden, wenn künstlich generierte Forschung sich selbst referenziert. Das Experiment mit ChatGPT funktioniert leider, es könnte ermutigen, die Diffusion zwischen Kommerzialisierung und Forschung voranzutreiben. Der Kapitalismus ist nicht altruistisch, seine Aktivitäten in der Forschung zum angeblichen Wohl der Menschen müssen weiterhin kritisch begleitet werden, und Unternehmen, die KI entwickeln, müssen dafür Sorge tragen, dass sie keinen Schaden anrichten.
2. Die Veränderung der Arbeit und ein neuer digitaler Kolonialismus
Auch stellt sich die Frage, welche Menschen denn von den Chancen der KI profitieren sollen. Hierzulande wird meist der lokale Arbeitsmarkt betrachtet. Zunehmend sind nicht nur einfache Arbeitende von Substitution durch Automatisierung bedroht, sondern auch Intellektuelle und Kreative. Neue Jobs sollen entstehen, aber die Transformationsphase kann gesellschaftlich noch sehr belastend werden angesichts des Tempos und der Komplexität der Technologieentwicklung, der schon heute Viele nicht mehr oder nicht mehr ohne weiteres folgen können. Was genau passieren wird, ist nicht klar, die Berechnungen der Verschiebungen auf den Arbeitsmärkten sind komplex (Kap. «Künstliche Intelligenz und Arbeit», Projektgruppe 4, S. 281-354). Neben den theoretischen Möglichkeiten, Arbeit zu automatisieren, sind Investitionskosten, menschliche Akzeptanz, die Bedeutung des Erfahrungswissens und die Begrenztheit der Maschinen in komplexen Situationen einzukalkulieren. Der japanische Autobauer Toyota beispielsweise hat seine Roboter wieder entfernt, nachdem deutlich wurde, dass das Unternehmen an Innovationskraft verlor.
Dabei gerät meist nicht ins Blickfeld, dass aktuell der reiche Norden auf Kosten des globalen Südens profitiert. Diese Kosten bestehen darin, dass Daten, die für das Training von KI benötigt werden, klassifiziert und bereinigt werden müssen. Arbeitende in Südamerika, Kenia oder Indien annotieren zu Niedrigstlöhnen Daten, damit wir in Europa gewaltfreie soziale Medien und generative KI genießen und auch in Schulen einsetzen können. Dieses Outsourcing ist von verschiedenen Seiten zu betrachten: Die Daten-Annotation bringt nun auch ungelernte Kräfte in Arbeit, zunehmend auch Frauen, gleichzeitig sind die Löhne überall zu niedrig und die Arbeit ist ausbeuterisch und psychisch belastend. Bedroht die Abhängigkeit von Technologie-Unternehmen im Norden die Bequemlichkeit, bedroht sie im Süden die Existenz. Denn auch Annotierung ist von Automatisierung bedroht. Diese Kosten erhöhen sich noch dadurch, dass die Systeme in der Anwendung oft genug vulnerable Menschengruppen auch noch diskriminieren.
Ein Lichtblick ist, dass sich Clickworker in Argentinien feste Stellen und Versicherungen erkämpft haben. Eventuell ist es möglich, über eine Organisation der Beschäftigten ihre Machtposition zu stärken, mit allen kostenrelevanten Konsequenzen für unsere Dienstenutzung. Denn nicht nur bezahlen wir kostenfreie Dienste mit unseren Daten, sondern auch mit der wirtschaftlichen Abhängigkeit und mentalen Gesundheit des globalen Südens.
3. Psychologische Effekte der Machtdemonstration durch technologische Innovation
Die konservativ-liberale Politik neigt dazu, Symptome zu lindern anstatt Ursachen zu bekämpfen, die Starken zu stärken anstatt die Schwachen zu unterstützen. Ein politisch zu wenig betrachteter Faktor in politisch-soziologischen Entwicklungen ist dabei die Psychologie. Phänomene wie Einsamkeit, Depressionen oder allgemeine Angstgefühle werden der Jugend, Seniorinnen und Senioren, Arbeitsüberlastung oder der Pandemie zugeschrieben und dort setzen auch politische Programme an. Der Zusammenhang zwischen Armut, Zukunftsängsten und psychischer Belastung wird in der Breite und an der Quelle nicht ausreichend erörtert. Insbesondere das Phänomen der Anxiety verdient eine tiefere Betrachtung.
Der Begriff Anxiety beschreibt sowohl Zustände der konkreten Angst als auch der diffusen Bedrohung oder Sorge. Sie beschränkt sich nicht auf Furcht vor Tieren oder vor einzelnen sozialen Situationen, sondern wirkt gleichzeitig sowohl tief als auch übergeordnet aus einem Zusammenspiel von mittelbarer und unmittelbarer Bedrohung und offenbarer und weniger offenbarer Angst. Diese Angst kann zum Beispiel auch darin bestehen, im neoliberalen Wettbewerb nicht bestehen zu können, der Armut nicht zu entkommen oder in sie hineinzurutschen, die Lebensgrundlage durch die Klimakatastrophe zu verlieren oder insgesamt in der Gesellschaft keinen Platz zu finden oder ihn zu verlieren. Diese Ängste sind ernstzunehmen und insbesondere in die Analyse des Erstarkens des Rechtsextremismus einzubeziehen.
Mit KI und Automatisierung kommt eine Distanzierung hinzu, die angstverstärkend wirken kann: «Computer says no» in Behörden, die über Sozialbezüge, oder in Banken, die über Kredite entscheiden, Sprachcomputer am Telefon, die das individuelle Anliegen nicht verstehen, und SCHUFA-Eingruppierungen für den Zugang zum immer knapper werdenden Wohnraum schaffen eine Atmosphäre einer unsichtbaren Kontrollinstanz, die auf Individuen wirkt, ohne dass diese entweder auf den Prozess oder sein Ergebnis Einfluss nehmen können. Emotionen des Ausgeliefertseins, der Machtlosigkeit und der Objektifizierung von Menschen mit teilweise emotionalen Anliegen treffen auf tief sitzende Ängste von Verlust. Insbesondere der Staat hat aufgrund des Machtgefälles gegenüber Menschen und Bürger*innen eine besondere Pflicht, die verwaltungs-immanente Distanz nicht zur Beförderung psychischer Belastungen weiter anwachsen zu lassen. Die Pflicht umfasst den eigenen Einsatz von Automatisierungsprozessen als auch den Blick auf gesamtgesellschaftliche Veränderungen, auch vorangetrieben durch private Unternehmen, die im Rahmen der Digitalisierung mehr und mehr staatliche Aufgabenbereiche übernehmen, wie zum Beispiel in der Bildung.
Fazit
Die politische Ökonomie von ChatGPT geht über die Anwendung eines einzelnen Systems hinaus. Die politische Ökonomie der KI ist vielmehr Ausgangspunkt für die globalen und interdisziplinären Weichenstellungen im Umgang mit Automatisierung, für die es jetzt schon fast zu spät ist. Die Entwicklung von KI ist dabei mehr als ein Teil der politischen Ökonomie, sie ist als ein Beitrag zum gesellschaftlichen Klimawandel zu verstehen.