Publication Culture / Media - Digital Transformation - Communication / Public - Social Theory - Digitalisierung und Demokratie Okay, Trump, mach mal!

Politische Handlungsfähigkeit in Zeiten von Autokraten und Künstlicher Intelligenz

Information

Published

September 2018

Ordering advice

Only available online

Foto: Krystian Woznicki

 

Wir leben in eigentümlichen Zeiten, in denen wir unsere Handlungsfähigkeit delegieren, ohne die Entscheidungsmuster dahinter zu kennen oder zu erkennen. Das gilt gleichermaßen für die Bereitschaft algorithmische Entscheidungssysteme tief in unsere Leben wirken zu lassen, als auch politische Führung an Personen abzugeben, deren konstitutive Eigenschaft autoritäre Willkür ist. Was tun?

Im Computerspiel gibt es Momente, in denen das Spiel sich selbst zu spielen scheint. Du hast dich entfernt, doch das Spiel läuft einfach weiter. Die künstliche Intelligenz des Spiels ist mit sich selbst beschäftigt, nichts Weltbewegendes passiert in der Zwischenzeit. Was der Medientheoretiker Alexander Galloway «Ambience Acts» nennt, sind heute in der wirklichen Welt «Ambient Revolts» – nicht einfach nur Akte, sondern Umbrüche, die weltbewegende Dinge in Gang setzen können, während «das Spiel sich selbst spielt»: landesweite Netzausfälle oder Hasswellen, Börsenzusammenbrüche oder Verkehrschaos. Und du kannst dir niemals ganz sicher sein, ob es passiert ist, während du away from keyboard warst oder online; ob du den Funken ausgelöst hast oder nur ein Halbleiter des viralen Tsumanis gewesen bist. So befindest du dich in einem «Spiel», dessen Regeln und Abläufe du nicht wirklich verstehst. Wenn überhaupt, dann wirst du einer Handlungsfähigkeit der techno-sozialen Umwelt gewahr, die deine individuelle Handlungsfähigkeit tiefgreifend in Frage stellt. Mit diesem Gefühl der Ohnmacht bist du nicht allein. Wir sind viele.Viele, die nicht mehr so genau wissen, was es eigentlich bedeutet, politisch wirksam zu handeln.

Also beobachten wir das Durcheinander und versuchen daraus schlau zu werden. Etwas, das gerade viel Aufmerksamkeit auf sich zieht, ist Künstliche Intelligenz. KI, so das Kürzel, ist als Thema allgegenwärtig, ob in Medien (Feuilletons, Online-Foren, Verlagsprogrammen, etc.) oder in der Politik (KOA-Programm, Enquete-Kommission, Datenethikkommission, etc.). Man kann sich diesem Hype kaum entziehen und des Eindrucks kaum erwehren, etwas Neues sei am Horizont aufgeflackert. Dieses Neue wird durch selbstfahrende Autos verkörpert und durch häuserwandgroße «Okay, Google, mach mal!»-Werbeplakate illustriert, die uns suggerieren, selbstlernende Maschinen könnten uns rundum versorgen. Doch was sehen wir hier eigentlich? Wie neu ist das, was da gerade so grell leuchtet?

Workshops zum Thema

Die Berliner Gazette-Konferenz «Ambient Revolts» stellt politische Handlungsfähigkeit in Zeiten von Autokraten und Künstlicher Intelligenz zur Diskussion, im Berliner ZK/U – Center for Arts and Urbanistics, 8.-10. November, 2018. Hier finden auch fünf dreitägige Workshops zum Thema statt, für die man sich bis zum 20. Oktober anmelden kann. Mehr Infos auf der Konferenz-Webseite

Schon ziemlich bald nach dem zweiten Weltkrieg wurde KI das erste Mal hochgejazzt. 1958 etwa in Form des Perzeptrons, das, durch das Office of Naval Research finanziert, die New York Times dichten ließ, es sei «the embryo of an electronic computer that [the Navy] expects will be able to walk, talk, see, write, reproduce itself and be conscious of its existence.» Das Lauffeuer verbreitete sich über die USA hinaus – selbst bis nach Chile – und ist in den letzten Jahren immer wieder neu entfacht worden: im Rahmen von Staats-, Forschungs- oder Wall-Street-Experimenten. Heute, da wir eine Neuauflage des KI-Hypes erleben, ist vor allem eines bemerkenswert: Eine gewisse kritische Masse ist erreicht worden, wie vor etwa fünf Jahren in Sachen Big Data als ein gewisses Genug an Daten verzeichnet werden konnte, um eine weiterreichende Instrumentalisierung und Implementierung von datengetriebenen Technologien zu ermöglichen. Die IT-Riesen, die auf dem KI-Gebiet tonangebend sind, verfügen nun über Rechner, die leistungsstark genug sind, können sich außerdem Zugang zu ausreichend Daten verschaffen, um die neuronalen Netzwerke zu füttern und außerdem haben sie die KI-Forschung in neue Höhen treiben können. Doch der Traum der digitalen Schatzkammer, der damit neu ermöglicht wird, wäre nicht ohne die technologische Durchdringung der Gesellschaft und des Alltags denkbar. KI kann heute potentiell universell wirksam werden, denn selbstlernende Algorithmen können heute nicht nur in der Industrie, im Militär, im Finanzwesen, im Verkehr, in der Online-Werbung etc. zum Einsatz kommen, sondern auch in Alltagsanwendungen. Die «Okay, Google, mach mal!»-Kampagne etwa richtet sich an Smartphone-Nutzer. Auch andere Marktgrößen wollen Schritt halten und bieten ihre intelligenten Assistenten feil: Siri, Cortana, Bixby, Alexa, etc. So hat KI nun auch eine Bedienoberfläche bekommen, die die Technologie eigentlich greifbar macht, da sie sich nun vordergründig in unserem Leben platziert. Doch da wir es längst gewohnt sind, uns quasi blind auf technologische Anwendungen zu verlassen, verschwindet KI als systemisches Feature unmerklich im Hintergrund, dessen Schalten und Walten daher kaum bemerkt wird. Insofern ist KI zugleich überall und nirgends, sprich: ambient, weil fast überall als solches nicht sichtbar, zumindest für viele nicht ohne Weiteres erkennbar.

Google Homes faustgroße Lautsprecher stehen dekorativ in vielen Wohnungen und lauschen auf jedes Wort ihrer Besitzer*innen. Foto: Bence ▲ Boros, Unsplash

Auch die inhärenten Logiken bleiben unsichtbar, insbesondere die Tatsache, dass KI auf der Basis von historischen Vorlagen trainiert wird, die sie unkritisch als objektive und neutrale Wahrheit verarbeitet. Angesichts dessen kommen wir nicht umhin zur Kenntnis zu nehmen, dass diese Technologie keine Zukunft katalysieren kann, welche die Irrungen der Vergangenheit (bekanntlich ein Tummelplatz für Diskriminierung, Rassismus und andere Verbrechen) nicht reproduzieren wird. Das Problem der Algorithmic Bias materialisiert sich beispielsweise im Falle von KI-optimierten Delivery-Diensten oder so genanntem Predictive Policing als rassistische Voreingenommenheit – Nachbarschaften mit einem hohen Anteil von people of color werden nicht bzw. nur nachrangig beliefert oder einer übermäßigen Polizeipräsenz ausgesetzt. Doch können wir nicht auch ein Echo dieses Problems auf der großen politischen Bühne vernehmen, wo man heute im zunehmenden Maße auf ein rassistisches Bevölkerungsmanagement setzt? Ob Migrations- oder Personalmanagement, Bildung oder Verwaltung, Logistik oder Transport, Kranken- oder Altenpflege – KI soll alles, was unser Leben ausmacht, effizienter machen, doch die Frage, die sich aufdrängt, ist eigentlich offensichtlich: entstehen durch Formen algorithmisch-gestützter Gouvernementalität nicht virale Netzwerk-Effekte, die Diskriminierung auf der Basis von Rasse, Geschlecht, Ethnie und Klasse reproduzieren und gar verstärken?

So oder so, wir leben in eigentümlichen Zeiten, in denen wir unsere Handlungsfähigkeit delegieren, ohne die Entscheidungsmuster dahinter zu kennen oder zu erkennen. Das gilt gleichermaßen für die Bereitschaft algorithmische Entscheidungssysteme tief in unsere Leben wirken zu lassen, als auch die politische Führung an Personen abzugeben, deren konstitutive Eigenschaft autoritäre Willkür ist. Daher ist es kein Zufall, dass wir zu diesem Zeitpunkt soviel von menschlicher Handlungsfähigkeit hören. Man kann sich des Eindrucks nicht erwehren, sie werde geradezu beschworen, wie etwas, an das die Leute aufgehört haben zu glauben, an das sie aber unbedingt glauben möchten. Symptomatisch dafür ist die heutzutage sich global verbreitende Renaissance der Autokraten: USA, Russland, Türkei, Österreich, Großbritannien, Polen, Ungarn, China, Indien, Philippinen – das sind nur einige der vielen Länder, in denen ein starker Führer an die Macht gewählt worden ist und in Aussicht stellt, die scheinbar außer Kontrolle geratene Welt, wieder unter Kontrolle bringen zu können – mehr oder weniger eigenhändig, im Alleingang, aus dem Bauch heraus. Die Autokraten-Renaissance vermittelt uns nicht zuletzt, dass die Welt, in der wir heute leben, ausschließlich vom Menschen gebaut worden sei. Entsprechend erscheint der Autokrat hier als «Steuermann» all der technologischen Systeme, die Menschen erschaffen haben – ein Egozentriker am Joystick einer programmierbaren Welt. Doch unterschlägt diese Vorstellung nicht, dass die programmierbare Welt nicht exklusiv menschlichen, sondern eher techno-sozialen Steuerungsprinzipien unterworfen ist – und somit im Zeichen des Kapitalozäns steht? Und belebt diese Vorstellung nicht auch all die gefährlichen Fantasien der Kolonialepoche, die weiße, männliche Eroberer zu Baumeistern einer zivilisierten Welt verklärten?

Wenn wir genau hinhören, so wird in der Renaissance der Autokraten das Echo von mehreren hundert Jahren europäischer Geschichte vernehmbar. Kein Wunder, immerhin geht nicht nur unsere landläufige Vorstellung von Handlungsfähigkeit auf die Epoche der Aufklärung zurück, sondern auch die in der Renaissance der Autokraten symptomatisch zum Vorschein kommende Sehnsucht nach Agency. Der Mensch als freies, selbstbestimmtes Subjekt – dieses Ideal der Aufklärung ist heute ein Meme, das von seiner eigenen verdrängten Geschichte nichts wissen will. In den USA oder in Ungarn etwa macht das der Ruf nach «weißer Vorherrschaft» allzu deutlich: die «Überlegenheit der Weißen» ertönt als schrilles Echo der Aufklärung, die Selbstbestimmung für alle Menschen versprach, aber in Wirklichkeit lediglich den weißen, heterosexuellen Mann als universelles Ideal der Zivilisation durchzusetzen vermochte. Nur ihm sollte es zustehen, die Fackel der Vernunft in der Hand zu halten. Ihm wurde folglich Agency zugeschrieben – people of color und Frauen sollten unterordnen und versuchen, seinem Beispiel zu folgen.

Die Tatsache, dass die im Europa der Aufklärung herbeifantasierte Vorstellung von menschlicher Handlungsfähigkeit voller Widersprüche war, ist seitdem immer wieder zum Vorschein gekommen. Die Kernidee der europäischen Aufklärung – Stichwort: egalitäre Handlungsfähigkeit für alle – sah sich etwa dann tiefgreifend in Frage gestellt, als Hegel den Kolonialismus unterstützte (Afrika sollte dem überlegenen Europa unterworfen werden), als Marx die Befreiung von der Sklaverei lediglich als Metapher für den Klassenkampf ins Feld führte, nicht jedoch auf buchstäbliche Sklaven bezog, oder aber als Shelley dem tiefgreifenden Horror Ausdruck verlieh, die technologischen Schöpfungen des Menschen könnten sich verselbstständigen und gar zu einer Bedrohung für ihn werden. Der koloniale Subtext bei Hegel oder der Rassismus bei Marx – diese blinden Flecken im Modell der Agency liegen in historischer Nachbarschaft zu der Vorstellung einer unkontrollierbaren Maschine namens Frankenstein bei Shelley. Bei ihnen kommt jeweils explizit oder implizit ein verdrängtes Anderes zum Vorschein, das in der Konzeption von Agency im Gefolge der emanzipatorischen Aufklärung ausgeblendet worden ist: einerseits Technik, andererseits Frauen und people of color – hier teils gewaltsam in Form des Genozids. Anders gesagt, ist Agency hier als Frage der Dominanz bzw. eines zu dominierenden Gegenübers gedacht worden, frei nach dem Motto: «ich kann nur dann handlungsfähig sein, wenn du es nicht bist». Eine unterschiedslose und diskriminierungsfreie Ko-Konstitution von Agency als ein kollektives Handlungsvermögen war offenbar nicht denkbar.

Diese zivilisatorische Fehlleistung, die unserer kulturellen Vorstellung von Agency zu Grunde liegt, hat heute ein schrilles Echo, etwa im autoritären Wunsch nach einer effektiven Staatsgewalt wie ihn die Rechtspopulisten auch hierzulande routiniert zu nähren wissen. Wenn heute der zeitgleiche Siegeszug von Künstlicher Intelligenz problematisiert wird, etwa, wie es Kate Crawford tut, mit Verweisen auf die Ära des Faschismus als eine Blütezeit des Klassifizierungswahns, dann ist das zwar historisch nicht falsch. Doch die Kritik führt damit nicht weit genug. Das Problem liegt tiefer und an einem problematischeren Punkt: Denn anders als der Faschismus, gehört die Aufklärung in Europa zum Selbstbild der Mehrheitsbevölkerung. Wir können relativ einfach sagen: Faschismus wollen wir nicht. Doch, was bedeutet es heute, die Aufklärung in Zweifel zu ziehen. Es gilt etwa zu fragen: Wem wird in der Geschichte der Aufklärung Handlungsfähigkeit abgesprochen, wem zugestanden? Wer beansprucht Autorität darüber entscheiden zu können? Wenn diese Fragen unumgänglich geworden sind, dann weil wir nun an einem Punkt sind, an dem Agency als Narrativ eines von sich selbst eingenommenen Europas angesichts von Autokraten und KI tiefgreifend erschüttert worden sind.


Der Autor dankt Frauke Mahrt-Thomsen für das kritische Nachfragen sowie Chris Piallat, Nina Pohler, Michael Prinzinger und Magdalena Taube für ergänzende Hinweise.