Publikation Digitalisierung und Demokratie Künstliche Intelligenz

Eine Kreuzung von Diskursen über Mechanik und Geist, die traditionell im Spannungsverhältnis zueinander standen.

Information

Reihe

HKWM

Autor

Christof Ohm,

Erschienen

April 2022

Zugehörige Dateien

Eine ukrainische Studentin interagiert mit einem Roboter auf der 4th World Voice Expo in Hefei, der Hauptstadt der ostchinesischen Provinz Anhui im Oktober 2021.  Foto: picture alliance / Xinhua News Agency | Huang Bohan

Das Historisch-kritische Wörterbuch des Marxismus (HKWM) ist ein marxistisches Lexikon, das nach seiner Fertigstellung 15 Bände und über 1.500 Einträge umfassen wird. Von den bisher erschienenen neun Bänden in deutscher Sprache sind seit 2017 zwei Bände in chinesischer Sprache herausgegeben worden. Im Frühjahr 2019 hat die Rosa-Luxemburg-Stiftung gemeinsam mit dem HKWM-Team die «Internationalisierung» des Lexikons auf Englisch und Spanisch vorangetrieben, um eine neue Generation marxistischer Wissenschaftlerinnen und Wissenschaftler aus der ganzen Welt für das Projekt zu gewinnen und seine Leserschaft und Reichweite zu vergrößern. Der unten stehende Eintrag ist Teil einer Auswahl dieser Übersetzungen, die auf unserer Website zur Verfügung gestellt werden. 

Weitere Informationen über das Projekt und andere übersetzte Lexikon-Einträge finden sich in unserem HKWM-Dossier.

A: ḏakā' iṣṭinā'ī. - E: artificial intelligence. - F: intelligence artificielle. - R: iskusstvennyj intellekt. - S: inteligencia artificial. - C: yishuzhishifenzi 艺术知识分子.

Im 1955 in den USA geprägten Begriff KI, zunächst auch »maschinelle I«, kreuzen sich Diskurse über Mechanik und Geist, die traditionell zumeist im Spannungs- bzw. Ausschlussverhältnis zueinander standen. Das Zeitalter der bürgerlichen Revolutionen und Aufklärung brachte das mechanistisch-materialistische Weltbild hervor. Es war die Epoche nicht nur des Uhrwerks, sondern bereits der ersten mit Lochstreifen gesteuerten Musik- und Webautomaten sowie mechanischen Rechenmaschinen wie denen von Wilhelm Schickard (1623), Blaise Pascal (1641) und Gottfried Wilhelm Leibniz (1673). Klassisch ausgearbeitet hat Thomas Hobbes diese Weitsicht in Leviathan (1651), knapp hundert Jahre später gipfelte sie in Julien Offray de La Mettries L'homme machine (1747), in dem das »neurokyber- netische Modell« des 21. Jh. sich vorgebildet findet (Tetens 1999). Den epochal siegreichen scheinbaren Gegensatz realisierte 1641 Decartes’ Dualismus von »denkender« vs. »ausgedehnter« Substanz (Meditationes de prima philosophia). Es ist dies ein Kompromiss, der – unter Wahrung des Geistvorbehalts und damit unter idealistisch-theologieverträglicher Dominanz – die gesamte Natur- und Körperwelt dem mechanischen Paradigma überlässt.

Ein Schub der Engführung und Durchdringung beider Diskurse bahnte sich in den 1940er Jahren mit der Kybernetik an, einer aus dem »geheimen Zusammenfluss verschiedener Kriegswissenschaften« entstehenden »neuen Weitsicht« (Galison 1997, 302). Sie hebt die Trennung auf, die zuletzt der Philosoph und Biologe Hans Driesch in seiner Schrift Die Maschine und der Organismus (1935) bekräftigt hatte, bevor der mathematische Grundlagenforscher und Techniker Alan M. Turing mit seinem berühmten Aufsatz »Rechenmaschinen und Intelligenz« (1950) beide Diskurse nachhaltig zu verschmelzen und damit ihre auf Komplementarität angelegte Neupositionierung zu erzwingen vermochte.

Welchen Entwicklungsstand hat KI zu Beginn des 21. Jh. erreicht? Ist der Begriff nach den leidenschaftlichen KI-Debatten, die ab 1960 etwa drei Jahrzehnte lang geführt wurden, noch von Nutzen? Auf diese Fragen antworten Informatiker, die »zu Datenbanken, Compilerbau, Computergraphik, Betriebssystemen« arbeiten, in Bereichen also, »die häufig als ›Kern-Informatik‹ bezeichnet werden«, zu Beginn der 2010er Jahre typischerweise: »KI? Das hat doch noch nie funktioniert!« oder »KI? Gibt es das überhaupt noch?« (Schmid 2012, 1) Allgemeines Ziel der KI-Forschung ist es Ute Schmid zufolge gleichwohl, »Algorithmen für Problembereiche zu entwickeln, in denen der Mensch bislang Computersystemen überlegen ist« (ebd.), was zunächst als Programm des Kompetenzentzugs erscheint. Als »Teil der Kognitionswissenschaft ist KI aber auch Erfahrungswissenschaft und versucht, durch Formalisierung und Implementierung menschlicher Informationsverarbeitungsprozesse« zur Erkenntnis der »Grundlagen menschlichen Denkens und Handelns« beizutragen (ebd.).

KI in die inzwischen gewöhnliche ›Kern-Informatik‹ eingemeinden zu wollen, erklärt Frank Rieger vom Chaos Computer Club für gefährlich realitätsblind. Während »die Automatisierung in der industriellen Fertigung bisher eher im Zeitraum von Jahren und Jahrzehnten voranschreitet, gibt es für die Automatisierung geistiger Tätigkeiten keine Hindernisse für eine umsturzartige Veränderung«, die »einfache geistige« Tätigkeiten, aber auch die Arbeit überflüssig macht, die »Buchhalter, Anwälte, Personalentwickler, Marketingmitarbeiter, sogar Journalisten und Wissensvermittler« verrichten (2012). Massenhaftes Verschwinden von Arbeitsplätzen prognostiziert auch Frederick Kile (2012), der für die Wechselwirkung und Verschmelzung von klassischer und neuer Automation den Begriff »AMAT« (Automation and Machine Aided Thinking) prägt (2). Die Wege zu den (Denk-)Umbrüchen und deren Umrisse sowie die neuen Qualifikationsanforderungen und Konflikte, die sich für die mit KI-basierten Produktionsmitteln Arbeitenden ergeben, gilt es zu rekonstruieren.

1. Gleich Ursprünglichkeit von Computerzeitalter und KI. – Mit dem Zielbegriff »Artificial Intelligence« wollten John McCarthy und Kollegen 1955 ein Forschungsprogramm initiieren, das »jeden Aspekt des Lernens und jedes sonstige Merkmal von Intelligenz im Prinzip genau so zu beschreiben« plante, »dass man eine Maschine herstellen kann, die dies simuliert« (zit.n. Nilsson 2010, 77). Üblicherweise verkennt die KI-Geschichtsschreibung (so etwa Russell/Norvig 2010,16f), wie der Zweite Weltkrieg drei Leistungen Turings verschmilzt und die Entstehung von Computer- und KI-Zeitalter zusammenrückt.

1.1 Was das mathematische Fundament betrifft, lässt sich »das Entstehungsjahr der KI [...] ins Jahr 1936 vordatieren« (Heintz 1995, 37). 1937 veröffentlicht Turing als Beweismittel für eine Theorie der Berechenbarkeit – sie erhält später den Namen Church-Turing-These, da Alonzo Church 1936 gleichartige Erkenntnisse erzielte (Copeland 2008) – das Konstrukt einer »universalen Rechenmaschine«: es »ist möglich, eine einzige Maschine zu erfinden, die dazu verwendet werden kann, jede berechenbare Folge zu errechnen« (Turing 1937/1987, 31). »Die Turingmaschine, obwohl nie gebaut, war technisch so revolutionär wie mathematisch.« (Dotzler/Kittler 1987, 213) Durch die »exakte mathematische Ausarbeitung der Maschine aller Maschinen« (Dotzler 1996, 19) wird eine historisch neue Realdialektik zwischen Festgelegtheit und Modifikabilität von Maschinerie in Gang gebracht. Sie ist strukturell analog zum »dialektischen Widerspruchsverhältnis« zwischen »phylogenetischer Festgelegtheit und phylogenetisch programmierter individueller Modifikabilität des Verhaltens«, das die Kritische Psychologie als »entscheidendes Agens der phylogenetischen Entwicklung« begreift und mit dem sie die Anthropogenese als eine Wechselwirkung von genetischer Festgelegtheit und humanspezifischer Lern- bzw. Entwicklungsfähigkeit rekonstruiert (Holzkamp- Osterkamp 1975, 141), die auch Grundlage von Noam Chomskys Modell des Spracherwerbs ist. Turing bringt die Pole dieser Dialektik, die später unbegrifflich Hard- und Software heißen, 1948 auf den Punkt: »Wir brauchen nicht unzählige unterschiedliche Maschinen für unterschiedliche Aufgaben. Eine einzige wird genügen. Das technische Problem der Herstellung verschiedener Maschinen für verschiedene Zwecke ist ersetzt durch die Schreibarbeit, die Universalmaschine für diese Aufgaben zu ›programmieren‹.« (1987, 88) Die Möglichkeit von KI steckt darin, dass Schreibaktivitäten, die die Maschine umbauen, in sie hineinverlagert werden können, so dass die Maschine sich in Abhängigkeit von nicht genau vorhersehbaren Ergebnissen (»Erfahrungen«) selbst umbauen kann. Werner Rammert (1995) fasst Turings Ansatz als Umbruch von der »Kinematik zur Informatik« (65), der verkannt werde, wenn »die mechanischen Rechenmaschinen als Vorläufer der Elektronenrechner« vorgestellt und damit »eine Kontinuität« zwischen beiden suggeriert werde (92). Zweifellos bahnte Turings »universale Rechenmaschine« in der Arbeits-, Technik- und auch Kulturgeschichte eine tiefgreifende Umwälzung an. Als eine ihrer Dimensionen lässt sich der Übergang von der »Gutenbergschen Galaxis der statischen Druckmedien« zur »Turingschen Galaxis der dynamischen programmierbaren Medien« (Coy 1994, 7f) begreifen.

1.2 Die »Befehle zur Computerentwicklung« kamen »nicht aus Privatwirtschaft und Konkurrenzdruck, sondern aus zentralen Planungsstäben des Hexenmeisterkriegs, wie der Zweite Weltkrieg bei seinen Ingenieuren hieß« (Dotzler/Kittler 1987, 213). In Großbritannien gelang es Turing – auf Arbeiten polnischer Kryptologen aufbauend – ab 1940, die mittels ENIGMA-Maschinen verschlüsselten Funksprüche der deutschen Wehrmacht zu entschlüsseln (was den Zweiten Weltkrieg um etwa zwei Jahre verkürzt haben soll, vgl. Pröse 2006, 11). Ab 1943 funktionierte COLOSSUS, der auf Initiative und mit Hilfe Turings gebaute weltweit erste elektronische Großrechner, betrieben mit 1500 handelsüblichen Elektronenröhren (Pröse 2006, 207). Dass KI »einen neuen Typ von Wissenschaftler-Ingenieur« hervorgebracht hat, »vergleichbar dem ›Künstler-Ingenieur‹ in der Renaissance« (Rammert 1995, 14), gilt nicht nur für die Ingenieurselite. Turings revolutionäre Leistung wurzelt im verallgemeinerbaren Aspekt seiner geschichtlich neuartigen Integration von Hand- und Kopfarbeit, von Theorie und experimentierendem Eingreifen in Maschinerie. Insofern erscheint seine Arbeitsweise als Vorgriff auf die »hochtechnologischen Intellektualarbeiter« (Haug 2003, 62). –  Turing und seine Mitstreiter wurden Opfer des Kalten Kriegs. Bis 1974 leugnete der britische Staat »die bloße Existenz des COLOSSUS« und seiner zehn Nachbauten (Pröse 2006, 209). Großbritannien hatte andere Staaten dazu überredet, »die offiziell sicheren ENIGMA-Maschinen für ihre geheime Kommunikation zu verwenden« (190), und entschlüsselte diese dann mittels der ›Kolosse‹. Die britische Geheimhaltung bahnte der Geschichtsfälschung den Weg: sie »ermöglichte es den US-Amerikanern«, den »Beginn des Informatikzeitalters [birth of information age] der erst 1946 erfolgten offiziellen Inbetriebnahme des Großrechners ENIAC zuzuschreiben« (209).

Da Turing seine Homosexualität offen lebte, lief gegen ihn seit 1950 »McCarthys Kampagne gegen homosexuelle Risikoprofile« (Dotzler/Kittler 1987, 232). Schon um 1950 war er »eine Unperson, der Trotzki der Computer-Revolution« (Hodges 1989, 471). Wegen »homosexueller Unzucht« 1952 zur ›chemischen Kastration‹ durch Hormonkur verurteilt – als Alternative zum Gefängnis –, nahm er sich 1954, im Alter von 41 Jahren, das Leben. Es heißt, er habe sich dazu eines nach dem Schneewittchen-Muster vergifteten Apfels bedient, den man halb aufgegessen neben seiner Leiche gefunden, aber nicht auf Gift untersucht hat. Dass sie mit Namen und Logo auf Turings Tod anspielt, bestreitet die Computerfirma Apple.

1.3 Turings Aufsatz »Rechenmaschinen und Intelligenz« (1950) entzündete den KI-Diskurs durch den Vorschlag eines Imitationsspiels, das später modifiziert und als Turing-Test bekannt wurde: ein Mensch führt mittels Fernschreiber Dialoge und soll entscheiden, ob sein Gegenüber Mensch oder Computer ist. In »ca. 50 Jahren«, so Turing, würden Computer »so vollendet spielen«, dass man von »denkenden Maschinen sprechen kann, ohne mit Widerspruch rechnen zu müssen« (1987, 160). – 2011 führten 30 Freiwillige jeweils vierminütige Schreib-Dialoge mit einem unbekannten Gegenüber, die Hälfte mit Menschen, die anderen mit dem internet-basierten KI-Programm Cleverbot (einem ›chatterbot‹ oder Dialogroboter); in der anschließenden Umfrage unter 1334 Beobachtern hielten 59 Prozent Cleverbot für einen Menschen und lediglich 63 Prozent die echten Menschen für solche (Aron 2011).

In Turings Originalversion ist der Test allerdings als »Geschlechterspiel« (Heintz 1995, 44) formuliert. Teilnehmer sind nämlich »ein Mann (A), eine Frau (B) und ein Fragesteller (C), der von beiderlei Geschlecht sein kann« (1950/1987, 149): C soll herausfinden, wer seiner beiden Gegenüber Mann und wer Frau ist, wobei die Frau (B) dem Fragesteller hilft. Turings Frage: »Was passiert, wenn eine Maschine die Rolle von A in diesem Spiel übernimmt?« Wird der Fragesteller sich in diesem Fall ebenso oft falsch entscheiden wie dann, wenn das Spiel von einem Mann und einer Frau gespielt wird?« (150). Zwar wurde Turings Aufsatz »zu einer der am häufigsten zitierten [...] Abhandlungen der modernen philosophischen Literatur« (Hodges 2011), die Dimension des Geschlechterspiels, bei dem der männliche Spieler »sich einem Trainingsprogramm ›Frau‹« unterziehen muss (Heintz 1995, 46), wird jedoch »meistens übergangen oder als exzentrisches Vorspiel abgetan« (44).

1.4 Turing rückt – wesentlich von seinem Interesse an Hirnforschung beeinflusst – Erfahrungslernen ins Zentrum von KI. Postuliert wird eine Maschine, die »intelligentes Verhalten« (1951/1987, 10) zeigt, also sich nicht »selbst verraten« würde, »indem sie immer wieder [...] dieselbe Art von Fehlern machte und vollständig unfähig wäre, sich selbst zu korrigieren oder durch Argumente von außen korrigiert zu werden«, also auch »irgendwie in der Lage wäre, ›aus Erfahrungen zu lernen‹« (11). Turing schlägt daher vor, »die Erziehung dieser Maschine einem hochbegabten Lehrer« anzuvertrauen, »der aber kein detailliertes Wissen von den inneren Abläufen der Maschine haben darf« (ebd.). Der Wissensingenieur, der Expertensysteme einrichtet, wird hier vorweggenommen.

Turing inspiriert sich an der Erfahrung, »dass die Gefahr, Fehler zu machen, eine unvermeidliche Begleiterscheinung des Vermögens des Mathematikers ist, manchmal auf eine vollkommen neue Methode zu stoßen« (10). Dies gelte auch für Maschinen, »die das Verhalten des menschlichen Geistes weitestgehend simulieren« (ebd.). Mit den KI-Technologien entwickeln sich Bewegungsformen dieser Dialektik von Irrtum und Erfindung und wälzen die menschliche Arbeit um. Ein gewisses Gegengewicht zu gefährlicher Kreativität von KI-Systemen bildet die öffentliche Zugänglichkeit und Diskussion von Fehlern bzw. Fehlerpotenzialen, was mit den Geheimhaltungsinteressen von Kapital und Staat kollidiert.

Turing geht den Weg vieler KI-Pioniere und deklariert denkende Maschinen als unbändigbar: gegen sie werde es »großen Widerstand von Seiten der Intellektuellen« geben, »die Angst hätten, ihre Jobs zu verlieren« (14f). Sie würden sich »in diesem Punkt geirrt haben«: »Sie wären schon außerordentlich mit den Anstrengungen beschäftigt, etwa ihre Intelligenz auf dem von den Maschinen gesetzten Standard zu halten« (ebd.). Da Maschinen indes, wie er prognostiziert, fähig werden, »sich untereinander zu unterhalten, um ihren Verstand zu schärfen«, sei »ab einem bestimmten Zeitpunkt [...] damit [zu] rechnen, dass die Maschinen die Macht übernehmen« (ebd.).

1.5 Warum aber wird von KI und nicht von kybernetischer Intelligenz gesprochen? Nachdem Arturo Rosenblueth, Norbert Wiener und Julian Bigelow 1943 den Begriff Kybernetik geprägt hatten, stellte Wiener sie 1948 in seinem einflussreichen Buch Cybernetics or Control and Communication in the Animal and the Machine vor. Die KI-Publikationen von Turing u.a. fristeten damals hingegen ein Schattendasein. Wiener versuchte, »fast jeden Bereich menschlicher Bemühung zu einem Zweig der Kybernetik« zu machen (Hodges 1989, 465). Kybernetische Forschungen führten in den 1940er Jahren dazu, das Gehirn – in Perspektive des Nachbaus – als Netzwerk elektrischer Schaltkreise zu begreifen. Dieser Ansatz hatte bei Wiener und Turing höchste Priorität. Dass sich im 20. Jh. weltweit KI als Leitbegriff durchsetzte und Kybernetik – z.B. via Robotik – unter sich subsumierte, lag u.a. daran, dass der von Wiener geprägte Flügel der ›kybernetischen Bewegung‹ die Erfolge bei der Modellierung von Hirnfunktionen übertrieb. Wiener verkannte die überragende Bedeutung, die digitale Universalcomputer für maschinelles Lernen, Hirnforschung und die Automatisierung intellektueller Arbeiten haben. So hat er 1949 »immer noch die Ähnlichkeit zwischen Nervenzellen des Gehirns und den Bestandteilen eines Computers nachdrücklich betont« (Hodges 1989, 467), was Turing für einen Irrweg hielt: »Wir könnten leidlich genaue elektronische Modelle herstellen, um das Verhalten der Nerven zu kopieren«, das wäre aber »etwa so, als würde man eine Menge Arbeit in Wagen stecken, die auf Füßen laufen, anstatt fortzufahren, Räder zu benutzen« (1948/1987, 96).

Militärische System- und Wissenschaftlerkonkurrenz überlagerten sich, als John McCarthy 1955 den Begriff KI prägte. Er wählte ihn, um »nicht mit ›Kybernetik‹ assoziiert zu werden«, da deren »Zentrierung auf analoges Feedback« in »die falsche Richtung« lenke (zit.n. Nilsson 2010, 78). Ferner wollte er vermeiden, Wiener »als Guru akzeptieren« und sich »mit ihm auseinander setzen« zu müssen (ebd.). Wiener hatte es ab 1946 strikt abgelehnt, sich an Rüstungsprojekten zu beteiligen; überdies übte er kybernetisch fundierte strukturelle Kapitalismuskritik: es sei eine »einfältige Theorie«, »dass der freie Wettbewerb selbst ein homöostatischer Prozess« sei, dies sei ein »Glauben«, der in den USA »in den Rang eines Dogmas erhoben wurde« (1948/1968,195).

Bernhard Hassenstein sagte 1976 voraus, die zugehörigen technisch-naturwissenschaftlichen Disziplinen – wie in den USA vielfach schon jetzt – »würden den Namen ›Kybernetik‹ vermutlich als zu belastend wieder ablegen«, wenn »man (wie schon Wiener selbst) ideologische, erkenntnistheoretische und philosophisch-anthropologische Gedankengänge als ihre legitimen Bestandteile gelten« lasse (1468). Dies trat ein. Zwar hielt Kybernetik in den 1960er Jahren, wie Jutta Weber darlegt, Einzug in zahlreiche Wissenschaftsgebiete, aber »heute sind nur noch einige Institute für Biokybernetik oder medizinische Kybernetik die sichtbaren Überbleibsel« dieses kybernetischen Booms (2004/05, 240f).

1.6 In ihrem Manifest für Cyborgs (1985) nimmt Donna Haraway den Impetus Wieners auf, kybernetische Funktions- und Strukturanalysen rücksichtslos zu Ende zu denken, also Grenzen zwischen Natur-, Technik-, Sozial- und Politikwissenschaft zu überschreiten. Die automatisch-elektronische Produktionsweise bringt, wie Haraway zeigt, die metaphysischen Dualismen in die Krise und ermöglicht Projekte ihrer Entmythologisierung: »Mikroelektronik vermittelt die Übersetzung von Arbeit in Robotik und Textverarbeitung, von Sexualität/Fortpflanzung in Gen- und Reproduktionstechnologien und von Geist in KI und Entscheidungsprozesse« (1995, 53). Feministischen Cyborg-Erzählungen schreibt sie die Aufgabe zu, »Kommunikation und Intelligenz neu zu kodieren, um Kommando und Kontrolle zu untergraben« (64). Dies sei ein Gegenprojekt zur Vereinnahmung und Voranpeitschung von KI durch »C3I, Command-Control-Communication- Intelligence« (52), also durchs Militär-Dispositiv der Verknüpfung von Männlichkeit, Kriegsführung und Hochtechnologie. Es zielt nicht auf Negation von KI-Technologie im Namen des Geistes, um den alten Geist-Maschine-Dualismus zu retten, sondern darauf, KI dem Militärkommando zu entreißen und sie in alternative Arbeitspraxen einzubetten, welche die duale Anordnung durchbrechen.

2. In die Weltgeschichte von Arbeit und Technik ging die KI-Gründungskonferenz im us-amerikanischen Dartmouth 1956 ein, weil Allan Newell (Psychologe), Herbert A. Simon (Sozialwissenschaftler) und Cliff Shaw (Systemprogrammierer) dort das historisch erste KI-Programm vorstellten. Das auf JOHNNIAC, einem Rechner der RAND Corporation, laufende Programm trug den anthropomorphen Namen Logic Theorist. Es bewies, dass logisch-mathematische Ableitungsarbeit in Richtung eines vorgegebenen Beweisziels – also ein ganzes Feld geistiger Arbeiten – automatisierbar ist. Auf der Basis von fünf Axiomen und Inferenzregeln, die Alfred N. Whitehead and Bertrand Russell in den Principia Mathematica (1910-13) ausgearbeitet hatten, konnte Logic Theorist Ketten logischer Symbole solange umwandeln, bis es auf die gesuchten Theoreme stieß. Dem Roboter-Pionier Hans Moravec zufolge vermochte das Programm mathematische Theoreme allerdings »nicht schneller und besser zu beweisen als ein Collegeanfänger, der sich gerade erst mit dem Thema vertraut gemacht hatte« (1999, 39). – Wie Klaus Mainzer darlegt, war »automatisches Beweisen« nicht nur »in den Anfängen der KI-Forschung« interessant, sondern wurde allmählich zum hochtechnologischen Produktionsmittel, indem es z.B. »zur Programmverifikation und zur Überprüfung von Hardwarekonfigurationen in der industriellen Computerherstellung« eingesetzt wird (1994, 119).

Die Kognitionspsychologie war an dieser Entwicklung beteiligt. Mittels der Aufforderung »laut zu denken« und Protokollierung der Aussagen untersuchten Newell und Simon, wie Menschen beim Problemlosen Vorgehen. Sie betraten in doppelter Hinsicht Neuland: erstens fassen sie programmierbare Digitalrechner nicht mehr nur als »number-cruncher« für numerische Zwecke, sondern als symbolverarbeitende Systeme auf; zweitens definieren sie Computerwissenschaft – indem sie postulieren, »jedes neuentwickelte Programm ist ein Experiment« (1976/1992, 55) – als empirische Wissenschaft, die nicht nur Programme, sondern auch Menschen beim Problemlosen beobachtet, um deren Taten maschinell zu simulieren. Die Genese dieser Technowissenschaft des Menschen gab einer Kognitionswissenschaft Auftrieb, die meint, durchs Beobachten von KI-Programmen zu begreifen, wie menschliches Denken funktioniert, um schließlich Menschen als KI-Maschinen zu begreifen.

Paul N. Edwards charakterisiert »die Geschichtsschreibung der Kognitionspsychologie und erst recht der KI« als »reine Ideengeschichte« (1996, 239). Nährboden abenteuerlicher Rüstungsprojekte im Rahmen der KI-Forschung war jedoch der in den USA im Kalten Krieg entstandene »militärischintellektuelle Komplex« (Robin 2001). Der Psychologe J.C.R. Licklider etwa war wie Newell und Simon beteiligt an SAGE, einem computervernetzten Luftverteidigungssystem, das USA und Kanada umspannte und 200000 Arbeitskräfte einspannte (Edwards 1996, 97). Licklider konzipierte eine »Man-Computer Symbiosis« vorausschauend als neues Mensch-Technik-Verhältnis, wobei es ihm v.a. um die Schaffung von Schlagfertigkeit ging. »In dieser Zeit rechneten die beeindruckbareren unter uns mit dem Anflug von 50000 sowjetischen Bombern« (zit.n. Edwards 1996, 262). Im »10-Minuten-Krieg« bleibe für »kritische Entscheidungen« so wenig Zeit, dass schnelle Computer und »computerbasierte Spracherzeugung und -erkennung« unabdingbar seien (Licklider 1960/2C03, 81).

1976 bilanzieren Newell und Simon ihre Arbeit und prägen dabei den einflussreichen Begriff des »Physikalischen Symbolsystems« (PSS). Dieser tritt an die Stelle von Turingmaschine und ermöglicht Aussagen, bei denen KI und menschliche Intelligenz gleichgesetzt werden: einem PSS werde »Intelligenz« verliehen in Gestalt der »notwendigen und hinreichenden Mittel für allgemeine intelligente Handlungen« (1992, 61). Sie manifestiere sich darin, »dass in irgendeiner wirklichen Situation sich ein Verhalten zeigt, das den Zielen des Systems entspricht und sich den Erfordernissen der Umgebung anpassen kann« (ebd.).

Die enorme Ausstrahlung der Arbeit von Newell und Simon beruht nicht zuletzt darauf, dass sie ein »Bündnis« (71) zwischen Computerwissenschaft und Psychologie angestrebt und auch hergestellt haben. Das Bündnis wird unproduktiv, wo es die Differenz zwischen Mensch und Maschine einebnet: »das symbolische Verhalten des Menschen« entsteht, »weil er die Eigentümlichkeiten eines PSS« besitze (80). In den Kognitionswissenschaften bzw. der Psychologie wurde verschiedentlich explizit gefordert, psychologische Aussagen müssten in Begriffen einer Turingmaschine formulierbar sein (z.B. Boden 1988, 259). Hans-Peter Michels (1998) analysiert anhand der von Newell und Simon erstellten Protokolle, wie sie sich zu den Äußerungen ihrer Versuchspersonen beim Problemlosen verhalten haben: »Reflexionen, Emotionen, Motivationen« werden »als etwas Nebensächliches« gewertet (78). Damit wird die Spezifik menschlicher Intelligenz verfehlt.

Konnektionismus. – »Conditio sine qua non« der von Newell und Simon geprägten klassischen Kognitionswissenschaft ist die kognitive »Äquivalenz von Mensch und symholverarbeitender Maschine« (D’Avis 1998, 39). Daran wurde kritisiert, dass die maschinelle Symbolverarbeitung zeitlich »in nacheinander angewendeten Regeln für einzelne Sequenzen« sowie räumlich »lokalisiert« in einem eng umschriebenen Bereich des Systems erfolgt (ebd.). Auf beide Kritiken antwortet das »konnektivistische Netzwerkmodell«: es besteht »aus vielen parallel arbeitenden Komponenten«, die gleichzeitig und räumlich verteilt aktiv sind, und lässt »globale Eigenschaften« (40) hervortreten. Zentrale Begriffe dieser neuen Forschungsrichtung sind somit Anleihen aus dem Sprachgebrauch der Neurobiologie: Emergenz, Selbstorganisation, Komplexität und nichtlineare Netzwerkdynamik (ebd.). Neuronale Netze haben schnell breite Anwendung gefunden und ermöglichen es z.B., in einer Menschenmenge ein bestimmtes Gesicht zu identifizieren, was die traditionelle Kognitionstechnik nicht vermochte.

Im Anschluss an Klaus Holzkamp haben die Informatiker Anita Lenz und Stefan Meretz (1995) Grundbegriffe des Konnektionismus mit denen der Kritischen Psychologie verglichen. Zwar wurde der Lernbegriff »zum Universalbegriff im Konnektionismus und zum modischen Werbeleitbegriff in der Konkurrenz um Forschungsgelder wie etwa der Intelligenzbegriff der klassischen KI-Forschung«, aber die konnektionistische »Vorstellung von ›Lernen‹ als Approximationsprozess eines Netzwerkes« – die »dem Netzwerk Subjektcharakter« zuspricht – verschleiert, »dass von menschlichem Lernen – das ein Subjekt voraussetzt, das lernt – überhaupt nicht die Rede [...] sein kann« (145). Der »Computer« erscheint in dieser Informatikerversion »animistischen Denkens« als »selbsttätiges »Subjekt« seiner Operationen«, womit »das handelnde Subjekt aus der Wissenschaftssprache eliminiert ist« (128). Kritischpsychologische Arbeitsforschung muss untersuchen, wie diese Denkweise in der Perspektive »selbstorganisierten Zusammenkommens der verschiedenen betrieblichen Kompetenzen, der Automationsarbeiter und Ingenieure zu einem neuartigen Ensemble von Produktionsintellektuellen« (PAQ 1987, 58f) als Hemmnis wirkt und zu überwinden ist.

3. Expertensysteme. – Vom Standpunkt des Profits wie auch der unmittelbaren Veränderung von Arbeitsprozessen war die KI-Forschung bis in die 1970er Jahre irrelevant, auch wenn sie versuchte, »kommerziell bedeutsame Realwelt-Probleme« (Nilsson 2010, 71) anzugehen wie maschinelle Sprachübersetzung oder automatisches Einlesen von Bankschecks. Sie bearbeitete v.a. »Spiel-Probleme« im wörtlichen und metaphorischen Sinn: »Lösung von Puzzles, Schach- und Damespiel, Theorembeweisen, Beantwortung einfacher Fragen, Klassifikation von Bildern« usw. (ebd.) Den von Profiterwägungen freien Raum schuf die ARPA (später DARPA), die Forschungsagentur des US-Verteidigungsministeriums, die bis in die 1970er Jahre »wichtigster Patron der Finanzierung« von KI-Forschung war (Edwards 1996, 270).

Dass KI außerhalb von Universitätslabors und militärischen Denkfabriken aufblühte, bewirkten Expertensysteme (ES): »Computerprogramme, mit denen das Spezialwissen und die Urteilskraft eines menschlichen Experten in einem begrenzten Aufgabengebiet simuliert werden kann« (Mainzer 1994, 150). Dies fällt mit dem Beginn eines »zweiten Computerzeitalters« zusammen, nämlich dem »Übergang vom traditionellen Computer als numerischem Rechner und Datenspeicher zu wissensverarbeitenden Systemen« (151). Aus ES ging eine Reihe von KI-Firmen hervor. »Die Aufregung, insbesondere über ES, erreichte Mitte der 1980er Jahre einen Höhepunkt« (Nilsson 2010, 343). ES zielen keineswegs auf Enklaven der Kopfarbeit: »Der größte Teil der Denkarbeit, die heute geleistet wird, beruht auf symbolischer Wissensverarbeitung und nicht auf Rechnung.« (Mainzer 1994, 152)

Den Ausdruck ES kritisieren die KI-Forscher Roger C. Schank und Peter G. Childers als »eine schrecklich falsche Bezeichnung, da kaum etwas an ihnen ›expertenhaft‹ ist« (1986, 49). Stephan Zelewski wendet ein, niemand habe »bisher überzeugend darzulegen vermocht, [...] welches Expertiseniveau eine Fachkraft besitzen muss, damit sie als ein Experte qualifiziert ist« (2000, 238). Wie ›Experte‹ als Spaltungskategorie fungiert, analysiert das PAQ: Wenn Arbeitende in einer »produktivistischen Produktionskultur« um hochtechnologische Arbeitsplätze ringen, wissen sich die Gewinner »als kompetente Automationsarbeiter, die eine für alle übrigen mythische Technik beherrschen. Diese Experten sehen auf die vielen Laien ebenso herab wie auf die Arbeitslosen, die ›es nicht geschafft‹ haben.« (1987, 99) ES schienen nun auch diese Experten-Elite entbehrlich zu machen. Unruhe erfasste »IG-Metall, Kirchen, die deutsche Landwirtschaftsgesellschaft und den Bundestag«, sie veranstalteten »Symposien und Anhörungen zum Thema ES-Technik« (Coy/ Bonsiepen 1989, 188). »Technikfolgenabschätzung zum Gebiet der ES«, so etwa das Beschwichtigungsziel des VDI/VDE-Technologiezentrums Informationstechnik, »wird zunächst die Aufgabe der Entmythologisierung haben« (zit.n. 39).

Insgesamt bewegte sich der Streit um ES unfruchtbar zwischen Negation, die deren neue Qualität gegenüber bisheriger Programmierung gradualisiert, und Affirmation von ES als Systeme suprahumaner Intelligenz, die Fachexperten überflüssig mache. Wolfgang Coy und Lena Bonsiepen (1989) bezeichnen KI in ihrer scharfsinnigen und materialreichen Kritik der ES-Technik als die »extremste ideologische Bastion« der Informatik (152). Den Gegenpol markierte wahnhaft und katastrophisch das deutsche Bundesministerium für Forschung und Technologie. Es ließ »ein ES zur Situationsbewertung in Atomkraftwerken vom Typ ›Schneller Brüter‹« entwickeln und verlautbarte 1988 dazu, dessen Nutzen liege »in der Vereinfachung der Fehlerdiagnose (statt hochqualifizierter Spezialisten werden nur fachlich vorgebildete Personen benötigt)« (zit.n. Coy/Bonsiepen 1989, 161). Hier artikuliert sich, was vom PAQ als »Ingenieursideologie« gefasst wird, »für die alle Probleme technisch lösbar zu sein scheinen« und hinter der »das Misstrauen des Kapitals gegenüber den Arbeitern steht und der Versuch, von ihnen möglichst unabhängig zu werden« (1987, 27). Am Misstrauen setzten Gebrauchswertversprechen von KI-Kapital an, dessen Verkäufer sich 1984 auf der bedeutendsten internationalen Konferenz der KI-Forscher wie »die Propheten eines neuen Zeitalters« gebärdeten und in Art von »Marktschreiern« erklärten: »Wir haben ein besseres Hirn gebaut [...]. ES werden nicht krank, kündigen nicht und gehen nicht in Frühpension!« (Nilsson 2010, 344f) »Fast überall steigern ES die Arbeitsproduktivität um mindestens den Faktor zehn. Steigerungsraten um zwanzig, dreißig oder vierzig sind häufig«, erklärt 1988 Edward Feigenbaum, ES-Pionier und Gründer von KI-Unternehmen (zit.n. Coy/Bonsiepen 1989, 151). Gleichzeitig adelte die US-Regierung ES zur Zentraltechnologie »für die Wahnsinnsentwicklungen der Waffentechnologie wie nukleare ›Early Warning and Response Systems‹ und SDI-Phantasien« (160). 1989 sollte »ein Realzeit-ES mit 10000 Regeln« einsatzfähig sein, um Piloten im Luftkampf zu beraten bzw. für sie zu entscheiden (Nilsson 2010, 363). Zu Beginn des 21. Jh. nimmt Derartiges in Drohnen Gestalt an.

Die kritische Informatik hingegen entwarnte: »einzelne Aspekte qualifizierter Facharbeit« könnten ES zwar ersetzen, »aber nicht den gesamten Tätigkeitsbereich eines qualifizierten Facharbeiters« (Coy/Bonsiepen 1989, 34). Offen blieb, welches arbeitsstrategische Gewicht solche »einzelnen Aspekte« haben und ob KI-spezifische Bildungsumbrüche anstehen. Der Grundmangel solcher Entwarnungen lag und hegt darin, »Kinderkrankheiten« der neuen Technologie, mögen sie nun technischer Unreife oder kapitalistischen Entfaltungshemmnissen geschuldet sein, theoretisch als Symptome struktureller Defizite zu deuten, die allenfalls in ferner Zukunft überwindbar seien.

ES-Analyse des PAQ. - Das PAQ erarbeitete das Komplement zu der von Marx ausgearbeiteten ›Ersetzungs-Logik‹ (1987, 20). Diese hatte Marx bekanntlich zu Technikprognosen von erstaunlicher historischer Reichweite befähigt. In Bezug auf einen »Strumpfwirkerstuhl«, der »mit viel 1000 Nadeln auf einmal« strickt, legt Marx in KI dar: »Die Anzahl der Werkzeuge [...] ist von vornherein emanzipiert von der organischen Schranke, wodurch das Handwerkszeug eines Arbeiters beengt wird.« (23/394) Die »organische Schranke«, von der ES sich emanzipieren, ist z.B. die Anzahl von allerlei Karteikarten und Zetteln sowie darauf basierender Gedächtnis- und Schlussfolgerungsoperationen der Arbeitenden. Mit den ES taucht in der Geschichte von Technik und Arbeit erstmals ein Produktionsmittel auf, das sich selbst reflektiert: es dokumentiert Entscheidungsabläufe von Maschine und Mensch reproduzierbar und auswertbar in Art eines wissenschaftlichen Experiments. Mit ES entstehen einerseits neuartige Kontrolldispositive fürs Kapital, andererseits ermöglichen sie eine ›entwickelnde‹ Arbeits- und Technikforschung ›von unten‹.

Die ›Ersetzungs-Logik‹ schärft zwar den Blick für kapitalistisch bedingte katastrophale ›Freisetzungspotenziale‹, lässt aber die Frage des PAQ offen, welche neuen Qualifikationsanforderungen entstehen und welche Chancen diese für die Arbeitenden – unter kapitalistischen Produktionsverhältnissen – eröffnen. Entscheidend für KI- bzw. ES-Prognosen ist die Replik des PAQ auf das ersetzungslogische Argument, auch für die notwendige Störungsregulierung seien »maschinelle Lösungen bzw. weitreichende maschinelle Unterstützungen denkbar« (1987, 28). Das PAQ macht die komplementäre Dimension des Neuen geltend: »Es ergibt sich jedoch immer eine höhere Ebene, auf der menschliche Eingriffe notwendig werden. Mit raffinierten Einrichtungen zur Störungsregulierung beispielsweise ergibt sich die Möglichkeit, dass diese Einrichtungen selbst wiederum gestört sind.« (Ebd.)

Direkte Kritik des PAQ an KI und ES bezieht sich auf die ersetzungslogische Blickverengung: »›Systeme der KI‹ oder ›ES‹« erheben »im Namen schon den Anspruch«, »humanspezifische Fähigkeiten maschinisieren zu können« (ebd.). Sie werden operationalisiert als »Fähigkeit, die vorfindliche Wirklichkeit zu kritisieren und umzubauen, d.h. anders als jede automatische Informationsverarbeitung ›widersprechende Befunde‹ [...] verarbeiten und entsprechende Zieländerungen vornehmen zu können« (28f). Grundqualifikation für die Arbeit mit KI-Systemen und ES ist also die Fähigkeit zur Widerspruchsanalyse.

Realistisches Systemmisstrauen der ES-Nutzer ist vonnöten wegen technologie- und formationsbedingter ›Unvollkommenheit‹ von ES: »Ein ES ist von seiner Aufgabendefinition her unfertig, unvollständig und nie völlig fehlerfrei. Der abrupte Bruch zwischen korrektem und fehlerhaftem Arbeiten ist nicht technisch fixierbar. Darin unterscheiden sich ES [...] radikal von tradierten Software-Systemen, die auf algorithmischen Spezifikationen statt auf Heuristiken aufbauen.« (Coy/Bonsiepen 1989, 30) Eine zentrale Frage lautet also: »Wie verhindert man katastrophale Folgen?« (31)

Individualitätsform des Wissensingenieurs. – Die Herstellungsweise von ES ist nicht verallgemeinerbar, sie resultieren »fast vollständig aus langwierigen und intensiven Bemühungen seitens eines besonders qualifizierten Praktikers« (Winograd/Flores 1989, 289). Die Trennung von Fachexperte und ES-Konstrukteur gebiert die historische Individualitätsform des Wissensingenieurs, der »die Expertenregeln der menschlichen Experten in Erfahrung bringen, in Programmiersprache darstellen und in ein funktionstüchtiges Arbeitsprogramm umsetzen« soll (Mainzer 1994, 154). Prägender Widerspruch dieser Figur ist, dass sie »die geistige Enteignung menschlicher Experten« (Zelewski 2000, 241) mit deren Zustimmung zu betreiben hat. Ziel ist ›entwickelnde‹ Enteignung. Zum einen ist sich der Fachexperte »des heuristischen Wissens«, das er nutzt, »meistens [...] nicht bewusst« (Mainzer 1994, 154), zum anderen kommt es durch die Kommunikation mit den Wissensingenieuren auch »zu einer Neubildung von Wissen beim Experten« (Puppe u.a. 2003, 607). Ein Kulturzusammenprall ist konstruktiv zu gestalten: »Die Wissensingenieure werden praktisch nie die Beherrschung der Fachsprache erreichen, über die der Experte verfügt. [...] Schon deshalb verbietet sich jeder Hochmut [...] über den oft wenig reflektiertes Wissen darbietenden Experten.« (608) Daher fragen Coy und Bonsiepen schon 1989: »Was nun ist der Wissensingenieur: Programmierer, Psychologe, Fachexperte, Wissenschaftler, Künstler?« (59) Viele Anwender würden »psychologisch oder soziologisch ausgebildete Fachleute mit einer Zusatzausbildung in KI-Techniken als Wissensingenieure bevorzugen« (ebd.).

Die feministische Anthropologin Diana E. Forsythe untersuchte in den 1990er Jahren, wie Fachexperten und Wissensingenieure aufeinander reagieren. Ihre Befunde legen nahe, dass letztere oft als Instanzen der Widerspruchseliminierung fungieren, und sie fordern zu kritisch-psychologischer Arbeitsforschung heraus, die alternative Praxen anbahnt. Inkonsistenzen in ES resultierten oft aus rationalistischer Blindheit von Wissensingenieuren, die als Informatiker generell annehmen, »dass Wissen bewusst ist, und dass Fachexperten ihnen sagen können, was sie wissen, wenn sie es nur wollen«, weswegen »Wissensextraktion« v.a. per Interview stattfinde und die Beobachtung von Arbeitspraxen entfalle (2001, 52); Wissen ist für Wissensingenieure, »was in die Wissensbasis eines ES programmiert werden kann« (53). So teilte man der Projektgruppe, die an einem ES zur Beratung und Erziehung von Kopfschmerzpatienten arbeitete, zwei Ärzte zu, aber keine Krankenschwestern, obwohl diese »in ganz erheblichem Umfang Kontakt zu den Patienten haben und deren Erziehung als eine ihrer wichtigsten Aufgaben betrachten [...]. Darin spiegelt sich die in der medizinischen Informatik übliche Praxis, die Stimmen der Pflege gegenüber denen der Ärzte zum Schweigen zu bringen« (101).

4. KI und Internet. – Die faszinationsgeschichtliche Beobachtung von Sybille Krämer, »der Mythos ›KI‹« sei durchs Internet verblasst (1997, 83), mag zutreffen. De facto fundiert das Internet jedoch eine neue KI-Ära: Milliarden von Nutzern machen alltagstaugliche KI-Programme (z.B. zur Simultanübersetzung von Text oder Gesichtserkennung) profitabel, die Auswertung der Nutzerdaten (Data-Mining) basiert wesentlich auf KI und treibt deren Entwicklung voran usw.

Internet der Dinge (IdD). – Nach dem WorldWide-Web in den 1990er Jahren und dem mobilen Internet des ersten Jahrzehnts des 21. Jh. »steht das IdD als dritte Phase der rasanten Geschichte des Internets in den Startlöchern« (Horvath 2012, 1). Die ›Dinge‹ – im Jahr 2020 soll es etwa 50 Milliarden davon geben (2), aus Kapitalsicht heißen sie »everyware« (Greenfield 2006) – sind »kleinste, miteinander über Funk kommunizierende Mikroprozessoren«, die zukünftig »häufig unsichtbar« in Alltagsgegenstände wie Autos, Konsumgüter, Stromzähler oder Kleidungsstücke eingebaut und übers Internet »angesteuert werden und selbständig miteinander kommunizieren« können (Horvath 2012, 1). Szenarien mit erheblichem Herrschaftspotenzial drehen sich um computerisierte Implantate, die Patienten zuhause und unterwegs überwachen, im Verbund mit anderen Kleinstcomputern im Patientenumfeld kritische Situationen erkennen, automatisch gegensteuern, Notrufe auslösen usw. (vgl. Friedewald u.a. 2010,158f).

Als »Ubiquitous Computing« arbeitete zuerst Mark Weiser 1991 die IdD-Vision aus, die an Lickliders »Mensch-Computer-Symbiose« anknüpft. In den 1990er Jahren entstand dann eine »Vielzahl fast deckungsgleicher Begriffe« (vgl. Friedewald u.a. 2010, 9) wie »Smart Dust, Nomadic Computing, Pervasive Computing, Ambient Intelligence und IdD« (39), wobei letzterer 1999 von Kevin Ashton geprägt wurde (2009). Als »Treiber einer vierten industriellen Revolution« identifizierte der Zentralverband der Deutschen Elektroindustrie 2012 diese »Entwicklung hin zu Cyber-Physical Systems« (8).

Ein Problem für seine gesellschaftliche Wahrnehmung und kontrollierte Gestaltung ist die Unscheinbarkeit des IdD, das Computer »zunehmend in Alltagsobjekten« versteckt (Mattern 2004, 9). Es entsteht damit »eine Welt der Paradoxe«, in welcher »der Computer scheinbar verschwindet, aber gleichzeitig doch überall ist« (ebd.). Als »direkte Nachfahren des klassischen Internets [...] erben« Ubiquitous Computing bzw. das IdD »die klassischen Probleme mangelnder IT-Sicherheit«, d.h. mangelnden Schutz vor Ausspionierung und Verfälschung der Daten, »allerdings verbunden mit zu schützenden Datenmassen in ungekannter Quantität und Qualität« (ULD/HU 2006, 301). »Nicht nur Schlüssel, Haustiere, Koffer, Postsendungen, Container, Waffen, mautpflichtige Fahrzeuge, diebstahlgefährdete Objekte, umweltschädliche Stoffe und untreue Ehepartner wollen oder sollen lokalisiert werden, sondern auch Eltern könnten es sehr schätzen, wenn Kleidungsstücke der Kinder ihren Aufenthaltsort verraten« (Mattern 2005, 52). »Geoslavery« (etwa: Positionssklaverei) nennen Jerome E. Dobson und Peter F. Fisher (2003) die Kehrseite der Lokalisierbarkeit der IdD-Objekte. »Technologiepaternalismus« (Spiekermann/Pallas 2007), also die »Möglichkeit, durch die der Technologie inhärente Objekt-Objekt-Erkennung kleinste Fehltritte systematisch und automatisch zu sanktionieren«, etwa »die Papiertonne«, die erkennt, »dass fälschlicherweise eine Batterie in ihr landet« (ULD/ HU 2006, 187), kann subtile Formen annehmen.

Passivierenden Animismus – die Unterwerfung unter Technologiepaternalismus – impliziert die IdD-Dystopie von Mike Kuniavsky (2003): »Wenn genügend Dinge, die um uns herum sind, uns erkennen, sich an uns erinnern und auf unsere Gegenwart reagieren, werden wir, fürchte ich, damit beginnen, alle Dinge zu anthropomorphisieren. [...] Wir werden die Welt animistisch wahrnehmen [...], glauben, dass all die Dinge einen eigenen Willen haben, Intelligenz, Gedächtnis und dass sie mit unserem Leben umsichtig, intelligent und in gewissem Sinn sogar bewusst umgehen«.

5. Für den Fall, dass es nicht zu einem »schrittweisen, aber grundlegenden Umbau der Sozial- und Steuersysteme hin zur indirekten Besteuerung von nichtmenschlicher Arbeit und damit zu einer Vergesellschaftung der Automatisierungsdividende« kommt, sieht Rieger (2012) eine neue Welle der Massenarbeitslosigkeit mit unabsehbaren sozialen Krisenfolgen voraus. Der Reichtum, der sich potenziell den Anwendungen von KI verdanken könnte, schlüge dann als Fluch auf die Gesellschaft zurück, die ihre Institutionen und Verhältnisse den potenzierten Produktivkräften nicht anzupassen vermag. Tut sie es aber und setzt die freigewordene gesellschaftliche Arbeitskraft für die »am Markt nicht adäquat honorierten Tätigkeiten im sozialen Bereich, in Kunst und Kultur, bei der Revitalisierung von Landschaften und Städten« ein, kann es gelingen, »den individuell empfundenen Bedeutungsverlust bei der eigenen Niederlage im Rennen gegen die Maschinen aufzufangen und zu heilen. Dazu gehört nicht nur die finanzielle Absicherung, sondern auch das Angebot sinnvoller Beschäftigung. [...] Die Vergesellschaftung der Automatisierungsdividende ist daher ein Projekt von historischen Dimensionen. Sie bietet jedoch – im Gegensatz zu praktisch allen anderen Szenarien – eine positive Utopie, die langfristige soziale, gesellschaftliche und wirtschaftliche Stabilität garantiert und die Würde des Menschen wahrt.« (Ebd.)

Bibliographie: J.Aron, »Software tricks people into thinking it is human«, in: New Scientist, 6.9.2011 (www); K.Ashton, »That -Internet of Things- Thing«, in: RFID Journal, 22.6.2009 (www); M.A.Boden, Computer models of mind. Computational approaches in theoretical psychology, Cambridge u.a. 1988; B.J.Copeland, »The Church-Turing Thesis« (2008), in: The Stanford Encyclopedia of Philosophy (www); W.Coy, »Computer als Medien. Drei Aufsätze«, Informatik-Bericht der Uni Bremen, 3/1994; ders. u. L.Bonsiepen, Erfahrung und Berechnung. Kritik der Expertensystemtechnik, Berlin/W u.a. 1989; W.D’Avis, »Theoretische Lücken der Cognitive Science«, in: Journal for General Philosophy of Science, 29. Jg., 1998, H. 1, 37-57; J.E.Dobson u. P.F.Fisher, »Geoslavery«, in: IEEE Technology and Society Magazine, 22. Jg, 2003, H. 1, 47-52; B.Dotzler, »Operateur des Wissens: Charles Babbage (1791-1871). Einleitung«, in: ders. (Hg.), Babbages Rechen-Automate: Ausgewählte Schriften, Wien u.a. 1996, 1-29; ders. u. F.Kittler, »Alan M. Turing – Nachwort«, in: Turing 1987, 209-33; P.N.Edwards, The Closed World: Computers and the Politics of Discourse in Cold War America, Cambridge/MA 1996; D.Forsythe, Studying Those Who Study Us. An Anthropologist in the World of Artificial Intelligence, hgg. v. D.J.Hess, Stanford 2001; M.Friedewald ua. Ubiquitäres Computing. Das »Internet der Dinge« – Grundlagen, Anwendungen, Folgen, Studien des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag, Bd. 31, Berlin 2010; P.Galison, »Die Ontologie des Feindes. Norbert Wiener und die Vision der Kybernetik«, in: H.-J.Rheinberger, M.Hagner u. B.Wahrig-Schmidt (Hg.), Räume des Wissens: Repräsentation, Codierung, Spur, Berlin 1997, 281-324; A.Greenpield, Everyware. The Dawning Age of Ubiquitous Computing, Berkeley 2006; D.Haraway, »Ein Manifest für Cyborgs. Feminismus im Streit mit den Technowissenschaften« (1985), in: dies., Die Neuerfindung der Natur. Primaten, Cyborgs und Frauen, Frankfurt/M-New York 1995, 33-72; B.Hassenstein, »Kybernetik«, HWPh 4, 1976, 1467f; W.F.Haug, High-Tech-Kapitalismus. Analysen zu Produktionsweise, Arbeit, Sexualität, Krieg und Hegemonie, Hamburg 2003; B.Heintz, »›Papiermaschinen‹: Die sozialen Voraussetzungen maschineller Intelligenz«, in: Rammert 1995, 37-64; A.Hodges, Alan Turing. Enigma (1983), a.d. Engl. v. R.Herken u. E-Lack, Berlin/W 1989; ders-, »Alan Turing« (2011), in: The Stanford Encyclopedia of Philosophy (www); U.Holzkamp-Osterkamp, Grundlagen der psychologischen Motivationsforschung 1, Frankfurt/M-New York 1975; S.Horvath, »Internet der Dinge«, Wissenschaftliche Dienste des Deutschen Bundestags, Reihe »Aktueller Begriff« Nr. 19/2012 (www); F.Kile, »Artificial intelligence and society: a furtive transformation«, in: Artificial Intelligence & Society, Vol. 27, 2012, H. 1, 1-9; S.Krämer, »Vom Mythos ›Künstliche Intelligenz‹ zum Mythos ›Künstliche Kommunikation‹ oder: Ist eine nicht-anthropomorphe Beschreibung von Internet-Interaktionen möglich?«, in; S.Münker u. A.Roesler (Hg.), Mythos Internet, Frankfutt/M 1997, 83-107; M.Kuniavski, »User Expectations in a World of Smart Devices«, Posting v. 17.10.2003 (www); A.Lenz u. S.Meretz, Neuronale Netze und Subjektivität: Lernen, Bedeutung und die Grenzen der Neuro-Informatik, Braunschweig-Wiesbaden 1995; J.C.R. Licklider, »Man-Computer Symbiosis« (1960), in: The New Media Reader, hgg. v. N.Wardrip-Fruin u. N.Montfort, Cambridge/MA 2003, 74-82; K.Mainzer, Computer Neue Flügel des Geistes? Die Evolution computergestützter Technik, Wissenschaft, Kultur und Philosophie, Berlin-New York 1994; F.Mattern, »Ubiquitous Computing: Schlaue Alltagsgegenstände. Die Vision von der Informatisierung des Alltags«, in: Bulletin VSE/AES, 95. Jg., 2004, H. 19, 9-13; ders., »Die technische Basis für das Internet der Dinge«, in: E.Fleisch u. ders. (Hg.), Das Internet der DingeUbiquitous Computing und RFID in der Praxis, Berlin u.a. 2005, 39-66; H.-P.Michels, »Moderne psychologische Theorien über Denken und Gedächtnis – kann der Computer das Vorbild sein?«, in: FKP 39, 1998, 73-88; H.Moravec, Computer übernehmen die Macht. Vom Siegeszug der künstlichen Intelligenz, a.d. Amer. v. H.Kober, Hamburg 1999; A.Newell u. H.A.Simon, »Computerwissenschaft als empirische Forschung. Symbole und Lösungssuche« (1976), in: D.Münch (Hg.), Kognitionswissenschaft: Grundlagen, Probleme, Perspektiven, Frankfurt/M 1992, 54-91; N.J.Nilsson, The Quest for Artificial Intelligence. A History of Ideas and Achievements, www 2010, PAQ (PROJEKTGRUPPE AUTOMATION UND Qualifikation), Widersprüche der Automationsarbeit. Ein Handbuch, Berlin/W 1987; M.Pröse, Chiffriermaschinen und Entzifferungsgeräte im Zweiten Weltkrieg: Technikgeschichte und informatikhistorische Aspekte, München 2006; F.Puppe, H.Stoyan u. R.Studer, »Knowledge Engineering«, in: G.Görz u.a., Handbuch der Künstlichen Intelligenz, 4., korr. A., München-Wien 2003, 599-641; W.Rammert (Hg.), Soziologie und künstliche Intelligenz. Produkte und Probleme einer Hochtechnologie, Frankfurt/M-New York 1995; F.Rieger, »Bald wird alles anders sein. Doch wir können die Folgen steuern: Manifest für eine Sozialisierung der Automatisierungsdividende«, im FAZ 18.52012, 29; R.Robin, The Making of the Cold War Enemy. Culture and Politics in the Military-Intellectual Complex, Princeton 2001; S.J.Russell u. P.Norvig, Artificial Intelligence: A Modem Approach, 3., überarb. A, Boston u.a. 2010; R.C.Schank u. P.G.Childers, Die Zukunft der künstlichen Intelligenz: Chancen und Risiken (1984), a.d. Amer. v. S.Mantschcff, Köln 1986; U.Schmid, »KI und Informatik. Editorial«, in: Künstliche Intelligenz, 26. Jg., 2012, H. 1, 1f; S.Spiekermann u. F.Pallas, »Technologiepaternalismus — Soziale Auswirkungen des Ubiquitous Computing jenseits von Privatsphäre«, in: F.Mattern (Hg.), Die Informatisierung des AlltagsLeben in smarten Umgebungen, Berlin u.a. 2007, 311-25; H.Tetens, »Die erleuchtete Maschine«, in: Die Zeit, 10.6.1999, H. 24, 51; A.M.Turing, »Über berechenbare Zahlen mit einer Anwendung auf das Entscheidungsproblem« (1937), in: ders. 1987, 17-60; ders., »Intelligente Maschinen« (1948), in: ders. 1987, 81-113; ders., »Rechenmaschinen und Intelligenz« (1950), in: ders. 1987, 147-82; ders., »Intelligente Maschinen, eine häretische Theorie« (1951), in: ders. 1987, 7-15; ders, Intelligence Service. Schriften, hgg. u. m. e. Nachw. v. B.Dotzler u F.Kitder, Berlin/W 1987; ULD (Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein) u. HU (Inst. f. Wirtschaftsinformatik der Humboldt-Universität zu Berlin), TAUCIS Technikfolgenabschätzung Ubiquitäres Computing und Informationelle Selbstbestimmung, Berlin 2006; J.Weber, »Vom ›Teufel der Unordnung‹ zum Engel des Rauschens. Kontroll- und Rationalitätsformen in Mensch-Maschine-Systemen«, in: Blätter für Technikgeschichte, Bd. 66/67, 2004/05, 239-61; M.Weiser, »Computer im nächsten Jahrhundert«, in: Spektrum der Wissenschaft, 1991, H. 11,92-101; N.Wiener, Kybernetik - Regelung und Nachrichtenübertragung in Lebewesen und Maschine (1948), Reinbek 1968; T.Winograd u. E.Flores, Erkenntnis Maschinen Verstehen. Zur Neugestaltung von Computersystemen, a.d. Amer. v. L.Voet, Berlin/W 1989; S.Zelewski, »Expertensysteme«, in: H.Corsten (Hg.), Lexikon der Betriebswirtschaftslehre, 4.A., München-Wien 2000, 237-42; Zentralverband der Deutschen Elektroindustrie, Netz. Werk. Zukunft. Visionen schaffen - Impulse geben, Jahresbericht 2011/12, www 2012.

Christof Ohm

→ allgemeine Arbeit, Automation, Denken, Geist, Gentechnologie, historische Individualitätsformen, hochtechnologische Produktionsweise, Information, informationelle Revolution, Informationsarbeiter, Informationskrieg/ informationelle Kriegsführung, Intelligenz, Klonen, Kontrolle, Kritische Psychologie, Kybertariat, Lernen, Maschinensturm, Maschinerie, militärisch-industrieller Komplex, Produktivkraftentwicklung, Roboter, Technik, Technikentwicklung/technologische Revolutionen, technische Intelligenz, technischer Fortschritt, Technologie, wissenschaftlich-technische Revolution, Wissenschaftskritik