»Die Grenzen des kybernetischen Systems - Versuch einer philosophischen Position« [text]

:: 0605 | Input/Beitrag für »Travestien der Kybernetik« | gem. mit Gabriele Grammelsberger

(i): quelle unbekannt
>


Dass Kybernetik als Theorie der steuerbaren Kommunikation und Information nun oftmals unter anderen Namen firmiert, sich ausdifferenziert und erweitert hat, und in vermeintlich neuen Disziplinen aufgegangen ist, ändert wenig an ihrer programmatischen Präsenz in Form der fortwährenden Wirksamkeit von paradigmatischen und präskriptiven Konzepten wie »System«, »Kontrolle«, »Vorhersage«, »Rückkoppelung«, »Programmierbarkeit«, »Information«, »Operator« und »Beobachter« sowie der Perspektive der statistischen Betrachtung, der funktionalen Symbolisierung und der zweckgerichteten systemischen Steuerung und Organisation. Vielleicht gerade deshalb vermag es die Kybernetik in ihrer unbenannten Existenz (s. etwa von Foerster) als nach-industrielles Modell einer universalen (Manipulations-)Wissenschaft im klassischen Sinne fort zu wirken.
Kybernetik tritt von Anfang an – im Gegensatz zu vielen anderen zu Disziplinarität strebenden Technik-Forschungsprogrammen – sowohl als praktische (Ingenieur-)Wissenschaft wie auch als „experimentelle Epistemologie“ (McCulloch>) auf: sie ist ontologische Setzung und konzeptuale Erkenntnisweise in Einem. Ihre fundamentale Bedeutung bekommt sie vor dem Hintergrund der Informatisierung gesellschaftlicher und kultureller Umwelten (McLuhan) und der auf die »industriellen Revolution« folgenden »Control Revolution« (Beniger)>. Letztere widmet sich – vor dem Hintergrund technisierter, kapitalistischer Gesellschaft – der handlungsbestimmenden „Erkenntnistheorie der ‘beherrschten’ Ungenauigkeit“ (Dotzler). Hier tritt die Kybernetik als Alternative zu einem starken Determinismus und rein mechanischen Modellen von Kausalität und Technologie auf, wobei sie Dynamik und Adaption durch Regelung und Feedbackmechanismen zu handhaben versucht. Mit dem erweiterten und univer- salisierten Konzept der Programmierung wird ein Steuerungsbegriff eingesetzt (implementiert) der in verschiedenen Formen menschliche Kontrollformen ausweitet und mittelbare, auf das technische System übertragene Formen der Vorhersage erlaubt. Die entstehende Flexibilität, die als technologische Viabilität erscheint, erfordert es aber, die nach wie vor aktuelle Frage nach der Kontrolle der Maschinen durch den Menschen nunmehr als Frage nach der direkten und indirekten Kontrollierbarkeit von Menschen oder sozialen Systemen durch technische Systeme, seien sie maschineller und/oder symbolischer Art, zu verstehen. Oder anders gesprochen: Die entstehende technologische Viabilität erlaubt die verführerische Illusion, soziale und biologische „Systeme“ seien als eben solche in die Sphäre des Technischen – im erweiterten kybernetischen Sinne – zu inkorporieren. Dass dies jedoch ohne die ausreichende (biologische, kulturelle, soziale) Konfiguration sozio-biologischer Systeme durch die Vorentscheidungen prinzipiell technischer Systeme nicht möglich ist, dokumentieren die Untersuchungen der science and technology studies oder auch der Cyborg-Diskurs. Mindestens drei verschränkte Momente markieren jedoch die systemischen Grenzen des kyberneti- schen Paradigmas, auch in seiner erweiterten Form (– etwa der »dynamischen Systemsteuerung«):

1. Komplexität des Realen als Grenze technischer Systeme

Es zeigt sich, dass die Komplexität natürlicher und anthropologischer Räume den technischen Systemen aufgrund ihrer Endlichkeit Grenzen auferlegt. Die Computersimulation als komplexe Repräsentation realweltlicher Systeme zur Prognose, Steuerung und Kontrolle derselben bewegt sich im Dilemma idealisierender Vereinfachung und effektiv nicht mehr berechenbarer Komplexität. Die Parametrisierung> immer weiter reichender Umweltinformationen und -prozesse treibt die Entwicklung technischer Systeme vor sich her und jagt dabei der Beherrschbarkeit realweltlicher und sozialer Systeme und damit ihrer Kontrollierbarkeit hinterher. Komplexität fordert darüber hinaus von den technischen Systemen den Tribut heuristischer und approximativer Einschränkungen, die der methodischen Transformation unendlicher Operationen in endlich ausführbare Prozesse geschuldet sind und sich als inhärente Limitierungen erweisen.

2. Das „Human System“ als Nicht-System: Der kybernetische Fehlschluss

Technik affine Konzepte wie “Künstliche Intelligenz” aber auch die „Mensch-Maschine Symbiose“ sind Folgen des Fehlschlusses, die sozio-biologischen und auch kulturellen „Systeme“ hätten sich den technischen anzupassen. Die Anpassungsleistung basiert dabei auf der inhärenten Maschinenlogik: Solange kybernetische Systeme auf negativen Rückkopplungsschleifen rekurrieren, gibt letztlich das technische System das Verhaltensmuster und seine Variationsbreite vor: es verlangt von menschlichen Akteuren und Kontexten - dem „human system“, welches dieser Art dem „tool system“ gegenübersteht – eine konzeptuelle Schließung des anthropologischen Raums oder – mit McLuhan gesprochen – eine »Amputation« im Angesicht der inkorporierten menschlichen Vielfältigkeit.
Der Fehlschluss der Kybernetik mag nicht verwundern, analysiert man ihre Ur-Situation: Norbert Wieners Bemühungen der Konstruktion von Flugabwehrrakten in den 1940er Jahren am MIT. Im Sinne der „Ontologie des Feindes“> gilt es die ungenaue Vorhersagbarkeit des Verhaltens des menschli- chen Anderen durch Steuerung, Regelung, Rückkopplung und Prognose beherrschbar zu machen (Galison). Indem Wiener den Anderen als Servomechanismus konzipiert, wird dessen Reaktion von der Maschine in gewissem Maße kontrollierbar. Diese Ur-Situation der Kybernetik inhibiert zwei grundlegende Charakteristika, deren Problematiken sich bis heute schmerzlich durchziehen. Einerseits wird eine Interaktion zwischen Mensch (feindlicher Pilot) und Maschine (Abwehrrakete) hergestellt, die vom Anderen (feindlicher Pilot) sicherlich nicht erwünscht ist, d.h. der „Kybernetes“ fragt nicht nach der Einwilligung seines Gegenübers - letztlich auch nicht nach der des Operators bzw. Users, der längst nicht mehr Feind ist oder sein sollte. Andererseits gerät der Andere - stellvertretend für die Systemexterne Umwelt - lediglich zum Unsicherheitsfaktor innerhalb einer physikalischen Maschine (Flugzeug), deren reduzierter Logik er bereits unterworfen ist. D.h. bei der Mensch-Maschine- Interaktion handelt es sich tatsächlich um eine „Mensch-in-Maschine“-Maschine-Interaktion, bei der der Mensch als in die Maschine inkorporiert konzipiert ist. Damit mutiert diese “Interaktion” zu einer präskriptiven Kontext-Vorschrift. Beide Charakteristika – unhinterfragte Einwilligung der User und stillschweigende Voraussetzung ihrer maschinellen Inkorporierbarkeit in das „tool system“ - ziehen sich bis heute durch die Programmierung technischer Systeme und das Design von Mensch-Maschine- Schnittstellen.
Diese Sicht einer den Menschen subsummierenden Mensch-Maschine-Interaktion ist jedoch nicht alternativlos: denkbar wäre etwa eine Logik des positiven Feedbacks, welche Lernerfahrung, Revision und Rekonzeptualisierung - also die Möglichkeiten kollektiver kognitiver Reflexion – in die Mensch-Maschine-Interaktion als nicht-objektivierbare bzw. nicht-programmierbare Momente zu integrieren in der Lage ist (vgl. etwa Douglas Engelbarts Projekt der intelligence augmentation, das sich explizit gegen das euphemistische Bild einer “Symbiose” wendet).

3. Systeme als Artefakte und der „Implementation Bias“

Während Kybernetik im Rahmen einer präskriptiven und funktionalen Ontologie die Differenz zwischen lebendigem, sozialem und kulturellem „System“ einerseits und technischem System andererseits nivelliert und so das Informationsparadigma naturalisiert, generiert sie selbst artifizielle Produkte, die sich - aus dem kybernetischen Verständnis heraus - als quasi-naturalistische Objekte in die Welt rück- übersetzen. Mit der Verankerung im (technischen) System-Konzept und dem damit implizierten Rückverweis auf das Konzeptsystem der Konstrukteure partizipieren sie aber weiterhin sowohl am „mechanistic bias“ (im fortgeführten Sinne einer statistischen Mechanik, s. Heims), wie darüber hin- aus auch an einem „implementation bias“ (Feenberg). Beides führt dazu, dass sie nicht die Eigenwilligkeit und Überdetermination menschlicher und anderer lebendiger Kontexte erfassen kann. Hinzu kommt eine instrumentelle Assymetrie, die sich in die kybernetischen System einschreibt: diese entsteht dort, wo die dem System externen, also „vorgeschalteten” Konstrukteure oder “Beobachter” in einem unterbrochenen Kontinuum auf systematische Weise nicht-identisch bleiben mit den durch die implementierten Repräsentationen und Funktionen des Systems konstruierten Usern (oder den ontologischen Räumen der parametrisierten Objekte).
Alle drei Motive ziehen sich bis heute durch die Travestien der Kybernetik wie ein roter Faden und verraten ihre technozentristische Einseitigkeit und Reduzierung, die vom Anderen – dem Menschen oder der Umwelt – die bedingungslose Bereitschaft zur Einbindung und Konfiguration voraussetzt, so als ob er sich in einer kybernetischen Maschine befände oder noch besser so als ob er eine Maschine sei. Demgegenüber müssten technische Mittel komplementär zu ihrer immanenten Logik und ihrer “primären Instrumentalität” aus der Perspektive einer reflexiven, und in einem gewissen Sinne distanzierten Theorie der Artefaktordnungen und ihrer (offenen) Gebrauchskontexte beschrieben werden. Nach Jahrzehnten oft qualvoller Anpassung an die Maschinen erobern sich die sozio-biologischen “Systeme“ neue Freiräume in den techno-kulturellen Umwelten. Die Komplexität technischer Systeme und ihre Vernetzung in immer schneller wuchernde Plug-in-Netzwerke beispielsweise öffnen die technischen Systeme in zweifacher Weise. Zum einen strukturell durch die Öffnung der Schnittstellen, zum anderen durch die Einbindung von mehr und mehr Usern. Solche Systeme provozieren die Frage nach ihrer Kontrollierbarkeit, die aktuell wohl nur als Abschaltbarkeit der Systeme oder aber als kol- lektive Rekonfiguration des technischen Systems realisierbar ist, in der es keine privilegierten/abgesonderten Konstrukteure/Beobachter geben kann. In wieweit sich diese Systeme mit erweiterten kybernetischen Konzepten fassen lassen oder ob das Paradigma der Kybernetik (und seine zentralen Topoi) hier nicht ein endgültiges Ende finden muß, gilt es zu diskutieren.

Literatur

• James Beniger (1986): The Control Revolution. Technological and Economic Origins of the Information Society. Harvard University Press.

• Bernhard J. Dotzler (1999): Unsichtbare Maschinen – Irritationsbestände aus der Geschichte der Kybernetik erster Ordnung. In: Widerstände der Systemtheorie. Kulturtheoretische Analysen zum Werk von Niklas Luhmann. Hrsg. von Albrecht Koschorke und Cornelia Vismann. Berlin. Akademie- Verlag. [S. 121-132]

• Bernhard J. Dotzler (2002): „Futurum Exactum: Norbert Wiener (1894-1964). Vorwort“. In: Norbert Wiener: Futurum Exactum. Ausgewählte Schriften zur Kybernetik und Kommunikationstheorie. Hg. von Bernhard J. Dotzler. Wien/New York. Springer. [S. 1-11]

• Douglas Engelbart (1962) : “Augmenting Human Intellect: A Conceptual Framework” (Summary Report, 133 p.). Stanford Research Institute (SRI Project No. 3578). Menlo Park/Ca..

• Andrew Feenberg (1996): “Marcuse or Habermas: Two Critiques of Technology”. In: Inquiry, 39 [pp. 45-70] (verfügbar unter: http://www-rohan.sdsu.edu/faculty/feenberg/marhab.html)

• Steve Joshua Heims (1993): Constructing a Social Science for Postwar America. The Cybernetic Group 1946-1953. Cambridge/London. MIT Press.

• Marshall McLuhan/Quentin Fiore (1968): War and Peace in the Global Village. New York/Toronto/London. Bantam.

• Peter Galison (2001): “Die Ontologie des Feindes: Norbert Wiener und die Vision der Kybernetik”, in: Michael Hagner (Hg.): Ansichten der Wissenschaftsgeschichte, Frankfurt, 433-488

• Claus Pias (2004): “Zeit der Kybernetik”, in: ders. (Hg.): Kybernetik. The Macy conferences 1946- 1953, 2004: diaphanes (Band II - Eassays und Dokumente) [S. 9-42]

• Christina Waters (1999): “Invitation to Dance — A Conversation with Heinz von Foerster”. In: Cybernetics & Human Knowing, Vol.6, no.4 [pp. 81–84] (verfügbar unter: http://www.imprint.co.uk/C&HK/vol6/asc_6-4.PDF)