Wirklichkeitsemulation! (M)ein Weckruf urbi et orbi

Wie alle meine Artikel ist auch dieser das Resultat meiner Zusammenarbeit mit meinem Mann, Ralf Peyn. Alles, was ich schreibe, ist Reflexion unserer intensiven Gespräche und Überlegungen und ist nicht nur als Ergebnis dessen zu betrachten, sondern auch eingewickelt in alles andere, was wir gemeinsam hervorgebracht haben.



Wenn die alten Magier einen Dämon unter ihre Gewalt bringen wollten, evozierten sie ihn in einen Bannkreis, ein Banndreieck oder eine andere FORM, markierten so den Raum, in dem er sich entfalten sollte, und zwangen ihn auf diese Weise dazu, ihnen seinen Namen zu verraten, und damit in ihre Dienste. Nun musste er ihnen alles enthüllen, worüber er Macht hatte: seine Kraft, seinen Rang, seine volle Bedeutung, all sein Wissen.



Begriffe sind FORMen der Macht.


Probleme – und damit Problembeschreibungen – sind Ursachen für Problemlösungen.


Abgesehen von gewissen sozialisierten Erwartungshaltungen (die sich langfristig auch ändern können) sind Begriffe kontingent. Doch innerhalb dieser Erwartungshaltungen entfalten sie ihre soziale und psychische, ihre wirklichkeitskonstruierende Kraft. Deshalb kommt es darauf an, dort, wo man mit seinen Begriffen auf das Sozialgeschehen und die Betrachtung der Welt einwirken möchte, den Begriff sorgfältig zu wählen, denn so entscheiden wir, was wir beobachten wollen und werden.


Zwei Begriffe, die im Bannkreis der öffentlichen Aufmerksamkeit stehen, sind Algorithmisierung und Digitalisierung. Vor allem Digitalisierung ist in aller Munde, und man warnt mit großer Begeisterung vor ihren Folgen. Das Problem: Diesen Dämon kennen wir schon lange … Sag mir, Welt, mit wem du sprichst, und ich sage dir, wer du bist und an welchen Unbestimmten du scheitern wirst.


Wer heutzutage vor den Gefahren der Algorithmisierung und Digitalisierung warnt, hat einen Teil der Gegenwartsgeschichte invisibilisiert und lässt außerdem wichtige Probleme, Herausforderungen, Chancen, Risiken, Gefahren, Betrachtungen zwangsläufig außen vor, weil seine Begriffe sie nicht hinreichend hergeben. Wir sind längst schon in Angelegenheiten unserer Evolution eingewickelt, die eine andere Markierung, eine andere Bezeichnung, eine andere BetrachtungsFORM benötigen, um unsere Kräfte angemessen einzusetzen und adäquat und zukunftsweisend zu (re)agieren.


Die Algorithmisierung ist seit spätestens 1950 für die Massenproduktion ausentwickelt. Ihre technischen Anfänge liegen mittlerweile rund 270 Jahre zurück. Auch was die Digitalisierung betrifft, sind wir nicht nur längst schon mitten drin, sondern gut in sie integriert. Algorithmisierung und Digitalisierung sind beide Folge aus und Voraussetzung für (weitere) Vernetzung. Aus diesen dreien, Vernetzung, Algorithmisierung und Digitalisierung ist eine vierte Kraft, ein vierter Drive emergiert: der Drive der Wirklichkeitsemulation. Algorithmisch und digital und vernetzt emulieren wir Wirklichkeit und weiterentwickeln darin Vernetzung, Algorithmisierung, Digitalisierung und Wirklichkeitsemulation. Wollen wir die neuen Phänomene, mit denen wir es seit Erfindung des Internet zu tun bekommen haben, beschreiben und beginnen zu begreifen, müssen wir das in diesem Kontext tun – erst recht, wenn wir uns darauf aufbauend eine Vorstellung davon machen wollen, was wir erschaffen werden und was dadurch auf uns zukommt. Darum geht es in dieser Arbeit.


Zu Algorithmisierung sagt uns Wikipedia: Algorithmen bestehen aus endlich vielen, wohldefinierten Einzelschritten. Damit können sie zur Ausführung in einem Computerprogramm implementiert, aber auch in menschlicher Sprache formuliert werden. Bei der Problemlösung wird eine bestimmte Eingabe in eine bestimmte Ausgabe überführt … Die mangelnde mathematische Genauigkeit des Begriffs Algorithmus störte viele Mathematiker und Logiker des 19. und 20. Jahrhunderts, weswegen in der ersten Hälfte des 20. Jahrhunderts eine ganze Reihe von Ansätzen entwickelt wurde, die zu einer genauen Definition führen sollten. Formalisierungen des Berechenbarkeitsbegriffs sind die Turingmaschinen (Alan Turing), Registermaschinen, der Lambda-Kalkül (Alonzo Church), rekursive Funktionen, Chomsky-Grammatiken und Markow-Algorithmen.


Und zu Digitalisierung: Der Begriff Digitalisierung bezeichnet allgemein die Veränderung von Prozessen, Objekten und Ereignissen, die bei einer zunehmenden Nutzung digitaler Geräte erfolgt. Im ursprünglichen und engeren Sinne ist dies die Erstellung digitaler Repräsentationen von physischen Objekten, Ereignissen oder analogen Medien. Im weiteren … Sinn steht der Begriff insgesamt für den Wandel hin zu digitalen Prozessen mittels Informations- und Kommunikationstechnik. Aussagen zu „Digitalisierung“ von Bildung, Wirtschaft und Gesellschaft sind dabei gleichbedeutend mit der digitalen Transformation oder Digitalen Revolution von Bildung, Wirtschaft, Kultur und Politik …


(Ich zitiere Wikipedia, um zu zeigen, was der momentan verbreitete Konsens ist, und nicht etwa, weil ich Wikipedia-Beschreibungen für gut oder korrekt halte. Man kann an diesen beiden Texten erkennen, dass Wikipedia keine Klärung dahingehend schafft, wie etwas funktioniert, wie es operiert. Wikipedia ist ein Phänomen unserer Zeit, das einem zeigt, wie leistungsfähig auf der einen und wie schwach auf der anderen Seite der Schwarm ist. Was der Schwarm zustande bringt, ist Mehrheitskonsens, ist Durchschnittsleistung. Das ist eine wichtige Information für die Untersuchung der Potenziale und Probleme unserer Zeit. Das kognitive Durchschnittslevel, die durchschnittlichen Erwartungen und der kommunizierte Mehrheitskonsens über Wirklichkeit spielen eine wichtige Rolle in Digitalisierung und Wirklichkeitsemulation: Über statistische Ermittlungsverfahren finden Künstliche Intelligenzen und Bots heraus, was sich am besten anbieten, verkaufen, vermitteln lässt, welche Bedürfnisse die Masse hat und wie diese effizienter bedient werden können.
Googles Übersetzungsmaschine zum Beispiel wurde nicht konstruiert, um verschiedene intellektuell und künstlerisch relevante Übersetzungen von Texten zu liefern, sondern um Übersetzungen in die Massen zu werfen, die den Erwartungen der Massen entsprechen. Die überwiegende Mehrheit der Menschen hat das genaue, das bewusste Lesen nie gelernt, weshalb von mit statistischen Methoden produzierten Übersetzungen auch nicht zu erwarten ist, dass sie eine künstlerisch wertvolle Individuallösung liefern. Internetmedien sind (zur Zeit) Instrumente der Massen, sie sind (noch) keine Instrumente der (individuellen) Aufklärung. Sie reflektieren den augenblicklichen Mehrheitskonsens. Von solchen Instrumenten cutting-edge zu erwarten, wäre etwas sehr naiv.
Wikipedia ist eine konsensuell generierte Enzyklopädie, die unter anderem auch das für die Mehrheit typische Denken in Ontologien reflektiert. Die Wittgensteinsche Flexibilität und Schaffenskraft des Sprachspiels findet man dort genauso wenig wie die selbstintegrierende reflexive Potenz der Systemik – beides Werkzeuge, die dringend benötigt werden, um Voraussetzungen und Dynamiken von Wirklichkeitsemulation zu begreifen.)


Ein Schritt nach dem anderen:


Als am 4. April 1785 Edmund Cartwright das britische Patent Nr. 1470, die Machine for weaving by power, anmeldete, war das eine Konsequenz aus beginnender Algorithmisierung: Die ersten Webstühle mit Lochkarten waren bereits im Einsatz.


Die Lochkarte wurde etwa um 1730 herum entwickelt. Es handelte sich damals noch um Platten aus Holz, die dazu verwendet wurden, sich wiederholende Arbeitsgänge zu rationalisieren.


Häufig setzt man irrtümlich Automatisierung mit Algorithmisierung – in unserem Beispiel verwirklicht in der Entwicklung der ersten Lochkarten – gleich, jedoch gibt es Aufzeichnungen über Automatisierung, die viel weiter als in das 18. Jahrhundert zurückreichen. Automatische Maschinen wie wind- oder wassergetriebene Mühlen, Katapulte, Lastenaufzüge, … gab es bereits in der Antike, per Programm/Algorithmus gesteuerte automatische Maschinen wurden in der Industrialisierung (und zwar zuerst im Prozess der Umstellung von Manufaktur auf Fabrik) zu Serienreife gebracht.


Das Bemerkenswerte an der Lochkarte ist die Überführung des Gedankens des Algorithmus auf die Maschine, dass ein Satz an einfachen Handlungsanweisungen dazu verwendet wird, die Maschine Probleme lösen zu lassen, wie eben beispielsweise Tücher mit einem spezifischen und per Programm änderbarem Muster zu weben.


Bei Cartwrights Erfindung handelte es sich um den ersten vollmechanisierten Webstuhl, den Power Loom. Er sollte die damaligen teilmechanisierten Handwebstühle ersetzen.


Sich eine Lochkarte vorzustellen, ist nicht gleich jedem gegeben, deshalb will ich es kurz erklären: Jeder kennt die hübschen mechanischen Dosen und Spieluhren, die bestimmte Liedchen abspielen, wenn man an einer Kurbel dreht. Es hat vermutlich auch schon jeder einmal eine der Walzen darin gesehen oder gar anfassen können. Auf den Walzen sind kleine Stacheln oder Dornen angebracht. Jeder dieser Dornen ist an einem spezifischen Platz, um zum rechten Zeitpunkt die rechte Zunge zu zupfen, ein kleines in einem spezifischen Ton schwingendes Metallplättchen. Wenn man jetzt so eine Walze flach auf den Tisch legt und sich die Dornen als Löcher vorstellt und die Zungen der Spieluhr als bestimmte mechanisch auszuführende Arbeitsgänge, dann hat man die Lochkarte soweit erst einmal verstanden. Jetzt braucht es nur noch nebeneinander liegende Holzstäbe von der richtigen Größe, die Reihe für Reihe, oben angefangen, auf die Lochkarte drücken und dann, wenn sie auf ein Loch stoßen, durch das Loch hindurch den jeweiligen Mechanismus anschlagen.


Im Power Loom wurden drei verschiedene Grundbewegungen des Webens, nämlich das Heben oder Senken der Schäfte, das Eintragen des Schusses mit dem Werfen des Schiffchens durch das Fach und das Anschlagen der Lade, einem gemeinsamen Antrieb übertragen.


Der Power Loom wurde zum Gegenstand der Entrüstung des ersten bekannten Massenaufstands gegen die Maschiniserung, während dessen etliche Webstühle vernichtet wurden und der im schlesischen Weberaufstand 1844 seinen Höhepunkt fand (Quelle: Wikipedia). Das war der sozial für alle sichtbare Anfang der Algorithmisierung.


Ein Algorithmus ist eine einfache Handlungsanweisung zur Lösung eines Problems oder einer Klasse von Problemen. Algorithmen sind enorm hilfreich, um Arbeitsabläufe zu effektivieren, und Menschen haben schon immer versucht, sich das Leben mit Hilfe von Algorithmen leichter zu machen.


Wenn Frank B. Gilbreth (den meisten vermutlich weniger als herausragender Ökonom aus den Zeiten von Fords Model T, sondern als Vater von 12 Kindern aus „Im Dutzend billiger“ bekannt) in einen Betrieb gerufen wurde, um dabei zu helfen Kosten einzusparen, lautete seine erste Injunktion in etwa so: „Zeigen Sie mir den faulsten Kerl in Ihrem Unternehmen. Ich meine den Typ, der sogar noch zu bequem ist, sich morgens die Schuhe zuzubinden, und der statt dessen Slipper trägt!“ Den Mann hat Gilbreth dann studiert, sich seine Arbeitsgänge angesehen, um herauszufinden, wo Zeit – und damit Geld und Personalkosten – eingespart werden können. Er machte diesen Mann zum Modell für seinen Entwurf eines Algorithmus von Arbeitseinzelschritten und gab den fertigen Algorithmus dann allen, die vergleichbare Arbeiten durchführten.


Ergonomie ist heute eher bekannt als die Untersuchung von Bewegungsabläufen zur Verbesserung menschlicher Gesundheit, allgemeiner ist sie aber die Wissenschaft von den Gesetzmäßigkeiten menschlicher und künstlicher Arbeitskraft, um Algorithmen zu entwickeln, mit Hilfe derer in möglichst kurzer Zeit bei möglichst niedrigem Energieaufwand qualitativ optimale Arbeitsergebnisse erzielt werden sollen.


Einer der vielen Anekdoten um Frank B. Gilbreth nach soll er eines morgens versucht haben, sich mit zwei Rasierern gleichzeitig zu rasieren. Das Gefluche anschließend galt nicht der Tatsache, dass er sich dabei geschnitten hatte, sondern dass ihn das Heraussuchen und Aufkleben der Pflaster zwei zusätzliche Minuten kostete.
Die Arbeit von Gilbreth und seinen Kollegen war grundlegend für die Effektivierung der Fließbandarbeit und die Vollautomatisierung. Die heutige beginnende Roboterisierung profitiert noch immer von den Erkenntnissen der Pioniere des Bewegungsstudiums. Und Gilbreth konnte seine Arbeit nur leisten, weil er Zugriff auf über 170 Jahre maschinelles Algorithmisierungswissen hatte und weil sein Denken, seine ganze Konditionierung bereits darin stattgefunden hatte bzw. darauf aufzubauen vermochte.


Um wie viel mehr als Gilbreth wir in die Errungenschaften der letzten rund 270 Jahre integriert sind, wird klar, wenn wir versuchen, eine Kurve der Entwicklungen von 1730 bis 2018 zu zeichnen, die die über die Zeit zunehmenden Resultate von Vernetzung, Algorithmisierung, Digitalisierung und Wirklichkeitsemulation zeigt: Sie steigt exponentiell an. Dasselbe finden wir für jede dieser vier Kräfte, wenn wir sie einzeln untersuchen. Und mit jeder Kraft, die wir wieder hinzunehmen, beschleunigt sich das Wachstum, weil sie die Leistungen der vorherigen integriert und potenziert. Ineinander verschlungen haben sich Algorithmisierung, Digitalisierung und Vernetzung immer schneller und schneller entwickelt und Wirklichkeitsemulation hervorgebracht. In Algorithmisierungsprozessen leben wir seit der ersten Hälfte des 18. Jahrhunderts. In Digitalisierung richten wir es uns ab der zweiten Hälfte des 20. Jahrhunderts häuslich ein. Die Beschleunigung von Denkveränderung und technologischer Entwicklung, die wir seitdem erfahren, lässt jedes heutige „Wir müssen über die Folgen der Digitalisierung reden“ albern/anachronistisch aussehen.


Vor diesem Hintergrund wird die Dringlichkeit für Systemanalytiker, sich den (weiteren) Verlauf der Technologisierung sehr genau und sehr gründlich anzusehen und natürlich auch zu lernen, die modernen technischen Methoden zu handhaben, deutlich, denn die benannten Kräfte verändern nicht nur unsere sozialen Umwelten, sondern auch das Denken des einzelnen Menschen: Sie wirken auf Gehirn und Nervensystem, auf Psyche und Bewusstsein und für das Sozialsystem konstitutiv.


Ich habe gerade erst vor einem Jahr von einem Forscherkollegen (Bereich Longevity) erfahren, dass er festgestellt hat, dass sich unsere Ernährungsbedürfnisse mit Digitalisierung (und erst recht mit Wirklichkeitsemulation) grundlegend ändern (Dr. Marios Kyriazis, The Anti-senescence Effects of Hormesis, Environmental Enrichment, and Information Exposure). Die Vernetzung stellt andere Ansprüche an unser Hirn und Nervensystem. Und was Wirklichkeitsemulation anbelangt bekommen wir es mit Komplexitäten zu tun, die eine neue, eine emergente Form von Intelligenz – eine Superintelligenz – fordern, um sie zu bewältigen. Superintelligenz kann nicht Künstliche Intelligenz (allein) sein. Warum? … wird im weiteren Verlauf hoffentlich immer klarer werden. (Jetzt bereits möchte in diesem Zusammenhang auf Aspekte unserer Forschung zeigen, die explizieren, wie solche Superintelligenz zustande gebracht werden kann: http://formwelt.info/de/Blog/superintelligenz)
Überlassen wir die Entwicklung der Intelligenz dem Facebook-Schwarm, unterhalten wir uns in einhundert Jahren vielleicht weitestgehend in Emoticon-Sprech …


Mit Algorithmisierung haben wir gelernt, den Algorithmus in Maschinen anzuwenden. Mit Digitalsierung haben wir angefangen, Algorithmen zu computerisieren: Maschinen zu entwickeln, die analoge Abbildungen und Aufzeichnungen realer Phänomene in Zahlen umwandeln und so rechenbar machen.


Digitalisierung


Seit im Verlauf der Algorithmisierung die ersten höheren Programmiersprachen entwickelt wurden (wie Assembler, FORTRAN, PASCAL und C), die unser Denken und Leben so massiv und nachhaltig verändert haben, woraus die Weiterentwicklung der Programmiersprachen und unseres Denkens bis heute und darüber hinaus fortläuft, ist bereits eine ordentliche Zeit vergangen … und wir haben sie genutzt. Es ist vollkommen korrekt, Programmiersprachen als Algorithmen bzw. Baukasten-Sets für Algorithmen zu begreifen und die ersten Lochkarten der Handwebstühle genauso dazu zu zählen wie das Morsealphabet – vorausgesetzt natürlich, wir begreifen das einzelne Morsezeichen als Anweisung dazu, eine spezifische sprachliche Leistung zu erbringen. Algorithmisierung hat Menschen hervorgebracht, die in Effizienz- und Leistungskriterien denken, die vorher so nicht denkbar waren. Sie hat die Industrialisierung optimiert und programmierbare Maschinen erschaffen. Maschinelle Digitalisierung hat das Programmieren in die Kinderzimmer eingeführt und Menschen auf breiter Ebene dazu motiviert, in kurzen Feedbackschleifen und objektorientiert zu denken.


Immer schneller schritten Algorithmisierung und Digitalisierung voran. 1950 war der erste Assembler fertig geschrieben und zwar von Nathaniel Rochester für den IBM 701, der 1952 auf den Markt kam. Der IBM 701 war der erste kommerzielle und für wissenschaftliche Zwecke bestimmte Rechner von IBM. Aber so neu und großartig die Entwicklung dieser digital programmierbaren und digital operierenden Maschine auch wirkt(e), sie poppte nicht aus dem Nichts hervor … andere gingen ihr voraus … zum Beispiel Tommy Flowers Colossus … Konrad Zuses Z3 … und eine guten Sprung in der Zeit zurück Charles Babbages Difference Engine und der Entwurf seiner Analytical Engine … der moderne digital Computer ist Resultat einer Kette historischer Erfindungen, die Mitte des letzten Jahrhunderts mit den dann erst zur Verfügung stehenden technischen Mitteln in Hardware und Software – in ähnlicher Form, wie wir sie auch heute nutzen – verwirklicht werden konnten.


Vielleicht können wir die 1837 angefertigte Beschreibung der Analytical Engine des Mathematikers Charles Babbage als den ältesten bekannten Vorfahren des modernen Computers mit noch erkennbarer Familienähnlichkeit erachten. Auch wenn Babbage seine Analytical Engine nie gebaut hat, das Konzept ist durchaus mit den 100 Jahre später produzierten Computern vergleichbar. Hätte er zu seiner Zeit bessere Materialien und Technologien oder auch einfach nur mehr Geld zur Umsetzung seiner Ideen zur Verfügung gehabt, würden wir Charles Babbage heute wahrscheinlich öfter in einem Atemzug mit Jack Kilby, Robert Noyce, Steve Wozniak, Bill Gates oder auch Steve Jobs nennen.


Von Babbage zu Gates und Jobs war ein langer Weg, aber es war ein Weg, der die Zukunft der Menschen für immer verändern sollte.


Mit Hilfe der Glühbirne, des Relais, der Elektronenröhre, des Transistors und dann der Integrierten Schaltung brachte Algorithmisierung nach und nach Digitalisierung in die Welt, erst in Form des Großrechners, dann als Personal Computer, dann als CD/DVD, dann als Laptop, dann als iPod, dann als Digitalkamera, dann als USB-Stick … und heute gar in Form unserer Handys, Pads und Tablets …


All diese Entwicklungen werden nicht erst, sondern haben bereits einschneidenden wirstschaftlichen, industriellen, politischen, militärischen und gesellschaftlichen Strukturwandel und Systemwandel hervorgebracht und WIR sind mitten drin!


Der einschneidende Augenblick, an dem klar wurde, dass wir es mit einer neuen und zwar digitalen Ära zu tun bekommen, war aber sicherlich bereits in den 1980er Jahren da, als die Personal Computer ihren Einzug in die Büros und in die Heime der Menschen hielten. Hier, ausgerüstet mit dem PC, sehen wir Menschen Bücher eintippen und einscannen, auf breiter Ebene Programmiersprachen lernen, ihre Buchhaltung am PC erledigen. Kalkulationsprogramme und für jedermann leicht bedienbare Textverarbeitungsprogramme wurden in diesen Jahren erfunden. Wer weiß noch von jenen seligen Zeiten, als wir unser Betriebssystem mit DOS direkt unter den Fingerspitzen hatten? Wer hat noch seinen 386er selbst zusammengeschraubt und erinnert den stolzen Augenblick, als die RAM-Bausteine aus Taiwan per Post angeliefert wurden und man ein paar Bootsekunden, ein bisschen mehr Speicherplatz und etwas mehr Seelenruhe dazu gewonnen hatte?


Dann kamen die Börsen dazu und erfassten ihre Daten in Computern und die Stunde der Digitalisierung hatte endgültig (zu)geschlagen.


Statt dass Menschen miteinander kommunizieren, übernahmen die Arbeit nach und nach Computer. Schriftlich fixierte Kauf- und Verkaufserklärungen wurden in Binärcode, in Zahlen übertragen, ein virtueller Börsenraum entstand. Geld, an sich schon eine Abstraktion, wurde digitalisiert und mit ihm die Geldschöpfungsmechanismen.


Ein wichtiger Schritt war gemacht: Die Krise konnte von Computern errechnet, vorbeugende Maßnahmen rechtzeitig ergriffen werden – soweit zumindest die Theorie. Mit fortschreitender Digitalisierung der Börsenprozesse wurde die Krise zum täglichen, ja sekündlichen integrativen Steuerungsmechanismus innerhalb der Maschinenprozesse.


Doch der Gewinn an Zeit, Präzision und Schutz vor der Krise durch Integration der Krise hat Nachteile, denn er produziert neue und entscheidende Löcher in der Erwartungsbildung.


Wenn Wirklichkeitsemulation die Krise einpreist, entschärft sie die Funktion der Krise, Restrukturierung zwecks Anpassung und Optimierung zu initiieren. „Krisen“ degenerieren zu Ziel des jeweils aktuellen und Absprungpunkt in den jeweils nächsten mehr oder weniger redundanten Operationszyklus. Sie werden zur Gewohnheit und können zwecks Motivation schneller auf einander folgen, ohne zu große Schwierigkeiten zu produzieren. Das Problem jedoch besteht darin, dass sich System so für die wirkliche Krise, die jetzt noch außerhalb seines Erfahrungshorizontes liegt und gerade deshalb seinen Fortbestand gefährden kann, desensibilisert.


Im abstrakten Raum der digitalisierten Börse spielen Angelegenheiten unserer Alltagswirklichkeit eine noch geringere Rolle als das im Geldhandel vor der Digitalisierung der Fall war. Als 1637 die Börse in Holland wegen Tulpenzwiebeln crashte, hatten die Adeligen und Reichen, wie das damals schon üblich war, auf seltene Produkte spekuliert: Man war fasziniert vom Spielen mit dem Wert von Muscheln, Straußeneiern oder … Tulpenzwiebeln. (Im damaligen Holland hatten dem Vorbild der Reichen folgend übrigens auch große Teile der gesamten besitzenden Bevölkerung begonnen auf Tulpenzwiebeln zu spekulieren.) Nun sagt sein Verstand dem Durchschnittsvernünftigen, dass der Wert einer seltenen Sache einen gewissen Bezug zur Realität haben sollte. Doch Realität und Börse, das sind zwei Phänomene, die man am besten konstruktivistisch oder systemisch begreift, nicht mit gesundem Menschenverstand. Wie auch immer: Man verspekulierte sich, die Blase platzte, und es kam zur Katastrophe für die Spekulanten und zur Restrukturierung initiierenden Krise für die Wirtschaft.


Ein Computer hat nicht nur keine Ahnung von Tulpenzwiebeln, er weiß auch nichts von Besitz und Immobilien. Er bezieht die Daten, die ihm eingespeist werden, auf die Daten, die er hat, und in Rechenprozessen schafft er intern eine eigene umweltunabhängige Interpretation, die einfach weiter rechnet, egal, was da draußen passieren mag. Prüfalgorithmen versuchen, das Vernachlässigen der Umwelt des Geldhandels zu verhindern. Was die Geldgeschäfte am Laufen hält, sind auf der einen Seite die Rechenprozesse, auf der anderen die Menschen, die die Computer bedienen, die dafür sorgen, dass gekauft oder verkauft wird, und die die Algorithmen erstellen, die dieses oder jenes auf eine bestimmte Art und Weise bewerten. Wie schätzen die Menschen die Wirtschaftliche Entwicklung insgesamt und die Entwicklung der Unternehmenswerte im einzelnen ein? Mit welchen Mitteln schätzen die Menschen ihre Welt? Wie und woher beziehen die Menschen ihre Informationen? Das ist die interessante Frage, an der nicht nur Resultate von Digitalisierung deutlich werden, sondern an der wir auch erkennen können, wie Wirklichkeitsemulation arbeitet und wirkt. Heutzutage beziehen Menschen ihre Daten über Computer z.B. aus digitalisierten Handelssystemen oder aus digitalisierten Börsenmagazinen und von anderen Menschen, die per Computer vernetzt in das Geschehen involviert sind. Gemeinsam mit vernetzten Computern schaffen die Menschen alternative, emulierte Wirklichkeiten, indem sie sich wechselseitig mit Information füttern, die im und durch dieses System generiert wird, worauf sie ihr Denken und Handeln/Erleben ausrichten und worauf sie denkend und handelnd/erlebend einwirken. Der Computer kann ihnen nicht wie der Mann vor Ort erklären und zeigen, wie die Ernte dieses Jahr ausfallen wird. Der Computer prozessiert eigentlich nur 0/1 und das, was wir damit machen.


Kein Börsenmakler untersucht noch die Verhältnisse in der Wirklichkeit vor Ort. Komplexität und Abstraktion der Vorgänge lassen das nicht mehr zu. Er verlässt sich auf das Datenbild der Welt, operiert in der gemeinsam mit Maschinen und anderen Fachleuten konstruierten Realität. Er fragt nicht nach, mit wie vielen Hypotheken einzelne Häuser belastet wurden, wie gerechtfertigt diese Belastung ist, ob die Banken vor Ort und andere Kreditgeber die Sachlage korrekt einschätzen – und erst recht nicht, ob sie dazu bereit sind, sie realistisch einzuschätzen.


Irgendwann aber werden Gehalt und Werte der Prozesse des Subsystems Börse abgefragt: Sind sie da oder nicht? Und wenn das passiert, wenn die Preisfrage Kettenreaktionen auslösend die Gesellschaft durchläuft und nicht mehr nur in einer aus Börsenperspektive emulierten Welt digital verhandelt wird, gibt es ein Überschwappen in die Wirklichkeit vor Ort (natürlich auch emuliert, vernetzt, von Mensch zu Maschine, von Maschine zu Mensch, von Person zu Person und erst dann vielleicht auch noch von Mensch zu Mensch).


Wer die Finanzkrise 2007/2008 nur als das Werk korrupter Banker, Immobilienmakler und Kredithaie ansieht, überblickt das Puzzle nicht im Ganzen: Wirklichkeitsemulation.


Als Resultat der Krise wurden Unternehmen geschlossen, Büros geräumt und Menschen verloren ihre Jobs, ihre Heime, ihr Geld. Und dann gab es da noch die Unternehmen, die so weitreichend im System vernetzt waren, dass man sich nicht leisten wollte, sie zerfallen zu sehen. Damit der einarmige Bandit weiter funktionieren konnte, warf einfach jemand eine weitere Münze ein. Ohne ihn könnte ja viel mehr zusammenbrechen als nur die Börse. Restrukturierung Adé! Und ab in den nächsten mehr oder weniger redundanten Operationszyklus … die Zeche zahlen ja sowieso die, die am wenigsten haben …


Digitalisierung hat es Börsen und vielen anderen Subsystemen unserer Gesellschaft möglich gemacht, historisch gewachsene und etablierte und auch viable Kontroll- und Selektionsmechanismen schnell zu umgehen, zu ersetzen oder einfach außer Kraft zu setzen. Das löst eine Lawine ungelöster Probleme aus. Die Grenzen zwischen Wirklichkeit (vor Ort) und (emulierter) Wirklichkeit beginnen immer mehr zu verwischen. Emulierte Wirklichkeit wird zu unserer Wirklichkeit … und kann natürlich jetzt nicht mehr aufhören, sich selbst (also auch uns gleich mit) zu emulieren … emulierte Wirklichkeit kann viel länger noch gesund aussehen, selbst wenn sie sich schon längst ausgehöhlt hat und nur noch Krise spielt, um Anpassung und Änderung zu meiden … kommt aber dann der „echte“ Schuss von außerhalb ihres Erwartungshorizonts, kriegt sie ihn noch mit? Kann sie noch ausweichen, sich anpassen oder hört sie einfach auf?



Beschleunigung der Datenverarbeitungsprozesse, Überwindung von Kapazitätslimits, Zusammenbrüche und vollständige Re-Organisationen ganzer Industriezweige, Qualitätsverlagerung von Anspruch und Wahrnehmung, Informationsmanagement, Konstruktivismus, globale Virtualisierung, politische Konsequenzen, ideologische Konsequenzen, das Ende des Kapitalismus: Teil 2