Donnerstag, 31. Juli 2014

Klaus Mainzer, Die Berechnung der Welt. Von der Weltformel zu Big Data, München 2014

(Verlag C.H. Beck, mit zahlreichen farbigen Abbildungen, geb. 24,95 €, S.352)

1. Methode und These I
2. Methode und These II
3. Sätze und Formeln
4. Zelluläre Automaten und der Strukturalismus
5. Superpositionen, Metaphern und Intuitionen
6. Semantik
7. Anthropologie

Immer wieder kommt Klaus Mainzer auf die Frage zurück, ob das Universum ein zellulärer Automat (vgl. Mainzer 2014, S.95) oder ein Quantencomputer (vgl. S.116-127) sei: „Big Data führt zu einer digitalen Physik der Superrechner, in der Gleichungen in Computerprogramme überführt werden. Physiker wie Richard Feynman und Computerpioniere wie Konrad Zuse haben sich daher die Frage gestellt, ob die Natur nicht selber als ein Computer aufgefasst werden kann, in dem Veränderungen und Wechselwirkungen von Atomen und Molekülen Rechenschritten und Rechenprozessen entsprechen. Diese Idee führte zum Konzept der Quantencomputer mit neuartigen Möglichkeiten, aber auch Grenzen der Berechenbarkeit ...“ (Mainzer 2014, S.28)

Der große Unterschied zwischen der klassischen Physik eines Newton und der digitalen Physik der Quantenmechanik besteht darin, daß sich die eine an die sinnliche Anschauung des Menschen hält und die Welt als ein Kontinuum auffaßt, während für die Quantenmechanik die Welt, wie der Name schon sagt, ‚gequantelt‘ bzw. ‚gekörnt‘ ist. (Vgl. Mainzer 2014, S.40) Wenn wir von einer Quantelung der Welt ausgehen, besteht tatsächlich kein Unterschied zwischen der ‚realen‘ Welt und einem Quantencomputer, also zwischen Realität und Simulation. Es gäbe auch keinen Unterschied mehr zwischen einer Welt der Zahlen und unserer Lebenswelt. Die ganzen Überlegungen zum Zahlbegriff hätten wir uns schenken können. (Vgl. meinen Post vom 29.07.2014)

Interessanterweise hat aber die Annahme von der Quantelung der Welt ihren Preis. Die Quantenwelt besteht aus diskreten Zuständen, wie etwa den Photonen. Das Licht ist demnach kein kontinuierlicher Strahl oder eine sich kontinuierlich ausbreitende Welle, sondern es besteht aus kleinsten Teilchen. Diese verhalten sich allerdings wie Wellen. Sie sind beides gleichzeitig: Teilchen und Welle. Wir haben es mit einer Überlagerung zu tun, mit einem verschränkten Zustand. Irgendwie hat man den Eindruck, daß wir es hier mit dem Quantenäquivalent zum Kontinuum unserer Lebenswelt zu tun haben. Wird es durch Diskontinuität ersetzt, treten verschränkte Zustände an ihre Stelle.

Diese verschränkten Zustände werden auch als „Superposition“ bezeichnet. (Vgl. Mainzer 2014, S.118) Wir haben es also mit einer ungewissen ‚Positionierung‘ von Quanten zu tun, entsprechend der Heisenbergschen Unschärferelation. Im Rahmen dieses Blogs ist es sicher nicht verwunderlich, wenn mir dazu Plessners exzentrische Positionalität einfällt, der Grundbegriff seiner Anthropologie. Ich kann mich des Eindrucks nicht erwehren, daß sich diese Elementarteilchen irgendwie menschlich verhalten. Plessners Seele will sich auch nicht berühren lassen, wie die Elementarteilchen. Sobald man sie ‚berührt‘ bzw. mißt, erstarren sie und fallen aus ihrem verschränkten Zustand heraus. Sie sind jetzt nur noch Teilchen oder Welle. Und man fragt sich unwillkürlich, wie es ihnen dabei wohl ergeht.

Durch die Quantelung der Welt, also durch das Unterbrechen des Kontinuums, werden aus den Elementarteilchen ‚Individuen‘. Darin liegt eine subtile Ironie: Die letzte Wirklichkeit unserer Welt besteht nicht aus Atomen, sondern aus Individuen, – was vom Wort her sowieso auf dasselbe hinausläuft.

Photonen, die einen Filter nur mit 50-prozentiger Wahrscheinlichkeit passieren, bleiben auch hinter dem Filter in einem verschränkten Zustand, der diesmal darin besteht, daß sie den Filter entweder passiert haben oder nicht. (Vgl. Mainzer 2014, S.118) Erst durch eine Messung entscheidet sich, ob so ein verschränktes Etwas durch den Filter durch ist. Solange nicht gemessen wird, verharren sie in ihrem verschränkten Zustand, gleichzeitig ‚durch und nicht durch‘ zu sein. So wie Schrödingers Katze, die gleichzeitig tot und lebendig ist. Solange bis nachgeguckt wird.

Analog könnte man von einem Quantenäquivalent des menschlichen Denkens sprechen, da auch unser Bewußtsein mit verschränkten Zuständen ‚rechnet‘. Hier heißen diese Zustände ‚Metaphern‘. Alle unsere Worte und Gedanken sind ursprünglich Metaphern, die gleichzeitig etwas anderes bedeuten können.

Aber der Mensch kann auch als Person in einem verschränkten Zustand sein: Als Jesus beim letzten Abendmahl verkündete, daß einer seiner Jünger ihn verraten werden würde, war jeder von ihnen gleichzeitig ein Verräter und kein Verräter. Als Judas nachfragt, ob er es sei – analog zur Messung bei den Elementarteilchen –, bestätigt Jesus das. Erst jetzt ist Judas ein Verräter.

In einer mehr alltäglichen Szenerie in einem französischen Film über eine fünfzigjährige Concierge, die sich von der Welt abgewandt hat und nur noch in ihrer eigenen kleinen Bücherwelt lebt, wird eine ähnliche Erfahrung zum Ausdruck gebracht. Ein Bewohner des Hauses, in dem die Concierge arbeitet, lädt sie zu einem Rendezvous ein. Sie lehnt ab mit der Begründung, sie sei nur die Concierge. Ihr Verehrer antwortet, daß ein Mensch mehr als eine Eigenschaft haben könne.

Der Mensch ist überhaupt nur zu verstehen, wenn man ihn als eine ständige Überlagerung von
Zuständen sowohl auf physiologischer Ebene wie auch auf seelisch-geistiger Ebene definiert. Wenn man eine dieser Ebenen isoliert betrachtet, entzieht er sich. In „Gehirn und Gedicht“ (2011) von Raoul Schrott und Arthur Jacobs wird das sehr schön am Beispiel von optischen Täuschungen gezeigt, die zugleich Denkfiguren bilden. (Vgl. meine Posts vom 19.07. und 20.07.2011) So zählt Schrott insgesamt vier optische Täuschungen auf, die ihre Entsprechung auf der Ebene des Sprachverstehens haben und die er zusammenfassend als figurative Täuschungen bezeichnet: Ambiguitäten (Kippfiguren und perspektivische Täuschungen), Verzerrungen (Stock im Wasser, Müller-Lyersche Täuschungen (gleich lange Linien, die durch zusätzliche Markierungen als unterschiedlich lang erscheinen)), Fiktionen (Gestaltillusionen beim Rorschach-Test, Auffüllen von Lücken beim Kaniza-Dreieck) und Paradoxa (M.C. Eschers unmögliche Welten, das unmögliche Dreieck). (Vgl. Schrott/Jacobs 2011, S.148f.)

Indem sich sinnliche Wahrnehmung und abstraktes Denken überlagern, entstehen semantische Räume, die wie verschränkte Zustände fungieren. Bedeutungen von Wörtern leben davon, daß sie im Uneindeutigen bleiben. Sobald sie umkehrbar-eindeutig zugeordnet werden, werden sie bedeutungslos. Worte und Gedanken sind immer schon Metaphern, also weder das eine noch das andere, das Lachen oder die Sonne, sondern der Raum dazwischen. Blumenberg hat dazu einiges zu sagen gewußt. (Vgl.u.a. meine Posts vom 06.09. bis 10.09.2011)

Schrott/Jacobs beschreiben sehr schön, wie es gerade die perspektivischen Verzerrungen unserer sinnlichen Wahrnehmung sind, die durch ihre Verwandlung in Metaphern dazu beitragen, daß wir die Welt besser verstehen lernen. Sie helfen uns dabei, Sachverhalte zum Ausdruck zu bringen, die durch 1:1-Wörtlichkeit nicht erfaßt werden können. Letztlich geht es im Wesentlichen, was den Menschen betrifft, immer um diese ‚unscharfen‘ Sachverhalte, was der universellen Dominanz von Rechenverfahren Grenzen setzt. Schrott/Jacobs zeichnen diese Überlagerungen und Verschränkungen bis in die Anatomie und in die Ebenen neuronaler Verschaltungen des Gehirns hinein nach, eines Gehirns, das keinem kalkulierten Design entsprungen ist, sondern Schicht für Schicht aus einer biologischen Evolution im ständigen Bezug auf und mit unserem Körper hervorgegangen ist, dem Plessnerschen Körperleib.

Download

Mittwoch, 30. Juli 2014

Klaus Mainzer, Die Berechnung der Welt. Von der Weltformel zu Big Data, München 2014

(Verlag C.H. Beck, mit zahlreichen farbigen Abbildungen, geb. 24,95 €, S.352)

1. Methode und These I
2. Methode und These II
3. Sätze und Formeln
4. Zelluläre Automaten und der Strukturalismus
5. Superpositionen, Metaphern und Intuitionen
6. Semantik
7. Anthropologie

Eine entscheidende Differenz zwischen Mensch und Maschine bildet das Mensch-Welt-Verhältnis, das man, in der Sprache der Quantenphysik, als einen „verschränkten Zustand“ (Mainzer 2014, S.119) beschreiben kann. In diesem Zustand befindet sich der Mensch gleichzeitig in der Mitte der Welt und an ihrem Rand, was von Plessner auch als exzentrische Positionalität bezeichnet wird. Für Maschinen gibt es keine Außendifferenz. Selbst mit Sensoren ausgestattete Roboter agieren nicht in einer Außenwelt, sondern nur gemäß einem adaptiven Programm, das beim Zusammentreffen passender Umstände ein festgelegtes Verhalten abspult bzw. festgelegte Zwecke verfolgt. Zwischen dem, was der Roboter ‚tut‘, und dem, was er ‚denkt‘, gibt es keinen prinzipiellen Unterschied. Was der Roboter ‚denkt‘, also sein Programm, ist immer schon das, was er ‚tut‘ bzw. tun wird.

Diese von Plessner als Doppelaspektivität bezeichnete Grenze zwischen Innen und Außen bildet zugleich auch eine Grundeigenschaft des Lebens, da sich Organismen durch Stoffwechselprozesse gegen ihre Umwelt abgrenzen und ihr inneres Milieu stabil halten. Als der Mathematiker Charles Babbage nach dem Vorbild automatisierter Webstühle im 19. Jahrhundert die erste programmgesteuerte Rechenmaschine auf mechanischer Grundlage baute, hatte schon seine Mitarbeiterin, „die ebenso kluge wie attraktive Lady Ada Lovelace“, eingeworfen, daß diese Automaten „in Zukunft vieles leisten könnten, aber eben nur das, was man ihnen vorher einprogrammiert habe.()“ (Mainzer 2ß14, S.95) Und nochmal zwei Jahrhunderte früher hatte die schwedische Königin Christine zu Descartes These, daß die Natur nur ein großer Automat sei, gemeint, daß künstlich hergestellte Menschenautomaten sich „wohl nie wie lebende Organismen selber reproduzieren könnten“. (Vgl. ebenda)

Schon was das Übertreffen des Programms betrifft – was man auch ‚Denken‘ nennen könnte –, wird der Einwand von Ada Lovelace von den Konstrukteuren künstlicher Intelligenz als widerlegt betrachtet. Dabei kümmern sie sich wenig um die erwähnte Differenz zwischen Denken und Tun, zwischen Fiktion und Realität, die für die menschliche Intelligenz wesentlich ist. Aber auch was die Reproduzierbarkeit betrifft, hat der österreichisch-ungarische Mathematiker John von Neumann (1903-1957) den Einwand von Königin Christine mit den zellulären Automaten, so Mainzer, widerlegt: „John von Neumann bewies die Existenz eines zellulären Automaten, dessen Muster sich beliebig selber reproduzieren konnten und damit wenigstens theoretisch den Einwand der Königen Christine widerlegten.“ (Mainzer 2014, S.96)

Zelluläre Automaten, so Mainzer, „bestehen aus schachbrettartigen Gittern, deren Zellen nach ausgewählten Regeln ihre Zustände (z.B. die Farben Schwarz oder Weiß) wechseln und dabei von der Farbverteilung der jeweiligen Zellumgebungen abhängen.“ (Vgl. Mainzer 2014, S.25) Das erinnert nicht von ungefähr an das Schachbrett, auf das ich in meinen Posts zur Phänomenologie und zum Strukturalismus zu sprechen gekommen bin. (Vgl. insbesondere meinen Post vom 09.05.2014) Mit Hilfe schneller Computerleistungen können heutzutage problemlos „Musterentwicklungen in vielen nachfolgenden Generationen“ simuliert werden. Solche Muster bilden, wie in der Graphik, beispielsweise Kreuze (Fig.I) oder Quadrate (Fig.II). Die Zellen eines zellulären Automaten, die auf ihre Umgebung reagieren, verhalten sich im Prinzip wie eine Schwarmintelligenz. (Vgl. Mainzer 2014, S.161)




Mainzer vergleicht die zellulären Automaten mit Leibnizens Monaden und schreibt: „Nach Leibniz war die Welt aus elementaren Automaten aufgebaut, die er Monaden nannte. In den Monaden spiegeln sich die Zustände der übrigen Monaden, die sich in Aggregaten zusammensetzen und komplexe Automaten bilden.“ (Mainer 2014, S.95) – Da die zellulären Automaten im Prinzip „wie eine universelle Turingmaschine“ funktionieren, heißt das nichts anderes als daß die Welt ein Computer sei, wie bei Douglas Adams in „Per Anhalter durch die Galaxis“: „Im einfachsten Fall gibt es nur die beiden Zustände ‚schwarz‘ (1) oder ‚weiß‘ (0). Eine Umgebungsfunktion gibt an, mit welchen anderen Zellen die einzelne Zelle verbunden ist. Sie kann z.B. die Form eines Kreuzes oder Quadrates festlegen. ... Der Zustand einer Zelle hängt von Zuständen in der jeweiligen Umgebung ab und wird durch (lokale) Regeln bestimmt. Da alle Regeln in einem Schritt ausgeführt werden, arbeitet das Automatennetz des zellulären Automaten synchron und taktweise. Die aus einer Konfiguration von zellulären Zuständen durch Regelanwendung entstandene Konfiguration heißt Nachfolger der ursprünglichen Konfigurationen. Die aus einer Konfiguration durch wiederholte Regelanwendung entstandenen Konfigurationen heißen Generationen der ursprünglichen Konfiguration. Eine Konfiguration ist stabil, wenn sie mit ihrem Nachfolger übereinstimmt. Sie ‚stirbt‘ in der nächsten Generation, wenn alle ihre Zellen im Zustand ‚weiß‘ (0) sind.“ (Mainzer 2014, S.96f.)

Daß die Zellen bei der Reproduktion ‚sterben‘, ist nicht nur eine biologisch naive Formulierung. Tatsächlich sterben Zellen nicht. Sie teilen sich einfach nur. Gewichtiger ist aber wohl der Einwand, daß man bei ‚Mustern‘ wohl kaum von Zellen sprechen kann, die sich reproduzieren und am Leben erhalten. Ihnen fehlt einfach die Innen-Außen-Differenz, der Stoffwechselaustausch mit der Umgebung. Der Abgleich mit anderen, benachbarten Musterelementen ist wohl kaum als ein funktionales Äquivalent für einen solchen Stoffwechselprozeß akzeptierbar, es sei denn, man wäre ein in der Wolle gefärbter Strukturalist, für den es keine andere Realitätsebene gibt als die von Strukturen und Mustern. Schon bei Schwärmen, also etwa Fisch- und Vogelschwärmen, habe ich in einem früheren Post den Verdacht geäußert, daß man bei ihnen nicht wirklich von einer Innen-Außen-Grenze sprechen könne, weil sie mit ihrer Umgebung in keinem Stoffwechselaustausch stehen. (Vgl. meinen Post vom 16.08.2011)

Diesem Stoffwechselprozeß kommt ein anderer Versuch, Lebensprozesse mathematisch zu modellieren und mit Hilfe von Computern zu simulieren, näher. So stellte sich Alan Turing (1912-1954) zwei Zellen vor, „die stabil, also anschaulich gesprochen leblos sind, aber durch Kopplung zum Leben erweckt werden“. (Vgl. Mainzer 2014, S.136) Auch hier stellen sich natürlich viele Fragen hinsichtlich der Gleichsetzung von ‚stabil‘ und ‚leblos‘, die ich hier aber um des Gedankens willen beiseite lassen will. Dieser Gedanke besteht darin, daß die Zustände der beiden Zellen in dem Moment, in dem sie miteinander gekoppelt werden, wechselseitig diffundieren: „In diesem Fall ist das Gesamtsystem destabilisiert. Man könnte anschaulich sagen, dass zwei tote isolierte Zellen durch Kopplung und Diffusion zum Leben erweckt werden. Die Erweckung zum Leben wird präzise berechenbar.()“ (Mainzer 2014, S.138) – Prinzipiell besteht also die Möglichkeit, daß das Leben durch einen einfachen, mechanischen Vorgang, nämlich „durch Kopplung und Diffusion“ entstanden sein könnte, und dieser Vorgang wäre durch eine „Reaktions-Diffusionsgleichung“ „präzise berechenbar“. (Vgl. Mainzer 2014, S.138f.). Letztlich aber hat Turing, wie Mainzer einräumt, „streng genommen“ nur gezeigt, „dass stabile Einheiten durch Diffusion destabilisiert werden können.“ (Vgl. Mainzer 2014, S.139)

Letztlich haben wir es hier also immer noch nicht mit einem sich selbst erhaltenden „Stoff- und Energieaustausch“ eines Organismusses zu tun. Dennoch scheint es „eine bestimmte Reaktions-Diffusionsgleichung“ zu geben, die „einen Grenzzyklus, also eine oszillierende Lösung, besitzt“. (Vgl. Mainzer 2014, S.139) Wenn mit „Grenzzyklus“ so etwas wie eine Innen-Außen-Differenz gemeint ist – der Begriff wird nicht weiter erläutert –, so hätten wir hier tatsächlich einen Hinweis auf eine spontane Entstehung von Leben. Auch der Begriff der Oszillation, so Mainzer, verweist auf den „Zyklus eines Stoffwechsels“. Und Mainzer hält fest, daß wir hier den Herrschaftsbereich der Entropie verlassen: „Das widerspricht nicht nur unserer Intuition, sondern scheinbar auch den Naturgesetzen. Nach dem 2. Hauptsatz der Thermodynamik führt nämlich Diffusion wenigstens in einem abgeschlossenen System zur Homogenisierung des Gesamtzustands, bei der alle Unterschiede ausgeglichen werden.“ (Ebenda)

Diese Reaktions-Diffusionsgleichung ist ein Beispiel für die erstaunliche Kreativität von Mathematikern, Prozesse aller Art zu formalisieren. Allerdings verweist Mainzer selbst an anderer Stelle auf mögliche Grenzen von Computerexperimenten mit „komplexe(n) Muster- und Strukturbildungen, die ähnlich zu den historisch in Expansion und Evolution erzeugten Mustern und Strukturen sind“. Die Frage sei, so Mainzer, „ob durch Steigerung der Rechenkapazität die Computerexperimente so beschleunigt werden könnten, dass sie schneller ablaufen als die historische Expansion des Universums und die Evolution des Lebens. Gemeint ist nicht ein vereinfachtes Modell, mit dem wir im Prinzip die Dynamik von Universum und Leben simulieren können, sondern die Abläufe in allen Details mit immer noch endlich vielen, aber gewaltig vielen Wechselwirkungen. Oder – das wäre die Alternative – liegt eine Irreduzibilität der Rechen- und Simulationszeit vor? Die Simulation der kosmischen Expansion in allen Details braucht dann eben ihre ca. 13 Milliarden Jahre und die Menschheit ihre ca. 1,5 Millionen Jahre. Schaut man sich die komplexen Wechselwirkungen der Proteine in einer einzigen Zelle an, dann scheint einiges für die Irreduzibilität der Rechenzeit zu sprechen.“ (Mainzer 2014, S.252)

Wenn aber durch die Rechen- und Simulationszeit eines Supercomputers die tatsächliche kosmische Expansion inklusive der biologischen Evolution nicht reduziert werden kann, also eine Datenkompression mittels formaler Gleichungen nicht möglich ist, dann liefe jede Simulation auf eine Echtzeitwiederholung der tatsächlichen Ereignisse hinaus, und die Simulation des Universums fügte dem schon bestehenden nur ein weiteres hinzu. Oder andersrum: das bestehende Universum selbst wäre immer schon jener Quantencomputer, mit dem wir es zu simulieren versuchen. Es gäbe keinen Unterschied zwischen Simulation und Realität.

Download

Dienstag, 29. Juli 2014

Klaus Mainzer, Die Berechnung der Welt. Von der Weltformel zu Big Data, München 2014

(Verlag C.H. Beck, mit zahlreichen farbigen Abbildungen, geb. 24,95 €, S.352)

1. Methode und These I
2. Methode und These II
3. Sätze und Formeln
4. Zelluläre Automaten und der Strukturalismus
5. Superpositionen, Metaphern und Intuitionen
6. Semantik
7. Anthropologie

Sätze sind immer schon welthaltig. Die Wörter, aus denen sie bestehen, bilden Prädikate, die auf eine Außenwelt verweisen, die das Subjekt zu diesen Prädikaten ist. Aufgrund dieser Subjekt-Prädikat-Struktur brauchen Sätze auch nicht vollständig zu sein, weil sie in unserer Alltagskommunikation immer schon in einen Kontext eingebettet sind, der unsere Sprechakte ergänzt und vervollständigt. (Vgl. meinen Post vom 19.10.2013)

Formeln hingegen sind weltlos. Sie basieren zumeist nicht auf Wörtern, sondern auf Zahlen. Wenn sie nicht auf Zahlen basieren, sondern aus Wörtern zusammengesetzt sind, müssen sie vollständig und widerspruchsfrei sein und auf Axiome zurückgeführt werden können, die nicht auf „Intuition, Evidenz oder Anschauung“ beruhen, sondern drei formale Kriterien erfüllen müssen: dazu zählt neben der gerade eben erwähnten Vollständigkeit und Widerspruchsfreiheit noch die Unabhängigkeit. ‚Unabhängigkeit‘ bedeutet, daß die Axiome aus keinem anderen Axiom ableitbar sind und noch nicht einmal von den anderen Axiomen desselben mathematischen Systems abhängig sein dürfen. So ist das Parallelaxiom der Euklidischen Geometrie nicht auf die sphärische Geometrie übertragbar, die meisten anderen Axiome der Euklidischen Geometrie hingegen schon. (Vgl. Mainzer 2014, S.60f.)

Die Formeln und Sätze, die ich zu diesem ominösen Parallelaxiom zu lesen bekomme, ob nun von Klaus Mainzer oder bei Wikipedia, verstehe ich übrigens nicht und sind ein Beispiel für unnötig umständlich formulierte Definitionen. Ich hatte bisher das Parallelaxiom immer als die Aussage verstanden, daß sich zwei parallele Geraden im Unendlichen treffen. Und diese Formulierung trifft gleichermaßen für die sphärische und die Euklidische Geometrie zu. Bei Wikipedia gibt es dazu noch komplizierte Winkelangaben, die für mein Empfinden gar nichts mit Parallelen zu tun haben.

Als umständlich empfinde ich auch Mainzers Definition des „einfachste(n) Gesetz(es) der Arithmetik, das dem Zählen zugrunde liegt“: „(a) Beginne mit 1. (b) Wenn bis zur Zahl n gezählt ist, addiere 1 zu n hinzu. Durch sukzessive Anwendung dieser Regel entsteht die unendliche Folge 1, 1+1, 1+1+1, ... die den bekannten Symbolen der natürlichen Zahlen 1, 2, 3, ... entspricht.“ (Mainzer 2014, S.22; Auslassungen von Mainzer) – Warum diese umständliche Ausdrucksweise? Der zweite Teil (b) der Definition läßt sich auch einfacher ausdrücken: „(b) Füge in der Folge fortlaufend 1 hinzu.“

Ich habe ziemlich lange über Mainzers Erläuterungen zum Gödelschen Unvollständigkeitsbeweis gebrütet, bis ich endlich verstanden habe, wo das Problem liegt. (Vgl. Mainzer 2014, S.69ff.) Die Formel selbst habe ich selbstverständlich überhaupt nicht verstanden, weshalb ich auch nicht lange darüber nachgedacht habe. Wirkliche Verstehensprobleme hatte ich hingegen mit dem Beispiel, das Mainzer zur Erläuterung der Formel verwendet. Dabei geht es darum, daß Gödel mathematisch bewiesen hat, daß es kein logisches System gibt, das vollständig ist, weil sich immer Sätze finden bzw. einfügen lassen, die sich nicht als wahr oder falsch entscheiden lassen. Wenn sich aber nicht alle Sätze als wahr oder falsch entscheiden lassen, dann ist ein logisches System auch nicht vollständig.

Nun kann man anscheinend jedes logische System mit selbstbezüglichen Aussagen von der Art des Lügnerparadoxons sturmreif schießen: „Selbstbezügliche Aussagen sind Aussagen über Aussagen, die über sich selbst etwas aussagen. Ein Beispiel ist die Antinomie vom Lügner, wonach die Aussage ‚Ich spreche jetzt nicht die Wahrheit‘ weder wahr noch falsch sein kann: Wäre sie wahr, so würde ich jetzt nicht die Wahrheit sprechen. Da das aber ein Lügner sagt, würde ich doch die Wahrheit sagen und die Aussage wäre falsch. Wäre die Aussage aber falsch, dann würde ich die Wahrheit sagen. Da das aber ein Lügner sagt, würde ich doch nicht die Wahrheit sagen und die Aussage wäre wahr.“ (Mainzer 2014, S.70)

Schon die Formulierung „Selbstbezügliche Aussagen sind Aussagen über Aussagen, die über sich selbst etwas aussagen“, ist unnötig iterativ. Selbstbezügliche Aussagen sind einfach Aussagen über sich selbst. Mehr nicht. Was mich aber an diesem Beispiel, so oft ich es las und mit Freunden diskutierte, immer wieder besonders irritierte, war, daß der Lügner in diesem Beispiel völlig überflüssig ist, da die Aussage für sich schon unentscheidbar ist. Wenn eine Aussage über sich selbst die Unwahrheit behauptet, dann ist ihre Wahrheit oder Falschheit als solche schon unentscheidbar, unabhängig davon, ob es ein Lügner oder Wahrheitsfreund ist, der sie macht. Da Mainzer aber in diesem Beispiel gleich zweimal darauf hinweist, daß es genau auf diesen Lügner ankommt – „Da das aber ein Lügner sagt ...“ –, muß seine Funktion in diesem Beispiel wohl mehr sein als bloß eine narrative Zutat.

Zwischenzeitlich behalf ich mir dann mit der Hypothese, daß der ‚Lügner‘ für eine andere logische Ebene steht, von der aus die Unentscheidbarkeit von wahren Aussagen nachweisbar wird, im Sinne der von Mainzer an späterer Stelle angesprochenen „Theorieprogression“. (Vgl. Mainzer 2014, S.85) Mainzer zufolge hatte Gödels Unvollständigkeitsbeweis eine Revision von Beweisverfahren bewirkt. Von nun an galten mathematische Beweise nicht mehr als absolut, sondern nur noch als relativ wahr; relativ nämlich zum jeweiligen Stand der Theorieentwicklung. Da sich für jede Theorie unentscheidbare Sätze finden lassen, müssen sie ständig erweitert werden und in neue ‚stärkere‘ bzw. ‚reichhaltigere‘ Theorien überführt werden, ad infinitum.

Ich vermutete also, daß Mainzer mit dem Beharren darauf, daß ein Lügner diese Aussage macht, einen Hinweis darauf geben will, daß mathematische Theorien immer nur von anderen formalen Ebenen (‚Erweiterungen‘) aus widerlegt werden können. Aber auch diese Vermutung half mir nicht viel weiter. Denn wenn ein logisches System aus sich selbst heraus nicht widerlegbar ist, so ist es meinem laienhaften Verständnis nach widerspruchsfrei und vollständig. Denn logische Systeme gelten immer nur für sich selbst und können eigentlich nicht von anderen logischen Systemen her widerlegt werden.

Aber letztlich hätte ich mir alle diese Verwirrungen ersparen können. Denn endlich begriff ich, daß die Aussage des ‚Lügners‘ noch gar nicht als Aussage gemeint ist, sondern als Ankündigung einer Aussage. Mit „jetzt“ ist nicht das ‚Jetzt‘ der aktuellen Aussage gemeint, sondern das ‚Gleich‘ einer in dieser Beispielerzählung noch ausstehenden Aussage!

Die Probleme, die ich mit diesem Lügnerparadoxon hatte, sind ein Beispiel dafür, wie Sätze funktionieren. Sätze sind immer vieldeutig. Manchmal sind sie auch unnötig umständlich und verleiten einen dazu, dieser Umständlichkeit noch einmal einen besonderen Sinn zu geben. Sätze sind letztlich relativ ungeeignet, um sie als Formeln zu verwenden. Hätte Mainzer es einfach bei der Ankündigung des Lügners belassen und sie selbst schon als Aussage genommen, ohne den Lügner zu erwähnen, hätte ich nicht diese Probleme damit gehabt.

Ich vermute, ich leide an einer Art ‚Formelblindheit‘, die der Gesichtsblindheit entspricht. Auch Menschen, die gesichtsblind sind, können Gegenstände erkennen. Sie erkennen also Gestalten und Muster, nur eben nicht Gesichter. So ergeht es mir mit Formeln. Was Formeln beschreiben, die Muster und Gesetzmäßigkeiten also, verstehe ich durchaus, wenn sie nur in wohlgeformten, d.h. nicht unnötig umständlich formulierten Sätzen dargestellt werden. Nur die Formeln verstehe ich einfach nicht. Mainzers Verdikt ist in diesem Zusammenhang eindeutig: „Wer die Sprache der Mathematik nicht versteht, kann diese Welt nicht verstehen.“ (Mainzer 2014, S.260)

Dem halte ich entgegen: Beweisverfahren, die ich nicht verstehe, sind keine Beweisverfahren! Die ihnen zugrundeliegenden Thesen bleiben prinzipiell so lange unbewiesen, bis ich sie auf irgendeine Weise verstehe. Kurz: Beweisverfahren sind nicht an Formeln gebunden, sondern an meinen Verstand. Beim Lesen von Mainzers Buch bin ich deshalb so vorgegangen, daß ich in Formeln dargestellte Beweisverfahren als eine Art Orakelmaschine hinnahm, die ich, soweit sie ‚in dieser Welt‘ technisch angewendet werden, gelten lasse, ohne sie glauben zu müssen.

‚In dieser Welt‘ gelten die Formeln aber eben nur, weil sie, wie schon erwähnt, auf Zahlen basieren. Auch Mainzer fragt sich, wie es kommt, daß „die Mathematik so gut auf die Welt (passt)“? (Vgl. Mainzer 2014, S.275ff.) Er liefert eine verblüffende Antwort: Gerade weil sie so abstrakt ist und deshalb die welthaltige Mannigfaltigkeit nicht berücksichtigt! So zumindestens verstehe ich Mainzers diesbezüglichen Äußerungen zum Zahlbegriff. (Vgl. Mainzer 2014, S.276)

Zahlen abstrahieren von „Symbolen und Gegenständen“. Anders als Wörter verweisen Zahlen nicht auf die Äpfel und Birnen, die sie zählen: „Eine (natürliche) Zahl ist also eine Abstraktion. Sie umfasst alle Mengen von Dingen, die einander umkehrbar-eindeutig zugeordnet sind.“ (Mainzer 2014, S.276)

Mainzer ergänzt, daß Zahlen sogar irreale Gegenstände zählen können, die nur in der Vorstellung existieren, wie z.B. Einhörner. Zum Zahlenraum gehören also auch „gedankliche Vorstellungen“, und es wird dabei kein Unterschied zwischen fiktiv oder real, zwischen innen oder außen gemacht, eine Differenz, die für die Subjekt-Prädikat-Struktur von Sätzen unverzichtbar ist und auf der auch das menschliche Bewußtsein basiert. Plessner bezeichnet das als Doppelaspektivität, und sie bildet zusammen mit der exzentrischen Positionalität einen Grundbegriff seiner Anthropologie.

Dann macht Mainzer noch eine weitere, für mich alles entscheidende Feststellung: „Im strengen logischen Sinn einer Abstraktion sind sie (die Zahlen – DZ) auch keine Gedanken, da wir auch davon abstrahieren.“ (Mainzer 2014, S.276)

Wenn Zahlen also keine Gedanken sind, dann sind sie auch unabhängig vom menschlichen Bewußtsein. Und das ist der Grund, warum auch Maschinen mit ihnen rechnen können!

Wir haben also allen Grund, nicht etwa unseren Intuitionen, sondern den Zahlen zu mißtrauen. Zumindestens dann, wenn sie den Bereich lebensweltlicher, anschaulicher Zuordnungen verlassen. Die Welt, in der Zahlen gültig sind, ist nicht die Lebenswelt des Menschen: „Die Mathematik hat es mit Gegenständen zu tun, die buchstäblich nicht von dieser Welt (gemeint ist, die mit unseren Sinnen wahrnehmbare physische Welt) sind. ... Zahlen mögen im Umgang mit Dingen der wahrnehmbaren Welt entstanden sein. Aber Wahrheiten über die Welt der Zahlen sind logisch unabhängig von Raum und Zeit der physischen Welt.“ (Mainzer 2014, S.276)

Mainzers Satz – „Wer die Sprache der Mathematik nicht versteht, kann diese Welt nicht verstehen.“ – bezieht sich also gar nicht auf die menschliche Lebenswelt, sondern auf eine Alien-Welt, die nur die verstehen, die den Zahlenraum „jenseits menschlicher Erfahrung in Raum und Zeit“ miteinander teilen. (Vgl. Mainzer 2014, S.277)

Download

Montag, 28. Juli 2014

Klaus Mainzer, Die Berechnung der Welt. Von der Weltformel zu Big Data, München 2014

(Verlag C.H. Beck, mit zahlreichen farbigen Abbildungen, geb. 24,95 €, S.352)

1. Methode und These I
2. Methode und These II
3. Sätze und Formeln
4. Zelluläre Automaten und der Strukturalismus
5. Superpositionen, Metaphern und Intuitionen
6. Semantik
7. Anthropologie

In einer zentralen Aussage zum angeblichen „Ende der Theorie“, an deren Stelle es genügen soll, riesige Datenmengen (Big Data) mit Algorithmen nach Mustern zu durchsuchen (vgl. Mainzer 2014, S.13f., vgl. auch S.17, 232ff., 247), widmet Klaus Mainzer sein Buch der „Stärkung unserer Urteilskraft“, und er plädiert für die Beibehaltung einer Grundlagenforschung, die sich weiterhin für die „Grundlagen, Theorien, Gesetze und Geschichte, die zu der Welt führen, in der wir heute leben“, interessiert (vgl. Mainzer 2014, S.14).

Diese ‚These‘ ist äußerst gehaltvoll und impliziert einige Konsequenzen, die die Gesellschaft und die Politik betreffen. So führt der mit „Big Data“ verbundene  technologische Prozeß in zwei sich gegenseitig ausschließende Richtungen, für die zum einen die Praktiken der NSA (und Google, Amazon, Facebook etc.) stehen; und für die andere Richtung steht eine, wie Mainzer sich ausdrückt, „partizipative() Demokratie“ (Mainzer 2014, S.185), die Al Gore auch als „Weisheit der Menge“ bezeichnet (vgl. meinen Post vom 25.06.2014). Für diese Entwicklungsrichtung setzt sich auch Klaus Mainzer ein: „Technische Möglichkeiten schaffen neue Begierden. Das verständliche Sicherheitsbedürfnis nach einem furchtbaren Terrorangriff darf nicht zu einer schleichenden Veränderung politischer Einstellungen und Strukturen führen. Reduktion von Risiken darf nicht zur Reduktion von Freiheit werden. Um die Freiheit zu schützen, darf die Freiheit nicht aufgegeben werden.“ (Mainzer 2014, S.257)

Mainzer vertritt also, wie gesagt, eine äußerst gehaltvolle These, die, so meine Gegenthese, mit mathematischen Mitteln nicht begründet werden kann. Von Friedrich Kittler wissen wir, daß in seinen Gleichungen der „Faktor Mensch“ (Mainzer 2014, S.220) längst nicht mehr vorkommt. Und Vertreter der Tea Party (USA) denken bei partizipativer Demokratie vor allem an Kommunismus. Hier stellt sich also eine „Warum-Frage“, die über die „Symmetrie, Regelmäßigkeit und Harmonie“ mathematischer Formeln (vgl. Mainzer 2014, S.19) weit hinausreicht. Es bedarf einer anthropologischen Fundamentalreflexion, die die qualitative Differenz zwischen ‚NSA‘ und partizipativer Demokratie klärt.

Das Fehlen einer solchen Anthropologie wirkt sich aber nicht nur auf die Klärung dieser Differenz aus. Das Fehlen einer entsprechenden Fundamentalreflexion macht sich auch bemerkbar, wenn es darum geht, den politischen Gehalt dessen zu bestimmen, was Mainzer als partizipative Demokratie bezeichnet. So spricht Mainzer von der Notwendigkeit von „nachhaltigen Innovationen“, die die „ökologische(n), ökonomische(n) und gesellschaftliche(n) Dimensionen miteinbeziehen“, um so die „Zukunftsfähigkeit einer Gesellschaft erst möglich“ zu machen. (Vgl. Mainzer 2014, S.185) Diese nachhaltigen Innovationen sollen dazu beitragen, daß trotz größerer Bürgerbeteiligung „soziotechnische Großprojekte realisierbar bleiben“ und so der „Innovationsstandort“ Deutschland nicht gefährdet wird. (Vgl. ebenda)

Unüberhörbar schwingt bei dieser Sorge der Gedanke an „Stuttgart 21“ mit. Der mit diesem Großprojekt assoziierte „Wutbürger“ soll also Mainzer zufolge vermieden werden. Wie immer man zu solchen Großprojekten stehen mag, stellt sich hier doch die Frage, ob Mainzer bei „Human Factor Engineering“ (Mainzer 2014, S.183) nicht vielleicht eher an eine Art gelenkter Demokratie denkt als an wirklicher demokratischer Partizipation. Es bedarf also auch an dieser Stelle einer anthropologischen Klärung dessen, was er „Faktor Mensch“ nennt.

Zu einer anthropologischen Fundamentalreflexion gehört auch eine Verhältnisbestimmung von Mensch und Maschine. So kommt die menschliche Intuition bei Mainzer nicht so gut weg. Wo andere einen Grund für die Verläßlichkeit menschlicher Intuitionen sehen, als Ergebnissen der „Lerngeschichte unserer Spezies“, sieht Mainzer ganz im Gegenteil einen Anlaß, ihnen zu mißtrauen. (Vgl. Mainzer 2014, S.87) Warum die menschliche Spezies keine gute Quelle für Einsichten aller Art ist, „Orakelmaschinen“ hingegen schon (vgl. Mainzer 2014, S.86ff.), wird von ihm nicht weiter erläutert.

Klaus Mainzer berichtet, wie ihn ein biographisches Erlebnis aus der Schulzeit dazu brachte, sich für „Mathematik, Physik und Philosophie“ zu interessieren. (Vgl. Mainzer 2014, S.260) Er lernte 1965 auf einer Lesung den Physik-Professor Wilhelm Fucks kennen, der sein Buch „Formeln der Macht“ vorstellte: „Beeindruckend war das Buch für den damaligen Schüler“ – also für Klaus Mainzer – „deshalb, da es historische Prozesse mit mathematischen Formeln behandelte und zu bemerkenswerten Voraussagen kam: China würde in absehbarer Zeit zur Supermacht aufsteigen und die USA mit Abstand verdrängen.“ (Mainzer 2014, S.259)

Ich erlaube mir, mich an dieser Stelle auf meine Biographie zu beziehen. Ich war in den 70ern ein begeisterter Biologieschüler. An diesem Fach interessierten mich vor allem die vielfältigen Erscheinungsformen des Lebens. Eines Tages lieh mir mein Biologielehrer ein Buch von Konrad Lorenz aus seinem Privatbesitz aus: „Er redete mit dem Vieh, den Vögeln und den Fischen“ (1949). Ich las dieses Buch mit solcher Andacht und Anteilnahme, daß ich es sogar, noch während ich es las, mir selber in der Buchhandlung kaufte, und ich machte mich daran, die feinen Markierungen, die mein Lehrer in seinem Exemplar hinterlassen hatte, Stück für Stück von seinem Buch in mein Buch zu übertragen.

Dieses Buch war für mich damals die Quintessenz von Biologie überhaupt. Es geht nicht darum, Tiere zu sezieren und zu zerschneiden, sondern darum, sie in ihrer lebendigen Umwelt zu beobachten und zu studieren! Als dann später, in der Oberstufe, der Zitronensäurezyklus unterrichtet wurde, wandte ich mich von dem Fach ab. Diese abstrakten, chemischen Formeln hatten für mich nichts mehr mit Biologie zu tun. Die bisherigen Einsernoten rutschten auf ein mühsam aufrechterhaltenes drei bis vier herab.

Zur Ehrenrettung der menschlichen Intuitionen möchte ich jetzt deshalb noch einmal Konrad Lorenz selbst bemühen. In „Der Abbau des Menschlichen“ (1983) spricht Lorenz von der Gestaltwahrnehmung als einem aus der biologischen Evolution hervorgegangenen Rechenapparat, im Sinne von Mainzers Orakelmaschine:
„Wer davon überzeugt ist, daß der Weltbildapparat des Menschen, der ‚perceptive apparatus‘ Karl Poppers, in äonenlanger Entwicklung und in Anpassung an eine reale Außenwelt entstanden ist und im Zuge dieses Werdens gewaltige Mengen von Information gespeichert hat, die es ihm erlauben, die äußere Realität tatsächlich einigermaßen adäquat abzubilden, kann keinem der beiden hier diskutierten reziproken Irrtümer“ – nämlich der an Meßwerten glaubenden ‚Szientisten‘ und ihrer Kritiker – „verfallen. Schon Charles Darwin hat das klar gesagt: Erstaunlich ist nicht, wie viele Dinge sich der Erkenntnis entziehen, sondern wie viele höchst komplizierte und dem praktischen Leben fernstehende Dinge sich immerhin von unserem Weltbildapparat abbilden lassen. Für den evolutionären Erkenntnistheoretiker ist die Frage nach der Kluft zwischen den zwei Kulturen Lord Snows und den zwei Straßen Herbert Pietschmanns ein Scheinproblem, das vor allem daraus entsteht, daß selbst diese Gegner des szientistischen Reduktionismus den Gültigkeitsbereich von Logik und Mathematik überschätzen. Wenn man diese Erkenntnisfunktionen nicht für die einzig legitimen hält und den nichtrationalen Leistungen unseres Erkenntnisapparates, einschließlich der Gestaltwahrnehmung, die Bedeutung beimißt, die ihnen zukommt, wundert man sich nicht mehr über die Widersprüche zwischen den verschiedenen Ergebnissen unserer vielfachen kognitiven Leistungen. Werner Heisenberg hat gesagt, daß die Gesetze der Mathematik nicht Gesetze der Natur, sondern solche eines ganz bestimmten Mechanismus menschlichen Erkennens seien.“ (Lorenz 1983, S.92f.)
Dabei verweist Lorenz einerseits auf den physiologischen Unterschied, auf die „psycho-physiologische Andersartigkeit“ zwischen den „abstrahierenden Leistungen, die von der Gestaltwahrnehmung einerseits und der logisch-rationalen Schlußfolgerung andererseits vollbracht werden“. Zum anderen sieht er aber in ihrer „funktionellen Ähnlichkeit“ einen Grund, ihren Leistungen zu vertrauen. Beide Erkenntnisquellen ergänzen einander und ergeben so die volle Urteilskraft, auf die wir angewiesen sind, um in dieser Welt zu bestehen: „Eine kognitive Leistung zu vernachlässigen bedeutet einen Wissensverzicht – und das ist der größte Verstoß gegen den Geist der Wahrheitssuche, den ein Forscher begehen kann.“ (Lorenz 1983, S.96ff.)

Es ist also eher irrational, sich allein auf die „Sprache der Mathematik“ (Mainzer 2014, S.260) zu verlassen. Auch heute noch und wohl auch künftig noch einige Zeit leben wir in einer Welt, die, wenn wir sie verstehen wollen, einer Balance aus beiden Kognitionsformen bedarf, oder, wie ich es lieber formuliere: einer Balance aus Naivität und Kritik.

Download

Sonntag, 27. Juli 2014

Klaus Mainzer, Die Berechnung der Welt. Von der Weltformel zu Big Data, München 2014

(Verlag C.H. Beck, mit zahlreichen farbigen Abbildungen, geb. 24,95 €, S.352)

1. Methode und These I
2. Methode und These II
3. Sätze und Formeln
4. Zelluläre Automaten und der Strukturalismus
5. Superpositionen, Metaphern und Intuitionen
6. Semantik
7. Anthropologie

Schon Claude Lévi-Strauss hat in „Das wilde Denken“ (1973/1962) auf eine Parallele zwischen dem wilden Denken und der modernen Wissenschaft hingewiesen, die darin besteht, daß beide die Natur und die Kultur mit Hilfe von Mustern korrelieren, die es ihnen erlauben, scheinbar zufällige Ereignisse zu berechnen und zu kontrollieren. (Vgl. meine Posts vom 18.05. und 21.05.2013) Dieser Parallele liegt Lévi-Strauss zufolge ein gemeinsamer Glaube an einem „globalen und integralen Determinismus“ zugrunde, der alle Ereignisse der Natur und der Kultur gleichermaßen umfaßt (vgl. Lévi-Strauss 1973, S.23); und diese Parallele ist so ausgeprägt, daß Lévi-Strauss glaubt feststellen zu können, daß der „gesamte Prozeß der menschlichen Erkenntnis ... den Charakter eines geschlossenen Systems (gewinnt)“.  (Vgl. Lévi-Strauss 1973, S.310) – Zu ergänzen wäre, daß dieses „geschlossene System“ selbstverständlich eine mathematisch beschreibbare Struktur bildet.

Ganz ähnlich liefern Muster, wie Klaus Mainzer, Professor für Philosophie und Wissenschaftstheorie und Gründungsdirektor des Munich Center for Technology in Society, in seinem Buch „Die Berechnung der Welt“ (2014) schreibt, Hinweise auf natürliche und soziale Phänomene gleichermaßen umfassende, mathematisch beschreibbare Strukturen, die man „beobachten und klassifizieren“ kann, „ohne ihre Ursachen erklären und ihren Entstehungsprozess gesetzmäßig voraussagen zu können“ oder zu müssen: „In der Natur kann es sich um Musterbildungen in chemischen Reaktionen, um die Bildung von Zellstrukturen, von Mustern auf Fell oder Gefieder von Tieren oder Verschaltungsmuster von Neuronen im Gehirn handeln.“ (Mainzer 2014, S.26) – Solche Muster finden sich auch in Datensätzen „wie Dokumente, Briefe, Telefonate oder E-Mails“ und als Bewegungsmuster, wie sie „z.B. über GPS, Apps, Mobile Phone, Stimmanalyse, Fahrzeugsignale, öffentliche Kameraüberwachung gesammelt werden können“. (Vgl. Mainzer 2014, S.245)

Um die in der vernetzten Welt alltäglich anfallenden, massenhaften Daten über alles und jeden auswerten und gleichermaßen machtpolitisch wie wirtschaftlich gewinnbringend verwenden zu können, muß man sie nicht im einzelnen kennen und verstehen. Es reicht ein rechnergestütztes „blitzschnelles Durchforsten von riesigen Datenmengen“, bei dem mit Hilfe von Algorithmen „Muster und Korrelationen“ aufgespürt werden. Korreliert werden kann alles und jedes, wie im von Lévi-Strauss beschriebenen wilden Denken. Beide, Big Data und wildes Denken, interessieren sich nicht für die „Daten selbst, die für sich intuitiv und ungerechtfertigt sein mögen.“ (Mainzer 2014, S.88) – Intuitiv und ungerechtfertigt, wie der Blick der schwangeren Frau bei Lévi-Strauss, der zufällig auf eine am Wegrand liegende Melone fällt, die aber die künftige Diät des ungeborenen Kindes beeinflussen wird. Der Totemismus ist das Big Data der ‚Primitiven‘, in dem es nicht auf einzelne Vorkommnisse als solche ankommt, sondern auf ihre Muster.

Deshalb sprechen einige Informatiker inzwischen vom „Ende der Theorie“, bei der es noch darum ging, nicht nur Muster zu beobachten, sondern Gesetzeszusammenhänge zu erkennen: „Warum sollten wir uns lange mit dem Warum und Wieso aufhalten? Schnelle Suchmaschinen finden scheinbar Lösungen unserer Probleme, bevor wir die Ursachen und Gesetze verstanden haben.“ (Mainzer 2014, S.13, vgl. auch S.17)

Klaus Mainzer wendet sich ausdrücklich gegen eine solche theoriefeindliche Wissensschaftsstrategie: „Auch in der Datenwelt ist Nachhaltigkeit gefordert! Dieses Buch ist ein Plädoyer für die Besinnung auf die Grundlagen, Theorien, Gesetze und Geschichte, die zu der Welt führen, in der wir heute leben.“ (Mainzer 2014, S.13f.)

Mainzer plädiert deshalb für „eine Stärkung unserer Urteilskraft, d.h. der Fähigkeit, Zusammenhänge zu erkennen, das ‚Besondere‘, wie es bei Kant heißt, mit dem ‚Allgemeinen‘ zu verbinden, in diesem Fall die Datenflut mit Reflexion, Theorie und Gesetzen, damit uns eine immer komplexer werdende und von Automatisierung beherrschte Welt nicht aus dem Ruder läuft.“ (Mainzer 2014, S.14; vgl. auch S.285f.)

Diese wissenschaftliche Positionierung, der Appell an Urteilskraft und Verantwortungsbereitschaft, entspricht dem Anliegen meines Blogs, und es verwundert sicher nicht, wenn ich dem Autor deshalb nur zustimmen kann. In gewisser Weise ist sein Buch eine Art Manifest und bildet die alle Wissenschaftbereiche mit einschließende Agenda des schon erwähnten Zentrums für Technologie (MCTS). Wie Mainzer schreibt, geht es ihm mit diesem Zentrum darum, die „Spielregeln zwischen Bürgerbeteiligung, technisch-wissenschaftlicher Kompetenz (Forschungsinstitute, Universitäten u.a.), den Parlamenten als demokratisch legitimierten Entscheidungsträgern, der Judikative und Exekutive“ neu zu überdenken. (Vgl. Mainzer 2014, S.317) Es muß dafür sensibilisiert werden, so Mainzer, „dass künftige Generationen von Ingenieuren und Naturwissenschaftlern die Verknüpfung mit der Gesellschaft ganz selbstverständlich als Teil ihrer Arbeit betrachten.“ (Vgl. ebenda)

Auf eine Einrichtung, die die divergierenden Wissenschaftszweige wieder zusammenführt, mit dem „Faktor Mensch“ (Mainzer 2014, 220) als Zentrum „integrierte(r) hybride(r) System- und Architekturkonzepte“ (Mainzer 2014, S.183), haben wir tatsächlich lange gewartet, und sie ist bitter nötig! Gut also, daß es jetzt so eine Einrichtung gibt, und mögen diesem Beispiel noch viele folgen.

Allerdings verlangt die Berücksichtung des „Faktors Mensch“ angesichts von Big Data und ‚Industrie 4.0‘ – man könnte auch schlicht vom ‚Gestell‘ sprechen – nach einer begleitenden anthropologischen Reflexion. (Vgl. meine Posts vom 23.04. bis 30.04.2013 und vom 21.06.2014) Die „Warum-Frage“, die Klaus Mainzer zufolge „am Anfang menschlichen Denkens in Wissenschaft und Philosophie“ gestanden hatte, sollte nicht bloß auf den Aufweis mathematisch beschreibbarer „einfache(r) Gesetze der Symmetrie, Regelmäßigkeit und Harmonie“ beschränkt bleiben.  (Vgl. Mainzer 2014, S.19)

Auch die Rolle, die die Anschauung und die Intuition im Erkenntnisprozeß des Menschen spielen, wird von Mainzer nicht ausreichend gewürdigt: „In Euklids ‚Elementen‘ entwirft die griechische Mathematik erstmals das Idealbild einer mathematischen Theorie, die aus wenigen als wahr vorausgesetzten Grundgesetzen (Axiomen und Postulaten) logisch exakt weitere Sätze (Theoreme) ableitet, um so geometrische Konstruktionen mit Zirkel und Lineal zu rechtfertigen.“ (Mainzer 2014, (S.21f.; vgl. auch S.270) – Also nicht die Anschaulichkeit der Konstruktion belegt die Theoreme, sondern die Theoreme belegen die Konstruktion. Gerade aber Platon, auf dessen nach ihm benannte „platonischen Körper“ Mainzer verweist (vgl. Mainzer 2014, S.19, 36), hatte der Anschaulichkeit geometrischer Konstruktionen einen hohen Wert zugemessen, ganz anders als die von Mainzer erwähnten Newton und Gauß, die bezweifelten, ob die Geometrie „überhaupt eine mathematische Disziplin“ sei, weil sie „von physikalischen Anschauungen abhängt.“ (Vgl. Mainzer 2014, S.58) So belegte für Platon die Anschauung der ein Quadrat durchziehenden Diagonale die Überlegenheit der Geometrie über die Arithmetik. Die Intuition, die „wahre Meinung“, wie Platon schreibt, bildet eine eigenständige Begründungsform. (Vgl. meinen Post vom 24.01.2012) Die Intuition ist deshalb ein wesentliches Moment unserer Urteilskraft.

Mainzer hingegen wertet, ähnlich wie Newton und Gauß, die Intuition sogar ab. Sie ist es wert, daß man ihr mißtraut: „In unserem Organismus und Gedächtnis sind ... viele Algorithmen verborgen, die uns meistens nicht bewusst sind. Darauf zu vertrauen, dass sie deshalb auch schon die beste Lösung für ein anstehendes Problem seien, sollte uns misstrauisch gegenüber unsere eigenen Intuitionen machen. Häufig sind es nur unbewusste Gewohnheiten.“ (Vgl. Mainzer 2014, S.87)

Das ist der Grund, warum ich in Mainzers Buch das Fehlen einer reflektierten, die Weltlosigkeit mathematischer Strukturen und die Welthaltigkeit biologisch und kulturell evolvierter Intuitionen gewichtenden Anthropologie vermisse. Mainzers schlichte Feststellung, daß, „(w)er die Sprache der Mathematik nicht versteht, ... diese Welt nicht verstehen (kann)“ (vgl. Mainzer 2014, S.260), kann über das Desiderat einer angemessenen anthropologischen Fundamentalreflexion nicht hinwegtäuschen. Darauf werde ich auch im nächsten Post noch näher eingehen.

Zum Schluß dieses Posts möchte ich nur noch kurz auf eine Differenz zwischen Big Data und der Phänomenologie hinweisen. Von Lambert Wiesing wissen wir schon, daß Phänomenologen nicht mit Modellen arbeiten. (Vgl. meinen Post vom 04.06.2010) Sie nehmen die Phänomene als das, was sie sind, ohne sie modellierend zu reduzieren und auf Strukturen zurückzuführen. Ganz ähnlich scheint Big Data zu funktionieren. Schon die Babylonier haben Mainzer zufolge im Unterschied zu den Griechen keine theoriegeleitete, sondern eine datengetriebene Forschung im Sinne von Big Data praktiziert: „In unüberschaubar vielen Tonscherben sind Keilschrifttabellen über ihre Verwaltungsabläufe, Alltagsgeschäfte, Gerichtsverfahren und politischen Auseinandersetzungen überliefert. Auch ihre Wissenschaft ist auf Messdaten geradezu versessen. In der Astronomie werden erstmals genaue Planetenbahnen festgehalten. Auf dieser Grundlage werden Voraussagen über zukünftige Mondstellungen abgeleitet.() Das nennen wir heute ein induktives Verfahren: Wachsende Anzahl der Daten bestärkt die Voraussage. Es gibt kein Modell, Hypothese oder Gesetz, sondern nur die Masse der tabellarisch geordneten Daten, die extrapoliert werden. Für die Praxis der Prognosen, die im Alltag benötigt werden reichen diese Tabellen aus. Das ist die beginnende Big-Data-Welt.“ (Mainzer 2014, S.269f.)

Nach allem, was ich hier bisher in diesem Blog über die Phänomenologie geschrieben habe, könnte man vielleicht auf den Gedanken kommen, bei den Babyloniern habe es sich um Phänomenologen gehandelt. Aber tatsächlich haben wir es nur mit einer Bricolage zu tun, wie sie Lévi-Strauss am Beispiel des wilden Denkens beschrieben hat.

Download

Freitag, 11. Juli 2014

J. Derrida/F. Kittler, Nietzsche – Politik des Eigennamens: wie man abschafft, wovon man spricht, Berlin 2000

(Jacque Derrida (1982), Otobiographien – Die Lehre Nietzsches und die Politik des Eigennamens (S.7-63) / Friedrich Kittler (1980), Wie man abschafft, wovon man spricht (S.65-99))

1. Doppelgänger, Differänz und ewige Wiederkehr
2. Autoren und Menschen

Derridas Kritik am Strukturalismus trifft insbesondere Friedrich Kittler, der so gerne den Humanismus endgültig verabschieden möchte, aber diesbezüglich vor dem Hintergrund des Nationalsozialismus gerade als Deutscher dem Vorwurf der Menschenvernichtung ausgesetzt ist. Es ist also kein Wunder, daß er sich dagegen zur Wehr zu setzen versucht, in eine Reihe mit irgendeiner „Nazi-Politik“ (Derrida 2000, S.53) des Genozids gestellt zu werden.

Einerseits will Kittler also am Strukturalismus mit seinen „Stellenwert(en)“ festhalten, die den ‚Menschen‘ über seine Position in einem System definieren und wie bei einem Schachspiel mit „ausdrückliche(n) Einsetzungsregel(n)“ verbunden sind, wann wer jeweils was ist (vgl. Kittler 2000, S.85); andererseits aber versucht er, den Nationalsozialismus – den er in seinem Text mit keinem Wort erwähnt – aus diesem Verschiebegüterbahnhof, in dem jeder mit jedem austauschbar ist, grundsätzlich wegzudenken: Hitler – auch ihn erwähnt er mit keinem Wort – kann niemals Nietzsche sein! Letzteres begründet Kittler vor allem damit, daß Nietzsche ein System errichtet hat bzw. Texte geschrieben hat, in denen er selbst zwar alle möglichen anderen ist, aber niemand anderes er.

Zunächst einmal zeigt Kittler, wie der herkömmliche Literaturbetrieb auf Autorennamen nicht verzichten kann: „Die Diskursivität, deren Merkmal der obligate Autorname ist, heiß(t) Literatur.“ (Vgl. Kittler 2000, S.66f.) – „Deutungs- und Archivierungstechniken von Literatur, Literaturmagazine also“, so Kittler, „suchen die Wahrheit über Wörter seitdem beim Sprecher oder Schreiber. Was ein Witz ist.“ (Kittler 2000, S.67)

Mit anderen Worten: der Literaturbetrieb beruht auf einem Mißverständnis, und das ist witzig. Kittler findet es erheiternd, wie sich die ‚Leute‘ irren, wenn sie glauben ‚Menschen‘ zu sein. Denn Autoren wie Menschen tragen Namen, und Kittler weist deshalb nochmal ausdrücklich auf die Pointe des Witzes hin: „Als ob Eignnamen nicht Wörter wie alle anderen wären.“ (Kittler 2000, S.67) – Literatur besteht aus Wörtern, und Wörter bilden einen Text, eine Struktur. In diese Struktur geht der Name des Autors ein, wie wir ja schon bei Derrida gesehen haben: mit seiner Unterschrift.

Die Selbsttäuschung des Literaturbetriebs betrifft nun nicht nur die Fixierung auf den Autor, als ginge der Text aus ihm hervor bzw. von ihm aus und nicht umgekehrt, sondern auch den Leser. Die Leser, die einen spannenden Abenteuerroman lesen oder eine sentimentale Liebesgeschichte, versetzen sich in die Protagonisten, als wären sie mit ihnen identisch. Dazu verleitet der Text, weil alle seine Wörter, mit denen er die Personen ausstattet, so allgemein und abstrakt sind – oft reicht es schon, nur den Namen des Protagonisten zu nennen und eventuell noch sein Geschlecht –, daß man ihn in seiner Phantasie so aussehen lassen kann, wie man selbst aussieht. Das nennt sich dann das „individuelle() Allgemeine()“: „... jene() seltsame() Wesenheit, die Foucault als Den Menschen beschrieben und verspottet hat.“ (Vgl. Kittler 2000, S.85f.) – ‚Der‘ (großgeschrieben) Mensch ist also ein Produkt unserer Phantasie, das wir umso farbiger ausschmücken, je blasser und vager seine Definition ausfällt.

An dieser Stelle argumentiert Kittler wie ein Phänomenologe, und nicht wie ein Strukturalist. Denn er überrascht uns mit der Bemerkung: „Es gibt (in den Texten – DZ) keine Bilder, die alle und jeden, Den Menschen und jeden einzelnen porträtieren.“ (Kittler 2000, S.86) – Denn was Worte nicht leisten können, das können Bilder sehr wohl: einen Gegenstand oder eine Person so genau zur Darstellung bringen, daß wir sie nicht mit etwas oder jemand anderem verwechseln können! Aber diese Bilder gibt es in den Texten eben nicht, sondern nur Wörter.

Trotz dieses phänomenologischen Anflugs wird Kittler seinem Anliegen, den Strukturalismus zu retten, nicht untreu. Er hat zunächst einmal nichts anderes getan, als zu klären, wie der ganze Verschiebebahnhof des Literaturbetriebs funktioniert. Die Texte enthalten zwischen den Wörtern und zwischen den Zeilen keine Bilder, sondern Lücken, sozusagen die Maschen des Netzes, die der Leser mit seinem Sinn, mit sich selbst, füllen kann. Er tritt lesend in den Text ein und nimmt an seiner Bewegung teil. Das strukturelle Spiel kann also beginnen.

Nun aber kommt Nietzsche mit seinem „Ecce Homo“. Er macht den ganzen Literaturbetrieb kaputt, indem er die Lücken mit sich selbst füllt. Nirgendwo mehr Raum für ein individuelles Allgemeines! Dieser olle Narzißt, wie die Psychologen rufen: „Der psychiatrische Diskurs ist die tiefste Ironie des Nietzscheschen. Die Klassifikation Größenwahn schreibt einem Menschen als wahnsinniges Begehren zu, was nur ein Effekt der Funktion Autorschaft war.“ (Kittler 2000, S.95)

Eben drum!, entgegnet Kittler den Psychologen. Nietzsche spricht nur Klartext! Was der Literaturbetrieb sonst so gerne macht, Texte auf die Biographie eines Autoren zurückzuführen, zwischen den Zeilen zu lesen und Wörter zu deuten, macht der Autor Nietzsche einfach selbst, und gleichzeitig schafft er damit das, was man ‚Literatur‘ nennt, ab. (Vgl. Kittler 2000, S.68) Was z.B. ein gewisser Hippolyte Taine zu Lebzeiten Nietzsches getan hatte, als er die „Gewalttätigkeit und Melancholie der Germanen ... auf ihre rauhen feuchten Wälder, Trunksucht und grobe Ernährung“ und die „Lebenslust und Kulturerfindung der Romanen auf ihr lichtes Meer und trockenes Klima“ zurückführte (vgl. Kittler 2000, S.77), machte nun auch Nietzsche, wenn er „die deutsche Bildung als Alkoholismus“ beschrieb (vgl. ebenda) und die „materialistische Gleichung von ‚ist‘ und ‚ißt‘“ auf sein eigenes Leben anwandte (vgl. Kittler 2000, S.76): „Nur die ‚Ecce homo‘-Redaktion von Peter Gast hat verschleiert, daß der Autor Nietzsche seiner Rasse und seinen geschichtlichen Umständen in strenger Taine-Anwendung gleichen Rang wie dem Klima und der Ernährung gibt.“ (Kittler 2000, S.77)

Nietzsche ließ also seinen Interpreten (und Lesern) nicht mehr viel zu tun übrig, wenn er sich selbst so genau sezierte und katalogisierte. Noch weniger ließ er ihnen übrig, wenn er wiederum selbst die Einsetzungsregeln festlegte, nach denen in seinen Schriften immer nur von ihm selbst die Rede gewesen sein soll, statt von Schopenhauer, Wagner oder Zarathustra. Das weist auch den Leser in seine Grenzen. Nirgendwo ist von ihm die Rede, nirgends kann er sich identifizieren: „Sie können und sie dürfen sich mit Namen wie Zarathustra nicht identifizieren, denn ‚sechs Sätze daraus verstanden, das heißt: erlebt haben, hebt auf eine höhere Stufe der Sterblichen hinaus, als ‚moderne‘ Menschen erreichen könnten‘ ().“ (Kittler 2000, S.87)

Die Stellenwerte sind alle schon vergeben. Auch die Phänomenologie – das Erleben und das nachvollziehende Miterleben – wirkt sich nur auf einer Ebene aus, die dem Leser prinzipiell entzogen ist. Nietzsche ist sich selbst genug und braucht keine Leser, um ewig wiederzukehren. Er hat sich auf eine Weise in seine Schriften eingezeichnet, eingeschrieben, daß sich kein anderer Name mehr an seine Stelle setzen kann. Er unterbricht den Strukturalismus! Und damit wird auch der Nationalsozialismus, der sich an Nietzsches Stelle setzen wollte, enterbt bzw. seiner Legitimität beraubt. Es kommt zum „Kurzschluß zwischen Autor und Interpret“, was zu einer „sinnlosen und endlosen Wiederkehr“ führt. (Vgl. Kittler 2000, S.92) – Damit hat Kittler Derrida widerlegt.

Das denkt zumindestens Kittler.
Überall nur Nietzsche, kein Hitler.

Der Strukturalismus hat Grenzen, d.h. er grenzt die Menschen aus; sie bleiben außen vor, so wie auch der Hitler mit seiner Empirie. Kittler kann beruhigt und unbelästigt weiter Antihumanist bleiben. Nietzsche war halt der letzte Mensch. Was bleibt ist Highfidelity.

Download

Donnerstag, 10. Juli 2014

J. Derrida/F. Kittler, Nietzsche – Politik des Eigennamens: wie man abschafft, wovon man spricht, Berlin 2000

(Jacque Derrida (1982), Otobiographien – Die Lehre Nietzsches und die Politik des Eigennamens (S.7-63) / Friedrich Kittler (1980), Wie man abschafft, wovon man spricht (S.65-99)

1. Doppelgänger, Differänz und ewige Wiederkehr
2. Autoren und Menschen

Das kleine, 99 Seiten umfassende Bändchen „Nietzsche – Politik des Eigennamens: wie man abschafft, wovon man spricht“ (2000) beinhaltet zwei Texte: von Jacques Derrida, „Otobiographien“, der in einer Übersetzung von Friedrich Kittler 1980 und dann nochmal in einer erweiterten französischen Fassung 1982 erschienen ist, und von Friedrich Kittler, „Wie man abschafft, wovon man spricht“, der erstmals 1980 erschienen ist.

Den ersten Text von Jacques Derrida lese ich als eine wunderbar prägnante, kurzgefaßte Kritik des Strukturalismus, zu der Friedrich Kittler eine Gegenkritik schreibt, in der er Derridas Kritik zu entkräftigen versucht. Am Beispiel der amerikanischen Unabhängigkeitserklärung beschreibt Derrida, wie sich ein Staat und ein Volk gründen, indem dessen Vertreter eine Gründungsurkunde, eben die Unabhängigkeitserklärung, unterschreiben. Diese Vertreter bzw. Repräsentanten verteilen sich auf verschiedene Ebenen und ‚verschieben‘ dabei die letztgültige Berufungsinstanz bis hin zu den Naturrechten und zu Gott: „Unterzeichnend sagt das Volk – und tut, was es zu tun sagt, freilich nur verschoben, vermittels seiner Vertreter, deren Vertreterschaft voll und ganz nur durch die Unterschrift, also nachträglich, legitimiert wird ...“ (Derrida 2000, S.14)

Der Einstieg in dieses Spiel der Verschiebungen von Instanzen – von denen Derrida insgesamt etwa fünf aufzählt: Thomas Jefferson als den „‚Redakteur‘ des Entwurfs“, den Kongreß, die United States of America bzw. das us-amerikanische Volk, die „Naturgesetze“ und zuletzt den „Namen Gottes“ – geschieht durch die Unterschrift selbst, mit der die „Empirie“ der unterzeichnenden Individuen (vgl. Derrida 2000, S.11) gegenstandslos gemacht wird. Die Individuen treten nur als Stellvertreter – Kittler wird später von „Stellenwerten“ sprechen (vgl. Kittler 2000, S.85) – des Volkes auf, und sie treten so in den Text der Unabhängigkeitserklärung ein, der nun, via „Rückkopplung“, sein strukturelles Spiel mit ihnen treibt: „Die Unterschrift erfindet den Unterzeichner. Dieser kann sich erst dann zur Unterzeichnung ermächtigen, wenn er, wenn man so sagen kann, mit seiner Unterzeichnung mittels einer wundersamen Rückkopplung ans Ende gekommen ist.“ (Derrida 2000, S.14)

Man kennt das schon aus der Sprechakttheorie: es gibt Sprechakte, die ‚performativ‘ sind, insofern sie das, was sie behaupten, auch tun, etwa wenn Frau und Mann sich das Eheversprechen geben oder wenn der Rektor einer Universität das neue Semester eröffnet oder eben wenn sich ein Staat, den es vorher nicht gegeben hat, neu gründet. Das entspricht übrigens dem, was Gore beschreibt, wenn er auf die Geschichte von Körperschaften bzw. von juristischen Personen zu sprechen kommt. (Vgl. meinen Post vom 23.06.2014) Solche Körperschaften treten qua Unterschrift ans Licht der Welt. Derrida spricht diesbezüglich sogar von der „großen Aktiengesellschaft Nietzsche“. (Vgl. Derrida 2000, S.53)

Dabei hat die „Stiftungssprache“ eine eigene „Struktur“, und eben darin besteht der „Strukturalismus“. Diese Struktur besteht Derrida zufolge interessanter Weise in einem Zeitverhältnis, das er als „Futurum exactum“ bezeichnet: „Fortan habe ich das Recht“ – nämlich im Namen der neu gegründeten Institution – „zu unterzeichnen, mithin werde ich es schon gehabt haben, da ich es mir ja gegeben habe.“ (Derrida 2000, S.14) – Dieses „Futurum exactum“ entspricht dem deutschen Futurum II, das ja wiederum, folgt man der Argumentation von Frank Engster, der Funktionsweise des Geldes entspricht. (Vgl.u.a. meinem Post vom 23.03.2014) Das bestätigt meine Vermutung, daß es sich auch beim Geld – wie auch bei der Hegelschen Dialektik (vgl. meinen Post vom 15.02.2014) – um einen Strukturalismus handelt.

Das Futurum II verweist auf die entscheidende Differenz, die das strukturalistische Spiel der diversen Verschiebungen, in denen etwas nie das ist, was es ist, sondern immer etwas anderes, eröffnet wird. Es handelt sich nämlich um eine temporale Differenz, die von Derrida als différance bzw. in der deutschen Übersetzung als „Differänz“ bezeichnet wird. Die Differenz des ‚a‘ bzw. des ‚ä‘ erschließt sich nur dem Leser, also demjenigen, der in das strukturelle Spiel des Textes eingestiegen ist. Dem Hörer des gesprochenen Wortes entgeht diese Differänz. Dabei fungiert das ‚a‘ bzw. das ‚ä‘ als ein Doppelgänger des ortographisch korrekten ‚e‘, so wie ja auch die Unterschrift als Stellvertreterin der unterzeichnenden Person fungiert.

Die spezifische temporale Differenz besteht darin, daß sich die unterzeichnende Person verpflichtet, das Versprechen der Unterschrift zu erfüllen. Was immer die Unterschrift behauptet, wird von dem Unterzeichnenden erfüllt werden. Und was Stiftungsakte betrifft, ist es im Grunde schon erfüllt worden! „Feststellung und Vollzug“ sind „untrennbar vermischt“ (vgl. Derrida 2000, S.15): Futurum II.

Mit dieser Gleichzeitigkeit bzw. Performativität von Stiftungsakten spielt der Text, in den wir durch Unterzeichnung eintreten, und die Differänz des Verschiebens wird zur „ewigen Wiederkehr“ unserer selbst als Doppelgänger. Damit sind wir bei Nietzsche angelangt: „Die frohe Botschaft der ewigen Wiederkehr ... ist unzeitgemäß, differänt und achronisch. Aber weil diese Botschaft eine Bejahung (ja ja) wiederholt, weil sie die Wiederkehr, den Wiederbeginn und eine bestimmte, das Wiederkehrende bewahrende Reproduktion bejaht, muß ihre Logik selber einer bestimmten Lehrinstitution Raum geben.“ (Derrida 2000, S.40)

Wer etwas unterschreibt, stiftet nicht nur einen Text, und er stiftet nicht nur eine Institution, sondern er stiftet auch eine „Botschaft“. Und diese Botschaft will verkündet werden. Sie wird zur „Lehrinstitution“. Ihre Lehre besteht in der Wiederholung bzw. der ewigen Wiederkehr der Struktur des Textes, in den der Unterzeichner eingetreten ist. In Nietzsches „Ecce Homo“ kommt das ganz explizit zum Ausdruck. In seinem letzten Buch erklärt Nietzsche alle seine bisherigen Bücher zu Autobiographien. Er hat niemals über Schopenhauer, Zarathustra oder Wagner geschrieben, sondern immer nur über sich selbst. Alle seine Texte sind nur Wiederholungen seiner selbst. (Vgl. Derrida 2000, S.29) Alle diese Namen, denen er sich in seinen Büchern widmet, sind nur „Gegenzeichnungen“ (Derrida 2000, S.15) bzw. „Gegenname(n)“ (Derrida 2000, S.29) des eigentlichen Unterzeichners, Nietzsches, der selbst aber auch nur einen Namen trägt, nämlich den seines Vaters. Er selbst ist also nicht er selbst, sondern nur eine Verschiebung seines Vaters.

So viel zum strukturalistischen Prinzip der Differänz. Kommen wir nun zur Kritik. Derrida fragt sich, wie es kommt, daß die einzige Politik, die sich jemals auf Nietzsche berufen hat, die nationalsozialistische gewesen ist: „Aber wenn in den noch offenen Umrissen einer Epoche die einzige nietzscheanisch genannte (sogenannte) Politik eine Nazi-Politik gewesen ist, ist das notwendig signifikant und muß in seiner ganzen Tragweite befragt werden.“ (Derrida 2000, S.54)

Den Grund für diese Mißbrauchbarkeit Nietzsches sieht Derrida im strukturalistischen Prinzip der Doppelgängerschaft, der Stellvertretung, des ‚etwas für etwas anderes‘. Nehmen wir als Beispiel den Begriff der „Art“, der ja gerade bei Claude Lévi-Strauss zentral ist. (Vgl. meinen Post vom 19.05.2013) Auch hier haben wir das Spiel der Differänz, der Gegenzeichnungen, die sich letztlich auf einen binären Code reduzieren lassen: auf 0 und 1, auf ‚Nein‘ und ‚Ja‘. Entweder ein Individuum gehört zu einer Art oder ein Individuum gehört nicht zu einer Art. Gehört es nicht zu einer bestimmten Art, gehört es wahrscheinlich zu einer anderen Art oder – und hier beginnt der Nationalsozialismus – es ist ‚entartet‘ und deshalb der Vernichtung preisgegeben.

In solchen Untergangsphantasien schwelgt ja auch Nietzsche. Derrida bringt es auf den Punkt: „Die Vernichtung vernichtet nur, was schon entartet ist und sich der Vernichtung vorzugsweise anbietet. Der Ausdruck ‚Entartung‘ bezeichnet zugleich den Verlust der genetischen oder generösen Lebenskraft und den des Typs, den der Art oder Gattung, die Ent-artung. ... Die Entartung führt nicht zum Lebensverlust durch regelmäßigen und kontinuierlichen Verfall, nach einem homogenen Prozeß. Sie beginnt mit einer Wertumwertung, wenn ein feindliches und reaktives Prinzip eigens zum aktiven Feind des Lebens wird. Das Entartete ist keine mindere Vitalität, sondern dem Leben feindlich, ein dem Leben feindliches Lebensprinzip.“ (Derrida 2000, S.49)

Verbunden mit der ewig wiederkehrenden Botschaft des Textes als Struktur, die ja die Funktion einer „Lehrinstitution“ einnimmt, etwa in der Verkündigung Zarathustras, wird diese Botschaft der Entartung Teil der Vernichtungsbotschaft des Führers, d.h. jener empirischen Person, die wir als Hitler kennen. Hier mündet der Name Nietzsches doch noch in einem anderen Namen. Und das innerste Geheimnis des Strukturalismus enthüllt sich: nicht die Schrift ist es, die gelesen sein will, sondern es ist die Botschaft, die gehört werden will. Die Botschaft ist an ein Ohr gerichtet, das gehorchen soll. Der Text wird zur „Programmiermaschine“ (Derrida 2000, S.52), und die ‚Autobiographie‘ wird zur ‚Otobiographie‘, ein phonetischer Gleichklang in der französischen Sprache.

Das ist Derridas gnadenlose Kritik am Strukturalismus. Es geht im Strukturalismus nicht um Individuen, sondern um Arten. Es geht ihm um die Vernichtung der Individuen. Und wer Friedrich Kittler gelesen hat und sein Gerede über Doppelgänger und Phantome kennt, sein systematisches Ersetzen von ‚Menschen‘ durch ‚Leute‘, liest auch aus folgendem Zitat, das ich hier an den Schluß dieses Posts setzen will, eine Kritik an dessen glühendem Fanatismus für technische Medien wie Radio und Grammophon heraus:
„Der Heuchelhund spricht Ihnen ins Ohr durch seine Schulapparate, die akustische oder akroamatische Maschinen sind. Ihre Ohren wachsen, Sie werden Langohren, wenn Sie, statt mit kleinem Ohr dem besten Lehrer und besten Führer zuzuhören und zu gehorchen, sich frei und autonom dem Staat gemäß glauben, wenn Sie ihm die Ohrmuscheln auftun, ohne zu wissen, daß er schon von den reaktiven und entarteten Kräften kontrolliert und zur Vernunft gebracht wird (arraisonné). Sie werden ganz Ohr für diesen Hund von Phonographen und verwandeln sich in einen Highfidelity-Empfänger; Ihr Ohr, das das des anderen ist, nimmt an Ihrem Körper den unverhältnismäßigen Platz eines ‚umgekehrten Krüppels‘ ein.“ (Derrida 2000, S.58)
Der „Heuchelhund“, von dem hier die Rede ist, war früher auf vielen Schallplatten abgebildet, wie er vor einem Schalltrichter sitzt und der auf der Schallplatte verewigten Stimme seines Herrn lauscht, der längst gestorben ist. Und das Ohr als „umgekehrte(r) Krüppel()“ erinnert wohl nicht von ungefähr an die Kinoleinwand, die Edgar Morin zufolge als nach außen gestülpte Netzhaut fungiert. (Vgl. meinen Post vom 29.04.2012)

Download

Dienstag, 8. Juli 2014

Al Gore, Die Zukunft. Sechs Kräfte, die unsere Welt verändern, München 2014

(Siedler Verlag, 624 S., 26.99 €)

(Einleitung, S.11-31; Die Welt AG, S.35-76; Das Weltgehirn, S.81-131; Machtfragen, S.135-193; Auswüchse, S.197-272; Die Neuerfindung von Leben und Tod, 277-370; Am Abgrund, S.375-476; Schluss, S.479-496)

1. Variationen zur Lebenswelt
2. Die ‚Guten‘ und die ‚Bösen‘

Al Gore nennt drei grundlegende Faktoren, deren Zusammentreffen dafür verantwortlich ist, daß die Menschheit am Abgrund steht: die Überbevölkerung, unser in „kurzfristigen Zeithorizonten“ befangenes Denken, das Gore zufolge wiederum in „von unseren prähistorischen Vorfahren ererbten Denkgewohnheiten“ begründet ist, und die „Technologien“, die „um ein Vielfaches mächtiger“ sind als alles, was den Menschen bisher zur Verfügung gestanden hatte. (Vgl. Gore 2014, S.375) Damit positioniert sich Al Gore erfreulicherweise auch kritisch zur naiven Technikgläubigkeit, mit der viele angesichts der klimatischen Umbrüche immer noch davon ausgehen, der menschliche Erfindergeist würde schon wieder alles richten. Das betrifft auch das allgemeine Gerede um das Geoengineering: „Es bedeutet, sich von der Illusion zu verabschieden, es könnte irgendein cleveres technologisches Allheilmittel für einen planetaren Notfall geben, der eine mehrgleisige globale Strategie zur Umstellung nicht nur unserer Energiesysteme – insbesondere der Stromerzeugung – auf kohlenstoffarme, hocheffiziente Muster verlangt, sondern auch eine Umstellung der Industrie, der Landwirtschaft, der Forstwirtschaft, der Bautechnik, des Verkehrswesens, des Bergbaus und anderer Sektoren der globalen Ökonomie.“ (Gore 2014, S.377)

Wenn Gore die weltpolitische Situation und die spezielle politische Situation in den USA beschreibt, muß man sich immer wieder in Erinnerung rufen, daß Gore sich selbst als einen überzeugten Optimisten bezeichnet. Tatsächlich beschreibt er die Politik in den düstersten Farben. Die im folgenden Zitat genannten „Musketiere“ sind die Waffenlobby, die Öl- und Kohlelobby und die Abtreibungsgegner, die sich gegenseitig nach dem „Drei-Musketiere-Prinzip“ in ihren politischen Projekten unterstützen:
„Im Laufe der letzten vier Jahrhunderte haben sich die größten CO2-Verursacher als eingetragene Mitglieder der in Kapitel 3 beschriebenen antireformistischen konterrevolutionären Allianz angeschlossen, die in den 1970er-Jahren unter Schirmherrschaft der amerikanischen Handelskammer, der U.S.Chamber of Commerce, ins Leben gerufen wurde. ... Eine der fortdauernden Konsequenzen dieses antireformistischen Bündnisses war der Aufbau eines großen Netzwerkes aus Denkfabriken, Stiftungen, Instituten, juristischen Fakultäten und Aktivistenverbänden, die einen endlosen Strom an zumeist verzerrten ‚Berichten‘ und ‚Studien‘ ausstoßen, Gerichtsverfahren anstrengen, parteiische Gutachter zu Anhörungen vor Kongress- und Behördenausschüssen entsenden und Meinungsbeiträge in Medien lancieren sowie Bücher veröffentlichen, die vor allem einem Zweck dienen – die Philosophie und die Agenda der neuen Konzern-Musketiere zu fördern ...“ (Gore 2014, S.423)
Die Politik ist Gore zufolge zur bloßen Demagogie verkümmert. Die Daten und Zahlen, mit denen die Umweltverschmutzer in der Öffentlichkeit ‚argumentieren‘, sind bewußt verzerrt und gefälscht: „Es genügt völlig, ausreichend Zweifel daran (am vom Menschen verursachten Klimawandel – DZ) zu schüren, damit in der Öffentlichkeit der Eindruck entsteht, dass ‚der Richterspruch noch aussteht‘ – ein strategisches Ziel, das in einem vertraulichen Dokument eines von großen CO2-Emittenten dominierten Unternehmensverbandes explizit formuliert wurde.“ (Gore 2014, S.425) – Die vor der Kopenhagener Klimakonferenz (2009) gestohlenen e-mails von führenden Klimaforschern waren genutzt worden, um mit aus dem Zusammenhang gerissenen Zitaten den Eindruck zu erzeugen, daß die Klimaforscher die Öffentlichkeit täuschen und belügen, also genau das, was die Gegner der Klimakonferenzen selbst tun. (Vgl. Gore 2014, S.432) Dieses rhetorische Instrument, dem Gegner das zum Vorwurf zu machen, was man selbst tut, kennen wir ja inzwischen sehr gut aus der Ukraine-Krise. Putin hat es darin zu großer Meisterschaft gebracht. Aber das Vorbild stammt aus der us-amerikanischen Politik.

Es ist also kein Wunder, wenn Al Gore in der Politik analog zum Freund-Feind-Schema zwischen den ‚Guten‘ und den ‚Bösen‘ sortiert und damit selbst unreflektiert das politische Schema der Klimagegner übernimmt: „Der Kampf ist längst noch nicht entschieden. Die Vereinigten Staaten sind sein Epizentrum, einfach deshalb, weil die USA als einzige Nation noch in der Lage sind, die Weltgemeinschaft zur Rettung unserer Zukunft zusammenzurufen. Wie Edmund Burke sagte: ‚Das Böse triumphiert allein dadurch, dass gute Menschen nichts unternehmen.‘() Genau darum geht es jetzt: Werden die Guten nichts unternehmen? Oder werden sie auf die tödliche Gefahr reagieren, der die Menschheit heute ins Auge blickt?“ (Gore 2014, S.434)

Plötzlich werden die USA zum ‚Guten‘ schlechthin stilisiert, trotz der derzeitigen moralischen Verderbtheit ihrer Politik. Und innerhalb der USA sind wiederum diejenigen, die „die Lösung der Klimakrise zum zentralen Organisationsprinzip der globalen Zivilisation machen“ (vgl. Gore 2014, S.379), die ‚Guten‘, während diejenigen, die dafür sorgen, daß „die feindseligen Bedingungen, die wir schaffen, sich weiter rapide verschlechtern und die unseren Planeten erstickende Hülle aus Treibhausgasen immer dichter werden lassen und die Zivilisation, wie wir sie kennen, zerstören“, die ‚Bösen‘ sind (vgl. ebenda).

Al Gore verwechselt hier etwas. Und das hat wiederum etwas mit seiner naiven Anthropologie zur Natur des Menschen zu tun. Was er verwechselt ist die Differenz zwischen ‚gut‘ und ‚böse‘ und zwischen ‚richtig‘ und ‚falsch‘. Wir müssen uns vor allem in der Politik von der naiven Vorstellung verabschieden, daß die ‚Guten‘ immer das Richtige tun. Möglicherweise tun die ‚Bösen‘ ja tatsächlich immer das Falsche. Aber es gibt keine von den ‚Bösen‘ zu unterscheidenden ‚Guten‘. Beide Parteiungen durchzieht dasselbe ‚Böse‘, nämlich unser aller Teilhabe an einem Wirtschaftssystem, das der Zukunft des Menschen keine Chance gibt. Das Richtige hat mit der Parteiung zwischen ‚gut‘ und ‚böse‘ nichts zu tun. Während die Frage nach dem Richtigen zur Kooperation einlädt, mündet die Frage nach den ‚Guten‘ irgendwann im Bürgerkrieg. Wir müssen uns klarmachen, daß jeder einzelne Mensch einen Anachronismus in sich austrägt, der aus dem Widerstreit der biologischen und der kulturellen Entwicklungslinie herrührt.

Das Richtige ist nicht im engeren Sinne moralisch. Um es mit einem Wort von Dietrich Bonhoeffer zu sagen: es ist „transmoralisch“. Das Richtige ist an den Moment einer Entscheidung gebunden; es ist keine Eigenschaft der individuellen Natur eines Menschen. Erich Kästner hat das in eine geniale Formel gebracht: Es gibt nichts Gutes, außer man tut es!

Es ist in diesem Zusammenhang wirklich nicht nebensächlich, wenn ich immer wieder auf die Natur des Menschen zurückkomme. In seinem Schlußkapitel nimmt Gore noch einmal dazu Stellung. Er versucht, zwischen einer „inneren Natur des Menschen“ und einer äußeren Natur zu differenzieren. (Vgl. Gore 2014, S.480) Die innere Natur des Menschen soll Gore zufolge unveränderlich sein, während die äußere Natur lediglich aus den „Aspekten“ besteht, mit denen wir unserer inneren Natur „gewohnheitsmäßig Ausdruck verleihen“. (Vgl. ebenda) Nur diese äußeren Aspekte sind veränderlich.

Damit verleiht Gore der menschlichen Natur etwas wesentlich Expressives. Aber er verfehlt damit das Prinzip der Expressivität, wie sie der Plessnerschen Exzentrizität entspricht. Bei Plessner ist die Expressivität so eng mit der ‚Natur‘ des Menschen verknüpft, daß sich diese allererst über ihre Expressivität verwirklicht. Nur indem wir etwas sagen bzw. etwas tun, erweisen wir uns als die Menschen, die wir jeweils sind. Dabei ist all unser Sprechen und Handeln von einer Doppelaspektivität gekennzeichnet, denn unsere ‚Natur‘, die Plessnersche ‚Seele‘, geht in dem, was wir sagen und tun, nicht auf. Veränderlichkeit und Unveränderlichkeit sind beides gleichursprüngliche Momente unserer menschlichen Natur.

Indem Gore im Unterschied zu Plessner aber dem Ausdruck der menschlichen Natur eine prinzipielle Veränderlichkeit attestiert, der er die prinzipielle Unveränderlichkeit der inneren Natur gegenüberstellt, entkoppelt er beides voneinander. Beides hat im Grunde nichts mehr miteinander zu tun. Dennoch unterscheidet er auch zwischen ‚Guten‘ und ‚Bösen‘ und führt damit deren ‚Äußerungen‘ bzw. ‚Taten‘ auf eine innere Natur zurück, die ja seinen eigenen Worten zufolge unveränderlich ist. Die ‚Guten‘ sind also substantiell ‚gut‘, und die ‚Bösen‘ sind substantiell ‚böse‘. Damit widerspricht er sich selbst. Mal ist das, was wir sagen und tun, beliebig, mal entspringt es einer inneren Natur. Aber das, was wir tun, ist nicht gut oder böse, sondern richtig oder falsch; mehr nicht.

Ein erster Schritt auf dem Weg zu einer Politik, die nicht zwischen Freund und Feind unterscheidet, besteht darin, die individuelle Urteilskraft, den individuellen Verstand zu stärken. Und die einzige Basis dieses individuellen Verstandes ist der Körperleib. Al Gore hat das tatsächlich verstanden, wenn er von der „Weisheit der Menge“ spricht. (Vgl. Gore 2014, S.143; vgl. auch meinen Post vom 25.06.2014) In dem Kapitel zum „Abgrund“ kommt Gore in einem Nebensatz auf die „eigenen Sinne“ derjenigen zu sprechen, die für die Folgen der „Klimaerwärmung“ nicht blind sind. (Vgl. Gore 2014, S.424) Es gibt tatsächlich eine Rangfolge hinsichtlich dessen, was wir glauben dürfen und was wir bezweifeln müssen. Die von der Politik, den Medien und der Wissenschaft gelieferten Daten und Zahlen dürfen und müssen wir immer bezweifeln. Niemals aber dürfen wir bezweifeln, was wir mit unseren eigenen Augen sehen. Buddhisten bezeichnen diese spezifische Sensibilität des individuellen Verstandes als Achtsamkeit.

Mit den je „eigenen Sinnen“ wird der individuelle Verstand und das individuelle Gewissen zur unverzichtbaren Grundlage einer kollektiven Meinungsbildung und kollektiver Entscheidungsprozesse, also zur Grundlage dessen, was Gore die „Weisheit der Menge“ nennt. Hier setzt Al Gore auf das Internet, weil er die anderen Medien, insbesondere eben in den USA und da wiederum insbesondere das Fernsehen als vom Geld mißbrauchte Instrumente der Demagogie erlebt. (Vgl. Gore 2014, S.490) Das Internet aber soll, trotz aller seiner potentiellen Gefahren, einer weltweiten, ethisch definierten „Mittelschicht“ (Gore 2014, S.486) als „allgemein zugängliches Forum“ dienen (vgl. Gore 2014, S.489), vergleichbar der Agora im antiken Griechenland oder dem Forum in Rom:
„Die Vernetzung aller Menschen rund um den Erdball durch das Internet hat zum ersten Mal in der Geschichte überhaupt die Voraussetzungen dafür geschaffen, dass wir uns unter- und miteinander offen und klar über die Herausforderungen austauschen können, denen wir gegenüberstehen – und über die Lösungen, die heute schon verfügbar sind. ... Zum Glück findet sich im Internet eine große Fülle an Beispielen für ein sich herausbildendes globales Gewissen – ein Gewissen, das schon in vielen Fällen mit großem Druck auf die Behebung von Ungerechtigkeiten und moralischen Missständen gedrängt hat, angefangen von Kinderarbeit und ausbeuterischen Arbeitsbedingungen über willkürliche Verhaftungen und Sexsklaverei bis hin zur Verfolgung wehrloser Minderheiten und der Zerstörung der Umwelt.“ (Gore 2014, S.475f.)
Das „globale Gewissen“, von dem Gore hier spricht, entspricht der „Weisheit der Menge“ (Gore 2014, S.143) bzw. dem „Weltgehirn()“ (Gore 2014, S.489). Eine ähnliche Argumentation, bezogen auf ein historisch situiertes, global orientiertes ‚Gewissen‘, kennen wir im Rahmen dieses Blogs schon von Hans Joas (2011). (Vgl. meine Posts vom 12.05. bis 16.05.2012) Aber ein solches kollektives Bewußtsein, als Summe eines versammelten, gemeinsamen Denkens, ist nur dann mehr als das individuelle Denken, wenn die Integrität der individuellen Urteilskraft nicht angetastet wird.

Download

Montag, 7. Juli 2014

Al Gore, Die Zukunft. Sechs Kräfte, die unsere Welt verändern, München 2014

(Siedler Verlag, 624 S., 26.99 €)

(Einleitung, S.11-31; Die Welt AG, S.35-76; Das Weltgehirn, S.81-131; Machtfragen, S.135-193; Auswüchse, S.197-272; Die Neuerfindung von Leben und Tod, 277-370; Am Abgrund, S.375-476; Schluss, S.479-496)

1. Variationen zur Lebenswelt
2. Die ‚Guten‘ und die ‚Bösen‘

An dieser Stelle geht es ein weiteres Mal um die Natur des Menschen, wie schon in einigen vorangegangenen Posts im Rahmen dieser Besprechung. (Vgl. meine Posts vom 21.06., 24.06. und vom 30.06.2014) Al Gore neigt dazu, mit der menschlichen ‚Natur‘ die verschiedenen Entwicklungslogiken, Biologie, Kultur und Individualität, miteinander zu vermengen. Eine solche Vermischung der Ebenen geht immer auf Kosten des individuellen Verstandes, was dann natürlich wiederum die Frage nach dem politischen Subjekt belastet.

Am individuellen Verstand hebt Gore immer wieder den Makel des kurzfristigen Denkens hervor, worin dann wiederum die, gewissermaßen in seiner ‚Natur‘ liegende, Unfähigkeit zu rationalem Denken begründet sein soll: „Wir haben im letzten Jahrhundert viel über die menschliche Natur herausgefunden. Wir wissen zum Beispiel, dass der ‚rationale Mensch‘, den die Denker der Aufklärung postulierten – und die Vorstellung menschlichen Verhaltens, das aus den Arbeiten Adam Smiths und anderer klassischen Ökonomen hervorgegangen ist und heutzutage im Begriff des Homo oeconomicus mitschwingt –, keineswegs dem entspricht, was beziehungsweise wie wir wirklich sind. Ganz im Gegenteil, wir sind die Erben von Verhaltensmustern, die sich über einen langen Zeitraum der Entwicklung unserer Spezies hinweg herausgebildet haben. Neben unserer Fähigkeit zur Vernunft sind wir auch fest darauf programmiert, unmittelbare und instinktive Faktoren stärker zu beachten und heftiger darauf zu reagieren als auf langfristige Bedrohungen, die von uns verlangen, unsere Fähigkeit zu rationalem Denken zu nutzen.“ (Gore 2014, S.419f.)

Diese Irrationalität eines kurzfristigen Denkens verknüpft Gore dann noch mit einer angeblich genetisch begründeten Neigung des Menschen zu Fraktionsbildungen, die wie „Stammesidentität(en)“ fungieren. (Vgl. Gore 2014, S.422f.) Dabei hat Gore das ausgeprägte Freund-Feind-Denken zwischen Republikanern und Demokraten vor Augen, das sich in den letzten Jahren in den USA, vor allem auf Seiten der Republikaner, herausgebildet hat.

Aber der Hinweis auf den homo oeconomicus im letzten Zitat zeigt, daß es hier eigentlich um etwas anderes geht als um biologische Zwangsläufigkeiten. Die angebliche ‚Rationalität‘ des ökonomischen Menschen, von der Adam Smith spricht, besteht ja nicht in irgendeinem individuell zurechenbaren Verstand, sondern in der Vorstellung von einer hinter dem individuellen Handeln wirksamen, dieses Handeln steuernden „unsichtbaren Hand“. Wenn man irgendeiner Instanz im Gefüge gesellschaftlicher Praktiken kurzfristiges Denken vorwerfen kann, dann ist es diese unsichtbare Hand, die nichts anderes berücksichtigt als den jeweils aktualisierten Durchschnittspreis von Kauf- und Tauschaktionen. Die diesem Durchschnittspreis wie ein Schatten folgenden sozialen und ökologischen Folgekosten – Habermasens Kolonialisierung der Lebenswelt – gehen in diesen Durchschnittspreis prinzipiell nicht ein. Sie liegen auf anderen Ebenen, die wiederum anderen Rationalitätskriterien unterliegen.

Mit der ‚Lebenswelt‘ hat die ‚unsichtbare Hand‘ gemeinsam, daß sie im Verborgenen, hinter unserem ‚Rücken‘, also unbemerkt vom individuellen Verstand, fungiert. Von der ‚Lebenswelt‘ unterscheidet sich die ‚unsichtbare Hand‘ darin, daß sie in einer ökonomischen Abstraktion des gesellschaftlichen Handelns besteht. Die Lebenswelt ist in erster Linie eine Bewußtseinsfunktion, gerade auch des individuellen Bewußtseins, also auch des individuellen Verstandes. Als gesellschaftliches bzw. kulturelles Unterbewußtsein bildet sie ein wichtiges Moment des individuellen Denkens. Sie liefert uns die Motive unseres Denkens. Ohne lebensweltliche Intuitionen, ohne ihre körperleibliche Einbettung, gäbe es auch kein rationales Denken. Das rationale, individuelle Denken hebt sich immer vor dem Hintergrund lebensweltlicher Intuitionen ab. Deshalb haben Vorurteile und ‚Praktiken‘ so eine Macht über unser Denken. Aber wir sind fähig, uns im Denken über diese Lebenswelt zu erheben. Beides, Naivität und Kritik, gehören zusammen.

Die ‚unsichtbare Hand‘ hingegen besteht in einer Form des abstrakten Rechnens, wie es Frank Engster beschrieben hat. (Vgl. meine Posts vom 15.02. bis 25.03.2014) Das abstrakte Rechnen, das hier an die Stelle des individuellen Verstandes tritt, wird vom Geld übernommen, das wie ein Supercomputer funktioniert. Zu diesem Rechnen bedarf es keines Bewußtseins mehr. Das können tatsächliche Computer übernehmen, was ja an den Börsen auch geschieht.

Andere Formen einer unterbewußt bzw. unbewußt fungierenden ‚Lebenswelt‘ bilden die Gruppenintelligenz bzw. die soziale Intelligenz, die Al Gore als „Weisheit der Menge“ bezeichnet. (Vgl. meinen Post vom 25.06.2014) Diese Weisheit entfaltet ihre Wirkung nur auf der Grundlage eines intakten individuellen Verstandes und Gewissens. Wieder andere Formen kollektiver ‚Intelligenz‘ wie die Schwarmintelligenz oder – beim Menschen – die ‚Masse‘ haben ähnlich wie die unsichtbare Hand überhaupt nichts mit dem individuellen Bewußtsein zu tun. Sie lösen dieses Bewußtsein vollständig auf. Im Unterschied zur ökonomischen ‚Intelligenz‘ des Geldes haben wir es hier mit einer biologischen ‚Intelligenz‘ zu tun, die ausschließlich auf Affekten basiert.

Ein weiterer ‚Feind‘ des menschlichen Bewußtseins ist das Heideggerische „Gestell“. Hier haben wir es mit einer technischen Lebenswelt zu tun, mit einer Exteriorisierung des menschlichen Unterbewußtseins in die Maschinenwelt. (Vgl. meinen Post vom 22.06.2014)

Ich bin tatsächlich der Meinung, das der Mensch nicht mehrere hunderttausend Jahre auf diesem Planeten überlebt hätte, hätte er nicht von Anfang an ein nachhaltiges Denken an den Tag gelegt, also ein Denken, das das Wohl mehrerer Generationen berücksichtigt und nicht nur das aktuelle Wohl egoistischer Bedürfnisse. (Vgl. hierzu auch: Ulrich Grober, Die Entdeckung der Nachhaltigkeit. Kulturgeschichte eines Begriffs, München 2010) Jedenfalls ist eine Analyse, die das derzeitige Verhalten der globalen Menschheit auf deren ‚Natur‘ bzw. auf ihre ‚Gene‘ zurückführt, freundlich gesagt, unterkomplex und wenig zielführend.

Download

Freitag, 4. Juli 2014

Al Gore, Die Zukunft. Sechs Kräfte, die unsere Welt verändern, München 2014

(Siedler Verlag, 624 S., 26.99 €)

(Einleitung, S.11-31; Die Welt AG, S.35-76; Das Weltgehirn, S.81-131; Machtfragen, S.135-193; Auswüchse, S.197-272; Die Neuerfindung von Leben und Tod, 277-370; Am Abgrund, S.375-476; Schluss, S.479-496)

1. Noch einmal: Die Natur des Menschen
2. Transhumanismus und Singularität
3. Ansätze zu einer Wissenschaftskritik
4. Fragen nach dem politischen Subjekt
5. Das Mikrobiom

Bei meinen Kommentaren zu Al Gores Buch beschränke ich mich größtenteils auf seine Hypothesen und Analysen, und ich verzichte weitgehend darauf, auch auf die beeindruckende Masse von Daten und Zahlen einzugehen, die er in seinem Buch versammelt. Letztlich ist die schiere Präsenz dieses Datenmaterials für Gore schon ein Argument für sich, insofern er damit die „zynische(n) Leugner des Klimawandels“ (Gore 2014, S.379) mit ihren „verzerrten ‚Berichten‘ und ‚Studien‘“ (Gore 2014, S.423), die genau diese Daten bezweifeln, attackiert. Wir haben es mit einer Art ‚Klimadatenkrieg‘ zu tun, in dem sich die Gegner mit Daten bombardieren. Das empfinde ich als ermüdend und wenig weiterführend, aber wahrscheinlich ist es unvermeidlich, wenn es darum geht, einen Bewußtseinswandel herbeizuführen.

An dieser Stelle möchte ich aber trotzdem nochmal kurz auf die neueren wissenschaftlichen Erkenntnisse zum Mikrobiom eingehen, weil sie zeigen, wie wenig es bringt, wissenschaftlich erhobene Daten anhand monokausaler Erklärungsmodelle wie etwa den ‚egoistischen‘ Genen oder den neuronalen Netzwerken als Korrelaten des Bewußtseins zu interpretieren.

Solche monokausalen Erklärungsmodelle sollten sich eigentlich seit dem erfolgreich abgeschlossenen Human Genome Project erledigt haben. Denn das wirklich bemerkenswerte Ergebnis dieses Projekts ist doch, wie komplex der menschliche Organismus mit seiner individuellen Entwicklung in biologische und kulturelle Entwicklungslinien eingebettet ist. Das ist der Grund, warum es im Anschluß an das Human Genome Project ein Human Epigenome Project gegeben hat und noch gibt. Weitere Projekte, die folgten, sind das Human Proteome Project, das Human Connectome Project und eben mittlerweile auch das Microbiome Project. Alle diese Projekte zeigen – unabhängig davon, wie sinnvoll sie im einzelnen auch immer sein mögen –, wie falsch es ist, die Biologie auf Gene und Neuronen zu reduzieren.

Al Gore zufolge besteht das Mikrobiom aus mikrobiellen Gemeinschaften, die in und auf dem Körper jedes Menschen siedeln: „Jeder von uns besitzt ein Mikrobiom, das hauptsächlich aus Bakterien (sowie einem deutlich geringeren Anteil aus Viren, Hefen und Amöben) besteht, deren Gesamtzahl die der Zellen in unserem Körper im Verhältnis von zehn zu eins übersteigt.()“ (Gore 2014, S.368)

Hier unterläuft Gore – oder der deutschen Übersetzung? – allerdings ein Fehler, der recht typisch ist bei solchen aus den verschiedensten Wissensgebieten zusammengestellten Daten und Zahlen. Gore verweist auf eine Mikrobe, die dem menschlichen Organismus ganz und gar nicht gut tut: auf den „Helicobacter pylori“. (Vgl. Gore 2014, S.368) Welche Mikrobe er eigentlich meint, kann ich jetzt nicht einmal vermuten. Der Fehler beruht vermutlich darauf, daß der pars pylori einen Abschnitt des Magens bildet, von dem der Helicobacter pylori seinen Namen hat, weil er dort entdeckt wurde und damit erstmals den Nachweis lieferte, daß es im sauren Milieu des Magens überhaupt Bakterien geben kann. Ansonsten ist er aber vor allem als Krankheitserreger bekannt.

Wenn ich mir vergleichbare Artikel zum Mikrobiom anschaue, so sind Gores diesbezügliche Darstellungen, abgesehen von dieser Mikrobenart, im Großen und Ganzen aber zutreffend. Die fragliche Mikrobenart spielt Gore zufolge eine „zentrale Rolle bei der Regulierung von zwei Schlüsselhormonen im Magen, die für den Energiehaushalt und das Appetitempfinden mitverantwortlich sind.() Genetischen Untersuchungen zufolge wird der menschliche Körper seit 58.000 Jahren in großer Zahl von ‚H. pylori‘ besiedelt() und war das Bakterium bis vor rund einem Jahrhundert der am häufigsten im Magen der allermeisten Menschen vorkommende Mikroorganismen.()“ (Gore 2014, S.368)

Inzwischen, so Gore, tragen „weniger als 6 Prozent aller Kinder in den Vereinigten Staaten, Schweden und Deutschland den Organismus in sich“. (Vgl. Gore 2014, S.368) – Warum? Weil die Mikroben bei der Bekämpfung von Infektionskrankheiten mit Antibiotika mitbekämpft werden. Wahrscheinliche Folge: Zunahme von Fettleibigkeit und diversen Allergien.

Gores Darstellungen sind insoweit korrekt, als das individuelle Mikrobiom mit seinen etwa 160 Bakterienarten tatsächlich eine erhebliche Bedeutung für ein funktionstüchtiges Immunsystem hat und je nach Zusammensetzung auch mitverantwortlich ist für Fettleibigkeit. Das menschliche Mikrobiom besteht aus über tausend verschiedenen Bakterienarten, wobei die genetische Vielfalt innerhalb einer solchen Art enorm groß ist und um bis zu 40 Prozent variieren kann. Zum Vergleich: die individuellen Genome des Menschen sind zu 99,9 Prozent identisch. Das Human Mikrobiome Project will nun genau diese genetische Vielfalt erfassen.

Der menschliche Organismus ist also wirklich äußerst komplex. Al Gore vergleicht ihn mit dem planetarischen Ökosystem: „So wie wir mit den hundert Billionen Mikroorganismen“ – aus denen unser Mikrobiom besteht – „verbunden und von ihnen abhängig sind, die in und auf jedem von uns von der Geburt bis zum Tod leben, so sind wir auch verbunden mit und abhängig von den um uns herum auf und in der Erde existierenden Lebensformen. Nicht anders als die in und auf unseren Körpern siedelnden Mikroben übernehmen auch sie für uns lebensnotwendige Aufgaben. Und ebenso, wie die künstliche Zerrüttung der mikrobiellen Gemeinschaften in uns ein unsere Gesundheit unmittelbar schädigendes Ungleichgewicht in der Ökologie des Mikrobioms erzeugen kann, kann auch die Störung des ökologischen Systems, in und von dem wir leben, ein Ungleichgewicht erzeugen, das uns alle bedroht.“ (Gore 2014, S.370)

Ein schönes Bild. Es zeigt auch, wie falsch es ist, den Menschen auf Gene und auf Neuronen zu reduzieren.

Manche Mikrobiologen bezeichnen das Mikrobiom auch als eine Art „Superorgan“. Georg Reischel wendet zurecht dagegen ein, daß es „eigentlich kein Attribut eines Organs“ ist, Krankheiten zu verbreiten, wie es das Helicobacter pylori tut. Aber vielleicht kann man das Mikrobiom ja als eine Art ‚Hybridorgan‘ bezeichnen, das beide Mikrobensorten in sich enthält, diejenigen, die für unsere Gesundheit unverzichtbar sind, und diejenigen, die sie bedrohen. Außerdem bringt das Attribut ‚Hybrid‘ sehr schön zum Ausdruck, daß das Mikrobiom nicht nur aus einem Genom, sondern aus vielen verschiedenen Genomen besteht. Im Grunde durchbricht das Mikrobiom das Innen-Außen-Schema des menschlichen Organismus. Es ist zugleich ‚in‘ unserem Organismus und ihm äußerlich. Auch das ist ja ein Merkmal von Ökosystemen, die ja keine isolierten Systeme sind. Ohne Offenheit nach außen würden sie nicht funktionieren. Wie sich in neueren ‚Studien‘ zeigt – man verzeihe mir diese Phrase, die ich eigentlich gar nicht mag –, sind es gerade die isolierten Ökosysteme, die besonders krankheitsanfällig sind, und paradoxerweise sind die vernetzten Ökosysteme, zwischen denen sich eigentlich Krankheitskeime gut ausbreiten können, besonders widerstandsfähig. – Das ist übrigens neben der Vernichtung von Mutterboden ein weiterer Grund, warum die Zersiedlung der Landschaft mit ihrer verzweigten Verkehrsinfrastruktur für die Ökosysteme so schädlich ist: die isolierten Wald-, Feld- und Wiesenstücke sind den verschiedenen Krankheitskeimen besonders wehrlos ausgesetzt.

Download