Freitag, 10. Juli 2015

John Freely, Aristoteles in Oxford. Wie das finstere Mittelalter die moderne Wissenschaft begründete, Stuttgart 2014 (2012)

(G. Cotta’sche Buchhandlung, gebunden, 395 S., 24,95 €)

1. Kontinuität
2. Diskontinuität

Die von John Freely beschriebene zweieinhalb Jahrtausende umfassende Kontinuität des wissenschaftlichen Fortschritts von den Atomtheorien Leukipps (4.Jhdt.v.Chr.) und Epikurs (341-270 v.Chr.) bis zur heutigen modernen Physik umfaßt ein Phänomen, das Plessner als „Sachgemeinschaft“ beschreibt. (Vgl. meinen Post vom 15.11.2010) Als die ersten europäischen Universitäten im 12. und 13. Jhdt. gegründet wurden, sprach man von der Gemeinschaft der Lehrenden und der Lernenden: der „universitas societas magistrorum discipulorumque“. (Vgl. Freely 2014, S.116) Dieses Phänomen einer gemeinsamen sachlichen Orientierung an kulturen- und epochenübergreifenden Fragen und Themen macht es vielleicht nachvollziehbar, daß die Wissensgeschichte von der ansonsten von Diskontinuitäten und Abbrüchen geprägten Kulturgeschichte des Menschen so sehr abweicht.

Aber so sehr dann doch auch wieder nicht. Es war wiederum Plessner, der darauf hinwies, daß gerade in den letzten zwei Jahrhunderten, im 19. und 20. Jhdt., der wissenschaftliche ‚Fortschritt‘ nur ein scheinbarer gewesen ist. (Vgl. meinen Post vom 06.12.2010) Die wissenschaftliche Fortschrittsgeschichte war in diesen beiden Jahrhunderten vor allem eine Geschichte der einander abwechselnden Modedisziplinen, die mit ihren jeweiligen ‚Paradigmen‘ den Rest des universitären Kanons dominierten und an den Rand drängten. Der Wechsel zwischen den Paradigmen (vgl. Thomas S. Kuhn „Die Struktur wissenschaftlicher Revolutionen“ (1976)) war keineswegs durch einen rational begründeten Wissensfortschritt motiviert.

Es gibt in der Wissenschaft, sowohl innerhalb der einzelnen Disziplinen wie auch zwischen den verschiedenen Disziplinen, einen langwährenden, logisch rational nicht überwindbaren Methodenstreit. Jede Disziplin hat ihre eigenen, von ihren jeweiligen Gegenständen abhängigen Methodiken. Am auffälligsten ist diese Differenz zwischen den Natur- und den Geisteswissenschaften. Das grundlegende methodische Prinzip der Naturwissenschaften, die Falsifizierbarkeit wissenschaftlicher Aussagen und Erkenntnisse, ist auf die Geisteswissenschaften nicht anwendbar. Da es in den Geisteswissenschaften keine falsifizierbaren Erkenntnisse gibt, bedeutet die Anwendung dieses Prinzips das Aus für diese Wissensform.

Freely bringt diese Problematik auf den Punkt, wenn er schreibt: „Wir sind heute sehr viel skeptischer gegenüber der These, dass es so etwas wie eine ‚wissenschaftliche Methode‘ gebe – einen kohärenten Satz universeller, effizienter Verfahren zur Gewinnung wissenschaftlicher Erkenntnisse – und noch skeptischer gegenüber historischen Darstellungen, nach denen diese Methode im siebzehnten Jahrhundert entstanden und von dort ohne weitere Probleme auf uns überkommen sein soll.“ (Freely 2014, S.333f.)

Freely will damit seine Kontinuitätsthese stärken. Er will darauf hinaus, daß man Wissenschaft nicht von einer bestimmten Methode abhängig machen kann, also von spezifisch modernen, durch Technologien und Apparate unterstützen Formen der Methode seit dem 17. Jhdt., sondern daß auch vormodern erscheinende, technologisch scheinbar veraltete Formen des Wissenserwerbs schon eine genuine, ernstzunehmende Forschung ermöglichten. Tatsächlich aber enthält Freelys Stellungnahme für die Anerkennung von Methodenpluralität einen Hinweis darauf, daß die von gemeinsamen Fragen und Themen geprägte Kontinuität der wissenschaftlichen Forschung durch eine zum Teil verborgene, zum Teil immer wieder aufbrechende paradigmatische Diskontinuität bestimmt ist. Und diese Diskontinuität ist in erster Linie eine methodische.

Interessanterweise bricht diese Diskontinuität so ziemlich von Anfang an gerade auch in historischen Lehrer-Schüler-Beziehungen auf. Platon (ca. 428-348 v.Chr.) war der Lehrer von Aristoteles (ca. 384-322 v.Chr.), und Platon vertrat eine rational-idealistische Wissenschaftsauffassung, in der die Mathematik bzw. die Geometrie einen idealen Ideenkosmos abbildete und die empirisch-sinnlichen Erscheinungen nur Verzerrungen und Verfälschungen dieses Ideenkosmos bildeten, während Aristoteles eine rational-empirische Wissenschaftsauffassung vertrat, in der gerade die sinnlichen Phänomene im Mittelpunkt standen und in der es ihm vor allem darum ging, diese Phänomene zu verstehen.

Dieser Bruch zwischen Lehrer und Schüler prägt die Wissenschaft bis heute, und wir haben es dabei vor allem deshalb mit einem methodischen Problem zu tun, weil es dabei immer auch um die Rolle der Mathematik geht: als einer Form der Anwendung in der Forschung oder als Prinzip der Wahrheit selbst. So hielt z.B. Albertus Magnus (ca. 1200-1280) „die Mathematik für eine abstrakte Wissenschaft, deren Anwendung durch jene Wissenschaft beurteilt werden muss, die die Natur erforscht, wie sie tatsächlich ist: als ‚nicht abstrakt‘ und ‚in Bewegung‘ befindlich.“ (Freely 2014, S.124) – Man beachte den Hinweis darauf, daß die ‚wirkliche‘ Natur „in Bewegung“ befindlich sei. Bewegung ist aber etwas, das die Mathematik vielleicht mittels der Infinitesimalrechnung zu modellieren vermag. Aber die Zeit selbst spielt in der Mathematik keine Rolle. Sie legt eine statische Naturauffassung nahe, mit unveränderlichen, ewig gültigen Naturgesetzen. (Vgl. meine Posts vom 08.10. bis zum 15.10.2014)

Ein berühmter Zeitgenosse von Albertus Magnus, Roger Bacon (ca. 1220-1292), bewertete die Mathematik völlig anders. Ihm zufolge verhalf die Mathematik „zur zweifelsfreien Gewissheit und zur irrtumslosen Wahrheit“. (Vgl. Freely 2014, S.154) Von den heutigen Naturwissenschaftlern kann man sagen, daß sie in diesem Sinne Platoniker sind. Ganz extreme Positionen vertreten sogar die Auffassung, daß man auf Experimente völlig verzichten könne, denn alles, was sich in mathematischen Formeln ausdrücken läßt, muß irgendwo im Kosmos auch existieren. Das Mittelalter scheint aber insgesamt eher aristotelisch geprägt gewesen zu sein. Die mittelalterlichen Wissenschaftler interessierten sich vor allem für die empirischen Erscheinungen, und dabei unterschieden sie sich Freely zufolge wiederum von der griechisch-römischen Antike insbesondere dadurch, daß sie vor allem an praktisch umsetzbaren, anwendungsbezogenen Erkenntnissen interessiert waren. (Vgl. Freely 2014, S.10 und S.127)

So heißt es z.B. von Petrus Peregrinus (Mitte des 13. Jhdts.): „Er schämt sich, über irgendetwas unwissend zu sein, davon doch die ungebildeten Laien, alte Weiber, Soldaten und Bauern Kenntnis haben. Daher hat er sich die Arbeitsweise derjenigen, die mit Erzen und Mineralien umgehen, genau angeschaut. Er kennt sich aus in der Kunst der Waffenschmiede ... des Jagdhandwerks ..., der Landwirtschaft und Bodenbearbeitung.“ (Roger Bacon über Petrus Peregrinus, zitiert nach Freely 2014, S.159f.) – Mit seinem Interesse an dem Alltagswissen von ungebildeten Laien, alten Weibern, Soldaten und Bauern erweist sich Petrus als ein Phänomenologe. Er läßt sich und seine Forschung von der Lebenswelt motivieren und richtet sie am lebensweltlichen Nutzen aus.

Seine Experimente dienen deshalb auch weniger der Bestätigung oder Widerlegung mathematischer Gesetze, sondern ihrer Prüfung durch unseren körperlichen Sinnesapparat: „Bei der Ergründung der verborgenen Kräfte benötigen wir nämlich sehr des Handwerklichen, und zumeist können wir ohne dieses nichts vollständig tun. Denn vieles scheint uns einleuchtend, was wir mit der Hand nicht ausführen können.“ (Aus einem Brief (1269) von Petrus Peregrinus an Sygerus von Foucaucourt, Soldat; zitiert nach Freely 2014, S.160)

Aus dieser Briefstelle wird deutlich, daß es Petrus vor allem um Gewißheiten der ‚Hand‘ geht, während er anderen, von der ‚Hand‘ unabhängigen Gewißheitsformen – vielleicht auch der Mathematik? – vorwirft, daß ihre ‚Gewißheiten‘ eben deshalb wenig brauchbar und unnütz sind. Diese Einstellung unterscheidet sich sehr von Galilei (1564-1642), der in seinem „Dialog“ Aristarch (ca. 310-230 v.Chr.) und Kopernikus (1473-1543) dafür preist, daß deren kosmologisches Modell mit der Sonne im Zentrum „durch die Lebendigkeit ihres Geistes den eigenen Sinnen Gewalt angetan“ habe, „derart, dass sie, was die Vernunft gebot, über den offenbarsten Sinnenschein zu stellen vermochten ...“ (Vgl. Freely 2014, S.327)

Jean-Jacques Rousseau hat übrigens in seinem „Emile“ (1762) gezeigt, daß es keiner Gewalttat an unseren körperleiblichen Sinnen bedarf, um zu einer angemessenen Verhältnisbestimmung von Erde, Mond und Sonne zu kommen. Es reicht, morgens aufzustehen, den Sonnenaufgang zu beobachten und mit ein paar Stöcken abzustecken, das ganze ein paar Wochen später zu wiederholen, und dann aus diesen Sinneseindrücken die richtigen Schlußfolgerungen zu ziehen. Eine komplizierte Technologie, Fernrohre etc., und mathematische Berechnungen sind dazu keineswegs nötig. Die Gebote der Vernunft und unsere Sinneswahrnehmungen müssen sich also keineswegs widersprechen.

Der Streit der Methoden ist deshalb immer auch ein Streit über Gewißheitsformen. Dabei waren die mittelalterlichen Forscher – ähnlich wie später Rousseau – noch darum bemüht, „mit Hilfe der Logik und der Mathematik“ die Phänomene zu retten. (Vgl. Freely 2014, 170) Es ging ihnen also weniger um eine Gewalttat an unseren Sinneswahrnehmung, als vielmehr darum, beides, Sinneswahrnehmungen und mathematisch ausformulierte Naturgesetze, miteinander zu vereinbaren.

Dabei hatten es ihnen, wie schon ihren griechischen Vorgängern, vor allem die Fernwirkungen angetan, wie sie in Bewegungsphänomenen, im Magnetismus, in der Gravitation und in der Ausbreitung des Lichts sichtbar werden. Da man sich in der griechischen Antike und im Mittelalter Ursache-Wirkung nur in Form eines Direktkontakts zwischen zwei Körpern vorstellen konnte, war es rätselhaft, wie Bewegung funktioniert. Ein Projektil, daß von einer Schleuder in Bewegung gesetzt wird, müßte nämlich in dem Moment, wo es den direkten Kontakt mit der Schleuder verliert, sofort bewegungslos verharren. Aristoteles behalf sich, zur Rettung des Bewegungsphänomens, mit der Erklärung, daß das Projektil vorne Luft verdrängt und hinter dem Projektil ein kurzzeitiges Vakuum entsteht, in das die vorn verdrängte Luft hineinfließt und so das Projektil wieder anstößt, so daß es sich weiter vorwärtsbewegt. (Vgl. Freely 2014, S.26) Die Vorwärtsbewegung des Projektils wird also durch fortwährende Stöße der nach hinten zurückgedrängten Luft verursacht.

Am Beginn des sogenannten ‚finsteren‘ Mittelalters ersetzte ein gewisser Philoponos (ca. 490-570) diese Theorie der „Antiperistatis“ durch die „Impetustheorie“, derzufolge die Schleuder dem Projektil einen Impetus verleiht, also eine andauernde Bewegungskraft, die das Projektil nach dem Verlassen der Schleuder weiter vorantreibt. 800 Jahre später definierte Jean Buridan (ca.1295-1358) den Impetus „als Funktion der ‚Quantität der Materie‘ eines Körpers und seiner Geschwindigkeit, was dem heutigen Impuls (Momentum) entspricht, dem Produkt aus Masse und Geschwindigkeit, wobei die Masse die Trägheit der Materie ist, die der Veränderung des Bewegungszustands einen Widerstand entgegensetzt.“ (Freely 2014, S.186) – Später verzichtete man dann auch auf den Impetus und beschrieb die Bewegung vor allem als ein relatives Verhältnis zwischen Körpern in Raum und Zeit. (Vgl. Freely 2014, S.341f.)

Das Bedürfnis, die Bewegungsphänomene zu ‚retten‘, obwohl die mathematischen Gesetze die Annahme einer statischen Welt nahelegten, hing letztlich auch mit dem Wunsch zusammen, mit den eigenen Wahrnehmungen und Glaubensvorstellungen übereinstimmen zu können. Das zeigt sich besonders schön an dem Planetenmodell, das Tycho Brahe (1546-1601) entwickelt hatte. (Vgl. Freely 2014, S.279f.) Es bildet einen Kompromiß zwischen einem geozentrischen und einem heliozentrischen Planetenmodell. In diesem Modell kreisen alle Planeten, außer der Erde, um die Sonne, die wiederum zusammen mit allen anderen Planeten um die Erde kreist:


„Im tychonischen System war der Mittelpunkt des Universums immer noch die feststehende Erde, um die einmal in 24 Stunden die Fixsternsphäre kreiste. Die übrigen Planeten befanden sich auf ihren Umlaufbahnen um die Sonne, und diese wiederum rotierte einmal in 24 Stunden um die Erde, während der Mond die Erde innerhalb eines Monats umrundete. Die Bahnen von Merkur und Venus kreuzten jeweils an zwei Punkten die Umlaufbahn der Sonne, führten jedoch nicht um die Erde. Auch die Marsbahn schnitt den Sonnelauf an zwei Stellen, umfasste jedoch die Erde und den sie umlaufenden Mond. Die Bahnen von Jupiter und Saturn umschlossen die gesamte Sonnenlaufbahn. Nach Brahes Auffassung vereinte sein Modell die Vorzüge der ptolemäischen und der kopernikanischen Theorie, weil darin einerseits die Erde an Ort und Stelle stehen blieb und weil es andererseits erklärte, warum Merkur und Venus nie weit von der Sonne entfernt waren.“ (Freely 2014, S.284f.)
An Tycho Brahes Planetenmodell wird noch einmal deutlich, wie groß der Bruch, die Diskontinuität der neuzeitlichen Wissenschaft zur mittelalterlichen Wissenschaft ist. Das heutige naturwissenschaftliche Paradigma hat sich so weit von unseren Sinneswahrnehmungen entfernt, daß Empirie nur noch über die Mathematik vermittelt wird und nicht mehr über den Augenschein. So fühlte sich dann auch im 20. Jhdt. ein großer Mathematik- und Physikdidaktiker, Martin Wagenschein (1896-1988), wieder dazu veranlaßt, für die Rettung der Phänomene im heutigen Mathematik- und Physikunterricht einzutreten. Seiner Ansicht nach führt der an Apparaten und Formeln orientierte Schulunterricht dazu, daß die Schüler ihr Interesse an der Mathematik und an der Physik verlieren. Es sind immer allererst die sinnlichen Erscheinungen, die den Menschen, insbesondere den jungen Menschen interessieren. Wo es auf diese Erscheinungen nicht mehr ankommt, kommt es auch auf den Menschen nicht mehr an. Und das gilt auch heute noch, mehr denn je.

Dabei scheint man neuerdings sogar in der Quantentheorie den Augenschein als Erkenntnismittel zu rehabilitieren. Eine als „Formdynamik“ bezeichnete Version der Quantentheorie greift auf die sichtbaren Formen von Objekten, also auf ihre Gestalt zurück, um in großer Entfernung befindliche, astronomische Objekte zu beschreiben, „weil Formen nicht denselben willkürlichen Veränderungen unterliegen“ wie quantitative Verhältnisbestimmungen, beipielsweise die Position im Raum oder die Größe. (Vgl. Lee Smolin: „Im Universum der Zeit“ (2014), S.236; vgl. auch meinen Post vom 10.10.2014)

Auch unter den von Aristoteles aufgeführten vier Kausalitätsformen findet sich neben der Materialursache, der Wirkursache und der Zweckursache eine Formursache, bei der ich mich frage, ob mit ihr nicht möglicherweise visuelle und auditive Gestaltwahrnehmungen gemeint sind, also ästhetische Ding- und Klangphänomene. ‚Form‘ gehört in diesem Zusammenhang zum Begriffsumfeld von ‚Wesen‘ (Wesensschau) und ‚Gestalt‘ (Gestaltwahrnehmung). (Vgl. meine Posts vom 21.06.2010 und vom 13.07.2010) Freely fällt dazu allerdings nur ein Strukturalismus ein: „Finden wir die Struktur oder den Entwurf, nach dem etwas geformt ist, dann kennen wir die Formursache.“ (Vgl. Freely 2014, S.25) – Anstatt den Begriff der Formursache auf sinnliche Gewißheiten zurückzuführen, im Sinne einer Ästhetik, bezieht Freely die Formursache auf die Möglichkeit mathematischer Modellierungen als Blaupausen zur Erzeugung von Produkten, im Sinne einer Technologie.

Sicher ist das tychonische Planetenmodell m Vergleich zum kopernikanischen Modell falsch. Aber nur weil andere Planetenmodelle ‚richtiger‘ sind als das von Tycho Brahe und überhaupt das Wissen um den Kosmos in den Jahrhunderten danach bis heute gewaltig angestiegen ist, heißt das noch lange nicht, daß die modernen, zumeist aus mathematischen Modellen abgeleiteten Kosmologien richtig sind. Es gibt keinen plausiblen Grund für die Annahme, daß sie nicht auch falsch sein könnten und irgendwann überholt sein werden. Vor allem aber gibt es auch keinen plausiblen Grund dafür, daß wir unseren eigenen Sinneswahrnehmungen prinzipiell mißtrauen müssen.

Download

Donnerstag, 9. Juli 2015

John Freely, Aristoteles in Oxford. Wie das finstere Mittelalter die moderne Wissenschaft begründete, Stuttgart 2014 (2012)

(G. Cotta’sche Buchhandlung, gebunden, 395 S., 24,95 €)

1. Kontinuität
2. Diskontinuität

Ähnlich wie schon in „Platon in Bagdad“ (2009/2012) versucht John Freely in seinem mir vorliegenden Buch „Aristoteles in Oxford“ (2012/2014) zu belegen, daß es in der Wissenschaft weder Revolutionen noch Abbrüche in der Wissensentwicklung gegeben hat. Liegt der Schwerpunkt des ersten Buches im islamisch-arabischen Raum, so liegt er in „Aristoteles in Oxford“ im christlichen Mittelalter. Die deutschen Buchtitel könnten dem Leser Anlaß zu der Vermutung geben, daß wir es bei den beiden Büchern auch mit verschiedenen Schwerpunkten in der Denkform, rational-idealistisch bei Platon und rational-empirisch bei Aristoteles, zu tun haben. Aber in „Aristoteles in Oxford“ geht Freely nur marginal auf diese Differenz zwischen Platon und Aristoteles ein; eine eingehendere Erörterung fehlt, und sie prägt auch nicht den systematischen Aufbau des Buches. In den englischen Orginalbuchtiteln tauchen die Namen von Platon und Aristoteles nicht auf.

Dennoch hält Freely fest, daß es eine unterschiedliche Akzentuierung in der antiken und in der mittelalterlichen Wissenschaftsentwicklung gibt: „So war die europäische Wissenschaft von Anfang an eher praktisch-empirisch ausgerichtet, im Gegensatz zum eher abstrakten Wesen der griechischen und islamischen Wissenschaft.“ (Freely 2014, S.10) – Diese Differenz ist bei Freely aber, wie aus dem Zitat hervorgeht, eine historische und geht nicht von einzelnen Persönlichkeiten wie Platon und Aristoteles aus. Darauf wird im nächsten Post noch zurückzukommen sein.

Freelys Kontinuitätsthese richtet sich vor allem auf die Wissensentwicklung, weniger auf das Methodische. Im Vordergrund stehen vor allem Beobachtungen an und Berechnungen von Himmelsereignissen (Astronomie), Bewegungsphänomenen, Licht- und Klangphänomenen (Regenbogen, Musik) und Überlegungen zu Kausalzusammenhängen (Formen der Verursachung und der Hervorbringung von Ereignissen und Objekten). Diese Problemzusammenhänge bestimmten die Aufmerksamkeit der antiken und mittelalterlichen Forscher und Denker, gleichgültig unter welchen historischen und kulturellen Bedingungen sie lebten: in der heidnischen griechisch-römischen Antike oder im christlichen Mittelalter. Weder der Brand der Bibliothek von Alexandria, Freely zufolge um 415 n.Chr. (vgl. Freely 2014, S.14), noch das danach folgende ‚finstere‘ Mittelalter des sechsten und siebten Jhdts. bedeuteten Freely zufolge eine nennenswerte Zäsur in der Wissensentwicklung. Zwar gingen mit dem „Brand der Bibliothek von Alexandria“ „über 1000 Jahre griechische Literatur, Geschichte und Wissenschaft verloren“ (vgl. Freely 2014, S.15) und das „klassische Wissen im nachfolgenden frühen Mittelalter (hinterließ) nur ein schwaches Licht“ (vgl. Freely 2014, S.47), „(d)och einige Klassiker der griechischen Philosophie und Wissenschaft sind uns – dank eines feinen Ariadnefadens von Alexandria über das mittelalterliche Byzanz und die islamische Welt – überliefert worden, im letzteren Fall durch Übersetzungen vom Griechischen ins Aramäische, Persische, Arabische und schließlich ins Lateinische“ (vgl. Freely 2014, S.10).

In der Zwischenzeit nach dem Untergang Roms hielten sich Reste des antiken Wissens und der antiken Bildung an den Rändern Westeuropas in irischen und schottischen Klöstern, gelangten von dort aus zurück nach Zentraleuropa und lösten schließlich die karolingische Renaissance (achtes und neuntes Jhdt.) aus. (Vgl. Freely 2014, S.10 und S.66ff.) Der karolingischen Renaissance folgten noch zwei weitere Renaissancen, die alle durch die Wiederentdeckung und das Wiederaufgreifen griechischer und römischer Literatur gekennzeichnet waren. So gab es eine „Renaissance des 12. Jahrhunderts“, die der italienischen Renaissance des 15. Jhdts voranging und anders als die italienische von Beginn an eine gesamteuropäische Bewegung bildete:
„Bei Haskins heißt es: ‚Anders als die karolingische Renaissance ging die Wiederbelebung im 12. Jahrhundert nicht von einem bestimmten Fürstenhof oder einer Dynastie aus und anders als die italienische Renaissance war sie in ihren Anfängen nicht auf eine einzelne Nation beschränkt. ...Wie die italienische Strömung 300 Jahre später bezog die Renaissance des 12. Jahrhunderts ihre Inspiration vor allem aus zwei Quellen: Beide beruhten auf Wissen und Ideen, die im lateinischen Abendland bereits vorhanden waren, sowie auf den Einfluss der neuen Lehren aus dem Orient. Doch während bei der Renaissance des 15. Jahrhunderts der Schwerpunkt auf der Literatur lag, konzentrierte sich die Bewegung im 12. Jahrhundert auf die Philosophie und Wissenschaft.‘“ (Freely 2014, S.111f.)
Immer also bauten die jeweiligen Forschritte im Wissen auf schon vorhandenem Wissen auf. Fortschritt ging niemals mit einem Wissensumsturz einher und setzte niemals einen kulturellen und erkenntnistheoretischen Nullpunkt, von dem aus radikal neu begonnen worden wäre. Auch die sogenannte kopernikanische Revolution bedeutet keinen solchen radikalen Neuanfang: „Sicher hat Kuhns These („Die kopernikanische Revolution“ (1962) – DZ) etwas für sich, doch wie Crombie in seinem Buch Medieval and Early Modern Science (1952) über Kopernikus festhielt: ‚Er ist das beste Beispiel für jemanden, der die Wissenschaft revolutionierte, indem er altbekannte Tatsachen auf völlig neue Weise interpretierte.‘ Gemeint sind damit alle Theorien und Forschungsergebnisse, die Kopernikus von seinen Vorläufern im mittelalterlichen Europa und im antiken Griechenland übernahm.“ (Freely 2014, S.9)

Selbst Isaac Newton, der als der Begründer der neuzeitlichen Wissenschaft gilt, wertete sein eigenes Wirken nur als ein Anschließen an und Aufbauen auf schon vorhandenem Wissen: „In einem Brief an Hooke zollte Newton seinen Vorgängern Anerkennung, als er schrieb: ‚Wenn ich weiter geblickt habe (als Descartes), so deshalb, weil ich auf den Schultern von Riesen stehe.‘“ (Freely 2014, S.361)

Freely macht seine Kontinuitätsthese auch ganz persönlich an seinem eigenen wissenschaftlichen Werdegang fest und zeichnet die Kontinuität der wissenschaftlichen Entwicklung als eine ununterbrochene Linie von Lehrer-Schüler-Beziehungen nach: „Mit Hilfe einer Website für Genealogie in den mathematisch-physikalischen Disziplinen konnte ich meinen wissenschaftlichen Stammbaum von Bruder Bullen (Freelys Physikprofessor am Iona Collage im US-Bundesstaat New York – DZ), Blackett, Rutherford und Thomason in ununterbrochener Linie zurückverfolgen, über Newton, Leibniz, Galilei und Kopernikus bis zu den ersten Griechen, die an italienischen Universitäten studiert hatten. So gelangte ich bis zu Georgios Gemistos Plethon, der sein Studium an der Universität von Konstantinopel um 1375 beendet hatte: Er brachte das griechische Wissen nach Italien und löste damit letztendlich die italienische Renaissance aus.“ (Freely 2014, S.8)

Zu dieser unmittelbaren Kontinuitätserfahrung in der persönlichen Begegnung mit Forschern und Denkern, die auch das Fundament der ersten abendländischen Universitäten bildete, als „‚universitas societas magistrorum discipulorumque“, als Gemeinsaft von Lehrenden und Lernenden, die vor allem durch Gleichzeitigkeit geprägt ist, kommt noch die ganz einsame und intensive Begegnung des Lesers der antiken griechischen Schriften hinzu, mit der Jahrhunderte und Jahrtausende des Denkens und Forschens überbrückt werden konnte. Die ‚unmittelbare‘ Begegnung mit längst verstorbenen Persönlichkeiten wie Platon und Aristoteles war über das Abschreiben und Übersetzen von Manuskripten vermittelt. Die mittelalterlichen Forscher waren immer zugleich auch Übersetzer und Abschreiber von Handschriften. (Vgl.u.a. Freely 2014, S.109) Wenn ich an meine eigene Praxis des eigenhändigen Abschreibens und Exzerpierens von Zitaten denke, die für mich eine erweiterte Form der Lektüre bildet, kann ich mich gut in diese mittelalterlichen, bei Tages- oder bei Kerzenlicht über die klassischen Texte gebeugten Denker und Forscher hineinversetzen: im Anfertigen von Handschriften verleibten sie sich das antike Wissen ein, sie innervierten es regelrecht, und es arbeitete so in ihnen weiter und führte sie zu neuen Einsichten und Erkenntnissen, so daß sie sich tatsächlich als Zwerge empfanden, sitzend auf den Schultern von Riesen.

Das ist, finde ich, ein schönes Bild für eine Form des Wissens und Denkens, das nur zu einem kleinen Teil rational und kontrolliert ist und zu einem wesentlich größeren Teil aus einem lange vorbereiteten, vorbewußten Untergrund hervordringt. Letztlich zeigt Freely mit seinem Buch „Aristoteles in Oxford“ vor allem eins: die abendländische Wissenstradition beruht auf einer unfaßlichen, tief gegründeten, intuitiven Praxis des stetig erneuerten Anschließens an schon vorhandenes Wissen.

Download

Mittwoch, 1. Juli 2015

Gunter Gebauer, Hand und Gewißheit, in: Anthropologie, hrsg.v. Gunter Gebauer, Leipzig 1998

In seinem Buch zur „Krisis der europäischen Wissenschaften“ (1935/36) entwickelt Edmund Husserl aus Descartes’ Gewißheitsformel „cogito ergo sum“ die logische Notwendigkeit von einer mit dieser Gewißheit untrennbar verbundenen Weltgewißheit: nicht nur bin ich mir aufgrund meines Denkens meiner selbst gewiß, sondern ineins damit auch des Vorhandenseins einer Welt. (Vgl. meinen Post vom 05.05.13)

Das sieht Gunter Gebauer in seinem 1984 geschriebenen Aufsatz „Hand und Gewißheit“ (im von ihm herausgegebenen Sammelband „Anthropologie“ (1998), S.250-274) anders. Er bezweifelt sowohl Descartes’ Gewißheitsformel (vgl. Gebauer 1998, S.255) wie auch die Möglichkeit eines logischen Rückschlusses auf irgendwelche damit einhergehende Prädikationen (vgl. Gebauer 1998, S.252). Aus dem Denken ergeben sich Gebauer zufolge keine Gewißheiten, da aufgrund der durch die Logik des Zweifelns verursachten Loslösung des Denkens von den sinnlichen Gewißheiten unseres lebendigen Körpers sich der „radikale Erkenntniszweifel“ schließlich auch gegen das Verfahren der logischen Prüfung selbst richten muß. Die „prüfende Instanz“, so Gebauer, „ist nicht sicherer als das zu prüfende Wissen“. (Vgl. Gebauer 1998, S.255) Das bedeutet, daß ein konsequent durchgeführter Zweifel sich auch gegen sich selbst richten muß und damit sinnlos wird: „Das Cartesianische Verfahren, alles Gewußte, Gedachte und Erfahrene prinzipiell für Illusion zu halten, entspricht dem Verdacht, ‚daß wir uns in allen Rechnungen verrechnet haben‘ ..., und das heißt, daß der Zweifel ‚nach und nach seinen Sinn verliert‘ ...“ (Gebauer 1998, S.255)

Ich selbst habe im Rahmen meines Blogs zur Erkenntnisethik immer mit Bezug auf Helmuth Plessners Begriff des Körperleibs argumentiert, daß mit diesem Begriff eine anthropologische Dimension des menschlichen Selbst- und Weltverhältnisses bezeichnet wird, die allen menschlichen Lebensformen und Lebensäußerungen zugrundeliegt. (Vgl. meine Posts vom 21.10.2010 und vom 11.07.2013) Dabei habe ich die geistig-seelische Bedeutung der Morphologie – aufrechter Gang, Gegenüberstellung von Kopf (Gehirn) und Körper – hervorgehoben und mich damit insbesondere gegen molekularistische Versuche insbesondere der Neurowissenschaften gewandt, das menschliche Bewußtsein auf neuronale Funktionen zurückzuführen. Wenn Plessner vom Körperleib spricht, so denkt er vor allem an eine spezifisch menschliche Morphologie im Sinne einer bewußtseinsermöglichenden Verhältnisbestimmung von Gehirn und Organismus und an eine ebenfalls bewußtseinsbildende Verhältnis- und Funktionsbestimmung der verschiedenen Sinnesorgane.

An dieser Stelle setzt auch Gebauers Aufsatz an. Er verweist auf die Abhängigkeit des menschlichen Handelns „von der materiellen Form des menschlichen Körpers“ (vgl. Gebauer 1998, S.250), insofern z.B. die Hand eine Struktur vorgibt, wie wir in unserer Umwelt handelnd eingreifen und unsere Bedürfnisse befriedigen können: „Die Tätigkeit z.B. der Hand, ihr Greifen, Berühren, Schlagen, entwickelt ein regelhaftes Verhalten gegenüber allem, was von der Hand erfaßbar ist, und erzeugt eine verhaltensstrukturierte Umwelt. Die regelhafte Verwendung der Hand gibt dem Handeln und Wahrnehmen grundlegende Formen ...“ (Gebauer 1998, S.261)

Die Morphologie des menschlichen Körpers gibt also Regeln vor, die unser Handeln schon vorstrukturieren, noch ehe wir irgendwelche bewußten Überlegungen und Planungen anstellen können, was wir in einem besonderen Fall tun wollen: „Handeln ist im Ursprung eine Praxis des Körpers.“ (Gebauer 1998, S.261)

Der Mensch macht also immer schon, vor allem bewußten Denken, aber auch im bewußten Denken, einen durch die menschliche Morphologie bestimmten Gebrauch von seinem Körper. An dieser Stelle ist es nun hochinteressant, daß sich Gebauer auf den Begründer des linguistic turn, auf Ludwig Wittgenstein und seine „zentrale Kategorie des Gebrauchs“, bezieht. (Vgl. Gebauer 1998, S.263) Wohl kaum jemals zuvor in der Geschichte der Philosophie hat ein Philosoph durch ein von ihm selbst später als Irrtum deklariertes Konzept einen solchen Einfluß auf die nachfolgende Philosophieentwicklung gehabt wie Wittgenstein. Seine Vorstellung von der fundamentalen Funktion der Sprache und ihrem Gebrauch für das Selbst- und Weltverhältnis des Menschen hat das geisteswissenschaftliche Denken des ganzen 20. Jhdts. geprägt.

Wittgenstein selbst hat seine früheren, im tractatus logico-philosophicus (1921) vertretenen Ansichten korrigiert. Gebauer bezieht sich in diesem Zusammenhang vor allem auf seine posthum veröffentlichte Schrift „Über Gewißheit“ (1969), in der sich Wittgenstein mit Descartes’ Gewißheitsformel auseinandersetzt. In dieser Schrift ist die Sprache und ihr Gebrauch nicht mehr fundamental. Fundamental – auch für die Sprache selbst – ist vielmehr der Gebrauch, den wir von unserem Körper machen: „Wittgensteins Bemerkungen über Gewißheit enthalten eine Problemwendung, die über den ‚lnguistic turn‘ der Sprachphilosophie hinausgeht. Seine Wende entsteht aus einem Erstaunen: Ist es nicht widersinnig anzunehmen, daß der Geist die aus dem Körpergebrauch stammende Gewißheit prüfe?“ (Gebauer 1998, S.258)

Der von Wittgenstein inspirierte und später von ihm selbst widerrufene linguistic turn stellt die Dinge auf den Kopf: anstatt das Denken an den körperlich vermittelten Gewißheiten zu prüfen, sollen die körperlich vermittelten Gewißheiten – Stichwort ‚Sinnestäuschungen‘ – über das Denken geprüft werden. Das führt zu einem unvermeidbaren unendlichen Regreß, denn im Denken selbst gibt es keinen ‚Grund‘, also kein Fundament, auf den der Prüfvorgang zurückgeführt werden könnte. (Vgl. Gebauer 1998, S.257)

Übrigens hatte schon Rousseau in seinem „Emile“ (1762) darauf hingewiesen, daß die Gewißheiten, die das Auge vermittelt, eine eigene Qualität haben. Bei einem ins Wasser gesteckten Stab sollte Emile deshalb nicht die Hände benutzen, um die an der Wasseroberfläche auftretende Krümmung des Stabes zu überprüfen. Der ‚Tastsinn‘, so Rousseau, – anders ausgedrückt: der Griff nach dem Stab – würde nämlich das Auge unmittelbar widerlegen, und dann hätte Emile nichts über den Gesichtssinn gelernt. Rousseau läßt Emile deshalb verschiedene Experimente durchführen, die alle nur auf das Auge gerichtet sind. Es ist letztlich also der Gesichtssinn, der sich selbst über seinen Seheindruck ‚belehrt‘, und so lernt Emile seinen Sinnen und seinem Verstand zu vertrauen. Letztlich, so Rousseau, täuscht uns der Gesichtssinn nicht; im Falle einer Täuschung verwenden wir ihn lediglich fehlerhaft. (Vgl. meinen Post vom 05.06.2010)

Gebauer zufolge enthält das Denken nicht nur keinen festen Grund: auch das Denken selbst bildet keinen solchen Grund. Es bedarf vielmehr eines unbezweifelbaren Rahmens, innerhalb dessen das Denken überhaupt erst möglich wird. Dafür steht der Begriff des Sprachspiels: „Sowohl Wissen als auch Zweifeln ist an bestimmte Voraussetzungen gebunden. Daß man etwas wissen oder bezweifeln kann, ist nur innerhalb eines Sprachspiels möglich.()“ (Gebauer 1998, S.254) – Das Sprachspiel bzw. der Rahmen gibt vor, was sinnvoller Weise gesagt werden kann und was nicht gesagt werden kann. So ist z.B. der Verdacht, eine Wahrnehmung könnte nur geträumt sein, nur sinnvoll, wenn er mit der Gewißheit verbunden ist, „daß sich das Geträumte vom Nicht-Geträumten zweifelsfrei unterscheiden läßt und daß im Denken ein Bereich des Nicht-Geträumten existiert.“ (Vgl. Gebauer 1998, S.254f.)

So setzt also das Verwenden von Wörtern immer schon einen Bedeutungsrahmen voraus, eben das Sprachspiel, innerhalb dessen sie sinnvoll verwendet werden können und der selbst nicht anzweifelbar ist. Soweit jedenfalls der frühe Wittgenstein in seinem Traktat. Der spätere Wittgenstein weist darauf hin, daß auch die Sprachspiele selbst noch einmal fundiert werden müssen, nämlich durch den fundamentalen Gebrauch, den wir von unserem Körper machen: „Die mit Hilfe des Körpergebrauchs erzeugten Gewißheiten liegen tiefer als andere Gewißheiten unseres Weltbildes.()“ (Gebauer 1998, S.259)

Denken, das ausschließlich durch Sprachspiele organisiert wird, wird immer ‚grundlos‘ sein. Es wird aus sich selbst heraus nicht durch Gewißheiten, sondern durch Zweifel motiviert. Aber dennoch beginnt das Denken, so Gebauer, „nicht mit dem Zweifel, sondern mit Gewißheiten“. (Vgl. Gebauer 1998, S.256)

Alle Gewißheiten, wie sie dem Denken vorgegeben sind und die es nicht sinnvoll anzweifeln kann, werden durch die „strukturelle Analogie“ (Gebauer 1998, S.263) zwischen Gegenstandswahrnehmung und Semantik ermöglicht. Wir haben es hier mit einer Übertragung von räumlichen Gegenstandsqualitäten auf die symbolische Struktur von Wörtern (und Gedanken) zu tun. (Vgl. hierzu auch meinen Post vom 25.10.2011) Unser manueller „Umgang mit Gegenständen“ wird gewissermaßen zum Vor-Griff auf den Umgang mit „symbolischen Objekten“, also mit Wörtern bzw. ‚Begriffen‘. In beiden Fällen bleibt der „Symbolrahmen“ „im wesentlichen gleich“: „Nur ist innerhalb des Rahmens der Griff durch das Wort ersetzt worden.“ (Gebauer 1998, S.272)

Bei diesem Vorgang der Übertragung haptischer Strukturen auf symbolische Strukturen fungiert die schon erwähnte „materielle() Form des menschlichen Körpers“ als „Symbolkörper“. (Vgl. Gebauer 1998, S.265) Letztlich ist mit ‚Symbolkörper‘ auch nichts anderes gemeint, als daß die visuell-haptische Wahrnehmungskoordination (Hand/Auge) im Julian Jaynesschen Sinne zur ‚Metapher‘ für das abstrakt-begriffliche Denken wird. (Vgl. meinen Post vom 03.06.2015) Das bezieht sich nicht nur auf die Hand, sondern auch auf die verschiedenen Sinnesqualitäten (wie z.B. ‚inneres Auge‘ und ‚sehen‘ für Bewußtsein).

Die Struktur, die Anatomie und Morphologie des menschlichen Körpers dem subjektiven Selbst- und Weltverhältnis vorgeben, hat zunächst eine individuell-ontogenetische Ebene, die dem Erwerb der Sprache vorausgeht: „Wenn ein Kind beginnt, mit Wörtern umzugehen, hat es vorher schon die Gewißheiten festgesetzt, die für den Umgang mit Gegenständen nötig sind.“ (Gebauer 1998, S.264) – Wir haben es darüberhinaus aber auch mit einer phylogenetisch frühen Etappe der Menschheitsentwicklung zu tun, die fundamentaler ist und weiter zurückreicht als der neurophysiologische Befund eines relativ großen Gehirns. Gebauer beruft sich dabei auf Leroi-Gourhans „Hand und Wort“ (1980 (1964/65)): „Die Entwicklung des Gehirns folgt jener ‚des Körperapparates‘ ...“ (Gebauer 1998, S.267)

Es ist also nicht die Größe des Gehirns, die einen morphologischen Entwicklungsprozeß zum aufrechten Gang unterstützte, sondern es ist der Gebrauch, den schon die ältesten „Australanthropen“ und „Paläanthropen“ vom aufrechten Gang und von der von Fortbewegungszwecken freigesetzten Hand machten, der zum Gehirnwachstum führte: „Nach dieser Vermutung ist die menschliche Körperentwicklung zwar frühzeitig abgeschlossen, aber die Gehirnentwicklung steht mit den ersten Formen des Menschen erst an ihrem Anfang.“ (Gebauer 1998, S.268f.) – Wenn es also ein besonderes Organ der Bewußtwerdung des Menschen gibt, ist es die Hand, und nicht das Gehirn.

Seit diesen ersten Anfängen der Menschheitsentwicklung gehört Gebauer zufolge die „Verschränkung von Handgebrauch mit Werkzeug und Sprache“ „zu den rudimentären Eigenschaften des homo sapiens“ und spielt bis heute auch „in den entwickeltsten Formen des Denkens eine Rolle“. (Vgl. Gebauer 1998, S.269) Die Sprache ist also kein bloßes Produkt des Gehirns bzw. bestimmter neuronaler Bereiche des Gehirns. Das steckt schon in Wittgensteins sprachanalytischer These, daß die Sprache in erster Linie ihr Gebrauch sei. Aber der späte Wittgenstein geht hier sogar noch einen Schritt weiter. Auch die Sprache selbst hat ihren eigenen Ursprung allererst im Gebrauch des anatomisch modernen menschlichen Körpers. „Semantik“, so Gebauer, „ist im Ursprung eine körperliche Kategorie“. (Vgl. Gebauer 1998, S.274)

Gebauers Aufsatz ist für mich vor allem deshalb interessant, weil ich zwar bislang mit Plessner immer die fundamentale Bedeutung der Anatomie bzw. richtiger: der Morphologie des humanoiden Körpers in der Menschheitsentwicklung behauptet hatte, mir aber bislang das Argument fehlte, mit dem ich das hätte begründen können. Gebauer liefert mir jetzt dieses Argument, indem er beschreibt, wie die materielle Struktur dieses Körpers, insbesondere der Hand, zur Struktur des menschlichen Selbst- und Weltverhältnisses wird, als „Fähigkeit, sich in der Welt und der Welt gegenüber zu verhalten“. (Vgl. Gebauer 1998, S.259)

Natürlich beinhaltet auch Plessners Ästhesiologie (Verhältnisbestimmung der Sinnesorgane) so ein welt-konstituierendes strukturelles Moment. Aber die Sinnesorgane bilden ein primär passives Moment, im Sinne von Wiesings „Mich der Wahrnehmung“ (vgl. meinen Post vom 04.06.2010), das aus neurophysiologischer Perspektive gerne umstandslos auf Gehirnfunktionen zurückgeführt und zu einem Konstruktivismus umgedeutet wird. Bei der Aktivität unserer Hände hingegen haben wir es mit einer widerständigen Welt, mit Gegenständen zu tun. Halten, Verhalten und Haltung kommen auf der manuell-haptischen Ebene unmittelbar zusammen und verleihen unseren Bedürfnissen Gestalt und Ausdruck.

Die „Praxis des Körpers“ ist nämlich, wie Gebauer schreibt, nicht nur ein Handeln – was übrigens von ‚Hand‘ kommt –, sondern auch ein Verhalten ‚in‘ der Welt und der Welt ‚gegenüber‘, eine Haltung also, eine exzentrische Positionierung im Sinne Plessners: Zentrum und Peripherie zugleich.

Download