Preview only show first 10 pages with watermark. For full document please download

I Die Naturwissenschaftliche Methode

   EMBED


Share

Transcript

I DIE NATURWISSENSCHAFTLICHE METHODE 0 Was ist die Wissenschaftliche Methode? Die naturwissenschaftliche Methode ist eine wesentliche Basis unseres modernen Weltbildes, unseres Umgangs mit der Welt.  Sie hat unser Verständnis der Welt substantiell verändert .  Sie ist treibende Kraft der technologischen Entwicklung.  Sie strahlt von den Naturwissenschaften in Geistes und Sozialwissenschaften aus.  Sie prägt heute auch das Denken in vielen anderen Bereichen des Lebens. In der Folge wollen wir versuchen, die Kerncharakteristika und die Funktionsweise der Methode nachzuvollziehen.  Wir wollen einen gemeinsamen Nenner erfassen der die wissenschaftliche Methode von anderen Formen des Denkens über die Welt unterscheidet.  Und wir wollen verstehen worin das Erfolgsgeheimnis der Methode besteht. Ebenso wichtig wie diese Gemeinsamkeiten allen wissenschaftlichen Denkens zu sehen ist es jedoch zu betonen, dass es die eine kanonische und unverrückbare wissenschaftliche Methode nicht gibt. Die wissenschaftliche Methode hat sich über lange Zeit herausgebildet und weiterentwickelt. Leitlinie hierbei war und ist der Erfolg den die Methode gewährleistet. Die Qualität der wissenschaftlichen Methode ist selbst nicht a priori erschließbar sondern hängt an der Beschaffenheit der Welt. Wir erkennen Funktionstüchtigkeit oder auch Modifikationsbedarf der Methode wenn wir in die Welt schauen und auf dieser Basis die Effektivität der Methode feststellen. 1 Neue Beobachtungen führen daher nicht nur zu neuen Theorien sondern in weiterem Rahmen auch zu Verschiebungen von Spezifika der wissenschaftlichen Methode selbst. Auch funktioniert die wissenschaftliche Methode in unterschiedlichen Forschungsfeldern die mit ganz unterschiedlichen Herausforderungen und Formen empirischer Daten konfrontiert sind recht unterschiedlich. Wir wollen jetzt etwas mehr im Detail anschauen, wie die naturwissenschaftliche Methode aussieht. Parallel wollen wir auch immer begleitend die Frage stellen: warum gerade so? Was legitimiert die naturwissenschaftliche Methode? Warum hat sie sich gegenüber anderen naturphilosophischen Ansätzen so eindeutig durchgesetzt? Illustrierend werden wir immer wieder zum klassischen Fall der These des heliozentrischen Weltbildes zurückkommen. 2 1. Theoriengeladenheit der Beobachtung Grundstruktur: Beobachtung : Theorie Grundprinzip der Naturwissenschaften ist die starke Bindung an die Beobachtung. Eine erste Antwort auf die Frage nach den Gründen für den Erfolg die man geben könnte wäre: Während andere Formen des Denkens über die Welt von dogmatischen, erdachten Setzungen ausgehen, ist es oberstes Prinzip der wissenschaftlichen Methode, sich nur an den beobachteten Fakten zu orientieren. Eine wissenschaftliche Theorie wäre demnach der Versuch, die beobachteten Fakten bestmöglich zu strukturieren ohne irgendetwas durch Beobachtungen nicht gedecktes hinzuzufügen. Also etwa: Religion nimmt religiöse Dogmen an, die nicht durch Beobachtungen begründet sind. Auf dieser Basis schlossen Theologen irrigerweise auf die notwendige Gültigkeit des Geozentrischen Weltbildes. Astrologie nimmt astrologische Prinzipien an die nicht durch Beobachtung erschlossen sind. Auf dieser Basis macht sie irrige Behauptungen über den Einfluss von Himmelsphänomenen auf den Menschen. Astronomie als Wissenschaft basiert dagegen nur auf der präzisen Beobachtung des Himmels und sucht nach der besten Strukturierung dieser Beobachtungen. Sich an die beobachteten Fakten zu halten gewährleistet objektive Gültigkeit der wissenschaftlichen Theorien. Da ist schon etwas dran. Bei genauerer Analyse stellt sich aber ein Problem: Was sind die von der Wissenschaft beobachteten Fakten? Der naive Ansatz wäre, elementare Beobachtungssätze als Basis anzunehmen, die als unhinterfragbare Grundlage wissenschaftlicher Theorien fungieren. 3 Schon der logische Empirismus seit den 1930er-Jahren des 20 Jahrhunderts, der konzeptionell eine Rückführbarkeit wissenschaftlicher Aussagen auf Beobachtungssätze vertrat, hat aber mit dem Problem gerungen, dass es den unhinterfragbaren Beobachtungssatz nicht gibt. Egal auf welcher Ebene ich solche Sätze ansetze, es wird und muss – gerade im Sinne wissenschaftlicher Kritikfähigkeit – immer möglich sein, einen solchen Satz auch zu verwerfen. Es gibt auf verschiedensten Ebenen eindrucksvolle Beispiele für scheinbar evidente Beobachtungen die letztlich zu verwerfen sind. Angefangen von einer Unzahl optischer Täuschungen: gleich lange Linien erscheinen unterschiedlich lang, gleiche Farbtöne erscheinen ungleich, ruhendes bewegt, etc. Lange dachte man zum Beispiel, dass man unterschiedliche Durchmesser von Sternen beobachten könne. Heute weiß man, dass der Durchmesser jedes Sterns weit unterhalb der Wahrnehmungsgrenze liegt. Die gleiche Beobachtung wird also sehr anders interpretiert und damit auch anders beschrieben. Die Erkenntnis, wie man sie korrekt beschreibt basiert selbst auf einem Analyseschritt. Die Beobachtungsaussage ist also nicht unverrückbar. In komplexen Fällen ist eine wissenschaftliche Ausbildung nötig um eine Beobachtung sinnvoll zu beschreiben. Medizinisch Gebildete sehen etwas ganz anderes in einem Röntgenbild als der Laie. Das alles impliziert nicht, dass es keine objektive Grundlage für das Wahrgenommene gibt. Aber jede Wahrnehmung ist geprägt von angeborenen und erlernten mentalen Verarbeitungsprozessen, deren Resultat nicht von ‚reinen‘ Sinnesdaten trennbar ist. 4 Und die Grundlage für die Entwicklung einer wissenschaftlichen Theorie ist immer unser „Datenmodell“. Theorien über die Sternengrösse vor Galilei, um noch einmal auf das Beispiel zurückzukommen, waren dem Beobachtungsverständnis angepasst das davon ausging, dass man Ausdehnung von Sternen beobachtete. Wenn es aber keine absolute objektive Beobachtungsbasis gibt, woran lässt sich dann die wissenschaftlicher Objektivität festmachen? Eine Antwort besteht in der Idee, dass man wenn ausreichend Zeit und guter Wille auf beiden Seiten da ist, jedem Laien das wissenschaftlich korrekte Lesen eines Datenbefundes beibringen und erklären kann. Das Datenmodell das der Wissenschaftler verwendet ist also insofern intersubjektiv als es dem entspricht wie man wenn man gut ausgebildet und intelligent ist die Beobachtungen modellieren sollte. Aber dieser Standard kann sich mit der Zeit ändern. Auch das liefert also keine solide Grundlage für eine objektive Ausgangsbasis der wissenschaftlichen Analyse. Letztendlich ergibt sich die Stabilität unserer Sinnesdaten aus der Kohärenz und Stabilität unseres gesamten Weltbildes. Im Rahmen dieses Weltbildes können wir dann oft sehr klar zwischen Beobachtungsdaten und Theorie unterscheiden. 5 2 Theorie und ihr Verhältnis zur Beobachtung: HypothetikoDeduktivismus Der 2. Teil der wissenschaftlichen Aktivität ist das Erstellen und die Analyse der Theorie. Ein entscheidender Aspekt der Naturwissenschaften: Theorien sind formalisiert, d.h. mathematisch formuliert. z.B: Newtons Gravitationsgesetz: 𝐹= 𝐺𝑚1 𝑚2 𝑟2 𝑎 = 𝐹/𝑚 𝑎: 𝐵𝑒𝑠𝑐ℎ𝑙𝑒𝑢𝑛𝑖𝑛𝑔𝑢𝑛𝑔, 𝐹: 𝐾𝑟𝑎𝑓𝑡, 𝑚: 𝑀𝑎𝑠𝑠𝑒, 𝑟: 𝐷𝑖𝑠𝑡𝑎𝑛𝑧 Wie steht die Theorie zum Experiment? Habe ich eine Theorie, kann ich aus Anfangsbedingungen zukünftige Beobachtungen herleiten. Also: Wenn ich die Positionen der zweier massiver Objekte zum Zeitpunkt t1 kenne, kann ich die Positionen der Objekte zum Zeitpunkt t2 aus der Theorie herleiten. (deduzieren). Eine klassische Form der Modellierung des Wissenschaftsprozesses ist der Hypothetiko-Deduktivismus: 1: Eine Beobachtung wird gemacht. 2: Die Wissenschaftlerin sucht nach einer Erklärung dieser Beobachtung und stellt schließlich eine Hypothese auf, die diese Erklärung leisten kann. 3: Sie leitet aus dieser Hypothese Prognosen her. 4: Diese Prognosen werden im Experiment getestet Wenn die Prognosen eintreten, wird die Hypothese bestätigt, wenn nicht ist sie wiederlegt und eine neue Hypothese muss gesucht werden. 6 Weitere Beobachtungen werden gemacht, solange bis man eine findet, die nicht mit einer Prognose der Theorie übereinstimmt. => zurück bei 1: Beobachtung 1 Kreativer Schritt Hypothese Deduktion Prognose Das bedeutet, die Prognosen lassen sich aus der Theorie herleiten. Nicht aber die Theorie aus den Daten. 7 2.3: Deduktion, Induktion und Abduktion Wie aber komme ich auf die Theorie? Klar ist, ich kann die Theorie nicht aus den Daten deduzieren. Im Hypothetikodeduktivismus haben wir diesen Schritt als ‚kreativen Schritt‘ eingeführt. Kann man mehr darüber sagen? Um die Situation besser zu verstehen wollen wir 3 verschiedene Schlussprinzipien ansehen: Deduktion, Induktion und Abduktion. Deduktion Deduktion ist das logische Schließen von einer Menge von Ausgangssätzen auf eine Konsequenz. Beispiel: a Alle Menschen sind sterblich b Sokrates ist ein Mensch c Sokrates ist sterblich. Wenn a und b dann c. Die Gültigkeit dieses Schlusses hängt nicht vom Inhalt der Aussagen ab, nur von ihrer Form und der Gültigkeit der logischen Axiome. Wir müssen als nicht in die Welt schauen, um ihre Wahrheit zu erkennen, sondern nur die logischen Axiome annehmen und auf ihrer Basis die Schlussfolgerung herleiten (deduzieren). 8 Alle mathematischen Aussagen sind von dieser Form. Das Extrahieren von Prognosen aus einer Theorie ist angewandte Mathematik (das heißt mathematische Analyse von naturwissenschaftlich interpretierten Aussagen) und daher deduktiv. Induktionsschluss: Deduktion kann also zu Prognosen unter der Annahme führen, dass die Theorie wahr (oder zumindest in einem gewissen Rahmen „gültig“ ist. Aber wie kann man die etablieren, dass die Theorie gültig ist? Was man auf jeden Fall braucht ist der Schluss von einer beobachteten Serie von Ereignissen auf das nächste Ereignis. Ich schließe also etwa daraus, dass jeden Tag die Sonne untergeht, dass das auch morgen so sein wird. Das Kernproblem das dabei auftritt ist Humes Induktionsproblem: Aus gesammelten Daten ist niemals ein Regularitätsprinzip strikt deduktiv herleitbar. Es besteht immer die logische Möglichkeit, dass beim nächsten Schritt die Regel nicht mehr gilt. Schönes Beispiel Bertrand Russels: Das Huhn glaubt solange, dass der Bauer immer wenn er kommt Futter bringt bis er kommt es zu schlachten. Dennoch hat es sich einfach bewährt, nach Regularitäten zu suchen. Wir tun es ständig im Alltag, wir tun es auch in der Wissenschaft. Genauer gesagt schließen wir aber nicht nur auf das nächste Ereignis sondern auf die allgemeine Gültigkeit einer Theorie, eines Naturgesetzes. Wir schließen daraus, dass die Sonne bisher jeden Tag untergegangen ist darauf, dass sie jeden Tag untergehen wird (ist das streng genommen wahr?), Das bedeutet aber streng genommen, dass wir die Gültigkeit unseres Schlusses nie empirisch überprüfen können. Wir können immer nur die nächsten prognostischen Schritte überprüfen, nie aber die universale Gültigkeit unserer Theorie. 9 Auch das ist aber genau genommen nichts Neues. Wir schließen im Alltag auch grob gesagt darauf, dass die Sache ‚immer‘ so ist, wenn wir sie konsistent in einer Form beobachten. Man kann also die These vertreten, die wissenschaftliche Methode wäre einfach eine verbesserte Methode Induktionsschlüsse zu ziehen. Naturwissenschaft schaut einfach ‚genauer hin‘ (experimentelle Methode) und analysiert präziser ((Mathematisierung), tut aber sonst nichts anderes als das, was jeder im Alltag wenn er einen Induktionsschluss zieht auch tut. Es gibt dieser Ansicht nach kein neues philosophisches Problem hinsichtlich des prognostischen Erfolges von Wissenschaft das über das Induktionsproblem hinausgeht. Als grobe erste Annäherung funktioniert diese Perspektive wohl. Allerdings gibt es einige Überlegungen, die diesen Ansatz im Detail unzureichend erscheinen lassen. Diese Überlegungen führen zur Formulierung eines neuen Prinzips. Das Prinzip der Abduktion (Inferenz auf die beste Erklärung): Auch die Unzulänglichkeit des reinen Induktionsschlusses sieht man erst in der Wissenschaft. Schauen wir uns ein Alltagsbeispiel an: (aus van Faassens Buch ‚The Scientific Image‘ entlehnt) Nehmen wir an, wir hören in unserer Wohnung seit neuestem häufig ein Kratzen hinter unserem Wandverbau. Wir stellen weiters fest, dass Käsestücke, die wir dort auf den Boden legen, später verschwunden sind. Nun könnten wir rein induktiv schließen, dass wir auch morgen wieder ein Kratzen hören werden und dass auch morgen wieder Käse den wir auf den Boden legen verschwinden wird. Wir können aber – und werden wohl vernünftigerweise – Schlussfolgerungen ziehen, die weit über diesen engen Rahmen hinausreichen. Wir werden etwa schließen, dass eine 10 Maus in unserem Wandverbau ist und auf dieser Basis alle Schlussfolgerungen ziehen, die sich daraus ableiten lassen: dass Verdauungsüberreste der Maus hinter dem Wandverbau sein werden, dass wir die Maus sehen können, wenn wir uns auf die Lauer legen, etc. Der Schluss auf die Maus ist ein Abduktionsschluss. Man nennt ihn auch Inferenz auf die beste Erklärung. Wir können ihn nicht einfach auf Basis dessen ziehen, dass wir beobachtete Regelmäßigkeiten fortsetzen. Wir können sie anwenden, wenn wir ein Arsenal möglicher Erklärungen meiner Beobachtungsdaten habe und mit bestehenden Daten konfrontieren. Die beste der vorhandenen Erklärungen wählt man dann aus. Wir müssen um einen Abduktionsschluss zu ziehen viel mehr wissen als für einen einfachen Induktionsschluss: In unserem Fall einerseits, dass es Mäuse gibt und wie sie sich verhalten. Andererseits aber auch, dass das Spektrum der in unserem Lebensbereich ablaufenden Prozesse sonst nicht viel einschließt was den vorhandenen Datenbefund erklären könnte. (So etwa schließen wir Klaubautermänner und Kobolde als Erklärung aus.) Das heißt, wir müssen, auf Basis unseres Gesamtverständnisses der Situation der Meinung sein, dass wir einen recht guten Überblick über die möglichen Alternativen haben, also darauf vertrauen können, dass die Möglichkeiten die uns einfallen wahrscheinlich alle plausiblen Möglichkeiten sind. (Wenn wir auf Urlaub im Amazonasdelta sind werden wir davon, dass wir die Quelle der Kratzens richtig einordnen weniger überzeugt sein weil wir davon ausgehen, dass wir keinen Überblick über die Lokale Fauna haben – man nennt das das „best of a bad lot“ Problem.) Wir haben also im Alltag Situationen wo wir direkt induktiv schließen und solche wo wir auf Basis unseres breiteren Kontextwissens Abduktionsschlüsse ziehen. Ganz ähnlich ist es in den Wissenschaften. Sicherlich gibt es Formen wissenschaftlichen Schließens die ganz gut im Sinne eines reinen Induktionsschlusses zu sehen sind. Nehmen wir zum Beispiel den Schluss von der Bewegung eines Planeten gemäß den Newtonschen Gravitationsgesetzen darauf, dass sich dieser Planet und alle anderen Himmelskörper in der Zukunft auch 11 diesen Gesetzen gemäß verhalten werden. Das ist eine sehr starke Aussage (die auch nicht wirklich korrekt ist), sie lässt sich aber gut als wissenschaftliche Erweiterung des Induktionsprinzips das wir aus dem Alltag kennen verstehen. In anderen Fällen aber gehen die Prognosen einer physikalischen Theorie weit über das hinaus, was man im Alltag unter Induktion verstehen würde. Und zwar dann, wenn auf Basis einer Theorie ein ganz neues Phänomen vorhergesagt wird. Ein gutes Beispiel ist Einsteins Prognose der Lichtbeugung an massiven Objekten auf Basis der allgemeinen Relativitätstheorie. Newtons Theorie sagt so eine Lichtbeugung nicht voraus und sie wurde vor der Entwicklung der allgemeinen Relativitätstheorie auch nicht beobachtet. Hier sagt die Theorie also ein neues Phänomen eines Typs voraus, der bisher überhaupt nicht beobachtet wurde. Grundlage dieser Prognose ist die Tatsache, dass jene Theorie, die man zur Beschreibung bestimmter Phänomene gefunden hat, auch das prognostizierte Phänomen impliziert. Ein klassischer Fall eines Abduktionsschlusses. In einer Hinsicht ist die Anwendung des Abduktionsschlusses in den grundlegenden Wissenschaften aber wesentlich schwieriger motivierbar als im Alltag. Im Alltag basiert der abduktive Schluss wie wir gesehen haben darauf, einen Überblick über die vorhandenen Phänomene zu haben und bei Bedarf eines derselben einzusetzen. In der Physik oder anderen Naturwissenschaften kann Abduktion aber nicht auf dieser Basis funktionieren, da wir ja eben gerade Erklärungen (Theorien) konstruieren wollen die konzeptionell grundlegend neu sind. Was ist also die Basis für den Abduktionsschluss in der Physik? Auf welcher Grundlage können wir, wenn wir eine Erklärung gefunden haben, annehmen, dass es ‚die beste‘ ist und dass die beste – und wahre – Erklärung uns nicht noch unbekannt ist? Wie wollen wir einen Überblick über mögliche Erklärungen haben die wir gar nicht kennen? Diese Frage ist eine Kernfrage der Wissenschaftstheorie. Einen Erklärungsansatz werden wir später noch kennenlernen. 12 Zunächst einmal wollen wir nur einmal festhalten, dass philosophisch betrachtet sowohl das Funktionieren des Induktionsschlusses als auch des Abduktionsschlusses keineswegs eine triviale Sache ist. 13 14 4: Falsifikation Wir haben jetzt die Grundstruktur der naturwissenschaftlichen Methode kennengelernt: Präzise quantitative Beobachtungen bzw. Experimente, mathematisch formalisierte Theorien die diese Beobachtungen reproduzieren können und neue Prognosen machen. Haben wir damit die naturwissenschaftliche Methode von anderen Spielarten des Denkens gut abgegrenzt? Nicht wirklich. Manche Spielarten der Astrologie etwa genügen diesen Bedingungen auch. Eine sehr einflussreiche Antwort darauf was Wissenschaften demgegenüber auszeichnet ist Poppers Falsifikationskriterium: Wissenschaftliche Theorien legen im Vorhinein klar fest, unter welchen Bedingungen sie falsifiziert wären. Dadurch entsteht ein Selektionsprozess, der Theorien verwirft und nur solche Theorien überleben lässt, die ihre Falsifikationsversuche überleben. Pseudowissenschaftliche Theorien wie etwa Astrologie dagegen zielen darauf ab sich so zu immunisieren, dass sie alle vorstellbaren Beobachtungen „überleben“, das heißt, obwohl sie vorgeblich Prognosen machen immer ex post erklären können warum die Theorie mit dem Scheitern der jeweiligen Prognose vereinbar ist. Das Qualitätskriterium einer wissenschaftlichen Theorie dagegen ist, möglichst präzise und möglichst viele Möglichkeiten ihrer Widerlegung anzubieten. Je leichter eine Theorie zu falsifizieren wäre, umso stärker ist sie. Starke Theorien, die dennoch viele Falsifikationsversuche überleben – deren Prognosen also in vielen unterschiedlichen empirischen Tests mit den empirischen 15 Daten übereinstimmen – sind gute Theorien. Wir haben gute – also prognostisch starke und erfolgreiche - Theorien, weil sie die sind, die überlebt haben. Bas van Fraassen, der heute einflussreichste empiristische Wissenschaftstheoretiker, nennt diesen Ansatz die Darwinistische Erklärung für die hohe Qualität reifer wissenschaftlicher Theorien. Bis heute ist das Prinzip der Falsifikation eines der zentralen Leitbilder wissenschaftlichen Denkens und Handelns. Um klare und verbindliche Prognosen zu machen setzt die naturwissenschaftliche Methode zwei Prinzipien ein: 1) Definitionen und Thesen werden so präzise wie möglich gemacht. Die Logische Struktur eines wissenschaftlichen Arguments muss klar ersichtlich sein und die Logische Konsistenz ist Voraussetzung für dessen Gültigkeit. Es gibt also so etwas wie einen Kern rationaler Argumentationstechnik der wissenschaftliches Denken trägt. 2) Wann immer möglich wird die Theorie mathematisiert. Auf Basis der Mathematisierung können präzise Theorien formuliert werden, die auf der Basis von quantitativ angesetzten Anfangsbedingungen quantitativ präzise Prognosen machen. Das ermöglicht Präzisionstests von Theorien. Die Formalisierung naturwissenschaftlicher Theorien erscheint aus dieser Perspektive als Konsequenz der bestmöglichen Umsetzung des Falsifikationsprinzips. 16 5: Theorienbestätigung Popper selbst dachte, durch das Falsifikationsprinzip die Rolle der Bestätigung einer Theorie für den Wissenschaftsprozess zu beseitigen. Um wissenschaftlich zu argumentieren reicht es, die Theorien Falsifikationsversuchen auszusetzen und zu konstatieren ob sie erfolgreich waren. Heute erscheint das allgemein als zu ‚dünnes‘ Verständnis von Wissenschaft. Der Wissenschaftler will mehr als nur zu Kenntnis nehmen, dass seine Theorie noch nicht widerlegt ist. Manche (die Wissenschaftlichen Realisten) sagen, er oder sie will verstehen ob eine Theorie annähernd wahr ist. Aber selbst wenn man das nicht so sehen will bleibt eines klar: Wissenschaftler wollen verstehen ob sie den weiteren Prognosen der Theorie vertrauen können. Theorienbestätigung wird als Basis dieses Vertrauens gesehen. Dass das so ist kann man in erster Näherung als Vertrauen in Induktion bzw. Abduktion verstehen. Dass es ein zentrales Element des Wissenschaftsprozesses ist dieses Vertrauen aufzubauen lässt sich am besten dort sehen wo dieses vertrauen sehr weitreichende methodische Konsequenzen hat. Ein gutes Beispiel aus der Hochenergiephysik ist die jüngste Entdeckung des Higgsteilchens. Ein Grund davür, dass es wichtig ist hier von Entdeckung zu sprechen ist der, dass, sobald ein neues Teilchen entdeckt ist, alle zukünftigen Berechnungen in dem Feld (und damit alle zukünftig gemachten Prognosen) die Implikationen dieses Teilchens berücksichtigen. Das Vertrauen in die Theorie sobald sie empirisch bestätigt ist spielt also eine ganz zentrale Rolle dafür wie die Hochenergiephysik betrieben wird. 17 Wir haben also die folgende Situation: 1) Die Möglichkeit Vertrauen in die Prognostik einer Theorie aufzubauen ist wesentlich für den Naturwissenschaftsprozess – und natürlich auch für technische und andere Anwendungen der Naturwissenschaften. 2) Theorienbestätigung begründet solches Vertrauen. Frage: Warum? 18 6: Das Phänomen des prognostischen Erfolges wissenschaftlicher Theorien (novel confirmation): Galilei war in einer Situation wie der eben beschriebenen als er seine Beobachtungen mit dem Fernrohr machte. Galilei verteidigte die Theorie Keplers, dass die Erde und die Planeten in elliptischen Bahnen um die Sonne kreisen gegen die Verteidiger des ptolemaischen Weltbildes nach dem die Erde im Zentrum steht und Sonne, Mond und Planeten um die Erde kreisten. Er beobachtete unter anderem Monde des Jupiter. Diese Beobachtung war für Galilei ein klarer Hinweis auf die Gültigkeit des heliozentrischen Weltbildes. Seine Gegner aber sagten, die Beobachtungen könnten Effekte des Fernglases sein die Galilei nur auf Basis seiner Ausgangsthesen als Monde interpretierte. Galilei antwortet auf diesen Einwand auf ganz bestimmte Art: Er prognostiziert zukünftige Positionen der Monde. Der Erfolg neuer Prognosen ist immer noch kein Beweis dafür, dass es keine andere Erklärung für eine Beobachtung gibt die die gleichen Prognosen macht. Aber er stärkt massiv eine wissenschaftliche These. Galilei konnte mit seinem prognostischen Erfolg einige Kritiker überzeugen. Eine Schlüsselfrage zur Bewertung einer wissenschaftlichen Theorie: Nehmen wir an, eine Theorie bildet bestimmte Daten ab. Ein neuartiges Phänomen tritt auf und verschwindet wieder. So etwas wie ein Komet. Wir haben zwei Forschergruppen auf 2 Inseln, ohne Interaktionsmöglichkeit. Die erste Forschergruppe wartet ab bis das Phänomen wieder verschwindet, sammelt alle Daten D, und baut dann eine Theorie T1 die den Daten genügt. 19 Die zweite Gruppe findet schon nach der Hälfte der Zeit in der das Phänomen beobachtbar ist ihre Theorie T2 und testet sie in der 2. Hälfte der Zeit. Alle gemachten Prognosen treffen zu. Nach Ende des Phänomens weiß also auch die zweite Gruppe, dass ihre Theorie T2 allen Daten D genügt. Nach Ende des Phänomens warten beide Gruppen auf dessen Wiederkehr um weitere Untersuchungen zu machen. Die Frage ist: Beide Gruppen wissen, dass ihre Theorie die Daten D korrekt abbildet. T1 ist nur an Daten angepasst gebaut. T2 hat erfolgreich prognostiziert. Hat Gruppe 2 mehr Grund ihrer Theorie zu trauen? Die Frage ist in der Wissenschaftstheorie hochumstritten. Wenn es aber nicht um einzelne Theorien geht sondern um die Bewertung der wissenschaftlichen Methode als ganze, dann scheint klarer, dass Prognosen wichtig sind um die Qualität der wissenschaftlichen Methode zu demonstrieren. 20 7: Theorienabfolge, Normalwissenschaft, Wissenschaftliche Revolution Wir haben gesehen, dass Falsifikation eine ganz zentrale Rolle im Rahmen des wissenschaftlichen Fortschritts spielt. Theorien werden empirisch getestet und wenn sie nicht mit den Daten übereinstimmen verworfen. Aber wann genau wird eine Theorie verworfen? Das einfachste Bild wäre, man testet bis man einen empirischen Widerspruch mit der Theorie (eine empirische Anomalie) findet und wenn das der Fall ist verwirft man sie und baut eine neue die die neuen Daten reproduzieren kann. Ganz so einfach ist das aber nicht. Es gibt zwei Grundprobleme. Erstens: Es ist nicht klar wo der Grund für die Anomalie liegt. Die getestete Theorie könnte falsch sein. Es könnte aber auch unser Verständnis der Beobachtung oder des Experiments falsch sein, oder das Experiment fehlerhaft. Pierre Duhem, ein bedeutender Wissenschaftstheoretiker der Wende zum 20. Jahrhunderts hat als Prinzip formuliert: Es gibt kein Experimentum cruxis. Ich kann bei jeder Datenlage meine Theorie retten wenn ich ausreichend radikale Veränderungen an anderen Teilen meines Gedankengebäudes zulasse. Es mag sein, dass diese Änderungen so weit hergeholt oder unplausibel erscheinen, dass es nur eine seriös vertretbare Conclusio gibt. Aber es gibt keine Möglichkeit die Alternativen absolut auszuschließen. Es gibt noch ein zweites Problem. Was passiert wenn eine Anomalie auftritt, sich aber keine bessere Theorie finden lässt? Es wäre unsinnig, in einem solchen Fall eine Theorie, die sonst gute Dienste leistet nicht mehr zu verwenden. 21 In diesem Fall lebt die Theorie mit der Anomalie weiter. Es ist in solchen Fällen oft gar nicht klar wie substantiell die Änderungen an der Theorie sein müssen um letztlich doch die Daten zu erklären. Es wäre sehr ineffizient in einem solchen Fall beim Auftreten einer Anomalie gleich das gesamte Konzept der Theorie zu hinterfragen. Es ist also oft so, dass man bei sehr erfolgreichen Theorien auch recht viel an Problemen in Kauf nimmt bevor man ernsthaft an ein substantielles Verwerfen denkt. Statt das zu tun kann man  die Qualität des Experiments bezweifeln  die Qualität der Datenanalyse bezweifeln  Im Rahmen der alten Theorien zu versuchen, durch Zusatzannahmen die Anomalie zu beseitigen. (neuer Planet)  in Betracht ziehen, dass ein ganz neues Phänomen gefunden wurde das unabhängig vom zu untersuchenden ist du den gemessenen Effekt ausmacht.  annehmen, dass man in Zukunft schon eine mit der Grundtheorie in Einklang stehende Erklärung finden wird. Imre Lakatos nennt das Arsenal an möglichen Maßnahmen um eine Theorie vor ihr widersprechenden Daten in Schutz zu nehmen den „protektive belt“ (Schutzgürtel) der Theorie. Ein nettes Beispiel für die Stärke des protective belt ist eine berühmte Episode die Max Planck erzählt. Als er um 1880 seine Doktorarbeit beginnen wollte sagte ihm ein bekannter älterer Physiker, er würde an seiner Stelle besser eine andere Wissenschaftsdisziplin suchen, die Physik sei weitgehend abgeschlossen. Es gäbe nicht Wesentliches mehr zu entdecken. Diese Einstellung war im ausgehenden 19. Jh durchaus gängig. 22 Der Witz dieser Episode ist natürlich, dass etwa 20 Jahre später, im Jahre 1900, gerade Planck den ersten wesentlichen Schritt zur fundamentalen Umwälzung der Physik durch die Quantenmechanik machte. Interessant an der Geschichte ist aber auch, dass die zitierte Aussage gemacht wurde obwohl es zu der Zeit durchaus Anomalien der klassischen Physik gab. Z.B. konnte die kinetische Gastheorie die gemessene spezifische Wärme nicht überzeugend erklären, was tatsächlich erst in einem quantenmechanischen Rahmen möglich ist. Der „protective belt“ um die klassische Physik war aber so stark, dass die Überzeugung verbreitet war, diese Anomalien müsste ohne substantielle theoretische Änderungen aus der Welt zu schaffen sein. Eine eigene und lange Zeit sehr einflussreiche Perspektive auf diese Situation hat Thomas Kuhn entwickelt. Kuhn führt das Konzept der wissenschaftlichen Paradigmas ein. Ein wissenschaftliches Paradigma ist so etwas wie eine Denkweise über eine wissenschaftliche Problematik, die sich in einer grundlegenden Theorie ausdrückt. Nun gibt es nach Kuhn 2 Denkrahmen in denen Wissenschaftler arbeiten. Der eine ist der Denkrahmen der Normalwissenschaften. Hier wird im Rahmen des vorherrschenden Paradigmas gearbeitet. Ziel ist es, mit den durch das Paradigma bereitgestellten Methoden Probleme zu lösen („puzzle solving“). Wenn eine Anomalie auftritt, dann wird versucht, sie im Rahmen des gegebenen Paradigmas zu beseitigen. Erst wenn sich Anomalien häufen und die Fähigkeit im Rahmen des alten Paradigmas überhaupt noch neue Probleme zu lösen markant abnimmt, wird die Situation als Krise empfunden. 23 In einer solchen Krise wird nach neuen Paradigmen gesucht. Dies stellt dann die zweite Form des wissenschaftlichen Prozesses dar. Wird ein überzeugendes und produktives neues Paradigma gefunden, kommt es zu einer wissenschaftlichen Revolution. Kuhn meint nun, dass wissenschaftliche Revolutionen so grundlegend sind, dass es eine Inkommensurabilität zwischen altem und neuem Paradigma gibt. Diese Inkommensurabilität führt dazu, dass es in der revolutionären Phase keine rationale Entscheidungsmöglichkeit zwischen den Paradigmen gibt. Erst wenn sich das neue Paradigma länger bewährt hat wird de facto unbezweifelbar, dass es stärker ist als das alte. (Das entspricht grob Plancks bekanntem Satz, dass Theorien sich nicht durchsetzen indem ihre Gegner überzeugt werden sondern indem sie aussterben.) Ein interessanter unterschiedlicher Aspekt des Paradigmenwechsels wissenschaftlicher Zielsetzungen ist die Möglichkeit aufeinanderfolgender Paradigmen. Beispiel Planetenbahnen: Für Kepler war es zentral, die Verhältnisse zwischen den Planetenabständen zu erklären (wie das die Quantenmechanik für das Atom ja tatsächlich liefert) Newtons Mechanik erklärt diese Abstände für unerklärbar. Wer also den Keplerschen Anspruch nicht aufgibt, wird nicht zum Newtonschen Paradigma überlaufen. Der überwältigende Erfolg des Newtonschen Paradigmas ließ aber dennoch sehr bald niemandem mehr eine andere Wahl. 24 8: Universalität Sie begründet die Suche nach höherer Universalität wissenschaftlicher Theorien. Sie zeigt, dass der Universalitätsanspruch in den Wissenschaften kein rein ästhetisches Kriterium ist sondern einen soliden empirischen Hintergrund hat: wenn getrennte Bereiche durch unterschiedliche Theorien beschrieben werden dann ist es oft aus empirischen Gründen nötig eine Theorie zu finden die beide ‚kleineren‘ Theorien umfasst. Die Struktur ist dann die folgende: Beide Teiltheorien sind als Näherungen der grundlegenderen Theorie verstehbar. Ich vernachlässige aber unterschiedliche Parameter weshalb ich ausgehend von der universalen Theorie bei verschiedenen Teiltheorien lande. Hier gibt es einen ganz wesentlichen Unterschied zwischen dem Schritt zu allgemeingültigeren Theorien in der fundamentalen Naturwissenschaft und Verallgemeinerungen etwa in den Geisteswissenschaften. In beiden Fällen beginnen wir mit einer Theorie mit begrenztem Zuständigkeitsbereich und wollen diesen erweitern. Nehmen wir an wir haben eine bestimmte Beobachtung über gesellschaftliche Verhältnisse in einem Dorf zur Zeit t. Wir versuchen diese Beobachtung möglichst präzise zu machen. Dann fragen wir, ob wir einen vergleichbaren Sachverhalt auch in anderen Gegenden, zu anderen Zeiten finden. Wir werden feststellen, dass sich die Situation je mehr wir uns vom Ausgangspunkt entfernen umso deutlicher von der Anfangs beschriebenen unterscheidet. Dennoch kann es sehr erhellend sein, eine These so allgemein zu formulieren, dass sie auf ein breites Spektrum von Orten und Zeiten zutrifft. Je breiter wir dieses Spektrum aber ansetzen, umso allgemeiner wird diese These sein, umso weniger präzise wird sie der Situation im Ausgangsdorf zum Zeitpunkt T gerecht werden. 25 Man steht also immer vor der Abwägung, wo die Verallgemeinerung noch gewinnbringend ist und wo sie nur mehr durch so viele Vagheiten zu erkaufen ist, dass es besser ist eine inhaltlich stärkere aber weniger universelle Aussage zu machen. Ganz anders die Situation in der fundamentalen Naturwissenschaft. Hier sind die limitierteren Theorien Näherungen der universaleren Theorie, die universalere Theorie ist also nicht nur breiter gültig sondern auch präziser. Die Suche nach Universalität ist also zugleich eine Suche nach höherer Präzision. Die Beziehung zwischen grundlegender und effektiver Theorie ist reduktionistisch. Die hohe Bedeutung der Universalität impliziert also auch eine reduktionistische Struktur der Naturwissenschaft. 26