‹ Alle Einträge

Wie wissenschaftlich ist die Neoklassik?

 

Vor einigen Wochen haben Vertreter des Netzwerks Plurale Ökonomik im FAZIT, dem Wirtschaftsblog der FAZ, einen Beitrag über den nicht stattfindenden Dialog zwischen “Mainstream”-Wirtschaftswissenschaft und anderen ökomischen Denkschulen geschrieben. Den wiederum hat der Nachwuchsbeauftragte des Ökonomen-Verbands “Verein für Socialpolitik”, Rüdiger Bachmann, heftig kritisiert. Bachmann meint, den Pluralen gehe es eigentlich gar nicht um die Sache, sondern um Ideologie; vor allem würden sie gar nicht richtig verstehen, was die Neoklassik eigentlich sagt. Und überhaupt wundere es ihn, dass vor allem Vertreter anderer Disziplinen wie der Politikwissenschaft, der Wirtschaftsgeographie oder der Betriebswirtschaftslehre ständig an der Ökonomik mäkelten.

Man kann viel über den Beitrag der Pluralen und vielleicht noch mehr über Bachmanns Beitrag sagen, vor allem darüber, ob es im Streit zwischen Pluralen und “Mainstream” um Ideologie oder um Wissenschaft geht. Hier möchte ich aber versuchen, die Kritik an der Neoklassik – einem wichtigen Teil des “Mainstreams” – an der Frage aufzuziehen, wie wissenschaftlich die Neoklassik eigentlich ist. Denn der Kern der Kritik Bachmanns an anderen Disziplinen ist, dass die Neoklassik wissenschaftlich und nicht ideologisch sei. (Vorsicht, der folgende Text ist etwas länger geraten – nehmen Sie sich Zeit.)

Die Frage nach der Wissenschaftlichkeit der Neoklassik hat sich jüngst der österreichische Ökonom und Philosoph Jakob Kapeller gestellt. In seinem Buch “Modell-Platonismus in der Ökonomie” kommt er wie schon Hans Albert in den 1960er Jahren, der den Begriff “Modell-Platonismus” geprägt hat, zu dem Schluss, dass die neoklassische Ökonomik Schwierigkeiten hat, überhaupt grundlegenden wissenschaftlichen Ansprüchen zu genügen. Aufbauend auf Hans Albert verwendet Kapeller dabei als Maßstab den Wissenschaftsbegriff des Kritischen Rationalismus, der auf den österreichischen Philosophen Karl Popper zurückgeht.

Formuliere deine Theorien so, dass man sie kritisieren kann

Laut Kritischem Rationalismus sind Theorien mit hoher Wahrscheinlichkeit niemals richtig. Sie können aber so lange gelten, wie sie nicht durch die Konfrontation mit der Realität widerlegt, also “falsifiziert” werden. Laut dem Kritischen Rationalismus haben Wissenschaftler die Pflicht, ihre Theorien so zu formulieren, dass diese sich kritisch testen lassen, das heißt, dass sie prinzipiell (empirisch) widerlegt werden können. Je nachdem wie sich eine Theorie im Test bewährt, kann sie dann verbessert oder ganz verworfen werden.

Werden Theorien aber empirisch gar nicht getestet – sei es, weil sich niemand findet, der sie testen möchte, oder weil sie so formuliert sind, dass eine konzise Überprüfung technisch nicht möglich erscheint –, ist auch nicht festzustellen, ob eine Theorie überhaupt sinnvolle Aussagen über die Realität macht. Der Kern von Alberts und Kapellers Kritik ist nun gerade, dass sich die neoklassische Theorie in vielen Fällen auf unterschiedliche Weise gegen Tests immun macht und sich so einer “kritische Prüfung” entzieht.

Nun wird jeder moderne Ökonom vollkommen zu Recht einwerfen, dass gerade in der Ökonomie Daten, Experimente und komplexe statistische Verfahren eine große Rolle spielen und Theorien daher dauernd mit der Realität konfrontiert werden. Das trifft zwar zu, aber Kapeller zeigt, dass die neoklassischen Theoriebausteine logisch oft so unklar aufgestellt sind, dass sich sogar im Fall relativ eindeutiger empirischer Widerlegungen spezifischer Aussagen Mittel und Wege finden lassen, die neoklassische Theorie insgesamt unangreifbar zu machen. Der zentrale Trick ist dabei, die Theorien so zu formulieren, dass sich immer behaupten lässt, dass ein spezifischer Test der Theorie – aufgrund bestimmter Umstände (auf die ich weiter unten zu sprechen komme) – gar nicht als Falsifizierung der Theorie gelten kann.

Für seine Kritik greift Kapeller auf die Prinzipien der Logik zurück. Jede Theorie ist so aufgebaut, dass sie verschiedene Axiome, Prämissen oder Annahmen enthält, aus denen sich dann Schlussfolgerungen (so genannte “Theoreme”) ableiten lassen. Im Fall der Ökonomie können dabei sowohl die abgeleiteten Folgerungen als auch ein Gutteil der Axiome an der Realität getestet werden – dies geschieht allerdings oft nur inkonsequent. Warum das so ist, kann anhand eines sehr einfachen Beispiels mit zwei Annahmen und einer Folgerung gezeigt werden:

Annahme 1 sei: “Wenn es Sommer wird, steigt die durchschnittliche Temperatur.”

Annahme 2 sei: “Wenn die durchschnittliche Temperatur steigt, bekommen Kinder von ihren Eltern mehr Speiseeis.”

Aus diesen beiden Axiomen kann man jetzt das folgende Theorem ableiten: “Wenn es Sommer wird, bekommen Kinder von ihren Eltern mehr Speiseeis.”

Der Theoretiker kann dann überprüfen, ob Kinder im Sommer tatsächlich mehr Speiseeis bekommen oder nicht. Wenn nicht, ist die Theorie (vorerst) falsifiziert. Dann muss der Theoretiker wieder zu seinen Annahmen zurückgehen, einige ersetzen oder neue hinzufügen, daraus neue Theoreme ableiten und diese dann wieder testen. Das sollte der Weg der Wissenschaft sein.

Annahmen dürfen nicht falsch sein!

Mit diesem einfachen Beispiel können wir schon eine erste Schwierigkeit einer Theorie betrachten: Ein Theorem ist immer dann wahr, wenn seine Axiome wahr sind (und die Ableitung des Theorems aus den Axiomen korrekt durchgeführt wurde). Wenn unsere beiden Axiome über die Temperatur im Sommer und die Verbindung von Temperatur und Speiseeis wahr sind, so muss auch das Theorem wahr sein.

Umgekehrt geht es aber nicht: Wenn das Theorem getestet, aber nicht verworfen wird – Eltern ihren Kindern also tatsächlich vermehrt Eis im Sommer kaufen –, können wir noch lange nichts über den Wahrheitsgehalt der Axiome sagen. Denn es ist auch durchaus möglich, aus falschen Prämissen wahre Folgerungen abzuleiten. Um etwa das gleiche Theorem wie in obigem Beispiel zu erhalten, könnte man auch die folgenden beiden Axiome verwenden:

A1: “Wenn es Sommer wird, unterziehen sich Kinder einer Mandeloperation.”

A2: “Wenn sich Kinder einer Mandeloperation unterziehen, bekommen sie von ihren Eltern mehr Speiseeis.”

Das aus diesen Axiomen abgeleitete Theorem bleibt das gleiche: “Wenn es Sommer wird, bekommen Kinder von ihren Eltern mehr Speiseeis.” Wenn es dann getestet wird und sich in der Realität bewährt, heißt das also noch lange nicht, dass die Axiome – und damit die Theorie, die aus den Axiomen besteht – stimmen. Nicht ohne Grund gilt daher in der Wissenschaftsphilosophie der Grundsatz, dass der Test eines einzelnen Axioms einer Theorie mindestens genauso wertvoll (oder sogar wertvoller) ist wie der Test einzelner Theoreme.

Grundsätzlich können also alle Axiome einer Theorie falsch sein – und trotzdem kann man aus falschen Axiomen richtige Theoreme ableiten. Das ergibt sich entweder aus einem glücklichen Zufall oder dadurch, dass man Axiome gerade so auswählt, dass Sie zu bestimmten für besonders plausibel und stabil gehaltenen Theoremen führen – ganz unabhängig davon, wie es um die Plausibilität der Axiome bestellt ist.

So ein Vorgehen führt aber direkt in die theoretische Willkür. Denn im Prinzip kann man unendlich viele Axiome und Kombinationen von Axiomen aufstellen und daraus gerade solche Theoreme ableiten, von denen man weiß, dass sie nicht verworfen werden. Weiß ein Wissenschaftler also schon von Anfang an, dass Kinder im Sommer viel Speiseeis bekommen, kann er immer eine Theorie mit absurden Axiomen bauen, die dieses Ereignis “erklären”. Dann kann man sich aber nicht mehr den Sachverhalt zunutze machen, dass eine theoretische Ableitung richtig ist, wenn die Axiome richtig sind – denn über die Richtigkeit der Axiome macht man sich ja gar keine Gedanken mehr.

Die Ökonomik hat sich nun ganz explizit dafür entschieden, dass sie es mit dem Realitätsgehalt ihrer Axiome nicht so genau nimmt. So schreibt Milton Friedman in einem einflussreichen Essay über die Methode der Wirtschaftswissenschaften ziemlich klar: “Truly important and significant hypotheses will be found to have ‘assumptions’ that are wildly inaccurate descriptive representations of reality, and, in general, the more significant the theory, the more unrealistic the assumptions […].”

Dass ein Theorem also richtig sein kann, obwohl seine Axiome falsch sind, ist bei Friedman kein Problem mehr, sondern gilt vielmehr als Tugend ökonomischer Theorie. Echte Wissenschaftler werden allerdings alles daran setzen, dass ihre Axiome möglichst wahr sind – weil sie aus der Logik wissen, dass die empirische Wahrheit ihrer Theoreme ansonsten auch im besten Fall nur Zufallsergebnisse sind.

Maximieren alle ihren Nutzen?

Was hat all das jetzt mit der Neoklassik zu tun? Ein erster Vorwurf an einen zentralen Teil der Neoklassik – der Nutzentheorie – ist, dass sie ihre Axiome einfach setzt und nicht testet (wir kommen gleich zu den neueren Entwicklungen in der Verhaltensökonomie). Die Nutzentheorie ist der Kernpunkt des “Homo Oeconomicus”. In ihr wird angenommen, dass Menschen im Kopf eine “Nutzenfunktion haben”, nach der sie allem, was ihnen im Leben begegnet, einen Nutzen zuordnen.

In jedem Moment setzen sie dann ein rationales Optimierungskalkül ein, mit dem sie verschiedene Alternativen gegeneinander abwägen, um dann diejenige zu wählen, die ihnen insgesamt am meisten Nutzen bringt. Das wird dann auf den Konsum, politische Wahlen, die Liebe und alles Mögliche andere angewandt.

Nun haben die Psychologie seit langem und die Ökonomie seit neuestem eigentlich alle Axiome, aus denen der rationale Nutzenmaximierer abgeleitet wird, empirisch verworfen. Menschen haben keine konstanten Präferenzen – wie von der Neoklassik unterstellt –, sondern diese ändern sich von Situation zu Situation; Präferenzen sind nicht eindeutig ordenbar (wenn man x besser als y findet und y besser als z, müsste der Homo Oeconomicus x besser als z finden. Der normale Mensch hält sich im Durchschnitt aber nicht daran); Menschen optimieren kaum, sondern halten sich meistens an Daumenregeln; Menschen entscheiden nicht jeder für sich, sondern in Bezug auf andere etc.

Das heißt, dass über die Richtigkeit der aus der Nutzenmaximierung abgeleiteten Theoreme keine definitive Aussage getroffen werden kann. Sie können freilich richtig sein. Aber das wäre reiner Zufall, da sich der Großteil ihrer zentralen Annahmen als falsch erweist. Das hieße, dass die Axiome der Theorie der Nutzenmaximierung eigentlich verworfen werden müssten, um bessere – vielleicht mehr in der Psychologie oder der Soziologie verankerte –Theorien zu benutzen.

Jetzt werden viele Ökonomen – wieder zu Recht – einwerfen, dass ja mit dem Einzug der Verhaltensökonomie in den wirtschaftswissenschaftlichen Mainstream genau das stattfindet. Der Mensch wird realistischer, damit auch die Axiome und schließlich die Theoreme. Aber die Art des Einzugs der Psychologie in die Ökonomie bereitet wiederum viele Schwierigkeiten. Denn an einem Axiom wird weiterhin festgehalten, am Axiom der Nutzenmaximierung.

Jetzt schreiben die Forscher einfach passende Wahlmöglichkeiten in die Nutzenfunktion. Der Effekt ist folgender: Wenn ich Drogen in die Nutzenfunktion schreibe, ist der Drogenabhängige vollkommen rational in seiner Abhängigkeit; wenn ich Selbstmord in die Nutzenfunktion schreibe, ist der Suizid rational; wenn ich Hass in die Nutzenfunktion schreibe, ist Mord rational etc. Dieses Verfahren hat eine lange Tradition in der Ökonomie, es nennt sich das Verfahren der revealed preferences: Weil der Ökonom nicht in den Kopf der Menschen schauen kann (oder will), beobachtet er ihr Verhalten und nimmt einfach an, dieses sei auf eine Nutzenmaximierung à la Neoklassik zurückzuführen.

Auch Ökonomen, die Abweichungen von der ursprünglichen Rationalität feststellen – wie etwa Ernst Fehr – “erklären” Abweichungen vom Homo Oeconomicus einfach damit, dass sie die neuen für die Neoklassik absonderlichen Verhaltensweisen in die Nutzenfunktion schreiben. Dabei wird allerdings kein Axiom der Theorie verändert, sondern nur die bewusst gesetzte Leerstelle der Nutzentheorie – die Frage der Präferenzstruktur – voll ausgenutzt, um die Flexibilität der Theorie zu maximieren.

Das führt aber direkt in die Tautologie: Wenn jedes Verhalten durch eine Manipulation der Nutzenfunktion “erklärt” werden kann, ist der Informationsgehalt der Theorie gleich null. Die Theorie ist dann eine reine Tautologie, die sich einem Test ihrer Axiome entzieht und damit – vermeintlich – alles erklären kann. Dass man plötzlich alles erklären kann, hat dann laut Kapeller auch die Türen des “ökonomischen Imperialismus” geöffnet, also der Anwendung der Nutzenmaximierung auf alle Lebensbereiche (etwa durch Gary Becker).

Aber mit einer Tautologie kann man gar nichts erklären. Das sieht man gleich, wenn man die logische Struktur der Nutzenmaximierungstheorie menschlichen Verhaltens mit einem Satz zusammengefasst: Man tut, was den Nutzen maximiert; was man also tut, maximiert den Nutzen. Dieser Satz ist mit strikt allen Beobachtungen zum Verhalten von Menschen vereinbar. Eine Theorie, die alles “erklärt”, erklärt gar nichts. Denn eine Theorie ist ja dazu da, dass man sie dafür benutzt, bestimmte Ereignisse auszuschließen (etwa, ein Hammer, den ich auf der Erde fallen lasse, schwebt nicht zur Decke).

Ein weiteres Problem diese Art der Theoriebildung ist, dass alternative Erklärungsansätze aus Psychologie, Soziologie oder Neurowissenschaft, die möglicherweise die von Ökonomen beobachteten Phänomene besser erklären können, oft gar nicht erst herangezogen werden (obwohl sich das langsam aber zusehends ändert). Wenn die neoklassische Ökonomie tautologisiert, immunisiert sie sich also nach zwei Seiten: Sie immunisiert sich gegen empirische Falsifikation und sie immunisiert sich gegen alternative Erklärungsansätze.

Wann gilt eine Theorie überhaupt?

Aber es gibt auch noch eine dritte Möglichkeit der Immunisierung. Theoretiker können nämlich das Publikum im Unklaren darüber halten, wann eine Theorie überhaupt anwendbar ist, also unter welchen Bedingungen eine empirische Überprüfung überhaupt als Falsifikation akzeptiert wird.

Das lässt sich mit einem Beispiel aus der Physik veranschaulichen, etwa dem Galileischen Fallgesetz. Mit diesem Gesetz kann man die Fallgeschwindigkeit eines Objektes prognostizieren, das auf die Erde fallen gelassen wird. Die tatsächlich gemessene Geschwindigkeit des Objektes und die Prognose der Geschwindigkeit werden dann im Großen und Ganzen übereinstimmen. Lässt man das Objekt aber im Weltraum fallen, wird die Prognose falsch sein, denn dort schweben die Objekte herum und fallen nicht. Heißt das dann, dass das Fallgesetz durch das zweite Experiment falsifiziert ist – und damit auch gleich die Newtonsche Mechanik, auf der das Fallgesetz beruht?

Nicht unbedingt. Es kommt darauf an, wie sich die Axiome der Theorie zueinander verhalten. Man kann nämlich alle Annahmen (Axiome) in Gesetzeshypothesen und Hilfsannahmen unterscheiden. Die Gesetzeshypothesen machen die eigentliche Theorie aus, die Hilfsannahmen spezifizieren, unter welchen Bedingungen die Theorie anwendbar ist. Von dieser Unterscheidung hängt sehr viel ab: Das Galileische Fallgesetz lässt sich etwa aus der Newtonschen Theorie nur dann ableiten, wenn eine Reihe spezieller Hilfsannahmen hinzugestellt werden.

Beim Fallgesetz Galileos sind folgende Hilfsannahmen enthalten: das Objekt muss auf der Erde abgeworfen werden (nicht etwa auf dem Mars), darf keine zu große Entfernung von der Erde aufweisen und ist nicht von anderen Kräften beeinflusst (der Luftwiderstand darf keine entscheidende Rolle spielen). Die eigentlichen Gesetzeshypothesen, die aus der Newtonschen Theorie abgeleitet werden, sind das zweite Bewegungsgesetz und das Gravitationsgesetz.

Die Hilfshypothesen spezifizieren also, dass das Fallgesetz nur auf der Erde funktioniert, aber nicht im Weltraum, auf dem Mars oder anderswo. Würde man das Gesetz woanders testen, kann ein Scheitern des Testes noch nicht als Scheitern der Theorie – sowohl des Galileischen Fallgesetzes oder der Newtonschon Mechanik – akzeptiert werden. Dort müssten die Hilfshypothesen situationsspezifisch modifiziert werden, um etwas über die Validität der Theorie aussagen zu können.

Die Unterscheidung zwischen Gesetzes- und Hilfshypothesen ist also notwendig, um darüber entscheiden zu können, auf welche Situation theoretische Aussagen überhaupt anwendbar sind und wie dann Tests der Theorie zu interpretieren sind. Für die rein formale Ableitung von Schlussfolgerungen aus Axiomen braucht man die Unterscheidung in Gesetzes- und Hilfshypothesen aber nicht. Ist man also gar nicht daran interessiert, ob und wann eine Theorie testbar ist, muss man zwischen diesen beiden Arten von Axiomen auch nicht unterscheiden.

Kapeller kritisiert nun, dass sich die Neoklassik konsequent einer solchen Unterscheidung der Axiome in Gesetzes- und Hilfshypothesen verweigert, sich also verweigert, genau zu spezifizieren, unter welchen Bedingungen ihre Theorien eigentlich gelten und damit auch falsifiziert werden können.

Ein Beispiel dazu ist das neoklassische Marktgleichgewicht bei vollständiger Konkurrenz. Hier werden Firmen angenommen, die ihren Profit maximieren und Haushalte die – wie schon beschrieben – ihren Nutzen. Wenn sich nun unendlich viele dieser Firmen mit gleicher Technologie und unendlich viele Haushalte mit gleichen Präferenzen auf dem Markt treffen, entsteht daraus – das ist das Theorem – ein Gleichgewicht. In diesem Gleichgewicht sind der Nutzen aller Haushalte und die Profite aller Firmen maximiert, können nicht mehr gesteigert werden und das Gleichgewicht ist damit ein gesellschaftliches Optimum. Natürlich gibt es auch noch andere Marktformen – Monopol, Oligopol etc., die in der Neoklassik entworfen werden. Bei diesen Marktformen gibt es aber wegen des Machtübergewichts eines Akteurs kein soziales Optimum – das gibt es nur bei vollkommener Konkurrenz. Dass ein “soziales Optimum” natürlich etwas Anstrebenswertes ist, ergibt sich schon aus dem Wort.

Jetzt ist die Frage, wie man die Theoreme des Marktgleichgewichtes testen kann. Dabei kommt es zentral auf die Unterscheidung zwischen Gesetzes- und Hilfshypothesen an. Nehmen wir als Beispiel das Axiom unendlich vieler Unternehmen und Haushalte auf einem Markt. Würde man diese Axiome als Gesetzeshypothesen formulieren, wären sie sofort leicht zu falsifizieren, also falsch, denn sie treffen offensichtlich in keinem realen Markt zu. Würde die Neoklassik nicht die Friedmansche Immunisierung à la “Axiome müssen unrealistisch sein” akzeptieren, wären die Theoreme des Marktgleichgewichts bei vollkommener Konkurrenz schon rein logisch auf tönernen Füßen, weil man eben aus falschen Axiomen keine richtigen Schlussfolgerungen ziehen kann.

Jetzt kann man aber die Hypothese (annähernd) unendlich vieler Akteure auch als Hilfshypothese verwenden. Das heißt, gegeben die Gesetzeshypothesen (etwa Profit- und Nutzenmaximierung), herrscht soziales Optimum, wenn unendlich viele Akteure im Markt sind. Werden die Theoreme der Theorie dann empirisch verworfen, kann der Theoretiker immer darauf verweisen, dass die Theorie valide eben nur auf Märkten getestet werden kann, auf denen “ausreichend viele” Akteure vorhanden sind.

Unrealistische Axiome werden in der Ökonomie nicht nur kaum hinterfragt, sondern bieten im Fall des Versagens einer Theorie oft auch einfache Auswege zu ihrer Immunisierung: Die Zahl der Marktteilnehmer war zu klein, ihre Natur zu heterogen, die Information nicht gleichmäßig genug verteilt etc.

Das gleiche gilt für die identischen Präferenzen der Akteure oder die gleiche Technologie. Als Gesetzeshypothese formuliert wären sie schnell falsifizierbar; als Hilfshypothesen schränkt man einfach die Reichweite der Theoreme ein: Ist ein Test der Theorie erfolgreich, so gilt das als Erfolg (trotz der obigen Kritik an den logischen Problemen eines solchen Vorgehens); ist ein Test nicht erfolgreich, so lässt sich darauf verweisen, dass die durch die Hilfshypothesen ausgedrückten Bedingungen nicht erfüllt waren. Weil sich Ökonomen aber in der Regel kaum Gedanken um die Unterscheidung von Gesetzes –und Hilfshypothesen machen, bleibt der Anwendungsbereich ihrer Theorie systematisch schwammig und kann damit kaum konzise getestet werden.

Mit all diesen Immunisierungsstrategien der neoklassischen Theorie (Kapeller beschreibt noch viele andere) gegen Falsifizierungsversuche kann man nun empirisch forschen wie man will. Die Theoretiker werden immer Mittel und Wege finden, ihre Theorie unangreifbar zu machen. Genau das ist der Platonismus in der Neoklassik. Wenn die Theoretiker ihre Theorien (etwa die Nutzenmaximierung bei totaler Beliebigkeit des konkreten Nutzeninhalts) der Falsifizierung entziehen, ist das Theoriegebäude nicht mehr wissenschaftlich, sondern metaphysisch. Das kann legitim sein: Die Existenz Gottes ist, wie jene des Marktgleichgewichts, nicht falsifizierbar und jedem steht es frei an Gott oder das Marktgleichgewicht zu glauben. Aber es ist eben Glaube und keine kritische Auseinandersetzung mit Aussagen und Erklärungen über die reale Welt.

Woher ich’s weiß, ich sag’s euch nicht – aber folgen müsst ihr schon

Das hat natürlich politisch wichtige Folgen: Wenn ich alle empirische Kritik an der These eines vollkommenen Marktgleichgewichts mit einer geschickten Formulierung der Axiome abwehren kann, kann ich an den Segen des Marktgleichgewichts glauben, ohne ihn empirisch jemals festnageln zu können. Ich kann dann bei jedem Scheitern von Tests sagen: Kein Wunder, dass die Tests fehlschlagen, denn in den getesteten Märkten gibt es ja gar nicht genug Konkurrenz. Wir müssen also die Konkurrenz erhöhen – etwa mit mehr Marktteilnehmern, mehr Anstrengung, intensiverem Wettbewerb und flexibleren Preisen –, dann wird sich das soziale Optimum schon einstellen. Und wenn es sich dann wieder nicht einstellt, ist man eben noch zu weit entfernt von der perfekten Konkurrenz etc.

Dieser Gedankengang ließe sich noch auf andere Felder der Neoklassik anwenden: Wenn etwa Finanzmärkte nicht effizient sind, weil es asymmetrische Informationen gibt, muss man einfach die Informationen verbessern, dann werden auch die Märkte effizient; wenn sie dann immer noch nicht effizient sind, gibt es wohl noch zu viele asymmetrische Informationen etc. Wenn die Arbeitslosigkeit hoch ist, müssen die Löhne zu hoch sein und wenn die Löhne sinken, die Arbeitslosigkeit aber immer noch hoch ist, müssen halt die Löhne noch mehr sinken etc.

Der neoklassische Ökonom kann also immer behaupten, dass er die ideale Welt des Marktes kennt, egal, wie die Realität aussieht. Mit den unwissenschaftlichen Immunisierungsstrategien, wie sie hier geschildert wurden, kann er – im Prinzip – alle Erfahrung der Realität als nicht zutreffend auf seine Theorie abschmettern und letztere zugleich als utopische Schablone für Fragen politischer Gestaltung zum Einsatz bringen.

Das heißt alles nicht, dass es keine guten und wichtigen Erkenntnisse in der Neoklassik gibt und dass die neoklassisch inspirierte empirische Forschung nichts geleistet hätte. Ganz im Gegenteil. Es heißt auch nicht unbedingt, dass etwa asymmetrische Informationen oder rigide Preise die Märkte ineffizient machen könnten. Es heißt auch nicht, dass alternative Theorien immer die besseren sind.

Aber weil viele der neoklassischen Aussagen aus ganz unklaren Axiomen abgleitet sind, können wir über ihren Wahrheitsgehalt nichts wissen sondern können ihnen nur glauben. In vielen – wenn nicht sogar den meisten – Bereichen steht sie auf wissenschaftlich tönernen Füßen, so dass es im Prinzip ein Leichtes wäre, viele ihrer Theorien auseinanderzunehmen und damit auch die Theoreme in Zweifel zu ziehen, die aus diesen Theorien abgeleitet werden.

Dass das in der Realität nicht oder zu selten passiert, hat vor allem etwas mit der sozialen Struktur der Wissenschaft zu tun: diejenigen, die in den Tempel der Wirtschaftswissenschaft aufgenommen werden wollen, haben sich an den etablierten platonischen Ideen der Nutzenmaximierung und des Marktgleichgewichts zu orientieren; ansonsten hätten sie wohl große Schwierigkeiten im Wissenschaftsbetrieb Lohn und Brot zu finden. Diese Haltung bedroht den wissenschaftlichen Fortschritt, weil alternative Theorien gar nicht erst erwogen werden. Wie Karl Popper schon sagte: “Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.”

181 Kommentare

  1.   Daniel

    “Ein Theorem ist immer dann wahr, wenn seine Axiome wahr sind (und die Ableitung des Theorems aus den Axiomen korrekt durchgeführt wurde).”

    “mit einer Tautologie kann man gar nichts erklären”

    Hallo Herr Lindner,

    Ein Grundkurs in Logik wird Sie eines Besseren belehren:
    – Ein Theorem (im Sinne einer Implikation) ist immer wahr, wenn seine Axiome falsch sind (oder sowohl Axiome als auch Schlussfolgerung wahr sind).
    – Ein gültiges Argument ist immer eine Tautologie.

  2.   D

    Grandioses Stück über die Ökonomenzunft und ihre Probleme – vielen Dank dafür. Gerne auch mehr davon.

  3.   rjmaris

    Eigentlich bin ich dabei, mich aus dem Kommentarbereich ein wenig zurück zu ziehen, aber man liest nicht oft Beiträge von Fabian Lindner.

    Bevor wegen der Länge “gewarnt” wurde, war die Länge bereits durchgescrollt 😉 Aber trotzdem gut, das reingeschrieben zu haben.

    Inhaltlich
    Die Existenz Gottes ist, wie jene des Marktgleichgewichts, nicht falsifizierbar und jedem steht es frei an Gott oder das Marktgleichgewicht zu glauben. Aber es ist eben Glaube und keine kritische Auseinandersetzung mit Aussagen und Erklärungen über die reale Welt..

    Anhand der langen Einleitung ist dieser Vergleich sehr treffend. Schön auch, dass danach die guten Beispiele aus den Wirtschaftswissenschaften benannt werden. Vor allen Dingen das Beispiel mit den Löhnen :). Tatsächlich: der Ökonom findet immer ein Haar in der Testsuppe.

  4.   Actrom

    “Der Philosoph ist jemand, der fast nichts von fast Allem weiß, der Ingenieur ist jemand, der fast Alles von fast nichts weiß”.
    ich würde gerne hinzufügen: der Ökonom liegt genau in der Mitte.

    Das betrifft auch die Methoden. Man hat ja lange versucht, der Ökonomie den Anstrich einer “exakten” Wissenschaft zu geben, im Sinne einer Anlehnung an die Physik (mathematische Formulierung von Theorien, Zeitreihenuntersuchungen anstelle von Experimenten).Aber, das stellt sich (hoffentlich) immer mehr heraus, ist ein Irrweg. Wer Popper richtig (?) verstanden hat, der weiß, dass gerade das induktive Schließen von Ihm als Mittel der “Verifikation” abgelehnt wurde, Experimente sollten sich in der Sozialwissenschaft (aus den verschiedensten Gründen) von selbst verbieten.
    wer das alles verarbeitet hat, dem bleibt als Ökonom nur das “möglichst plausible Argumentieren”, so wischi-waschi sich das auch anhören mag.
    Bestimmte Erkenntnisse der Neoklassik (Grenzproduktivitätstheorie z.B.) haben durchaus “praxisrelevante Implikationen”. Aber das gerieren als exakte Wissenschaft ist ein Bluff, in der Perfektion auf die Spitze getrieben von Milton Friedman, er es nahelegt, von einer wesentlich “intentionalen Wissenschaft” zu reden. Man glaubt, man hätte etwas verstanden (bzw. die Macht), und versucht, dies möglichst effizient zu transportieren (z.B. die betriebswirtschaftliche Diffusionstheorie), z.B unter Vorspiegelung “exakter Wissenschaft”.

  5.   Dietmar Tischer

    @ Fabian Lindner

    Ich will nicht behaupten, dass jeder Satz, den Sie geschrieben haben, falsch ist. Ich will auch nicht den Kritischen Rationalismus abwerten.

    Sie haben jedoch Feststellungen getroffen, die falsch sind und daher für Ihre Argumentation nichts taugen (bestenfalls) bzw. Ihre Kompetenz für eine der Sache angemessene Diskussion infrage stellen.

    Beispiel:

    Sie sagen:

    >Werden Theorien aber empirisch gar nicht getestet – sei es, weil sich niemand findet, der sie testen möchte, oder weil sie so formuliert sind, dass eine konzise Überprüfung technisch nicht möglich erscheint –, ist auch nicht festzustellen, ob eine Theorie überhaupt sinnvolle Aussagen über die Realität macht.>

    Nehmen wir z. B. eine Theorie, welche die Entstehung des Universums erklärt. Es ist der Sache nach eine, die „technisch“ nicht überprüft werden kann, weil a) das Universum nicht (nochmals) zu erschaffen ist – Voraussetzung für die Überprüfung dieser Theorie – und b) weil wir als Teil des Universums nicht der „distanzierte“ Überprüfer sein können, den eine „objektive“ Überprüfung ihres Entstehens verlangt.

    Weil das so ist, soll nicht feststellbar seine, ob eine solche Theorie SINNVOLLE Aussagen über die Realität macht?

    Selbstverständlich kann sie sinnvolle Aussagen über die Realität treffen. So sind z. B. Aussagen derartiger Theorien darüber, was der Status des Universums zum Zeitpunkt x nach dem Urknall war, sinnvoll.

    Zum Verständnis, dass „sinnvoll“ nicht in die Kategorie „wissenschaftlich/nicht wissenschaftlich“ gehört, eine Aussage, die zwar keine Theorie ist, aber den Unterschied verständlich werden lassen sollte:

    Der Satz „X ist gestern mit einer quadratischen Gleichung spazieren gegangen“ ist keine sinnvolle Aussage. Sie ist nicht sinnvoll, weil wir nicht VERSTEHEN (können), was damit gemeint ist. Eine quadratische Gleichung ist eine RELATION, d. h. etwas, mit dem man nicht spazieren gehen kann. Man kann zwar mit seinen Gedanken spazieren gehen, zu denen auch die Befassung mit einer quadratischen Gleichung gehören mag. Damit meint man, dass man an sie gedacht hat WÄHREND man spazieren ging. „Während“ ist etwas Anderes als „mit“.

    Abgesehen davon sind zumindest einige dieser Entstehungstheorien wissenschaftlich. Dies ist jedenfalls die Auffassung derer, die derartige Theorien verstehen und sich ernsthaft damit befassen. Oder wollen Sie behaupten, dass die Gemeinschaft der Versteher eine SEKTE von Pseudowissenschaftlern ist, weil ihre Theorien technisch nicht überprüft werden können? Dass einige oder alle derartigen Theorien falsch sein können, ist etwas Anderes.

    Weiteres Beispiel:

    Sie zitieren Milton Friedmann und urteilen dann:

    >Dass ein Theorem also richtig sein kann, obwohl seine Axiome falsch sind, ist bei Friedman kein Problem mehr, sondern gilt vielmehr als Tugend ökonomischer Theorie. Echte Wissenschaftler …>

    Sie haben Friedman nicht verstanden.

    Erstens spricht Friedmann Ihrem Zitat nach nicht von „falsch“, sondern von „ungenau“, was nicht dasselbe ist. Zweitens verweist er auf einen seiner Meinung nach bestehenden Trade-off zwischen Genauigkeit und Signifikanz. Wenn er bestünde, was hier offengelassen werden kann als Möglichkeit, dann hat sich „die“ Ökonomik für die Signifikanz der Theorien und gegen die Genauigkeit realitätsbezogener Annahmen entschieden (was auch dann nicht heißt, dass sie sich FÜF falsche Annahmen ENTSCHIEDEN hat, wenn die Annahmen falsch wären für die sie sich entschieden hat. Sie hat sich für ungenaue Annahmen entschieden, die falsch sein können – so wie genaue Annahmen falsch sein können, wenn sie sich für solche entschieden hätte).

    Eine derartige Entscheidung kann man kritisieren. Man kann aber die Entscheider nicht als „unechte Wissenschaftler“ abqualifizieren, weil sie sich SO entschieden haben.

    Kurzum:

    Befassen Sie sich mit Grundlegendem statt mit geborgtem Expertentum hier Auffassungen zu formulieren, die nicht haltbar sind.

    Hier z. B. finden Sie eine Abhandlung, die auf angemessenem Niveau diverse Abgrenzungskriterien zwischen Science und Pseudo-Science darlegt. Dabei können Sie übrigens auch etwas darüber erfahren, dass und wie Popper seine Auffassungen im Laufe der Zeit geändert hat:

    plato.stanford.edu/entries/pseudo-science/

  6.   Babendiek

    @ Lindner

    Gegen die Neoklassik lässt sich ja eine Menge sagen. Ihre pauschale Kritik ist allerdings nicht ganz fair. Seit Hans Albert den “Modell-Platonismus” aufs Korn nahm, ist ein halbes Jahrhundert ins Land gegangen.

    In der Zwischenzeit hat sich in der Wirtschaftstheorie einiges getan. Zumindest in der Mikroökonomie setzt sich zunehmend empirische Forschung durch. So wurden allein im deutschen Sprachraum an mindestens drei führenden Universitäten Labors für experimentelle Wirtschaftsforschung eingerichtet: Universität Bonn (Professor Armin Falk), Köln (Axel Ockenfels) und ETH Zürich (Ernst Fehr). Hier werden systematisch Erkenntnisse aus der Verhaltenstheorie und der Neurowissenschaft aufgegriffen.

    Das Vorgehen ist im Prinzip stets dasselbe: Die Standardannahmen, Ad-hoc-Hypothesen und Grundaussagen der neoklassischen Mikroökonomie werden so formuliert, dass sie experimentell überprüfbar sind. Dann wird in simulierten Alltagssituationen getestet, in welcher Weise ganz normale Menschen ökonomische Entscheidungen treffen.

    Kaum überraschend hat sich dabei herausgestellt, dass der Homo Oeconomicus eine Schimäre ist. Die meisten Menschen sind zwar ganz schöne Egoisten, aber längst nicht immer rationale Nutzenmaximierer. Erstaunlich viele Versuchspersonen (ein Viertel und mehr) zeigen in den Experimenten ein ausgesprochen altruistisches Verhalten (obwohl es zum Teil um echtes Geld geht).

    Die Wissenschaftler, die solche Experimente veranstalten, sind nun keineswegs Exoten, sondern kommen mitten aus dem Mainstream. Falk, Fehr und Ockenfels gehören zu den bekanntesten und einflussreichsten Ökonomen im deutschen Sprachraum. Ockenfels ist übrigens Schüler des Nobelpreisträgers Reinhard Selten.

    International sehr beachtet werden auch die groß angelegten Feldversuche, die das Poverty Action Lab am MIT in diversen Entwicklungsländern durchführt. Unter der Leitung der französischen Ökonomin Esther Duflo und ihres indischen Kollegen Amit Banerjee prüfen 70 Wissenschaftler mit Hilfe von randomisierten Experimenten, welche Konzepte der Entwicklungshilfe wirklich funktionieren und welche nicht. Eine große Rolle spielen hierbei die richtigen ökonomische Anreize. Dies ist nun wirklich das genaue Gegenteil von “Modell-Platonismus”.

    Etwas anders als in der Mikroökonomie sieht es in der Makroökonomie aus. Mit einer Volkswirtschaft kann man natürlich keine Experimente machen wie mit überschaubaren Gruppen von Versuchspersonen. Überdies sind hier die ideologischen Positionen und Fronten nach meinem Einruck sehr viel verfestigter als in der Mikroökonomik – und zwar auf allen Seiten. Wer über einem Artikel den Namen Paul Krugman oder Hans-Werner Sinn liest, weiß dann schon, was kommt.

    Schließlich ist zu bedenken, dass die Wirtschaftsforschungsinstitute, die in der öffentlichen Diskussion über Wirtschaftspolitik den Ton angeben, leider nicht alle frei sind von wirtschaftlichen und gesellschaftlichen Interessen. Das Institut der deutschen Wirtschaft steht den Arbeitgebern nahe. Beim Rheinisch-Westfälischen Institut für Wirtschaftsforschung (RWI) spielen, wie häufig beklagt wird, Interessen der Montanindustrie hinein. Und das IMK ist der gewerkschaftsnahen Hans-Böckler-Stiftung zuzuordnen.

  7.   Fabian Lindner

    @ Tischer

    Was das Universum angeht: Der Big Bang ist natürlich nicht direkt beobachtbar, weil er eben in der Vergangenheit liegt. Damit ist der Big Bang schlicht eine Hypothese – wie eben alle wissenschaftlichen Theorien.

    Aber diese Hypothese ist eben als Theorem ableitbar aus den Gesetzeshypothesen der allgemeine Relativitätstheorie und der Hilfsannahme des kosmologischen Prinzips. Aus dieser Axiomskombination lassen sich die Friedmannschen Gleichungen (hat nichts mit dem Ökonomen zu tun) ableiten und daraus wiederum die Hypothese, dass das Universum früher kleiner, heißer und dichter war – was dann im logischen Schluss den Big Bang impliziert.

    Viele beobachtbare Implikationen der Big Bang-Theorie wurden auch tatsächlich entdeckt: Die Expansion des Unisversums durch Hubble, die Häufigkeit der Elemente, die kosmische Hintergrundstrahlung und die Bildung großräumiger Strukturen. Daraus können wir noch nicht ableiten, dass es den Big Bang tatsächlich gab – aber wir können sehr viele der Implikationen beobachten und – wenn sich die Technik verbesser – wahrscheinlich auch noch mehr Implikationen.

    Was Frieman den Ökonomen angeht: er schreibt weder “falsch” noch “ungenau”, sondern “Truly important and significant hypotheses will be found to have ‘assumptions’ that are wildly inaccurate descriptive representations of reality, and, in general, the more significant the theory, the more unrealistic the assumptions […]”

    Da verstecken sich aber zwei Dinge: a) nicht akkurate Beschreibungen der Realität und b) unrealistische Annahmen. Friedman diskutiert auch – wie ich oben – das Fallgesetz und hängt sich vor allem am Luftwiderstand auf, den Galileo nicht beachtet. Natürlich gibt es den. Aber heißt das, dass die Annahme des Vakuums durch Galileo eine “wildly inaccurate descriptive representation of reality” ist oder sogar “unrealistic”? Das heißt es überhaupt nicht. Es heißt nur, dass für die Messung der Fallgeschwindigkeit eines Objektes auf der Erde der Luftwiderstand vernachtlässigt werden kann, und man trotzdem etwas sinnvolles bekommt. Wer mehr wissen möchte / muss kann dann den Luftwiderstand einbauen. Das hat aber nichts damit zu tun, dass die Hypothesen des Fallgesetzes “unrealistisch” sind.

    Das Fallgesetz ausgedrückt in Newtonscher Mechanik muss sehr “realistische” Beschreibungen und Annahmen (Im Sinne von Hifsannahmen) machen, und zwar über den realen Erdradius, die reale Masse der Erde und die reale Fallhöhe. “the more significant the theory, the more unrealistic the assumptions” trifft gerade auf das Fallgesetz nicht zu.

    Nun ist es vollkommen richtig, dass bestimmte Annahmen tatsächlich nicht beobachtet werden können. Die Gravitation, die für das Fallgesetz entscheidend ist, ist so etwas. Soweit ich weiß, gibt es nichts, worauf man die Gravitation wirklich zurückführen kann. Insofern ist die Theorie, dass es eine Gravitation gibt, nur testbar durch ihre Implikationen. Das hat aber nichts mit “unrealistisch” zu tun. “unrealistisch” wäre vielleicht eher, anzunehmen, die Objekte hätten eine Nutzenfunktion, die sagt, sie sollen fallen.

    Dass es darüber hinaus oft Axiome gibt, die nicht (zumindest jetzt technisch) testbar sind, heißt noch lange nicht, dass wir überall da testen können und sogar müssen, wo das möglich ist.

    Weiter diskutiert Friedman die “als ob”-Annahme für die Dichte von Blättern an einem Baum und argumentiert, man könnte die Lage der Blätter auch als Resultat einer Nutzenfunktion darstellen. Man kann natürlich viel. Ich kann sicher auch eine Theorie aufstellen, nach der kleine Engelchen sowohl die Blätter genauso anordnen wie sie sind als auch fallende Objekte auf die Erde befördern.

    Aber es gibt gute Gründe, den Blättern keine Nutzenfunktion zu unterstellen, sondern durch chemische, biologische etc. Beobachtung sich genau anzugucken, wie Blätter ihre Dichte in Reaktion auf welche Umweltbedingungen (z.B. wo die Sonne ist) verändern und wo sie sich hinneigen. Und diese Beobachtungen, die man dann auch für die Hypothesenbildung verwenden kann, werden eben “realistischer” sein und nichts möglichst weit entfernt von der “Realität”.

  8.   Ilja Kantorovitch

    Die wesentliche Erkenntnis über Modelle in der Ökonomie ist, dass sie gegeben ihrer Annahmen wahr sind. Es sind mathematische Herleitungen. Wenn ein Markt unendlich viele Firmen und Konsumenten aufweist, die identische Güter verkaufen und ansonsten keine Friktionen auftreten, sollte das Ergebnis genau so sein wie in der Theorie. Bedeutet das, dass diese Theorie besagt, dass alle Märkte durch diese Theorie beschrieben werden können? Nein! Wenn wir offensichtlich versuchen diese Theorie auf eine Situation anzuwenden, in denen die Annahmen nicht erfüllt sind, wird sie auch keine sinnvollen Aussagen treffen.

    Der wichtigste Punkt hier ist die Modelselektion. Gute Modelle haben einen Gültigkeitsbereich, der in der Realität auch anzutreffen ist. Ein guter Ökononom/eine gute Ökonomin sieht, wann welcher Gültigkeitsbereich vorliegt. Es gibt nicht nur einen perfekten Markt, sondern auch einen mit monopolistischem Wettbewerb, den monopolistischen Markt, den monopsonistischen Markt usw. Manche Annahmen in den Modellen sind offensichtlich unwahr. Das bedeutet nicht, dass automatisch die Aussagen unwahr sein müssen oder die Verbindung von Annahmen zu Aussagen rein zufällig sein müssen. Manche Annahmen sind lediglich zur Vereinfachung da. Wenn diese Annahmen gelockert werden, wird die Hauptschlussfolgerung nicht umgekehrt, sondern allenfalls verwässert und schwieriger herzuleiten.

    Doch wie soll erkannt werden, welche Annahmen wichtig sind und welche Vereinfachungen sind? Das kann nur durch intensive Forschung erreicht werden. Dabei kann nicht ein Model formuliert werden und es wird in jedem Fall klar sein, welche Annahmen wichtig sind und welche nicht. Wenn jeweils nur eine Annahme gelockert wird, kann es sein, dass nur wenige wichtig sind. Wenn mehrere auf einmal gelockert werden, kann die Kombination von zwei unwichtigen Annahmen zu einer wichtigen Bedingung werden. Wenn zusätzliche Bausteine ins Model genommen werden, vielleicht werden Annahmen, die vorher unwichtig waren, plötzlich wichtig. An dieser Stelle sollte klar sein, dass Modelle auch kleine Gültigkeitsbereiche haben können und es nicht verwundern sollte, dass es übereilig wäre ein Modell zu verwerfen, wenn bestimmte Beobachtungen nicht mit dem Modell übereinstimmen. Vielleicht befinden wir uns außerhalb des Gültigkeitsbereiches, dies ist jedoch nicht in jedem Fall einfach festzustellen.

  9.   Fabian Lindner

    @Babendiek

    Meine Kritik ist ja eben nicht pauschal, sondern sehr spezifisch. Ich schreibe explizit, dass natürlich in der Verhaltensökonomie eine Reihe von Abweichungen gegenüber dem konventionellen Rationalitätspostulat gefunden wurde, und erwähne dabei auch Fehr. Ich finde diese Arbeit spannend und wegweisend und habe daran nicht nur nichts auszusetzen, sondern denke, dass die Ökonomie weiter in diese Richtung gehen muss.

    Es ist aber ein spezifischer Punkt, den ich kritisiere, und der ist der der Theoriebildung. Man benutzt nämlich weiterhin das Prinzip der Nutzenfunktion und der Optimierung. Und da ist eben meine Kritik, dass die totale Flexibilität des konkreten Nutzeninhalts direkt in die Tautologie führt.

    Das ist keine Kritik an den empirischen Ergebnissen von Fehr und Co. – im Gegenteil. Was ich kritisiere, ist, dass sich die neoklassische Theorie oft durch Tautologisierung so immunisiert, dass sie selbst bei negativen Ergebnissen immer noch Erklärungsanspruch geltend macht, obwohl sie diesen formal (so würde ich argumentieren) nicht aufrecht erhalten kann.

    Solange man aber an der Nutzenfunktion als Goldstandard festhält – so meine ich – kann man blind für andere Erklärungen sein. Ich sage bewusst “kann”. Vielleicht sind die konkreten, modifizierten Nutzenfunktionen von Fehr und Co. doch das beste, was sich am Ende einer Diskussion verschiedener Theorien (aus der Neurowissenschaft, der Psychologie etc.) einstellt. Aber diese Diskussion kann man meiner Meinung nach nicht sinnvoll führen, wenn man zu sehr an einem bestimmten Konzept (Nutzenfunktion + Optimierung) festhält oder sogar – wie Bachmann das in seinem Blogbeitrag tut – das Ohr für die Kritik aus anderen Disziplinen verschließt.

    Was die Ausrichtungen der Institute angeht oder überhaupt die Rolle von normativen Vorstellungen in der Wissenschaft: Man ist nicht unwissenschaftlich, wenn man Wertvorstellungen hat. Im Gegenteil, Werte sind oft die entscheidende Triebkraft dafür, sich überhaupt wissenschaftlich zu beschäftigen. Die Wissenschaft operiert nicht im sozialen Vakuum.

    Die Güte einer Theorie misst sich aber nicht an der individuell-psychologischen Motivation der WissenschaftlerIn, sondern daran, ob sie oder er ihre Theorie logisch widerspruchsfrei hält und die Implikationen der Theorie gestestet werden können. Die Prüfung dieser beiden Tatbestände ist ein sozialer Prozess der Wissenschaftsgemeinschaft und muss ergebnisoffen sein.

    Ideologisch ist man dann, (ob von links oder rechts), wenn man die Theorie nicht prüfbar macht (sich immunisiert) oder alle Falsifizierung pauschal in den Wind schlägt. Die Frage der ergebnisoffenen Diskussion und interpersonalen Prüfung von Theorien ist ja bei Popper auch eine politische Angelegenheit. Für ihn ist die Wissenschaft nicht zwecklos, sondern eine Blaupause für eine offene Gesellschaft, der Popper individuell einen großen Wert beimisst. Dieser Wert als solcher ist aber selbst nicht wissenschaftlich ableit- oder bestimmbar.

  10.   Fabian Lindner

    @ Babendiek

    Genauer: Jakob Kapeller kritisiert all das und hat die konkrete Kritik auch so entwickelt. Aber ich mache mir seine Kritik zu Eigen.