Vor einigen Wochen haben Vertreter des Netzwerks Plurale Ökonomik im FAZIT, dem Wirtschaftsblog der FAZ, einen Beitrag über den nicht stattfindenden Dialog zwischen „Mainstream“-Wirtschaftswissenschaft und anderen ökomischen Denkschulen geschrieben. Den wiederum hat der Nachwuchsbeauftragte des Ökonomen-Verbands „Verein für Socialpolitik“, Rüdiger Bachmann, heftig kritisiert. Bachmann meint, den Pluralen gehe es eigentlich gar nicht um die Sache, sondern um Ideologie; vor allem würden sie gar nicht richtig verstehen, was die Neoklassik eigentlich sagt. Und überhaupt wundere es ihn, dass vor allem Vertreter anderer Disziplinen wie der Politikwissenschaft, der Wirtschaftsgeographie oder der Betriebswirtschaftslehre ständig an der Ökonomik mäkelten.
Man kann viel über den Beitrag der Pluralen und vielleicht noch mehr über Bachmanns Beitrag sagen, vor allem darüber, ob es im Streit zwischen Pluralen und „Mainstream“ um Ideologie oder um Wissenschaft geht. Hier möchte ich aber versuchen, die Kritik an der Neoklassik – einem wichtigen Teil des „Mainstreams“ – an der Frage aufzuziehen, wie wissenschaftlich die Neoklassik eigentlich ist. Denn der Kern der Kritik Bachmanns an anderen Disziplinen ist, dass die Neoklassik wissenschaftlich und nicht ideologisch sei. (Vorsicht, der folgende Text ist etwas länger geraten – nehmen Sie sich Zeit.)
Die Frage nach der Wissenschaftlichkeit der Neoklassik hat sich jüngst der österreichische Ökonom und Philosoph Jakob Kapeller gestellt. In seinem Buch „Modell-Platonismus in der Ökonomie“ kommt er wie schon Hans Albert in den 1960er Jahren, der den Begriff „Modell-Platonismus“ geprägt hat, zu dem Schluss, dass die neoklassische Ökonomik Schwierigkeiten hat, überhaupt grundlegenden wissenschaftlichen Ansprüchen zu genügen. Aufbauend auf Hans Albert verwendet Kapeller dabei als Maßstab den Wissenschaftsbegriff des Kritischen Rationalismus, der auf den österreichischen Philosophen Karl Popper zurückgeht.
Formuliere deine Theorien so, dass man sie kritisieren kann
Laut Kritischem Rationalismus sind Theorien mit hoher Wahrscheinlichkeit niemals richtig. Sie können aber so lange gelten, wie sie nicht durch die Konfrontation mit der Realität widerlegt, also „falsifiziert“ werden. Laut dem Kritischen Rationalismus haben Wissenschaftler die Pflicht, ihre Theorien so zu formulieren, dass diese sich kritisch testen lassen, das heißt, dass sie prinzipiell (empirisch) widerlegt werden können. Je nachdem wie sich eine Theorie im Test bewährt, kann sie dann verbessert oder ganz verworfen werden.
Werden Theorien aber empirisch gar nicht getestet – sei es, weil sich niemand findet, der sie testen möchte, oder weil sie so formuliert sind, dass eine konzise Überprüfung technisch nicht möglich erscheint –, ist auch nicht festzustellen, ob eine Theorie überhaupt sinnvolle Aussagen über die Realität macht. Der Kern von Alberts und Kapellers Kritik ist nun gerade, dass sich die neoklassische Theorie in vielen Fällen auf unterschiedliche Weise gegen Tests immun macht und sich so einer „kritische Prüfung“ entzieht.
Nun wird jeder moderne Ökonom vollkommen zu Recht einwerfen, dass gerade in der Ökonomie Daten, Experimente und komplexe statistische Verfahren eine große Rolle spielen und Theorien daher dauernd mit der Realität konfrontiert werden. Das trifft zwar zu, aber Kapeller zeigt, dass die neoklassischen Theoriebausteine logisch oft so unklar aufgestellt sind, dass sich sogar im Fall relativ eindeutiger empirischer Widerlegungen spezifischer Aussagen Mittel und Wege finden lassen, die neoklassische Theorie insgesamt unangreifbar zu machen. Der zentrale Trick ist dabei, die Theorien so zu formulieren, dass sich immer behaupten lässt, dass ein spezifischer Test der Theorie – aufgrund bestimmter Umstände (auf die ich weiter unten zu sprechen komme) – gar nicht als Falsifizierung der Theorie gelten kann.
Für seine Kritik greift Kapeller auf die Prinzipien der Logik zurück. Jede Theorie ist so aufgebaut, dass sie verschiedene Axiome, Prämissen oder Annahmen enthält, aus denen sich dann Schlussfolgerungen (so genannte „Theoreme“) ableiten lassen. Im Fall der Ökonomie können dabei sowohl die abgeleiteten Folgerungen als auch ein Gutteil der Axiome an der Realität getestet werden – dies geschieht allerdings oft nur inkonsequent. Warum das so ist, kann anhand eines sehr einfachen Beispiels mit zwei Annahmen und einer Folgerung gezeigt werden:
Annahme 1 sei: „Wenn es Sommer wird, steigt die durchschnittliche Temperatur.“
Annahme 2 sei: „Wenn die durchschnittliche Temperatur steigt, bekommen Kinder von ihren Eltern mehr Speiseeis.“
Aus diesen beiden Axiomen kann man jetzt das folgende Theorem ableiten: „Wenn es Sommer wird, bekommen Kinder von ihren Eltern mehr Speiseeis.“
Der Theoretiker kann dann überprüfen, ob Kinder im Sommer tatsächlich mehr Speiseeis bekommen oder nicht. Wenn nicht, ist die Theorie (vorerst) falsifiziert. Dann muss der Theoretiker wieder zu seinen Annahmen zurückgehen, einige ersetzen oder neue hinzufügen, daraus neue Theoreme ableiten und diese dann wieder testen. Das sollte der Weg der Wissenschaft sein.
Annahmen dürfen nicht falsch sein!
Mit diesem einfachen Beispiel können wir schon eine erste Schwierigkeit einer Theorie betrachten: Ein Theorem ist immer dann wahr, wenn seine Axiome wahr sind (und die Ableitung des Theorems aus den Axiomen korrekt durchgeführt wurde). Wenn unsere beiden Axiome über die Temperatur im Sommer und die Verbindung von Temperatur und Speiseeis wahr sind, so muss auch das Theorem wahr sein.
Umgekehrt geht es aber nicht: Wenn das Theorem getestet, aber nicht verworfen wird – Eltern ihren Kindern also tatsächlich vermehrt Eis im Sommer kaufen –, können wir noch lange nichts über den Wahrheitsgehalt der Axiome sagen. Denn es ist auch durchaus möglich, aus falschen Prämissen wahre Folgerungen abzuleiten. Um etwa das gleiche Theorem wie in obigem Beispiel zu erhalten, könnte man auch die folgenden beiden Axiome verwenden:
A1: „Wenn es Sommer wird, unterziehen sich Kinder einer Mandeloperation.“
A2: „Wenn sich Kinder einer Mandeloperation unterziehen, bekommen sie von ihren Eltern mehr Speiseeis.“
Das aus diesen Axiomen abgeleitete Theorem bleibt das gleiche: „Wenn es Sommer wird, bekommen Kinder von ihren Eltern mehr Speiseeis.“ Wenn es dann getestet wird und sich in der Realität bewährt, heißt das also noch lange nicht, dass die Axiome – und damit die Theorie, die aus den Axiomen besteht – stimmen. Nicht ohne Grund gilt daher in der Wissenschaftsphilosophie der Grundsatz, dass der Test eines einzelnen Axioms einer Theorie mindestens genauso wertvoll (oder sogar wertvoller) ist wie der Test einzelner Theoreme.
Grundsätzlich können also alle Axiome einer Theorie falsch sein – und trotzdem kann man aus falschen Axiomen richtige Theoreme ableiten. Das ergibt sich entweder aus einem glücklichen Zufall oder dadurch, dass man Axiome gerade so auswählt, dass Sie zu bestimmten für besonders plausibel und stabil gehaltenen Theoremen führen – ganz unabhängig davon, wie es um die Plausibilität der Axiome bestellt ist.
So ein Vorgehen führt aber direkt in die theoretische Willkür. Denn im Prinzip kann man unendlich viele Axiome und Kombinationen von Axiomen aufstellen und daraus gerade solche Theoreme ableiten, von denen man weiß, dass sie nicht verworfen werden. Weiß ein Wissenschaftler also schon von Anfang an, dass Kinder im Sommer viel Speiseeis bekommen, kann er immer eine Theorie mit absurden Axiomen bauen, die dieses Ereignis „erklären“. Dann kann man sich aber nicht mehr den Sachverhalt zunutze machen, dass eine theoretische Ableitung richtig ist, wenn die Axiome richtig sind – denn über die Richtigkeit der Axiome macht man sich ja gar keine Gedanken mehr.
Die Ökonomik hat sich nun ganz explizit dafür entschieden, dass sie es mit dem Realitätsgehalt ihrer Axiome nicht so genau nimmt. So schreibt Milton Friedman in einem einflussreichen Essay über die Methode der Wirtschaftswissenschaften ziemlich klar: „Truly important and significant hypotheses will be found to have ‚assumptions‘ that are wildly inaccurate descriptive representations of reality, and, in general, the more significant the theory, the more unrealistic the assumptions […].“
Dass ein Theorem also richtig sein kann, obwohl seine Axiome falsch sind, ist bei Friedman kein Problem mehr, sondern gilt vielmehr als Tugend ökonomischer Theorie. Echte Wissenschaftler werden allerdings alles daran setzen, dass ihre Axiome möglichst wahr sind – weil sie aus der Logik wissen, dass die empirische Wahrheit ihrer Theoreme ansonsten auch im besten Fall nur Zufallsergebnisse sind.
Maximieren alle ihren Nutzen?
Was hat all das jetzt mit der Neoklassik zu tun? Ein erster Vorwurf an einen zentralen Teil der Neoklassik – der Nutzentheorie – ist, dass sie ihre Axiome einfach setzt und nicht testet (wir kommen gleich zu den neueren Entwicklungen in der Verhaltensökonomie). Die Nutzentheorie ist der Kernpunkt des „Homo Oeconomicus“. In ihr wird angenommen, dass Menschen im Kopf eine „Nutzenfunktion haben“, nach der sie allem, was ihnen im Leben begegnet, einen Nutzen zuordnen.
In jedem Moment setzen sie dann ein rationales Optimierungskalkül ein, mit dem sie verschiedene Alternativen gegeneinander abwägen, um dann diejenige zu wählen, die ihnen insgesamt am meisten Nutzen bringt. Das wird dann auf den Konsum, politische Wahlen, die Liebe und alles Mögliche andere angewandt.
Nun haben die Psychologie seit langem und die Ökonomie seit neuestem eigentlich alle Axiome, aus denen der rationale Nutzenmaximierer abgeleitet wird, empirisch verworfen. Menschen haben keine konstanten Präferenzen – wie von der Neoklassik unterstellt –, sondern diese ändern sich von Situation zu Situation; Präferenzen sind nicht eindeutig ordenbar (wenn man x besser als y findet und y besser als z, müsste der Homo Oeconomicus x besser als z finden. Der normale Mensch hält sich im Durchschnitt aber nicht daran); Menschen optimieren kaum, sondern halten sich meistens an Daumenregeln; Menschen entscheiden nicht jeder für sich, sondern in Bezug auf andere etc.
Das heißt, dass über die Richtigkeit der aus der Nutzenmaximierung abgeleiteten Theoreme keine definitive Aussage getroffen werden kann. Sie können freilich richtig sein. Aber das wäre reiner Zufall, da sich der Großteil ihrer zentralen Annahmen als falsch erweist. Das hieße, dass die Axiome der Theorie der Nutzenmaximierung eigentlich verworfen werden müssten, um bessere – vielleicht mehr in der Psychologie oder der Soziologie verankerte –Theorien zu benutzen.
Jetzt werden viele Ökonomen – wieder zu Recht – einwerfen, dass ja mit dem Einzug der Verhaltensökonomie in den wirtschaftswissenschaftlichen Mainstream genau das stattfindet. Der Mensch wird realistischer, damit auch die Axiome und schließlich die Theoreme. Aber die Art des Einzugs der Psychologie in die Ökonomie bereitet wiederum viele Schwierigkeiten. Denn an einem Axiom wird weiterhin festgehalten, am Axiom der Nutzenmaximierung.
Jetzt schreiben die Forscher einfach passende Wahlmöglichkeiten in die Nutzenfunktion. Der Effekt ist folgender: Wenn ich Drogen in die Nutzenfunktion schreibe, ist der Drogenabhängige vollkommen rational in seiner Abhängigkeit; wenn ich Selbstmord in die Nutzenfunktion schreibe, ist der Suizid rational; wenn ich Hass in die Nutzenfunktion schreibe, ist Mord rational etc. Dieses Verfahren hat eine lange Tradition in der Ökonomie, es nennt sich das Verfahren der revealed preferences: Weil der Ökonom nicht in den Kopf der Menschen schauen kann (oder will), beobachtet er ihr Verhalten und nimmt einfach an, dieses sei auf eine Nutzenmaximierung à la Neoklassik zurückzuführen.
Auch Ökonomen, die Abweichungen von der ursprünglichen Rationalität feststellen – wie etwa Ernst Fehr – „erklären“ Abweichungen vom Homo Oeconomicus einfach damit, dass sie die neuen für die Neoklassik absonderlichen Verhaltensweisen in die Nutzenfunktion schreiben. Dabei wird allerdings kein Axiom der Theorie verändert, sondern nur die bewusst gesetzte Leerstelle der Nutzentheorie – die Frage der Präferenzstruktur – voll ausgenutzt, um die Flexibilität der Theorie zu maximieren.
Das führt aber direkt in die Tautologie: Wenn jedes Verhalten durch eine Manipulation der Nutzenfunktion „erklärt“ werden kann, ist der Informationsgehalt der Theorie gleich null. Die Theorie ist dann eine reine Tautologie, die sich einem Test ihrer Axiome entzieht und damit – vermeintlich – alles erklären kann. Dass man plötzlich alles erklären kann, hat dann laut Kapeller auch die Türen des „ökonomischen Imperialismus“ geöffnet, also der Anwendung der Nutzenmaximierung auf alle Lebensbereiche (etwa durch Gary Becker).
Aber mit einer Tautologie kann man gar nichts erklären. Das sieht man gleich, wenn man die logische Struktur der Nutzenmaximierungstheorie menschlichen Verhaltens mit einem Satz zusammengefasst: Man tut, was den Nutzen maximiert; was man also tut, maximiert den Nutzen. Dieser Satz ist mit strikt allen Beobachtungen zum Verhalten von Menschen vereinbar. Eine Theorie, die alles „erklärt“, erklärt gar nichts. Denn eine Theorie ist ja dazu da, dass man sie dafür benutzt, bestimmte Ereignisse auszuschließen (etwa, ein Hammer, den ich auf der Erde fallen lasse, schwebt nicht zur Decke).
Ein weiteres Problem diese Art der Theoriebildung ist, dass alternative Erklärungsansätze aus Psychologie, Soziologie oder Neurowissenschaft, die möglicherweise die von Ökonomen beobachteten Phänomene besser erklären können, oft gar nicht erst herangezogen werden (obwohl sich das langsam aber zusehends ändert). Wenn die neoklassische Ökonomie tautologisiert, immunisiert sie sich also nach zwei Seiten: Sie immunisiert sich gegen empirische Falsifikation und sie immunisiert sich gegen alternative Erklärungsansätze.
Wann gilt eine Theorie überhaupt?
Aber es gibt auch noch eine dritte Möglichkeit der Immunisierung. Theoretiker können nämlich das Publikum im Unklaren darüber halten, wann eine Theorie überhaupt anwendbar ist, also unter welchen Bedingungen eine empirische Überprüfung überhaupt als Falsifikation akzeptiert wird.
Das lässt sich mit einem Beispiel aus der Physik veranschaulichen, etwa dem Galileischen Fallgesetz. Mit diesem Gesetz kann man die Fallgeschwindigkeit eines Objektes prognostizieren, das auf die Erde fallen gelassen wird. Die tatsächlich gemessene Geschwindigkeit des Objektes und die Prognose der Geschwindigkeit werden dann im Großen und Ganzen übereinstimmen. Lässt man das Objekt aber im Weltraum fallen, wird die Prognose falsch sein, denn dort schweben die Objekte herum und fallen nicht. Heißt das dann, dass das Fallgesetz durch das zweite Experiment falsifiziert ist – und damit auch gleich die Newtonsche Mechanik, auf der das Fallgesetz beruht?
Nicht unbedingt. Es kommt darauf an, wie sich die Axiome der Theorie zueinander verhalten. Man kann nämlich alle Annahmen (Axiome) in Gesetzeshypothesen und Hilfsannahmen unterscheiden. Die Gesetzeshypothesen machen die eigentliche Theorie aus, die Hilfsannahmen spezifizieren, unter welchen Bedingungen die Theorie anwendbar ist. Von dieser Unterscheidung hängt sehr viel ab: Das Galileische Fallgesetz lässt sich etwa aus der Newtonschen Theorie nur dann ableiten, wenn eine Reihe spezieller Hilfsannahmen hinzugestellt werden.
Beim Fallgesetz Galileos sind folgende Hilfsannahmen enthalten: das Objekt muss auf der Erde abgeworfen werden (nicht etwa auf dem Mars), darf keine zu große Entfernung von der Erde aufweisen und ist nicht von anderen Kräften beeinflusst (der Luftwiderstand darf keine entscheidende Rolle spielen). Die eigentlichen Gesetzeshypothesen, die aus der Newtonschen Theorie abgeleitet werden, sind das zweite Bewegungsgesetz und das Gravitationsgesetz.
Die Hilfshypothesen spezifizieren also, dass das Fallgesetz nur auf der Erde funktioniert, aber nicht im Weltraum, auf dem Mars oder anderswo. Würde man das Gesetz woanders testen, kann ein Scheitern des Testes noch nicht als Scheitern der Theorie – sowohl des Galileischen Fallgesetzes oder der Newtonschon Mechanik – akzeptiert werden. Dort müssten die Hilfshypothesen situationsspezifisch modifiziert werden, um etwas über die Validität der Theorie aussagen zu können.
Die Unterscheidung zwischen Gesetzes- und Hilfshypothesen ist also notwendig, um darüber entscheiden zu können, auf welche Situation theoretische Aussagen überhaupt anwendbar sind und wie dann Tests der Theorie zu interpretieren sind. Für die rein formale Ableitung von Schlussfolgerungen aus Axiomen braucht man die Unterscheidung in Gesetzes- und Hilfshypothesen aber nicht. Ist man also gar nicht daran interessiert, ob und wann eine Theorie testbar ist, muss man zwischen diesen beiden Arten von Axiomen auch nicht unterscheiden.
Kapeller kritisiert nun, dass sich die Neoklassik konsequent einer solchen Unterscheidung der Axiome in Gesetzes- und Hilfshypothesen verweigert, sich also verweigert, genau zu spezifizieren, unter welchen Bedingungen ihre Theorien eigentlich gelten und damit auch falsifiziert werden können.
Ein Beispiel dazu ist das neoklassische Marktgleichgewicht bei vollständiger Konkurrenz. Hier werden Firmen angenommen, die ihren Profit maximieren und Haushalte die – wie schon beschrieben – ihren Nutzen. Wenn sich nun unendlich viele dieser Firmen mit gleicher Technologie und unendlich viele Haushalte mit gleichen Präferenzen auf dem Markt treffen, entsteht daraus – das ist das Theorem – ein Gleichgewicht. In diesem Gleichgewicht sind der Nutzen aller Haushalte und die Profite aller Firmen maximiert, können nicht mehr gesteigert werden und das Gleichgewicht ist damit ein gesellschaftliches Optimum. Natürlich gibt es auch noch andere Marktformen – Monopol, Oligopol etc., die in der Neoklassik entworfen werden. Bei diesen Marktformen gibt es aber wegen des Machtübergewichts eines Akteurs kein soziales Optimum – das gibt es nur bei vollkommener Konkurrenz. Dass ein „soziales Optimum“ natürlich etwas Anstrebenswertes ist, ergibt sich schon aus dem Wort.
Jetzt ist die Frage, wie man die Theoreme des Marktgleichgewichtes testen kann. Dabei kommt es zentral auf die Unterscheidung zwischen Gesetzes- und Hilfshypothesen an. Nehmen wir als Beispiel das Axiom unendlich vieler Unternehmen und Haushalte auf einem Markt. Würde man diese Axiome als Gesetzeshypothesen formulieren, wären sie sofort leicht zu falsifizieren, also falsch, denn sie treffen offensichtlich in keinem realen Markt zu. Würde die Neoklassik nicht die Friedmansche Immunisierung à la „Axiome müssen unrealistisch sein“ akzeptieren, wären die Theoreme des Marktgleichgewichts bei vollkommener Konkurrenz schon rein logisch auf tönernen Füßen, weil man eben aus falschen Axiomen keine richtigen Schlussfolgerungen ziehen kann.
Jetzt kann man aber die Hypothese (annähernd) unendlich vieler Akteure auch als Hilfshypothese verwenden. Das heißt, gegeben die Gesetzeshypothesen (etwa Profit- und Nutzenmaximierung), herrscht soziales Optimum, wenn unendlich viele Akteure im Markt sind. Werden die Theoreme der Theorie dann empirisch verworfen, kann der Theoretiker immer darauf verweisen, dass die Theorie valide eben nur auf Märkten getestet werden kann, auf denen „ausreichend viele“ Akteure vorhanden sind.
Unrealistische Axiome werden in der Ökonomie nicht nur kaum hinterfragt, sondern bieten im Fall des Versagens einer Theorie oft auch einfache Auswege zu ihrer Immunisierung: Die Zahl der Marktteilnehmer war zu klein, ihre Natur zu heterogen, die Information nicht gleichmäßig genug verteilt etc.
Das gleiche gilt für die identischen Präferenzen der Akteure oder die gleiche Technologie. Als Gesetzeshypothese formuliert wären sie schnell falsifizierbar; als Hilfshypothesen schränkt man einfach die Reichweite der Theoreme ein: Ist ein Test der Theorie erfolgreich, so gilt das als Erfolg (trotz der obigen Kritik an den logischen Problemen eines solchen Vorgehens); ist ein Test nicht erfolgreich, so lässt sich darauf verweisen, dass die durch die Hilfshypothesen ausgedrückten Bedingungen nicht erfüllt waren. Weil sich Ökonomen aber in der Regel kaum Gedanken um die Unterscheidung von Gesetzes –und Hilfshypothesen machen, bleibt der Anwendungsbereich ihrer Theorie systematisch schwammig und kann damit kaum konzise getestet werden.
Mit all diesen Immunisierungsstrategien der neoklassischen Theorie (Kapeller beschreibt noch viele andere) gegen Falsifizierungsversuche kann man nun empirisch forschen wie man will. Die Theoretiker werden immer Mittel und Wege finden, ihre Theorie unangreifbar zu machen. Genau das ist der Platonismus in der Neoklassik. Wenn die Theoretiker ihre Theorien (etwa die Nutzenmaximierung bei totaler Beliebigkeit des konkreten Nutzeninhalts) der Falsifizierung entziehen, ist das Theoriegebäude nicht mehr wissenschaftlich, sondern metaphysisch. Das kann legitim sein: Die Existenz Gottes ist, wie jene des Marktgleichgewichts, nicht falsifizierbar und jedem steht es frei an Gott oder das Marktgleichgewicht zu glauben. Aber es ist eben Glaube und keine kritische Auseinandersetzung mit Aussagen und Erklärungen über die reale Welt.
Woher ich’s weiß, ich sag’s euch nicht – aber folgen müsst ihr schon
Das hat natürlich politisch wichtige Folgen: Wenn ich alle empirische Kritik an der These eines vollkommenen Marktgleichgewichts mit einer geschickten Formulierung der Axiome abwehren kann, kann ich an den Segen des Marktgleichgewichts glauben, ohne ihn empirisch jemals festnageln zu können. Ich kann dann bei jedem Scheitern von Tests sagen: Kein Wunder, dass die Tests fehlschlagen, denn in den getesteten Märkten gibt es ja gar nicht genug Konkurrenz. Wir müssen also die Konkurrenz erhöhen – etwa mit mehr Marktteilnehmern, mehr Anstrengung, intensiverem Wettbewerb und flexibleren Preisen –, dann wird sich das soziale Optimum schon einstellen. Und wenn es sich dann wieder nicht einstellt, ist man eben noch zu weit entfernt von der perfekten Konkurrenz etc.
Dieser Gedankengang ließe sich noch auf andere Felder der Neoklassik anwenden: Wenn etwa Finanzmärkte nicht effizient sind, weil es asymmetrische Informationen gibt, muss man einfach die Informationen verbessern, dann werden auch die Märkte effizient; wenn sie dann immer noch nicht effizient sind, gibt es wohl noch zu viele asymmetrische Informationen etc. Wenn die Arbeitslosigkeit hoch ist, müssen die Löhne zu hoch sein und wenn die Löhne sinken, die Arbeitslosigkeit aber immer noch hoch ist, müssen halt die Löhne noch mehr sinken etc.
Der neoklassische Ökonom kann also immer behaupten, dass er die ideale Welt des Marktes kennt, egal, wie die Realität aussieht. Mit den unwissenschaftlichen Immunisierungsstrategien, wie sie hier geschildert wurden, kann er – im Prinzip – alle Erfahrung der Realität als nicht zutreffend auf seine Theorie abschmettern und letztere zugleich als utopische Schablone für Fragen politischer Gestaltung zum Einsatz bringen.
Das heißt alles nicht, dass es keine guten und wichtigen Erkenntnisse in der Neoklassik gibt und dass die neoklassisch inspirierte empirische Forschung nichts geleistet hätte. Ganz im Gegenteil. Es heißt auch nicht unbedingt, dass etwa asymmetrische Informationen oder rigide Preise die Märkte ineffizient machen könnten. Es heißt auch nicht, dass alternative Theorien immer die besseren sind.
Aber weil viele der neoklassischen Aussagen aus ganz unklaren Axiomen abgleitet sind, können wir über ihren Wahrheitsgehalt nichts wissen sondern können ihnen nur glauben. In vielen – wenn nicht sogar den meisten – Bereichen steht sie auf wissenschaftlich tönernen Füßen, so dass es im Prinzip ein Leichtes wäre, viele ihrer Theorien auseinanderzunehmen und damit auch die Theoreme in Zweifel zu ziehen, die aus diesen Theorien abgeleitet werden.
Dass das in der Realität nicht oder zu selten passiert, hat vor allem etwas mit der sozialen Struktur der Wissenschaft zu tun: diejenigen, die in den Tempel der Wirtschaftswissenschaft aufgenommen werden wollen, haben sich an den etablierten platonischen Ideen der Nutzenmaximierung und des Marktgleichgewichts zu orientieren; ansonsten hätten sie wohl große Schwierigkeiten im Wissenschaftsbetrieb Lohn und Brot zu finden. Diese Haltung bedroht den wissenschaftlichen Fortschritt, weil alternative Theorien gar nicht erst erwogen werden. Wie Karl Popper schon sagte: „Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.“