Das ökonomische Statement

Ein wirtschaftspolitischer Online-Kommentar

VWL-Ansätze erklären und dabei deutlich machen, dass die Volkswirtschaftslehre keinesfalls eine „trostlose“ Wissenschaft ist. So lautet die Zielsetzung des „ökonomischen Statements“. In unregelmäßigen Abständen nehmen Professoren der FOM Hochschule Stellung zu wirtschaftspolitischen Entscheidungen und ihren Auswirkungen. Dabei steht die praktische Anwendung ökonomischer Theorieansätze im Vordergrund. 

Autoren sind Prof. Dr. Michael Göke, Prof. Dr. Norbert Lamar, Prof. Dr. Gerald Mann, Prof. Dr. Richard Reichel und Prof. Dr. Matthias Ross sowie Gastautoren.

Donald Trump, die NATO und das deutsche Verteidigungsbudget – eine ökonomische Analyse der Sicherheitspolitik

von Richard Reichel

Ärger um Forderungen aus Washington
US-Präsident Donald Trump hat in den vergangenen Wochen und Monaten mehrfach und in deutlicher, in einer auf diplomatischer Ebene bislang durchaus „ungewöhnlicher Weise“, die europäischen NATO-Mitglieder auf ihre finanziellen Bündnisverpflichtungen hingewiesen und dabei besonders Deutschland ins Visier genommen. Dieses Land schulde den USA „riesige Summen“, weil die USA einerseits ihren finanziellen Bündnisverpflichtungen nachkommen würde und andererseits bereit sei, die „mächtige und kostspielige“ Verteidigung zu übernehmen. Trump bezog sich dabei auf das Ziel der NATO, zwei Prozent ihres Bruttoinlandsprodukts (BIP) für die Verteidigung auszugeben (FAZ, 2017). An anderer Stelle war, konkreter, aber offiziell dementiert, von über 300 Milliarden Euro die Rede. (Die Presse, 2017) Welche Zahl man auch immer heranziehen mag, klar scheint, dass es um sehr viel Geld geht.

Kanzlerin Merkel sicherte Trump darauf hin zu, die Verteidigungsausgaben in Richtung auf diese Zielmarke zu erhöhen. Verteidigungsministerin von der Leyen schränkte allerdings ein, die deutschen Verteidigungsaufwendungen „nur auf die NATO“ zu beziehen, sei zu kurz gedacht. Man müsse auch berücksichtigen, dass auch „UNO-Friedensmissionen“ und andere Einsätze aus diesen Aufwendungen gespeist werden würden. Weiter führte die Ministerin aus: „Was wir alle wollen, ist eine faire Lastenteilung, und die braucht einen modernen Sicherheitsbegriff. Dazu gehört eine moderne Nato, aber ebenso eine europäische Verteidigungsunion wie Investitionen in die Vereinten Nationen" (Der Spiegel, 2017a).

Was mit diesen Ausführungen gemeint sein könnte, bleibt allerdings reichlich unklar, denn das Ziel „zwei Prozent des BIP“ ist für die NATO-Mitgliedsstaaten eindeutig formuliert. Vielleicht soll es so interpretiert werden, dass die Ausgaben für die sonstigen, wie auch immer definierten NATO-Aufgaben um eben die Beträge gekürzt werden könnten (oder sollten), die für die oben genannten, anderweitigen Einsätze bereits verbraucht worden sind. Eindeutig ist eine solche Interpretation jedoch nicht und wohl auch nach der Intention des NATO-Beschlusses. Jedenfalls lohnt es sich, sich sowohl aus der sicherheitspolitischen, als auch aus der ökonomischen Perspektive mit diesem Problem auseinanderzusetzen.

Äußere Sicherheit als klassisches öffentliches Gut
Die Gewährleistung äußerer Sicherheit durch die Staatsmacht ist ein klassisches öffentliches Gut und ist in Lehrbüchern vielfach als Beispiel zu finden (Kollektivkonsum). (Fischer, 2009, S. 38; Europäisches System der Volkswirtschaftlichen Gesamtrechnungen, 2010) Öffentliche Güter sind durch die Kriterien der Nichtausschließbarkeit (man kann ihrem Konsum nicht ausweichen; das Militär schützt alle, ob man will oder nicht) und der Nichtrivalität (da zwangsläufig alle mit diesem Gut „militärische Sicherhit“ versorgt werden gibt es keinen Wettbewerb unter dem Konsumenten) sind erfüllt. Es besteht somit für die Konsumenten keine Notwendigkeit und keine Möglichkeit, über ein Preisgebot ihre persönlichen Präferenzen zu äußern. Ein Marktmechanismus kann also nicht etabliert werden. Da sich also kein Preis bilden kann, kommt ein freiwilliges privates Angebot welches alle schützt nicht zustande. So wie Konsumenten, die das Gut nicht zu konsumieren wünschen, also „zwangsversorgt“ werden, werden Konsumenten, die das Gut schätzen, ohne Zahlung eines Preises, als „Trittbrettfahrer“ („Freerider“) versorgt und müssen ihre Präferenzen nicht durch eine Preiszahlung untermauern. Darum müssen öffentliche Güter durch den Staat angeboten und durch Steuern finanziert werden, oder es wird ihr Angebot nicht geben. Nur so kann verhindert werden, dass die geschützten Staatsbürger ihre Zahlungsbereitschaft verschleiern und klassisches Trittbrettfahrerverhalten an den Tag legen.

Dies gilt nicht nur innerhalb der Grenzen eines Landes, sondern auch bei gemeinschaftlicher Verteidigung wie im Falle der NATO. Da es in Ermangelung eines ‚NATO-Staatsvolks’ keine einheitliche ‚NATO-Steuer’ gibt, ist die Aufstellung von – mehr oder weniger verbindlichen – Budgetrichtlinien für die Mitgliedsstaaten durchaus sinnvoll und problemadäquat. (Die Durchsetzung solcher Verpflichtungen steht freilich auf einem anderen Blatt.) Wenn nun ein solches Ziel beschlossen wurde, und dies ist unbestritten, kann überprüft werden, ob bei einem Land Trittbrettfahrerverhalten festzustellen ist. Dies ist – unabhängig von der zeitlichen Dimension der Zielerreichung – in der Tat der Fall. Einige wenige Länder, darunter die USA liegen über der Zielmarke, die meisten anderen Mitgliedsstaaten weit darunter. Deutschland landet mit einem Ist-Wert 2016 von 1,2 Prozent im Mittelfeld der 27 Mitgliedsländer auf Platz 15. Letzter ist Luxemburg mit 0,42 Prozent, aber das dürfte für die Verteidigungsfähigkeit des Bündnisses höchst irrelevant sein. Die USA, Großbritannien, Polen; Griechenland und Estland erreichen oder übertreffen als einzige Länder das anvisierte Ziel. (The Economist, 2017)

Verteidigungsfähigkeit und das 2-Prozent-Ziel der NATO
Man fragt sich nun unmittelbar, was es mit dem 2-Prozent-Ziel der NATO auf sich hat, wie es begründet wird und welche Bedeutung es sicherheitspolitisch hat. Zunächst einiges zur Historie. Das 2-Prozent-Ziel wurde bereits im Jahr 2002 auf dem Prager NATO-Gipfel beschlossen, nachdem im Zuge der Abrüstung nach dem Zusammenbruch des Ostblocks die Verteidigungsausgaben in vielen Staaten drastisch gefallen waren. Bereits damals wurde beklagt, dass insbesondere Deutschland wesentliche militärische Fähigkeiten (beispielsweise beim Lufttransport) abhandengekommen waren. Das zweitgrößte NATO-Mitgliedsland gab damals bereits lediglich nur etwas mehr als 1,4 Prozent des Bruttoinlandsprodukts für Verteidigung aus. (Konrad Adenauer Stiftung, 2017) Allerdings hatte die damalige Zielgröße den Charakter einer völkerrechtlich nicht bindenden Vereinbarung. Man hätte die Einhaltung der Selbstverpflichtung auch nicht sanktionsbewehrt einfordern können. Allerdings wusste man 2002 noch nichts von einer 12 Jahre später die internationale Bühne betretenden neuen Bedrohung, der aggressiven Macht Russland, die sich die Halbinsel Krim (Die Welt, 2017a) einverleiben sollte und die in der Ostukraine völkerrechtswidrig Separatisten unterstützt. Angesichts dieser Entwicklung sind die baltischen Staaten (als ehemaliger Teil der Sowjetunion) und Polen verständlicherweise besorgt. Der Raub polnischen Territoriums durch die Sowjetunion nach dem Zweiten Weltkrieg ist vielen Polen noch in sehr schlechter Erinnerung.

Die Ereignisse in Osteuropa von 2014 haben dazu geführt, dass die NATO-Mitgliedsstaaten auf zwei Gipfeln in Wales (2014) und Warschau (2016) das 2-Prozent-Ziel bekräftigt haben. Erreicht werden soll es nunmehr bis zum Jahr 2024. (Stuttgarter Nachrichten, 2017a) Wiederum handelt es sich aber nicht um einen völkerrechtlich verbindlichen und einklagbaren Vertrag. Dennoch dokumentiert die erneute Diskussion um faire Beiträge zur gemeinsamen Verteidigung und die erneute Festlegung des 2-Prozent-Ziels die Ernsthaftigkeit und den Konsens in dieser Frage. Die Fixierung eines 10-Jahres-Zeitraums war wohl der Tatsache geschuldet, dass sich seit der ersten Zielformulierung im Jahr 2002 viele Mitgliedsstaaten nicht in Richtung des Ziels, sondern von diesem weg bewegt hatten. Dabei erreichten die europäischen NATO-Länder im Durchschnitt des Jahres 2002 den Zielwert gerade. Deutschland (1,5 Prozent) verfehlte schon damals sehr deutlich, während Frankreich und Großbritannien mit etwa 2,5 Prozent darüber lagen. (NATO, 2017a) Im Jahr 2009 erreichte NATO-Europa nur noch einen Durchschnittswert von 1,7 Prozent, Deutschland war bei mageren 1,39 Prozent angekommen. Aber auch in Frankreich waren die Ausgaben in Prozent des BIP rückläufig; sie betrugen 2009 nur noch 2 Prozent. Der Trend rückläufiger Verteidigungsausgaben hielt bis zum Jahr 2014 an. Der europäische NATO-Durchschnitt lag bei nur noch 1,46 Prozent, Deutschland war auf sehr niedrige 1,19 Prozent zurückgefallen.(NATO, 2017b)

Vor dem Hintergrund dieser Zahlen kann durchaus kollektives Freifahrerverhalten konstatiert werden, ganz besonders im Falle Deutschlands. Wenn der amerikanische Präsident also Deutschland vorwirft, der NATO den fairen Anteil vorenthalten zu haben, dann ist ihm zweifelsohne zuzustimmen. Eine rückwirkende Rechnung zu präsentieren ist allerdings fragwürdig. Nirgendwo wurde vereinbart, dass so etwas möglich sei und auch die Forderung nach Erfüllung der gegenwärtigen Verpflichtungen ist völkerrechtlich nicht sinnvoll. Trumps Rechnung über mehr als 300 Milliarden „kumulierter Schulden“ gegenüber der NATO dient denn wohl auch mehr der drastischen Verdeutlichung des deutschen Trittbrettfahrens denn als realistischer Weise liquidierbare Forderung. Die USA selbst haben das NATO-Ziel durchweg übererfüllt, wenngleich die stärkste Militärmacht der Welt mit ihrem Militärbudget auch eigene Ziele (außerhalb der NATO) verfolgt (Stuttgarter Nachrichten, 2017b). Dabei ist es allerdings schwierig, zwischen NATO-relevanten und NATO-irrelevanten Engagements zu unterscheiden.

Wie aber kann das 2-Prozent-Ziel begründet werden? Definiert es so etwas wie eine Untergrenze der kollektiven Verteidigungsfähigkeit? Interessanterweise findet sich bei der Zielformulierung der NATO keine inhaltliche Begründung. Die Zahl scheint im Jahr 2002 vielmehr dadurch zustande gekommen zu sein, dass man das durchschnittliche Verhältnis zwischen Verteidigungsausgaben und BIP in NATO-Europa – das damals bei 2 Prozent lag – einfach festgeschrieben hat. Das hilft inhaltlich freilich nicht weiter. Dementsprechend kontrovers – und bisweilen auch verworren – verlaufen heute die Argumentationslinien. Dabei scheint es für einige Autoren am einfachsten, das Ziel selbst in grundsätzlichen Zweifel zu ziehen.

Hans-Georg Ehrhart, Geschäftsführer des Instituts für Friedensforschung und Sicherheitspolitik an der Universität Hamburg, bezeichnet es als „Fetisch“ und zieht seine Sinnhaftigkeit grundsätzlich in Zweifel. Zur Begründung führt er folgende Punkte an: (Der Tagesspiegel, 2017a)

  1. Das Ziel sei willkürlich und rein quantitativ.
  2. Eine reine Quote sage nichts über die Verteidigungsfähigkeit aus. Ehrhart verweist auf Griechenland, das zwar die Quote erfülle, aber in seinen militärischen Möglichkeiten sehr begrenzt sei.
  3. Ein quantitatives Ziel lenke von den eigentlichen Zielen und Instrumenten der Sicherheitspolitik ab.


Christian Mölling, stellvertretender Direktor des Forschungsinstituts der Deutschen Gesellschaft für auswärtige Politik, meint gar, das 2-Prozent-Ziel sei „analytischer Unsinn“, da es nichts darüber aussage, welche Schlagkraft mit einer bestimmten Ausgabe erzielt werde. Entscheidender als eine fixe Quote sei die Effizienz der eingesetzten Mittel. (Süddeutsche Zeitung, 2017)

Ein weiteres Argument gegen das NATO-Ziel sei dessen Konsequenz für die Stellung Deutschlands in der europäischen Sicherheitsarchitektur. Deutschland werde dann (nach Erfüllung des Ziels) wegen seines hohen BIP das am höchsten gerüstete Land nach den USA. Dies könnte die politische Dominanz unheilvoll verstärken.

Das letzte Argument ist leicht zu entkräften. Bereits in den 1980er Jahren waren die deutschen Verteidigungsausgaben die nach den der USA höchsten im Bündnis und niemand hat sich daran gestört. Vielmehr waren die anderen europäischen Länder dankbar, dass Deutschland auf vielen konventionellen Gebieten die Hauptlast der militärischen Abschreckung getragen hat. Man könnte jetzt zwar einwenden, das sei in Zeiten des kalten Krieges nötig und akzeptabel gewesen, heute aber nicht mehr. Dieser Einwand unterstellt, dass der Kalte Krieg mit dem Jahr 1990 zu Ende gegangen sei. Wie die Ereignisse in der Ukraine und auf der Halbinsel Krim gezeigt haben, ist diese Vermutung aber stark in Zweifel zu ziehen. Dass der Kalte Krieg keineswegs zu Ende ist, zeigt ein Blick auf die Rüstungsausgaben (in Prozent des BIP) von Russland und den USA nach 1992:

Schaubild 1: Verteidigungsausgaben in Prozent des Bruttoinlandsprodukts


Die Grafik zeigt zwar bis zum Jahr 2000 eine Abwärtsbewegung, danach jedoch steigen die Quoten wieder an. Festzuhalten ist eine prinzipielle Synchronität zwischen den Ausgabenquoten, insbesondere die Abrüstung in den 1990er Jahren (‚Friedensdividende’). Ab 2009 läuft die Entwicklung jedoch auseinander. Die USA senkten ihre Ausgaben, während Russland diese erhöhte und inzwischen wieder bei Werten angelangt ist, die für den Kalten Krieg typisch waren. Ein erheblicher Teil der zusätzlichen Ausgaben ist in die Modernisierung der russischen Rüstung geflossen. Diese Entwicklung korreliert zeitlich mit einer zunehmend selbstbewussteren (und aggressiveren) Außenpolitik Russlands.

Wie steht es aber nun um die Argumente gegen eine Quote ‚Verteidigungsausgaben in Prozent des BIP?' Zunächst ist festzuhalten, dass die oben angesprochenen Kritikpunkte einerseits die Höhe des Zielwerts betreffen, andererseits betonen, dass Ausgaben (im ökonomischen Sinne also Input) nichts über das Ausmaß geschaffener Sicherheit im allgemeinen oder militärischer Schlagkraft im speziellen sagen.

Die Frage, was die Effizienz von Verteidigungsausgaben ausmacht, ist nicht leicht zu beantworten. Sie ist für ein Land wie die USA sicher anders zu beantworten als für Deutschland, insbesondere wenn Effizienz umfassender als rein militärische Schlagkraft definiert wird. Aber selbst im Fall der engeren Definition hängt der Sicherheitsoutput bei gegebenem Mitteleinsatz von vielen, teilweise schwer quantifizierbaren Faktoren ab. Als Beispiele für relevante Faktoren wären, um nur einige zu nennen:

  • die materielle Ausrüstung (Zweckmäßigkeit, Modernität) sowie ihre Einsatzfähigkeit,
  • der Ausbildungsstand der Truppe,
  • die Qualität der Führungsstruktur und des Führungspersonals,
  • die logistische Leistungsfähigkeit.


Es ist auch unmöglich, eine Effizienzkennziffer zu berechnen, denn wie soll der ‚Sicherheitsoutput’ gemessen werden? Hierzu gibt es lediglich fragwürdige Ansätze wie den „Global Firepower Index“, bei dem völlig unklar ist, wie er im Detail konstruiert wird und welche Aussage ein bestimmter Indexwert trifft. (Global Fire Power, 2017) Ein weiterer, ebenfalls fragwürdiger Ansatz ist der „Military Strength Index“. (Wikipedia, 2017) Diese Indizes orientieren sich an traditionellen militärischen Konzepten, lassen aber neuartige Bedrohungen wie terroristische Angriffe und Cyber-Angriffe außer Acht. Dabei fallen terroristische Angriffe in Deutschland primär in den Aufgabenbereich der Polizei, sekundär könnten aber Unterstützungsleistungen der Armee hinzukommen. Geht es um Terrorismusbekämpfung im Ausland, sind ohnehin die Streitkräfte in der Pflicht (Aufklärungstornados in Syrien). Also müssen auch in diesem Bereich Kapazitäten aufgebaut werden. Bei der Abwehr von Cyber-Angriffen schließlich sind noch kaum Kapazitäten vorhanden.

Diese komplexe Gemengelage macht es nahezu unmöglich, einem gegebenen Input in Form von Verteidigungsausgaben (in Prozent des BIP) einen Output in Form von Sicherheit oder Schlagkraft gegenüberzustellen. Aus diesem Grund können auch keine Effizienzkennziffern berechnet werden. Forderungen nach solchen sind deshalb eher als ausweichende Stellungnahmen zu werten, die klare Selbstverpflichtungen scheuen und die die Organisation kollektiver Sicherheit der politischen Beliebigkeit unterordnen.

Bleiben als realistische Alternativen mithin nur quantitative Inputziele. Das ist übrigens auch bei anderen politischen Zielen der Fall, beispielsweise der Selbstverpflichtung, 0,7 Prozent des BIP für Entwicklungshilfe auszugeben. Diese Ziele werden zwar auch nicht erreicht, sie werden aber nicht mit Verweis auf mögliche Effizienzprobleme generell in Zweifel gezogen. Auch bei wissenschaftlichen Studien, beispielsweise auf dem Gebiet der empirischen Forschung nach den Ursachen des Wirtschaftswachstums, werden vielfach inputorientierte Indikatoren herangezogen, so beispielsweise die Anzahl der Jahre des Schulbesuchs zur Messung der Bildung. (Weede; Kämpf, 2002) Aus diesen Gründen sind die oben angesprochenen Einwände gegen das 2-Prozent-Ziel nicht stichhaltig und es ist vollkommen gerechtfertigt, auch in unserem Fall einen inputorientierten Indikator zu verwenden und den Anteil der Verteidigungsausgaben am BIP als Maß für die produzierte Sicherheit zu interpretieren.

Hält man sich vor Augen, dass ‚äußere Sicherheit’ heutzutage aus den drei Komponenten ‚konventionelle Landesverteidigung’, ‚Abwehr des islamistischen Terrorismus’ und ‚Abwehr von Cyberangriffen’ besteht und stellt man in Rechnung, dass im Jahre 2002 die beiden letzten Komponenten noch keine so große Rolle gespielt haben wie heute, dann wird klar, dass das 2-Prozent-Ziel wohl eher die sinnvolle Untergrenze dessen darstellen dürfte, was man für äußere Sicherheit aufzuwenden hat.

Die gegenwärtige Leistungsfähigkeit der Bundeswehr
Die massive Verfehlung des NATO-Ziels und der bereits angesprochene Rückgang der Verteidigungsausgaben in Prozent des BIP seit 1990 sind auf den Zustand der Bundeswehr nicht ohne Auswirkung geblieben. Zunächst wurden nach dem Zusammenbruch des Ostblocks die Kapazitäten an Material und Personal drastisch zusammengestrichen. Parallel dazu kam es zu einer extremen Ausdünnung der Standortinfrastruktur. Einige Zahlen mögen der Verdeutlichung dienen.

Der Personalbestand wurde von etwa 500.000 (1990) auf etwa 170.000 reduziert. Diese Verringerung wäre völkerrechtlich überhaupt nicht erforderlich gewesen, denn im Zuge der Wiedervereinigung wurde im Zwei-plus-Vier-Vertrag eine Obergrenze von 370.000 festgelegt. Zum Vergleich betragen die Personalzahlen bei Großbritannien und Frankreich etwa 230.000; allerdings sind auch die Bevölkerungszahlen mit 65 bis 66 Millionen geringer.

Bei der Materialausstattung wurde noch viel weitreichender abgerüstet. Anfang der 1990er Jahre verfügte die Luftwaffe noch über ca. 750 Kampfflugzeuge. Im Jahr 2004 verkündete der damalige Verteidigungsminister Struck, bis 2015 werde man den Bestand auf 262 reduzieren. (Der Spiegel, 2017b) Tatsächlich sind es gegenwärtig nur noch 198 bis 212 Flugzeuge (Eurofighter, Tornado). (Wikipedia, 2017b; Tagesschau, 2017) Die Zahl der Kampfpanzer wurde von über 4.000 auf nunmehr noch 244 reduziert. (Bundesministerium der Verteidigung, 2016) Diese zwei Beispiele mögen aus Platzgründen genügen.

Ist schon der rein quantitative Bestand lächerlich gering, so ist die faktische Einsatzbereitschaft noch viel kleiner. Wiederum mögen einige ausgewählte Beispiele genügen. Von den tatsächlich vorhandenen Waffensystemen (Gesamtbestand) ist immer nur ein Teil für die Truppe verfügbar (Verfügungsbestand), da Wehrmaterial, das zur Erprobung zur Verfügung gestellt oder bei Industriepartnern überholt/repariert wird, abgezogen werden muss. Von diesem Verfügungsbestand wiederum ist nur ein Teil auch einsatzbereit, angestrebt wird meist ein Prozentsatz von 70 Prozent. Stellt man für einige wichtige Waffensysteme den Gesamtbestand dem Einsatzbestand gegenüber, so ergibt sich folgendes Bild:

Tabelle 1: Einsatzbereitschaft wichtiger Waffensysteme (Bundesministerium der Verteidigung, 2016)


Diese ‚Tabelle des Grauens’ könnte leicht erweitert werden. Insgesamt zeigt sich bis auf wenige Ausnahmen ein erschütterndes Bild der Einsatzbereitschaft.

Auch die militärische Infrastruktur ist in den nunmehr gut 25 Jahren seit der Wiedervereinigung drastisch zurückgebaut worden, um es einmal vorsichtig auszudrücken. (zu den aufgegebenen Liegenschaften und Standorten, Wikipedia, 2017) Auch aus dem Straßenbild ist die Bundeswehr weitestgehend verschwunden. Das alles ist der Reflex der dauerhaften Nichtbeachtung des NATO-Ziels.

Zusammenfassend ergibt sich also das Bild einer Armee, die in Friedenszeiten von der eigenen Regierung besiegt und größtenteils zerstört worden ist. Dass verbleibende Reste überhaupt noch halbwegs (beispielsweise bei Auslandseinsätzen) funktionieren, muss als herausragende Improvisationsleistung gewürdigt werden. Dass mit derart geringen Mitteln nicht einmal eine glaubhafte Landesverteidigung zu leisten ist, sollte selbst für fachfremde Laien leicht zu erkennen sein. Als ‚Betriebsunfall’ kann diese solide Zerstörungsleistung aber kaum verbucht werden, zumal sie auch unter Verteidigungsministern vollbracht wurde, die wissen mussten, was geschieht. Unter den Ministern der Zeit ab 1990 hat die Mehrzahl gedient. (Wikipedia, 2017d)

Die Positionen der Parteien und militärpolitischen Perspektiven
Betrachtet man die gegenwärtigen Positionen der politischen Parteien, so wird schnell deutlich, dass das öffentliche Gut ‚äußere Sicherheit’ insbesondere für die Parteien auf der linken Seite des politischen Spektrums keine oder nur geringe Relevanz besitzt. Die SPD hat sich mehreren Stellungnahmen hochrangiger Politiker dafür ausgesprochen, das Ziel nicht weiter zu beachten. Die Begründungen sind ausgesprochen kurios und verworren. Einmal wird davon gesprochen, man wolle sich nicht in einen neuen Rüstungswettlauf hineinziehen lassen (Der Spiegel, 2017c), an andermal heißt es, das Ziel sei „abenteuerlich“ und man wisse nicht wohin mit dem Geld würde man die Zielmarke erreichen. (Wallstreet Online, 2017) Verwunderlich sind diese Stellungnahmen vor dem Hintergrund der Bekräftigung des Ziels auf dem NATO-Gipfel in Wales 2014 durch die Bundesregierung. Dieser gehörte Außenminister Steinmeier an, und Steinmeier ist bekanntlich Sozialdemokrat. Wenigstens konsequent ist die ‚demokratische Linke’ in der SPD, die die NATO gleich ganz abschaffen will. (Die Welt, 2017b)

Zum Ziel bekannt hat sich die Union. Sie möchte immerhin „auf das Ziel hinarbeiten“ und befürwortet eine „realistische“ Zunahme der Verteidigungsausgaben in der nächsten Dekade. (CDU/CSU, 2017) Was diese höchst schwammigen Formulierungen konkret bedeuten wird sich zeigen können, wenn die Union weiterhin die Kanzlerin stellt.

Mehr als die vereinbarten zwei Prozent für Verteidigung möchte die FDP realisieren. Umfassender definierte Sicherheit einschließlich ‚Diplomatie und Entwicklung’ sollten sogar drei Prozent des BIP Wert sein. (Euractiv, 2017) Diese Position scheint offenkundig aber nur für einen Teil der FDP zu gelten. Der andere Teil, vertreten durch den Parteivorsitzenden Lindner, fordert das genaue Gegenteil. Nach Lindner ist es wichtiger, in Bildung als in Rüstung zu investieren. (Bayerischer Rundfunk, 2017)

Eindeutig hingegen die Grünen: deren Außenexperte Nouripour ist der Ansicht, man verbrenne schon jetzt viel Geld in ineffizienten Strukturen. Das Ziel bezeichnet er als „völlig verfehlt“.(Der Tagesspiegel, 2017b) Belege für seine Behauptung nennt er allerdings nicht. Man fragt sich, warum er die Landesverteidigung nicht gleich ganz abgeschafft wissen möchte. Das wiederum fordert die Linke, nach deren Vorstellungen die NATO aufgelöst werden soll. (Deutscher Bundestag, 2017a) Bei der AFD schließlich hängt bereits die Meinung zur NATO generell davon ab, welchen Flügel man befragt. (Homepage der AfD, 2017)

All diese Äußerungen deuten nicht wirklich darauf hin, dass ein breiter Konsens über die Notwendigkeit von sehr deutlich ausgeweiteten Ausgaben für äußere Sicherheit in Sicht wäre. Es geht ja auch um sehr viel Geld. So beträgt der deutsche Verteidigungshaushalt gegenwärtig etwa 34 Mrd. €. Um das 2-Prozent-Ziel zu erreichen, müsste Deutschland 55 Mrd. € ausgeben, ein Plus von 21 Mrd. €. Die Frage ist, ob eine solche Steigerung zu leisten wäre, insbesondere vor dem Hintergrund eines notwendigen Abbaus der Staatsschulden und noch nicht vollständig geklärten Kosten der Aufnahme von Flüchtlingen sowie zukünftiger Kosten des Brexit. Die Antwort auf diese Frage erfordert zunächst die Analyse von Sparpotenzialen in anderen Ressorts. Hier fällt der Etat für Arbeit und Soziales auf. (Deutscher Bundestag, 2017b) Dieser ist mit einem Volumen von 137,6 Mrd. € (Plangröße 2017) der weitaus größte Einzeletat. Prozentual entfallen über 43 Prozent aller Ausgaben auf diesen Bereich. Für Leistungen zur Integration von Flüchtlingen und zur Bekämpfung von Fluchtursachen sind 2017 ressortübergreifend 19 Mrd. € vorgesehen. (Bundesministerium der Finanzen, 2017) Damit haben wir die Größenordnung der notwendigen Aufstockung des Verteidigungsetats erreicht. Da damit zu rechnen ist, dass sich die Integrationskosten nach erfolgter erfolgreicher Integration reduzieren, könnten hier bereits Milliardenbeträge umgeleitet werden, wenn auch erst mittelfristig. Auch könnten Teile der zu erwartenden Steuermehreinnahmen sowie eingesparte Gelder aus dem staatlichen Schuldendienst in den Wehretat umgeleitet werden. Zumindest mittelfristig könnte man so dem 2-Prozent-Ziel recht schnell näherkommen.

Resümee
Donald Trump hat mit seinen an Deutschland gerichteten Forderungen, mehr Geld in seine Sicherheit zu investieren und überfällige Zahlungen nachzuentrichten, für eine heftige Diskussion gesorgt. Mehrheitlich sind seine Forderungen auf Ablehnung gestoßen. Es wurde dargelegt, dass zwar die Trumpsche Nachberechnung wenig Sinn macht, der Kern des Vorwurfes jedoch berechtigt ist. Deutschland hat in der Tat seit 25 Jahren sicherheitspolitisch ein Trittbrettfahrerverhalten praktiziert, das innerhalb der NATO außergewöhnlich ist. Sowohl die konventionelle als auch die digitale Verteidigungsfähigkeit ist derzeit nicht gegeben. Die Bundeswehr ist als Sanierungsfall einzustufen, die militärische Infrastruktur ist zu erheblichen Teilen in ihrer Einsatzfähigkeit vermindert. In nahezu jedem Bereich besteht somit Handlungsbedarf, der eine ebensolche Anhebung des Verteidigungsetats notwendig macht. Wie vorstehend gezeigt, können entsprechende Investitionen und Maßnahmen nur durch Mittel aus dem Staatsbudget finanziert werden. Ob diese durch Steuermehreinnahmen und Kürzungen in bestimmten Staatsausgabenfeldern aufgebracht werden, steht hier nicht zur Debatte.

Literatur
Bayerischer Rundfunk (2017), http://www.br.de/bundestagswahl/christian-lindner-interview-der-woche-100.html

Bundesministerium der Finanzen (2017), http://www.bundesfinanzministerium.de/Content/DE/Pressemitteilungen/Finanzpolitik/2016/07/2016-07-06-PM.html

Bundesministerium der Verteidigung (2016), Bericht zur materiellen Einsatzbereitschaft der Hauptwaffensysteme der Bundeswehr, http://www.griephan.de/fileadmin/user_upload/Newspdf/2015-Bw-MatLage.pdf, S. 35.

CDU/CSU (2017), https://www.cducsu.de/presse/pressemitteilungen/erhoehung-der-verteidigungsausgaben-dient-sicherheit-deutschlands

Die Presse (2017), http://diepresse.com/home/ausland/aussenpolitik/5190508/Trump-soll-Merkel-346-Mrd-Euro-NatoSchulden-verrechnet-haben

Der Spiegel (2017a), http://www.spiegel.de/politik/deutschland/nato-finanzierung-von-der-leyen-widerspricht-trump-a-1139460.html

Der Spiegel (2107b), http://www.spiegel.de/politik/deutschland/bundeswehr-verkleinerung-luftwaffe-verliert-rund-500-kampfflugzeuge-a-281742.html

Der Spiegel (2017c), http://www.spiegel.de/politik/deutschland/spd-martin-schulz-will-zwei-prozent-ziel-der-nato-kippen-a-1150329.html

Der Tagesspiegel (2017a), https://causa.tagesspiegel.de/politik/muss-deutschland-mehr-fuer-ruestung-ausgeben/das-zwei-prozent-ziel-ist-zum-fetisch-geworden.html

Der Tagesspiegel (2017b), http://www.tagesspiegel.de/politik/gruenen-aussenexperte-nouripour-das-gesamte-zwei-prozent-ziel-ist-doch-voellig-verfehlt/19412238.html

Deutscher Bundestag (2017a), https://www.bundestag.de/dokumente/textarchiv/2016/kw27-ak-sicherheit-frieden/433592

Deutscher Bundestag (2017b), https://www.bundeshaushalt-info.de/fileadmin/de.bundeshaushalt/content_de/dokumente/2017/soll/Gesamt_Haushalt_2017_mit_HG.pdf

Die Welt (2017a), https://www.welt.de/newsticker/dpa_nt/afxline/topthemen/hintergruende/article164911511/Das-Zwei-Prozent-Ziel-der-Nato.html

Die Welt (2017b), https://www.welt.de/politik/deutschland/article162095323/SPD-Linke-will-Nato-ueberfluessig-machen.html

Euractiv (2017), https://www.euractiv.de/section/bundestagswahl-2017/news/fdp-will-mehr-geld-fuer-nato-und-verteidigung-fordern/

Europäisches System der Volkswirtschaftlichen Gesamtrechnungen (2010), http://ec.europa.eu/eurostat/documents/3859598/5925749/KS-02-13-269-DE.PDF

Fischer, B. (2009), Wie viel Staat?, in: Statistisches Monatsheft Baden-Württemberg, 01/2009, S. 38-41, http://www.statistik.baden-wuerttemberg.de/Service/Veroeff/Monatshefte/PDF/Beitrag09_01_07.pdf

Frankfurter Allgemeine Zeitung (2017), http://www.faz.net/aktuell/wirtschaft/trump-deutschland-schuldet-nato-riesige-summen-14931086.html

Global Fire Power (2017), http://www.globalfirepower.com/countries-listing.asp

Homepage der AfD (2017), https://www.afd.de/pazderski-trump-als-chance-zur-nato-reform/

Konrad Adenauer Stiftung (2017), http://www.kas.de/wf/doc/kas_1298-544-1-30.pdf?030113134338

NATO (2017a), http://www.nato.int/cps/en/natolive/news_19543.htm?mode=pressrelease

NATO (2017b), http://www.nato.int/nato_static_fl2014/assets/pdf/pdf_2016_07/20160704_160704-pr2016-116.pdf

Süddeutsche Zeitung (2017), http://www.sueddeutsche.de/politik/aussenansicht-intelligent-verteidigen-1.3388592

Stuttgarter Nachrichten (2017a), http://www.stuttgarter-nachrichten.de/inhalt.zwei-prozent-ziel-der-nato-erklaert-die-koennen-nicht-bis-zwei-zaehlen.b172712d-0098-49fe-85d2-80916c14b710.html

Stuttgarter Nachrichten (2017b), http://www.stuttgarter-nachrichten.de/inhalt.zwei-prozent-ziel-der-nato-erklaert-die-koennen-nicht-bis-zwei-zaehlen.b172712d-0098-49fe-85d2-80916c14b710.html

Tagesschau (2017), https://www.tagesschau.de/inland/bundeswehr-maengel-101.html

The Economist (2017), http://www.economist.com/blogs/graphicdetail/2017/02/daily-chart-11

Wallstreet Online (2017), http://www.wallstreet-online.de/nachricht/9322618-spd-zwei-prozent-ziel-nato-militaerausgaben-abenteuerlich

Weede, E.; Kämpf, S. (2002), The Impact of Intelligence and Institutional Improvements on Economic Growth, in: Kyklos, Vol. 55, pp. 361-380, 2002

Wikipedia (2017a), https://en.wikipedia.org/wiki/List_of_countries_by_Military_Strength_Index

Wikipedia (2017b), https://de.wikipedia.org/wiki/Liste_von_Luftfahrzeugen_der_Bundeswehr

Wikipedia (2017c), https://de.wikipedia.org/wiki/Liste_ehemaliger_Bundeswehr-Liegenschaften

Wikipedia (2017c), https://de.wikipedia.org/wiki/Bundesministerium_der_Verteidigung

Populismus – eine ökonomische Betrachtung

von Richard Reichel

Einleitung
„Ein Gespenst geht um in Europa – das Gespenst des Kommunismus. Alle Mächte des alten Europa haben sich zu einer heiligen Hetzjagd gegen dies Gespenst verbündet, der Papst und der Zar, Metternich und Guizot (ein antikommunistischer Politiker), französische Radikale und deutsche Polizisten.“ (Marx; Engels, 1847)

So beginnt das Kommunistische Manifest, das 1847/48 von Karl Marx und Friedrich Engels verfasst wurde. Ersetzt man das Wort Kommunismus gegen Populismus und tauscht ein paar weitere Wörter aus, so befindet man sich mitten in der gegenwärtigen politischen Diskussion. Selbst die Vereinigten Staaten hat es erwischt. Dort ist das Gespenst zwischenzeitlich sogar Präsident. Auf dem europäischen Kontinent sind wir noch nicht ganz soweit. Bisher geistert es nur. Jedenfalls wenn man den Äußerungen wichtiger Politiker und der Presse Glauben schenkt. Indes, als etwas Bedrohliches wird das herumgeisternde Gespenst auch in Europa empfunden.

Da stellt sich die Frage, was man denn unter Populismus zu verstehen hat. Der Begriff ist zwar bekannt, aber in den vergangenen zwanzig Jahren wurde er im politischen Diskurs eher selten verwendet. Erst seit ein paar Jahren erlebt er eine Renaissance, er scheint zum Modewort geworden zu sein (Schneider, 2016). Und Populismus scheint grundsätzlich schlecht zu sein. Besonders gilt das für die Variante des Rechtspopulismus, etwa im Zuge des Aufstiegs der AFD. Aber was ist Populismus?

Unbrauchbare und brauchbare Definitionen
Glücklicherweise gibt es ja Wikipedia (https://de.wikipedia.org/wiki/Populismus). Da findet man auf alle Fragen eine Antwort, sogar auf die Frage nach dem Wesen des Populismus. Im Wikipedia-Artikel liest man den Hinweis, dass Populismus sowohl ein Schlagwort, ein Politikstil oder auch eine Ideologie sein könne. Kennzeichnend seien meist die folgenden Charakteristika:

  • Ablehnung von Machteliten,
  • Anti-Intellektualismus,
  • scheinbar unpolitisches Auftreten,
  • Berufung auf den ‚gesunden Menschenverstand’ und die ‚Stimme des Volkes’,
  • Polarisierung.

Das spricht eher für Populismus als Politikstil oder als Schlagwort, wenn man die Eliten, die Intellektuellen oder die Ideologien der politischen Gegner attackiert, indem man sie als populistisch bezeichnet. Ursachen des Populismus seien fehlende Bürgernähe und eine große Distanz zwischen den Interessen und der Sprache einer Gemeinschaft und denen der Regierenden bzw. des Establishments.

Da reibt man sich verwundert die Augen. Wenn es große Distanz zwischen den Interessen der Gemeinschaft und denen der Regierenden gibt, dann existiert offenbar ein Problem der demokratischen Legitimation und Willensbildung. Bei fehlender Bürgernähe könnte es sich nur um ein Vermittlungsproblem handeln (weniger gravierend), aber auch um eine generelle Entfremdung der drei Gewalten Legislative, Exekutive und Judikative (bzw. deren Entscheidungen) von der Bevölkerung (gravierend).

Das soll also Ursache des Populismus sein? Wenn das tatsächlich so wäre, stellt sich die Frage, wer etwa eine fehlende Bürgernähe oder die genannte generelle Entfremdung verursacht hat. Zwei Alternativen kommen in Frage. Einerseits könnte sich das Wählervolk von den Regierenden entfremdet haben, andererseits die Regierenden vom Wählervolk. Die Frage nach den Ursachen der Entfremdung ist damit indes nicht beantwortet.

Wichtig erscheint, dass diese Entfremdungsprozesse kein Ventil innerhalb des gegenwärtigen Parteiensystems finden. Vor dem Hintergrund des Medianwähler-Theorems erscheint das zunächst unwahrscheinlich, denn die Parteien konkurrieren nach diesem Modell um die Wähler der politischen Mitte und diese Wähler stellen nun mal die Mehrheit (Downs, 1957).

Entfremdungsprozesse sind immer dann wahrscheinlich, wenn sich Parteiprogramme so annähern, dass sich an den Rändern Potenziale für neue Parteien auftun. Ende der 1970er Jahre traf das auf sie späteren Grünen zu, nachdem die SPD schon seit längerem zur politischen Mitte gerückt war. Nach der Wiedervereinigung passierte mit der Etablierung einer wirklich linken Partei etwas Ähnliches. Die Sozialdemokaten spüren dies an fallenden Zustimmungswerten in Umfragen und Wahlen. Gegenwärtig tut sich für die AFD eine Chance rechts von den Unionsparteien auf, denn die politischen Inhalte, die von der CDU vertreten werden, unterscheiden sich nur noch geringfügig von denen der SPD und der Grünen. Aber ist es schon Populismus, wenn sich solche neuen Parteien gründen? Das erscheint doch zweifelhaft.

Selbst in wissenschaftlichen Publikationen, in denen natürlich auch auf der Ebene von Definitionen sauber gearbeitet werden sollte, finden sich nicht immer exakte Definitionen von Populismus. Als Beispiel sei hier eine Arbeit von Funke u.a. genannt, in der die Auswirkungen von Finanzkrisen auf das Wahlverhalten analysiert werden. Es wird zwar mit dem Wort hantiert, das Phänomen selbst aber wird nicht definiert (Funke; Schularick; Trebesch, 2015).

Die politikwissenschaftlichen und soziologischen Definitionsversuche von Populismus bzw. seinen Komponenten helfen auch nicht viel weiter. Hier wird beispielsweise darauf hingewiesen, dass Ausgrenzung ein Wesensmerkmal von Populismus ist (‚korrupte Eliten’ gegen ‚Volk’). Andere Autoren rekurrieren auf das Fehlen einer eigenen Ideologie, die sich an Wirtsideologien anlehne und deshalb nicht aufgrund eigener Substanz, sondern nur in Abgrenzung zum Gegner definiere. Schließlich wird auch darauf hingewiesen, dass Populismus das Element direkter Demokratie hervorhebe und parlamentarische Formen ablehne, weil diese als ‚zwischengeschaltete’ Institutionen der Durchsetzung der Volksmeinung eher hinderlich seien.

Keine dieser Komponenten einer Definition sind Wesenseigenschaften von Populismus. Dies gilt aus folgenden Gründen: Stimmungen in (einem Teil) der Bevölkerung gegen gewählte Volksvertreter hat es in unterschiedlichem Ausmaß immer gegeben und es ist völlig unklar, welches Maß an Abgrenzung, Ausgrenzung oder Ablehnung schon populistisch ist und welches noch nicht. Auch ist die Abgrenzung zum politischen Gegner, ja auch dessen Ausgrenzung, ein trivialer Bestandteil politischer Prozesse. Allerdings mögen die parlamentarischen Auseinandersetzungen der großen politischen Lager in den 1970er Jahren bei vielen in Vergessenheit geraten sein. Wie Politiker wie Franz-Josef Strauss oder Herbert Wehner damals aufeinander losgegangen sind, ist heute schwer vorstellbar bzw. kaum noch bekannt. Das liegt einerseits im Fehlen kantiger Politiker als solcher begründet, ist andererseits aber auch der Konvergenz der Parteiprogramme geschuldet.

Das Ideologieargument ist ebenso wenig belastbar. Dazu wäre es erforderlich, substanzreiche Ideologien von missbräuchlicher populistischer Verwendung (ohne eigene Substanz) zu trennen. Normativ mag man durchaus Unterschiede erkennen, aber aus der Sicht der positiven Analyse kann keine der in Frage kommenden Ideologien Anspruch auf Substanz erheben. Ebenso wenig nützlich ist der Hinweis auf die Befürwortung der direkten Demokratie durch Populisten. Sind die Schweizer dann also ein Volk von Populisten? Wie man leicht sieht, kommt man mit all diesen Ansätzen nicht sehr weit. Eher handelt es sich um pseudowissenschaftlich verbrämtes Gerede. Möglicherweise hängt diese Wertung mit meiner Prägung als Volkswirt zusammen. In dieser Disziplin ist die transparente Darstellung der Modellannahmen, die präzise Ableitung logischer Zusammenhänge und Schlussfolgerungen sowie die empirische Überprüfung von Hypothesen unverzichtbar. In der politikwissenschaftlichen und soziologischen Literatur ist davon wenig zu finden. Hier dominieren wortreiche Ausführungen über Dinge, die sich letztlich als doch nicht greifbar erweisen (vgl. hierzu Priester, 2012).

Es gibt aber noch zwei andere Versuche einer Definition, die wir uns anschauen sollten. Die erste Definition findet sich ebenfalls im entsprechenden Wikipedia-Eintrag. Sie lautet sinngemäß: Populismus liegt dann vor, wenn einfache Lösungen für komplexe Probleme angeboten werden. Oder etwas modifiziert: Wenn einfache Lösungen für komplexe Probleme angeboten werden und von vorneherein klar ist, dass diese Lösungen nicht funktionieren. Populismus würde also bedeuten, dass inhaltlich falsche oder nicht zielführende Lösungsvorschläge angepriesen werden. Diese Definition scheint einer empirischen Überprüfung schon zugänglicher.

Eine weitere Definition von Populismus stammt von Alexander Dilger (Dilger, 2016). Er bezeichnet es als Populismus, wenn Politiker ihre eigenen Positionen und Politikinhalte prinzipienlos verändern, um Wählerstimmen zu maximieren. Zwar entspricht ein solches Vorgehen tendenziell der Theorie des Medianwähler-Theorems, ein leichtfertiger Verzicht auf angestammte politische Positionen war in den ersten Nachkriegsjahrzehnten aber eher selten zu beobachten. Wenn sich Parteipositionen veränderten, dann als Folge langsamer Prozesse der Anpassung an sich verändernde gesellschaftliche und wirtschaftliche Realitäten. Dies gilt sowohl für Parteiprogramme im weiteren Sinne (Freiburger Thesen der FDP, Godesberger Programm der SPD) als auch für Neugründungen von Parteien wie der Genese der Grünen seit Mitte der 1970er Jahre oder der Herausbildung einer klassisch linken Partei in den 1990er Jahren. Folgt man der Idee Dilgers, so ist Populismus also so etwas wie Prinzipienlosigkeit als Prinzip. Ob sich irgendwelche gesellschaftlichen Realitäten verändert haben, wäre noch zusätzlich zu klären. Es müssen sich nicht unbedingt Rahmenbedingungen ändern, die Veränderung von Stimmungen reicht auch.

Dilgers Definition von Populismus als Top-down-Ansatz kann nun mit der lösungsorientierten Variante verknüpft werden. Populismus in diesem Sinne wären dann alle politischen Bestrebungen und Maßnahmen (von Regierung und Opposition), die dem Wählervolk nach dem Mund reden, die aber als Problemlösung voraussehbar nicht tauglich sind. Kurz gesagt also: unrealistischer Opportunismus oder politische Effekthascherei.

Populismus – wirtschaftspolitische Beispiele
Die große Koalition hat bekanntlich einige wirtschaftspolitische Ideen verwirklicht, die zumindest seitens der CDU so vor einigen Jahren noch keine Unterstützung erfahren hätten. Dazu zählen die sog. Mietpreisbremse, der Mindestlohn und das Bestellerprinzip bei der Bezahlung von Maklerdienstleistungen. Alle drei Maßnahmen werden ‚sozial’, d.h. mit dem Schutz der Schwächeren begründet. Sie stoßen auf zumindest auf breitere öffentliche Zustimmung, auch wenn nicht ganz klar ist, ob sich jeweils eine absolute Mehrheit für sie aussprechen würde. Wahrscheinlich ist auch, dass sich die Unionsparteien aus wahltaktischen Überlegungen zu einer Unterstützung dieser Projekte durchgerungen haben. Sicher ist es aber zutreffend, dass die Umsetzung der Wahrung des Koalitionsfriedens geschuldet war. Glaubt man Umfragen, so hat sich für die Union die inhaltliche Beweglichkeit ausgezahlt. Sie kann offensichtlich glaubhaft frühere SPD-Positionen besetzen und in Zustimmungsprozente umsetzen. Die SPD hingegen wird zwischen einer außerordentlich positionsbeweglichen, sprich opportunistischen Union und der Konkurrenz durch die Linkspartei zerrieben. All das ist hinlänglich aus dem Medianwähler-Theorem bekannt. Die erste Voraussetzung für Populismus im Sinne eines o.g. unrealistischen Opportunismus ist also gegeben. Am Opportunismus mangelt es nicht.

Aufgabe der Volkswirtschaftslehre ist es nun, den Problemlösungspotenzialen der drei genannten Maßnahmen nachzugehen. Beginnen wir mit der Mietpreisbremse. Ausgangspunkt der Diskussion waren die Mietpreissteigerungen der letzten Jahre vorwiegend in Ballungsgebieten, verbunden mit dort stark zunehmender Knappheit an Mietwohnraum. Im Prinzip hat hier eine ganz normale Marktreaktion stattgefunden, denn wenn eine steigende Nachfrage (vor allem durch Zuzüge) auf ein kurzfristig konstantes und langfristig nur wenig steigerungsfähiges Angebot trifft, kommt es natürlich zu einer Erhöhung des Gleichgewichtspreises. Dass diese Preiserhöhung so stark ausgefallen ist, liegt primär am preisunelastischen Angebot, d.h. die Angebotskurve verläuft sehr steil. Beheben lässt sich das Problem ursachenadäquat nur durch eine Ausweitung des Angebots, sprich durch mehr Mietwohnungsbau. Leider ist das leichter gesagt als getan. Die Politik gibt sich nämlich größte Mühe, gerade den Bau preisgünstiger neuer Wohnungen zu verhindern. Sie tut dies durch restriktive Ausweisung von Flächen (wer möchte schon Bodenversiegelung?), zahlreiche Regulierungen und Bauvorschriften, die der Energieeinsparung dienen, aber die Kosten in die Höhe treiben oder – wie im Fall München – die Nichtzulassung des Hochhausbaus (wer möchte sich schon den Blick auf die Alpen versperren lassen?). Dass dann nicht gebaut wird, sollte eigentlich klar sein. Sollte! Ist es aber nicht, denn die Politik versucht, dem Problem mit der sog. Mietpreisbremse, also einem Höchstpreis, zu begegnen. Dass so etwas nicht funktionieren kann, lernen Studenten der Wirtschaftswissenschaften im ersten Semester. Diese Maßnahme ist ja auch nicht ursachenadäquat. Und das, obwohl die Ursachen hinlänglich bekannt sind. Statt nun aber eine ursachengerechte Therapie einzuleiten (so wie das jeder Arzt tun oder zumindest versuchen würde), kuriert die Politik an den Symptomen. Man versucht, anstelle der Krankheit zu Leibe zu rücken, das Fieber zu senken. Dabei hinkt der Vergleich noch! Ärzte können das durchaus tun, aber in der Wirtschaftspolitik gibt es kein Ibuprofen. Die Mietpreisbremse gleich eher dem Versuch, das Fieber per Gesetz zu verbieten. Leider schert es sich einen Teufel um das Gesetz. Die ganze Aktion ist wirkungslos, wie die bisherigen Erfahrungen denn auch zeigen. Die Politik aber demonstriert, dass sie irgendwie handelt und das ‚soziale Gewissen’ beruhigt. Wir haben es also mit klassischem Populismus zu tun. Es wird etwas unternommen, von dem man von vorneherein weiß bzw. wissen müsste, dass es nicht funktioniert. Aber man nimmt an, dass es den Wählern gefällt. Die sind ja nun mehrheitlich Mieter und nicht Eigentümer. Fazit: Es handelt sich um einen klaren Fall von Top-down-Populismus.

Beim Mindestlohn liegen die Dinge ähnlich. Ein staatlicher Preiseingriff, hier in Form eines Mindestpreises, ist höchst selten eine ursachengerechte Lösung, auch das weiß jeder Wirtschaftsstudent im ersten Semester. Wer die politische Diskussion verfolgt hat, dürfte aber mitbekommen haben, dass kaum ein Politiker je über die Ursachen sehr niedriger Löhne gesprochen hat. Das wäre der erste Schritt zur Erkenntnis gewesen. Offensichtlich glaubte man aber, sich die Mühe des Nachdenkens sparen zu können. Schneller geht es ja mit einem Gesetz frei nach dem Motto: „Wenn es regnet, verbieten wir eben schlechtes Wetter.“ Das wiederum kommt beim Wähler gut an und demonstriert, dass der fürsorgende Staat Mitgefühl mit den Geringverdienern zeigt. Wiederum geht es um die entsprechenden Wählerstimmen. Ursachengemäße Lösungsansätze waren und sind nicht gefragt. Fazit: Wiederum ein klarer Fall von opportunistischer Wählertäuschung.

Das jedenfalls ist das Ergebnis der ökonomischen Analyse. Normativ gibt es durchaus gute Gründe für einen Mindestlohn. Auch mir wird übel, wenn ich Berichte über Stundenlohnsätze von 5 € lese. Zu diesen Löhnen würde ich (in Deutschland) niemanden einstellen, weil ich das mit der Menschenwürde für unvereinbar halte. Aber das ist hier nicht unser Problem. Es geht um die Frage, ob der Mindestlohn ein Problem behebt. Genau das tut er nicht, er kaschiert es nur. Aus diesem Grund bleibt das Verdikt des Populismus bestehen.

Bestellerprinzip bei Immobilienmaklermaklern: Mieter als Wähler liegen Politikern besonders am Herzen. Umso ärgerlicher war es, dass bisher zu den teuren Mieten auch noch teure Maklergebühren hinzukamen, die regelmäßig die Wohnungssuchenden zahlen mussten. Wie schon bei der Mietpreisbremse sind schnell die Mieter als Zielgruppe identifiziert, der die Politik helfen müsse. Flugs erfindet man ein Gesetz, das den Besteller des Maklers, also üblicherweise den Vermieter zur Zahlung der Maklercourtage bei erfolgreicher Vermietung verpflichtet. Liegt hier Populismus vor?

Zunächst einmal sollte festgehalten werden, dass die Bezeichnung politisch unkorrekt zu sein scheint. Es fehlt die weibliche Variante Bestellerinnen bzw. das bekannt umständliche Besteller/innen-Prinzip. Warum nur hat man nicht den Terminus Bestellenden-Prinzip gewählt, analog zum Begriff der Studierenden? Hier hat sich offensichtlich ein terminologischer Konservatismus eingeschlichen, der noch nicht entdeckt wurde. Aber Spaß beiseite. Wie steht es um das Populismuspotenzial des Bestellerprinzips?

Ökonomisch sind Maklergebühren nichts anderes als zusätzliche Kosten bei Verkauf oder Vermietung, ähnlich wie die Grunderwerbsteuer beim Hauskauf. Im üblichen Schema des Marktgleichgewichts verschieben sie Angebots- oder (in alternativer Darstellung) Nachfragekurve nach links und es resultiert ein höherer Gleichgewichtspreis sowie eine geringere umgesetzte Menge. Dabei spielt es für die Frage, wer die Kostenlast trägt, keine Rolle, ob der Nachfrager (Mieter) oder der Anbieter (Vermieter) die Courtage zahlen muss. Die Lastverteilung wird ausschließlich durch die Elastizität des Angebots und der Nachfrage bestimmt. Rechtliche Bestimmungen, wer was zahlen muss, sind komplett irrelevant. Mit anderen Worten: Der Mieter wird gar nicht entlastet. Sein Teil der Gebührenlast wird nur anders versteckt und üblicherweise in Form einer höheren Kaltmiete zeitlich gestreckt.

Wir haben es hier mit einem klassischen Fall wirkungslosen Unsinns zu tun, der zwar sozial klingt und möglicherweise Wählerstimmen bringt, letztlich aber nichts bewirkt. Damit sind auch in unserem dritten Fall die Voraussetzungen des oben definierten Populismus gegeben.

Populismusvorwurf als Kampfbegriff
Wir haben gesehen, dass sich der Populismus dort tummelt, wo man ihn gar nicht vermutet. Jedenfalls ist das dann der Fall, wenn man den Begriff so definiert, dass er operationalisierbar ist. Dann findet man instruktive Beispiele wie oben gezeigt werden konnte. Allerdings hat kaum jemand diese Beispiele als Populismus gebrandmarkt. Vielmehr hat man den Eindruck, in der politischen Diskussion werde der Terminus als Kampfbegriff verwendet. Die Klassifizierung einer politischen Forderung oder eines Vorschlags als populistisch erspart dann die mühevolle Auseinandersetzung in der Sache. Die möchte man entweder nicht führen oder man kann sie nicht führen. So bezeichnet man lieber Dinge, die einem nicht gefallen, als populistisch. Eine wahrlich billige Methode.

Wie wir oben gezeigt haben, ist die Verwendung eines hinreichend trennscharf definierten Begriffs ja durchaus nachvollziehbar, wenn sie von sachlichen Analysen begleitet wird. Allein dies ist zu oft nicht der Fall. Die sachliche Auseinandersetzung kann nicht oder will dann nicht geleistet werden. Es bleibt beim schlichten Vorwurf, dieses und jenes Argument sei populistisch. In diesem Sinne sollte der Begriff besser nicht verwendet werden, denn der Benutzer entlarvt sich dann selbst schnell als fachlich inkompetent. Wie verbreitet die fachliche Inkompetenz ist, sieht man an der inflationären Verwendung des Begriffs im politischen Bereich. Das verheißt nichts Gutes. Ökonomen sollten diesen Begriff deshalb in der fachlichen Auseinandersetzung nicht verwenden. Ich tue es auch nicht, obwohl ich in diesem Beitrag einen Versuch unternommen habe, Populismus sinnvoll zu definieren.

Literatur
Dilger, A. (2016), Was bedeutet Populismus?, alexanderdilger.wordpress.com/2015/05/05/was-bedeutet-populismus

Downs, A. (1957), An Economic Theory of Democracy, New York

Funke, M.; Schularick, M; Trebesch, C. (2015), Going to Extremes: Politics after Financial Crisis, 1870-2014, in: CESifo Working Paper, No. 5553, October 2015

Marx, K.; Engels, F. (1847), Das Kommunistische Manifest, online unter gutenberg.spiegel.de/buch/manifest-der-kommunistischen-partei-4975/1

Priester, K. (2012), Rechter und linker Populismus: Annäherung an ein Chamäleon, Frankfurt

Schneider, Wolf (2016), Was zum Teufel ist „Populismus“?, https://www.welt.de/wirtschaft/bilanz/article161328634/Was-zum-Teufel-ist-Populismus.html

https://de.wikipedia.org/wiki/Populismus, abgerufen am 24.05.2017.

Begrenzung der Managervergütung: Richtiges Thema bei falschem Diskurs

von Heiko Weckmüller

Einleitung
Für den diesjährigen Bundestagswahlkampf wurde frühzeitig das Thema Managervergütung als Profilierungsfeld erkannt. So steht beispielsweise die Forderung im Raum, Managergehälter gesetzlich zu begrenzen oder Managereinkommen über € 500.000 nicht länger als Betriebsausgaben anzuerkennen. Gerechtigkeit soll dadurch hergestellt werden, dass einer abgegrenzten Berufsgruppe per Gesetz etwas weggenommen wird. Die etablierte theoretische Idee von Verteilungspolitik hingegen hat immer den Nutzen der Benachteiligten vor Augen. BDI-Präsident Dieter Kempf formuliert die Gegenposition zu staatlichen Eingriffen: „Ich beobachte über Parteigrenzen hinweg eine immer stärkere Skepsis, ja Feindschaft gegenüber marktwirtschaftlichen Lösungen. Immer mehr Politiker kümmern sich um die Managervergütung in der Privatwirtschaft. Einzelfälle – von denen jeder einer zu viel ist – sind kein Grund, neue Gesetze zu erlassen und damit Tausende unkritische Vorstandsverträge in Mithaftung zu nehmen" (Schmitz, 2017). Damit wird zum einen suggeriert, dass die (durchschnittliche) Vorstandsvergütung jenseits von Einzelfällen wie VW unkritisch und fair ist. Zum anderen werden regulierende staatliche Eingriffe zur Verteilungskorrektur abgelehnt. Auch diese beiden Positionen greifen allerdings zu kurz. Im Folgenden wird zunächst dargestellt, wie extrem hohe Einkommen unter Marktbedingungen entstehen. Dies erfolgt unter Rückgriff auf ein erweitertes mikroökonomisches Modell, das eine hohe Erklärungskraft aufweist, in der aktuellen Diskussion aber kaum eine Rolle spielt. Da die daraus resultierende Verteilung nicht dem gängigen Verständnis von Leistungsgerechtigkeit entspricht, folgt anschließend eine verteilungs- und regulierungspolitische Betrachtung.

Warum verdienen einige wenige so viel?: the Economics of Superstars
Schon ein Blick auf die historische Entwicklung wirft Fragen auf: So betrug das Durchschnittseinkommen von DAX-Vorständen in den 90er Jahren etwas mehr als € 500.000, zuletzt ca. € 2,5 Millionen. Das Multiple, d.h. das Verhältnis der Spitzeneinkommen zum Durchschnittsverdienst stieg von ca. 15 auf ca. 50 (Schwalbach, 2011, S. 183; Weckes; Berisha, 2017; für die größten 500 Unternehmen: Fabbri; Dalia, 2016). Dabei handelt es sich um einen Trend und nicht um konjunkturelle Schwankungen.

Nach der klassischen ökonomischen Theorie orientiert sich der Lohnsatz an der (Grenz-)Produktivität der Arbeit, worauf auch das Verteilungsprinzip der Leistungsgerechtigkeit beruht. Jedoch ist die Annahme wenig plausibel, dass sich die Arbeitszeit, die Humankapitalausstattung oder die Fähigkeiten der Vorstände in den letzten 20 Jahren im genannten Ausmaß vervielfacht haben. Eine plausiblere Erklärung liefert das Superstar-Modell von Sherwin Rosen (Rosen, 1981). Sofern keine Rivalität im Konsum vorliegt und aufgrund der technologischen Bedingungen die Grenzkosten des Angebots nahe 0 liegen, werden geringe Unterschiede in den Fähigkeiten multiplikativ zu sehr großen Unterschieden in den Erträgen und damit in den Einkommen führen. Rosen verdeutlichte dies an Superstars in Sport, Kunst oder Unterhaltung. Wenn jeder Zuschauer bereit ist, nur wenige Euro Eintrittsgeld mehr für einen Topstar wie Christiano Ronaldo oder Lionel Messi zu zahlen, ist dessen (Grenz-)Produktivität pro Spiel mehrere € 100.000 wert. Bezieht man Fernsehzuschauer und verbundene Effekte wie Merchandising mit ein, werden daraus viele Millionen. Ein ähnlicher Effekt kann auch bei Managern auftreten, deren geringfügig höheren Fähigkeiten sich über viele Beschäftigte und weltweite Gütermärkte multiplizieren. Dies gilt auch für Einzelunternehmer, ist somit unabhängig von der Rechtsform des angestellten Managers. Aber sind die daraus resultierenden Einkommen in einem ethisch-moralischen Sinne gerecht?

Vergütungsfragen sind keine Privatangelegenheit
Die klassische, werturteilsfreie Volkswirtschaftslehre argumentiert stets zurückhaltend bezüglich der Bewertung von Verteilungsergebnissen jenseits des Paretoprinzips. Allerdings ist die gerechte Ressourcenverteilung eine Grundsatzaufgabe in jeder Gesellschaft. Zudem entstehen aus der Managervergütung externe Effekte, da die individuelle Nutzenposition weniger vom eigenen absoluten, sondern vom gesellschaftlich relativen Einkommen bestimmt wird (z.B. Clark et al, 2008). Außerdem ist in einer global vernetzen, teamorientierten Unternehmenswelt die individuelle Gleichsetzung von messbarer Produktivität mit individueller Leistung obsolet, vom Faktor Zufall ganz zu schweigen (z.B. Bertrand; Mullainathan, 2001). Die Frage der Vorstandsvergütung ist somit eine gesellschaftliche und keine reine Privatangelegenheit zwischen Eigentümer und Vorstand (detailliert Pies; Saß, 2010).

Zur Bewertung von Verteilungsergebnissen bedient sich die theoretische Verteilungspolitik ethischer Grundpositionen. Aufgrund der Vielzahl möglicher ethischer Positionen sind eindeutige Ergebnisse selten und es resultieren entsprechend vielfältige Umverteilungsvorschläge. Allerdings behaupten selbst Vertreter des Liberalismus nicht die Legitimität jeglicher Verteilungsergebnisse von Märkten. Monopole, ungleiche Startbedingungen oder Beschränkungen der Freiheit gelten als Begründungen zur Korrektur von Marktergebnissen. Der oben beschriebene Superstar-Effekt kann als eine weitere Quelle von Marktversagen interpretiert werden. Lediglich der naturrechtlich fundierte Liberalismus (Nozick, 1974), der inzwischen aber als überholt gelten kann, erachtet jegliche Verteilung unter Freiheitsbedingungen als legitim. Das Ziel der Umverteilung sollte allerdings nicht die Bestrafung einzelner Berufsgruppen sein, sondern die Umverteilung sollte denen mit geringeren Einkommen nutzen.

Staatsversagen: Einkommensteuer als Instrument der Wahl
Eine Korrektur der Einkommen durch die Märkte ist nicht zu erwarten, da Unternehmen und auch Aufsichtsräte unter Wettbewerbsbedingungen dem Superstar-Effekt folgen müssen. Insofern greift der Verweis auf die Verantwortung der Aufsichtsräte zu kurz. Marktversagen rechtfertigt grundsätzlich staatliche regulierende Eingriffe, die allerdings wiederum Staatsversagen zur Folge haben können. Anzeichen dafür sind in der aktuellen politischen Diskussion erkennbar, wenn beispielsweise Verbote oder gesetzliche Obergrenzen gefordert werden. Auch die Fokussierung auf bestimmte Berufsgruppen, hier Topmanager, dürfte vorwiegend emotional motiviert sein. Es ist schwer zu begründen, warum die Vergütung eines Sportstars legitim ist, die eines Topmanagers aber nicht. Bei Einzelunternehmern wäre in Abhängigkeit von der gewählten Rechtsform zumindest das Verlustrisiko zu berücksichtigen. Eine solche relative Bewertung von Berufen würde einen (sicherlich wertvollen) gesellschaftlichen Diskurs und grundsätzlichen Konsens über die Wertigkeit von Berufen erfordern, von dem dann aber wahrscheinlich vor allem Beschäftigte in der Pflege profitieren dürften. Bis dahin sollte die Korrektur über etablierte, berufsgruppenunspezifische Instrumente, insbesondere die allgemeine Einkommensteuer, erfolgen. Spitzensteuersätze weit jenseits des aktuellen Niveaus sollten dabei kein Tabu sein. Allerdings sind solche steuerrechtlichen Regelungen im Moment nur auf nationaler Ebene umsetzbar. Der zu erwartende internationale Steuerwettbewerb und die damit einhergehende Abwanderungsdrohung von Managern sollte ernst genommen werden, rechtfertigt aber keinen vollständigen Verzicht auf Verteilungspolitik.

Gesellschaftlicher Diskurs über angemessene Vergütung erforderlich
Aktuell beobachten wir generell ein hohes Maß an gesellschaftlicher Unzufriedenheit, die zumindest teilweise durch subjektiv wahrgenommene Verteilungsungerechtigkeit bedingt ist. Im Zuge der Digitalisierung wird diese Ungleichheit mit großer Wahrscheinlichkeit zunehmen und weitere Topverdiener wie auch Digitalisierungsverlierer hervorbringen. Ein rationaler Diskurs über das Maß an (Einkommens-)Ungleichheit, das wir als gesellschaftlich legitim erachten wollen, ist deshalb dringend notwendig. Die Mindestlohngesetzgebung und die ersten Experimente zum bedingungslosen Grundeinkommen machen Hoffnung, dass ein solcher Diskurs möglich ist und nicht zur reinen Neiddebatte verkommt. Auch zeigen empirische Befunde zur wahrgenommenen Gerechtigkeit, dass keinesfalls blinde Gleichmacherei vorherrscht (z.B. Kiatpongsan; Norton, 2014).

Das Niveau der gegenwärtigen Diskussion zur Managervergütung wird der Bedeutung der Thematik allerdings nicht gerecht. Ausgangspunkt eines rationalen Diskurses könnte die auf der Kantischen Ethik aufbauende Gerechtigkeitstheorie von John Rawls sein und hier insbesondere das Gedankenexperiment des „Schleier der Unwissenheit“: Angenommen ich weiß nicht, welche gesellschaftliche Position ich einnehmen werden; Facharbeiter, Topmanager oder Sportstar: Frei von negativen Gefühlen wie Neid, welche Vergütungshöhe würde ich als gerecht empfinden?

 

Literatur
Bertrand, Marianne; Mullainathan, Sendhil (2001), Are CEOs rewarded for luck? The ones without principals are, in: The Quarterly Journal of Economics, Vol. 116(3), S. 901-932

Clark, Andrew E.; Frijters, Paul; Shields, Michael A. (2008), Relative income, happiness, and utility: An explanation for the Easterlin paradox and other puzzles, in: Journal of Economic Literature, Vol. 46(1), S. 95-144

Fabbri, Francesca; Marin, Dalia (2016), What Explains the Rise in Executive Pay in Germany? A Panel Data Analysis for 1977–2009, in: Scandinavian Journal of Economics, Vol. 118, S. 235-263

Kiatpongsan, Saropop; Norton, Michael I. (2014), How much (more) should CEOs make? A universal desire for more equal pay, in: Perspectives on Psychological Science, Vol. 9(6), S. 587-593

Nozick, Robert (1974), Anarchy, State, and Utopia, New York

Pies, Ingo; Sass, Peter (2010), Verdienen Manager, was sie verdienen? Eine wirtschaftsethische Stellungnahme, in: Jahrbuch Für Recht Und Ethik / Annual Review of Law and Ethics, Vol. 18, S. 205-238

Rosen, Sherwin (1981), The Economics of Superstars, in: The American Economic Review, Vol. 71(5), S. 845-858

Schmitz, Gregor Peter (2017), BDI-Präsident Kempf kritisiert SPD-Kanzlerkandidat Martin Schulz, in: WirtschaftsWoche online, www.wiwo.de/politik/deutschland/rolle-rueckwaerts-bdi-praesident-kempf-kritisiert-spd-kanzlerkandidat-martin-schulz-/19427024.html.

Schwalbach, Joachim (2011): Vergütungsstudie 2011, online nicht mehr verfügbar

Weckes, Marion; Berisha, Qendresa (2017), Manager to Worker Pay Ratio, in: Mitbestimmungs-Report Nr. 25, www.boeckler.de/pdf/p_mbf_report_2016_25.pdf

von Michael Göke

Einleitung
Studentinnen und Studenten der Wirtschaftswissenschaft kennen ihn, ihre Professoren sowieso, kundige Zeitungsleser auch, der Mann auf der Straße hat aber wahrscheinlich noch nicht von ihm gehört. Die Rede ist vom Homo Oeconomicus, dem ökonomischen Menschen, der die Modellwelt der Wirtschaftswissenschaftler prägt. Dieser Homo Oeconomicus (HO) ist ein Mensch, der alles weiß und sich angesichts dieses Wissens stets richtig, d.h. wirt-schaftlich, verhält. In den Wirtschaftswissenschaften, insbesondere in der Volkswirtschaftslehre, wird dieser Idealtypus benutzt, um Erkenntnisse über das Verhalten von Menschen in bestimmten Situationen zu erzeugen.

Allerdings wird die Kritik am Modell immer lauter. Studierende kritisieren die aus ihrer Sicht einseitige Lehre, die an den Universitäten herrsche (Dietz; Pabst, 2014). Sie bemängeln dabei unter anderem die fehlende Realitätsnähe der vermittelten klassischen ökonomischen Modelle. Andere wiederum behaupten sogar, das Modell mache die Volkswirtschaftslehre zu einer menschenfeindlichen Wissenschaft (Häring, 2015). Wiederum andere sehen in den Erkenntnissen der Verhaltenswissenschaft und anderer Wissenschaften einen untrüglichen Beleg dafür, dass das Modell des Homo Oeconomicus tot ist (Bowles, 2015). Selbst Papst Franziskus setzt sich kritisch mit der modernen Wirtschaft und ihrem (rationalen) Men-schenbild auseinander (Vatikan, 2013).

Was ist von dieser Kritik zu halten? Dieser Aufsatz argumentiert, dass die vorgebrachten Kritikpunkte des Modells nicht überzeugend dafür sprechen, den Ansatz aufzugeben. Stattdessen zeigen sie, dass die gebräuchlichsten Argumente gegen den Homo Oeconomicus auf einem grundlegenden methodologischen Missverständnis beruhen. Außerdem weisen sie die Richtung für eine progressive Weiterentwicklung des Modells.

Der Homo Oeconomicus
Unter dem Homo Oeconomicus versteht man in den Wirtschaftswissenschaften, insbesondere in der Volkswirtschaftslehre, das Gedankenkonstrukt eines vollkommen wirtschaftlich entscheidenden Menschen. Er entscheidet sich aus allen Handlungsalternativen immer für die-jenige, die für ihn selbst mit dem besten Verhältnis aus Vorteilen (Nutzen) und Nachteilen (Kosten) verbunden ist. Dieser Mensch versucht also, seine individuellen Ziele auf wirtschaftliche Art und Weise zu erreichen, das heißt er handelt nach den sog. ökonomischen Prinzipien. Die ökonomischen Prinzipien stellen Prinzipien dar, unter denen Wirtschaftlichkeit erreicht wird. Man unterscheidet das Minimalprinzip, das besagt, dass Wirtschaftlichkeit dann erreicht wird, wenn ein bestimmtes Ziel mit möglichst wenig Einsatz an Mitteln erreicht wird. Das Maximalprinzip wiederum sagt aus, dass ein bestimmter Mitteleinsatz so durchge-führt werden soll, dass damit eine möglichst hohe Zielerreichung gegeben ist.

Der HO ist ein wissenschaftliches Instrument, das dabei helfen soll, menschliches Verhalten zu beschreiben und zu erklären. In der Mikroökonomik geht es darum, Probleme, die durch menschliches Verhalten entstehen, zu verstehen und mögliche Lösungsvorschläge zu machen.

Wissenschaftlich betrachtet orientiert sich also die Analyse mittels des HO an vier grundlegenden Prinzipien, dem sog. harten Kern der Theorie, und einigen Hilfshypothesen (vgl. Erlei; Leschke; Sauerland, 2007).

Die vier Annahmen des harten Kerns sind:

  1. Individualprinzip. Darunter versteht man, dass aus Sicht der Ökonomik das Individuum ein Handeln an den eigenen Wünschen und Zielen orientiert, er damit eigennutzorientiert bzw. egoistisch handelt. Der einzige Träger von Werten ist damit das Individuum. Niemand anders als der Einzelne kann aus dieser Sicht über Wünsche und Vorstellungen bestimmen und urteilen.
  2. Rationalitätsprinzip. Wie oben bereits kurz beschrieben ist hiermit die Idee wirtschaftlichen Verhaltens des Individuums gemeint. Die Annahme stellt keine Aussage über das angenommene Verhalten echter Menschen dar, sondern ist eine Als-Ob-Annahme und damit lediglich eine heuristische Fiktion (vgl. Franz, 2004). Das bedeutet, dass die ein Instrument der wissenschaftlichen Forschung ist und hier dabei helfen soll, abstrakte Analysen durchführen zu können. Schon gar nicht ist die Annahme rationalen Verhaltens eine normative Aussage über richtiges oder falsches Verhalten. Rationalität im ökonomischen Sinne bedeutet also nicht, dass sich Menschen nach dem ökonomischen Prinzip verhalten sollen.
  3. Methodologischer Individualismus. Hierunter versteht man die grundlegende Annahme, dass alle Eigenschaften, die soziale Systeme (also Gruppen, Gemeinschaften, Gesellschaften) aufweisen, auf das Handeln von Individuen von Individuen zurückgeführt werden können.
  4. Nicht-Einzelfall-Betrachtung. Die ökonomische Theorie trifft keine Aussagen über das Verhalten einzelner, identifizierbarer Individuen. Ihr Ziel ist vielmehr Aussagen zu machen über typisches Verhalten durchschnittlicher Menschen in bestimmten Situationen. Die Ökonomik möchte also Erklärungen im Prinzip machen, nicht im Detail (Schäfer; Ott, 2012). Aus dieser Sicht falsifiziert gegenteiliges Verhalten einzelner Menschen nicht den theoretischen Ansatz.


Neben diesen harten Kern des Homo Oeconomicus treten einige weitere Hypothesen, die dabei helfen sollen, die Aussagekraft des Modells zu erhöhen und es auf reale Phänomene besser anwendbar zu machen. So wird etwa – recht nachvollziehbar – davon ausgegangen, dass Knappheit herrscht, dass konsumierte Güter Bedürfnisbefriedigung stiften und dass freiwilliger Tausch die Bedürfnisbefriedigung der Beteiligten erhöht. Besonders unrealistisch kommt allerdings daher, dass die Wünsche und Ziele (d.h. die sog. Präferenzen) des HO als konstant postuliert werden und dass der HO vollständiges Wissen hat. Sie dienen dem Zweck die Theorie kritisierbar zu machen und damit eine Weiterentwicklung zu ermöglichen. So wäre eine Theorie, die auf Präferenzänderungen setzte, gegen Kritik immun, wäre doch jede Änderung des Verhaltens durch die (nicht zu beobachtende, mithin auch nicht widerlegbare) Behauptung einer Präferenzänderung erklärbar.

Die Kritik und ihre Bewertung
Im Wesentlichen sind die Kritikpunkte, die am Modell des HO vorgebracht werden, Argumente, die sich auf
a.    die Annahmen des Modells und
b.    seine Aussagen beziehen.

a.    Kritik an den Annahmen des Modells
Die Annahmen des Modells sind leicht kritisiert, sind sie doch extrem unrealistisch. Entschei-dungen von Menschen in der Realität werden unter Unvollkommenheit des Wissens getroffen, Präferenzen sind nicht konstant, Menschen handeln auch nicht immer rational. Entsprechend kann die Theorie, so das vorgebrachte Argument, reales Verhalten nicht gut abbilden und ist damit zu verwerfen.

Dieser Kritikpunkt ist aus mehreren Gründen abzulehnen. Zum einen sind theoretische Modellannahmen aus ihrer Natur heraus unrealistisch. Die Idee von Annahmen ist ja, dass die extrem komplexe, heterogene Realität erklärt werden soll und Erkenntnisse angesichts einer solchen Komplexität nur durch Abstraktion möglich werden. Landkarten werden erst dadurch aussagekräftig, dass sie die betrachteten Objekte kleiner werden lassen und den Maßstab verkleinern. Eine Landkarte im Maßstab 1:1 ist genauso wenig aussagekräftig wie eine Theorie, die nicht abstrahiert. Abstraktionen sind also notwendig, damit Aussagen überhaupt ge-troffen werden können. Die Realitätsnähe oder –ferne von Annahmen ist damit zur Bewertung von Theorien weniger gut geeignet. Nach FRIEDMAN hat Theoriekritik daher zuallererst an ihrer Erklärungskraft, also den Aussagen, anzusetzen (Friedman, 1953).

b.    Kritik an den Aussagen des Modells
Hier werden vor allem zwei wesentliche Punkte vorgebracht. So wird einerseits argumentiert, der HO mache rein egoistisches Verhalten salonfähig und propagiere kühle, rücksichtslose, eben „menschenfeindliche“ Verhaltensweisen. Andererseits werden die Erkenntnisse alternativer Ansätze der Verhaltensökonomik herangezogen, die dem Rationalansatz des HO offensichtlich widersprechen.

Zum ersten Kritikpunkt ist zu sagen, dass es sich hierbei offensichtlich um ein Missverständnis über den Charakter des HO-Modells handelt. Wie oben beschrieben ist der HO lediglich ein Mittel zur Analyse, ein methodologisches Werkzeug, mit dessen Hilfe analysiert werden soll (Franz, 2004). Er sagt nichts darüber aus, welches Verhalten normativ „richtig“ oder „falsch“ ist. Im Gegenteil: das oben beschriebene Individualprinzip lässt keine andere als die individuelle und damit allein subjektive Bewertung von Handlungsalternativen zu.

Beim zweiten Kritikpunkt werden die Erkenntnisse insbesondere der Verhaltensökonomik herangezogen. Diese Erkenntnisse zeigen in Experimentalsituationen systematische Verhaltensabweichungen der beobachteten Menschen, die sich eben nicht rational gemäß des HO-Modells verhalten, sondern stattdessen nach Verhaltensheuristiken entscheiden und dabei systematische Fehler (sog. Biases) machen (vgl. dazu und zum folgenden Beck, 2015).

Beispielhaft sie hier die sog. Repräsentativitätsheuristik genannt. Menschen treffen demnach Entscheidungen nicht aus einer kalkulierenden Abwägung, sondern auf der Grundlage einer angenommenen Repräsentativität. Sie vernachlässigen dabei relevante und offensichtliche Fakten. Probanden wurde folgende Situation vorgelegt: Aus einer Gruppe von 70 Juristen und 30 Ingenieuren wurde Jack zufällig ausgewählt. Jack ist 45 Jahre alt, verheiratet, hat zwei Kinder. Er ist konservativ eingestellt, ehrgeizig und hat kein Interesse an Politik. Stattdessen interessiert er sich für Tischlern, Basteln und mathematische Denksportaufgaben. Die Probanden sollten nun einschätzen, welchen Beruf Jack hat. Eine überwiegende Mehrheit hat Jack als Ingenieur eingeordnet, obwohl doch eine 70-prozentige Wahrscheinlichkeit be-steht, dass er Jurist ist, schließlich sind 70 von 100 Personen Juristen. Der Bewertungsfehler entsteht bei den Probanden hier wohl daraus, dass sie die beschriebenen Eigenschaften als repräsentativ für Ingenieure ansehen und deshalb die Wahrscheinlichkeiten falsch einschätzen.

In der Literatur werden neben der Repräsentativitätsheuristik weitere Entscheidungsfehler diskutiert. Dazu gehören etwa Verfügbarkeitsheuristiken, Ankerheuristiken, Framing-Effekte, Endowment-Effekte und viele andere. In allen Fällen machen die Individuen in Experimenten nachgewiesene Fehler, die Zweifel an den Erkenntnissen des Rationalmodells nähren. Betrachtet man allerdings die genannten Effekte kritisch, so lässt aus ihrer Existenz noch nicht auf eine grundsätzliche Ablehnung des HO-Modells schließen. Dies gilt aus mehreren Gründen:

  1. Alle verhaltensökonomischen Entscheidungsheuristiken und Verzerrungseffekte wurden auf der Grundlage von Experimentalsituationen hergeleitet. Eine Übertragung des Verhaltens von Menschen in solchen Situationen auf Entscheidungen in der Realität ist nicht ohne weiteres möglich. Etwa werden Lernprozesse ausgeklammert, die sich im Wettbe-werb durch die relative Erfolglosigkeit systematischer Entscheidungsfehler evolutorisch ergeben könnten (Schäfer; Ott, 2015).
  2. Die Erkenntnisse der Verhaltensökonomik beruhen auf speziellen Experimentaldesigns (Kirchgässner, 1991). Bereits kleine Änderungen dieses Designs reduzieren die behaupteten Entscheidungsfehler oder lassen sie ganz verschwinden. Lässt man die Probanden im Fall von Jack etwa selbst die o.g. Beschreibung aus einer Lostrommel ziehen, reduziert das die Häufigkeit der falschen Einschätzung. Offensichtlich wird den Befragten so die zu Grunde liegende Zufallsausfall klarer. Auch Änderungen in der Formulierung der Fragestellung und die Erhöhung der Vertrautheit mit der Fragestellung lassen die Anzahl der Entscheidungsfehler sinken (Beck, 2015). Zudem sind die beobachteten Effekte nicht in allen Fällen in wiederholten Studien replizierbar. (vgl. allgemein Open Science Collabo-ration, 2015 sowie Yong; Roberts, 2015)
  3. Aus grundsätzlichen Erwägungen ist die Aussagekraft von Experimenten für die Ökonomik beschränkt. Kern des HO-Ansatzes ist es, typische Entscheidungen in bestimmten Situationen zu analysieren (Nicht-Einzelfall-Betrachtung), nicht die Entscheidung einzelner Probanden.
  4. Die Anwendung von Entscheidungsheuristiken selbst kann als rationale Reaktion auf In-formationsunvollkommenheiten der realen Welt interpretiert werden. In diesem Sinne sind Heuristiken keine fehlerhaften Entscheidungen, sondern einfache Entscheidungsregeln, die dazu dienen, bei Informationsunvollkommenheiten in bestimmten Situationen effizient Entscheidungen zu treffen. „Sie sind schnell, weil sie nicht auf komplizierten Berechnungen beruhen, und sie sind sparsam, weil sie mit geringen Informationsmengen auskommen und dabei sogar bessere Resultate erzielen können.“ (Beck, 2015, S. 198) Heuristiken sind damit also Arten rationaler Entscheidung, mithin keine Widerlegung des HO-Ansatzes, sondern durch ihn erklärbar.


Selbst wenn man also die Ergebnisse der Verhaltensökonomik anerkennt, so ist die Schlussfolgerung aus diesen Erkenntnissen doch nicht, das HO-Modell und seine Annahmen grundsätzlich in Frage zustellen. Stattdessen wird die Notwendigkeit und die Aufgabe der Verhaltensökonomik klar: es geht darum, innerhalb des Theorierahmens des HO-Modells für bestimmte wissenschaftliche Fragestellungen richtigen Restriktionen zu identifizieren (Erlei; Leschke; Sauerland, 2007). Nur dann kann die Verhaltensökonomik wertvolle Beiträge zur Weiterentwicklung des ökonomischen Ansatzes liefern.

Fazit
Der Homo Oeconomicus, das Standardmikromodell der Ökonomik, wird viel kritisiert. Hier wurde argumentiert, dass die Kritikpunkte selbst stark kritisierbar sind oder auf ein falsches Verständnis des methodologischen Charakters des HO zurückgeführt werden können. Bei bestimmten Fragestellungen kann er gute Dienste leisten, wenn sein instrumenteller Charakter richtig verstanden wird. Der Homo Oeconomicus ist also nicht tot, er riecht nur etwas komisch! 

Literatur
Beck, Hanno (2015), Behavioral Economics, Wiesbaden

Bowles, Samuel (2015), The Death of Homo Oeconomicus, you tube Channel New Economic Thinking, youtu.be/ParPPYMzfQM, Zugriff am 25.11.2015

Dietz, Charlotte; Pabst, Josephine (2014), Volkswirtschafts-Leere, in: Welt am Sonntag, 05.10.2014, S. 30-31

Erlei, Mathias; Leschke, Martin; Sauerland, Dirk (2007), Neue Institutionenökonomik, 2., überarbeitete und erweiterte Auflage, Stuttgart.

Friedman, Milton (1953), The Methodology of Positive Economics, in: Essays in Positive Eco-nomics, Cambridge

Franz, Stephan (2004), Grundlagen des ökonomischen Ansatzes: Das Erklärungskonzept des Homo Oeconomics, in: International Economics Working Paper, 2004-02, Universität Pots-dam

Open Science Collaboration (2015), Estimating the reproducibility of psychological science, in: Science , Vol. 349, Nr. 6251, doi.org/10.1126/science.aac4716, Zugriff am 07.12.2015

Schäfer, Hans-Bernd; Ott, Claus (2015), Lehrbuch der ökonomischen Analyse des Zivilrechts, 5. Auflage, Berlin, Heidelberg

Yong, Ed; Roberts, Russ (2012), Yong on Science, Replication, and Journalism, in: econtalk, Podcast der Library of Economics and Liberty, 04.06.2012, www.econtalk.org/archives/2012/06/yong_on_science.html, Zugriff am 07.12.2015

Vatikan (2015), Apostolisches Schreiben EVANGELII GAUDIUM des heiligen Vaters Papst Franziskus an die Bischöfe, an die Priester und Diakone, an die Personen geweihten Lebens und die christgläubigen Laien über die Verkündigung des Evangeliums in der Welt von heute, w2.vatican.va/content/francesco/de/apost_exhortations/documents/papa-francesco_esortazione-ap_20131124_evangelii-gaudium.html, Zugriff am 26.11.2015

von Richard Reichel

Das Problem

Als ich am 9. Juli 2015 am Verbandstag des Genossenschaftsverbands Bayern in Unterschleißheim teilnahm, hatte ich Gelegenheit, den Präsidenten des Deutschen Instituts für Wirtschaftsforschung DIW Marcel Fratzscher zum Thema „Die Investitionslücke – Stärken und Schwächen der deutschen Wirtschaft“ zu hören. Das Problem „zu geringe Investitionen“ ist ja lange bekannt und ich erwartete mir eine gründliche Erörterung einschließlich wirtschaftspolitischer Empfehlungen. Obwohl die Diskussion bereits seit vielen Monaten auch in der Tagespresse geführt wurde, blieben neue Erkenntnisse aber weitgehend aus. Lassen sie uns deshalb gemeinsam das Problem diskutieren.

Die Sachlage ist folgende: Deutschlands Investitionsaktivität ist seit 25 Jahren rückläufig. Die folgende Abbildung 1 zeigt die Bruttoinvestitionsquote (Anteil der Bruttoinvestitionen am Bruttoinlandsprodukt) und die Nettoinvestitionsquote (Anteil der Nettoinvestitionen am BIP). Die Differenz wird durch die Abschreibungen gebildet. (Statistisches Bundesamt; Sachverständigenrat, Zeitreihen für Deutschland) Der Rückgang bei beiden Quoten ist evident. Bei der Bruttoquote ist er mit fünf Prozentpunkten bereits sehr deutlich, bei der Nettoinvestitionsquote mit fast neun Prozentpunkten ist der Rückgang dramatisch. Wenn Deutschland investiert, dann repariert es alten Kapitalstock, aber es bildet so gut wie keinen neuen Kapitalstock. Erweiterungsinvestitionen finden also so gut wie nicht mehr statt. Die Folge ist natürlich eine zunehmende Überalterung des Kapitalstocks, der Gütegrad (Modernitätsgrad) nimmt ab.

Abbildung 1: Investitionsquote brutto und netto

Wie ist diese Entwicklung zu erklären und wie könnte man wirtschaftspolitisch entgegenwirken? Eine Nettoinvestitionsquote von gerade einmal 1,3 Prozent kann ja schwerlich als Normalität gewertet werden. Zunächst muss festgestellt werden, dass auch in einigen anderen Ländern die Nettoinvestitionsquoten fallen, bei oftmals relativ konstanten Bruttoquoten. Aber nur Japan weist noch niedrigere niedrige Nettoinvestitionsquoten auf als Deutschland. (cesifo, 2015)

Fratzscher führt das niedrige Niveau der Investitionen auf mehrere Faktoren zurück, darunter die nur äußerst schwache Investitionstätigkeit der öffentlichen Hand (auch wegen der Schuldenbremse) und die in jüngster Zeit zu konsumorientierte Wirtschaftspolitik der Großen Koalition (Rentenpaket). Diesen Erklärungsansätzen ist zwar prinzipiell beizupflichten, sie erklären aber mitnichten den inzwischen 25 Jahre währenden trendmäßigen Abfall der Investitionsquoten. Fast könnte man vermuten, die Wirtschaft finde trotz des nach wie vor hohen deutschen Sparvolumens keine rentablen Investitionsmöglichkeiten mehr. Auf die Spitze treibt dieses Argument Heiner Flassbeck, der allen Ernstes der Ansicht ist, Ursache der Investitionsschwäche sei das zu geringe Wachstum der Konsumausgaben. (Flassbeck, 2015) Alternativ wird auch die These vertreten, im Ausland hätte es in der Vergangenheit lukrativere Investitionsmöglichkeiten als im Inland gegeben. Somit sei ein (sehr erheblicher) Teil des deutschen Sparens „ins Ausland gewandert“. Insbesondere in den 2000er Jahren (nach der Einführung des Euros bis zum Ausbruch der Finanzkrise und der nachfolgenden Staatsschuldenkrise) sei dies zu beobachten gewesen. Das ist in etwa die Argumentationslinie von Hans-Werner Sinn. (cesifo, 2014) Der deutsche Leistungsbilanzüberschuss war demnach die kausale Folge des Kapitalexports. Allerdings ist auch diese Sicht nicht ohne Probleme. Deutschlands Exportüberschuss gegenüber den restlichen EURO-Ländern ist seit dem Ausbruch der Finanzkrise wieder gesunken, ohne dass die Investitionen hierzulande nennenswert und dauerhaft gestiegen wären.

Konventionelle Erklärungen

Sucht man in den gängigen mikro- und makroökonomischen Theorien nach den Bestimmungsfaktoren der Investitionen, so stößt man auf folgende Hypothesen:

a) Das Akzeleratorprinzip. Nach dieser Theorie hängt die Investitionsquote von der Wachstumsrate des realen Bruttoinlandsprodukts ab. Je höher das Wachstum, desto höher die Investitionsquote.

b) Die demographische Entwicklung. Alternde und schrumpfende Bevölkerungen entwickeln möglicherweise eine dauerhaft geringere Nachfrage nach Endverbrauchsgütern und damit auch mittelbar nach Investitionsgütern.

c) Das Ausmaß finanzieller Intermediation. Diese wird üblicherweise am Anteil der Geldmenge M2 am Bruttoinlandsprodukt gemessen. Je höher diese Kennziffer, desto höher wird der finanzielle Entwicklungsstand bewertet. Ökonomisch besteht der Hintergrund eines positiven Zusammenhangs zwischen Investitionsquote und finanzieller Intermediation in der höheren Effizienz und verbesserten Arbeitsteilung einer gut entwickelten Geldwirtschaft.

d) Der Faktor Humankapital. Humankapital kann als ein zu Sachkapital komplementärer Produktionsfaktor aufgefasst werden. Erhöht sich der Stand des Humankapitals, steigt auch die Investitionsquote in Sachkapital.

e) Öffentliche Investitionen. Diese können in einigen Fällen als Voraussetzung für private Investitionen ansehen werden. Zu denken wäre beispielsweise an Infrastruktur- oder auch Bildungsinvestitionen. Dieses Argument wird - wie eingangs erwähnt - besonders von Marcel Fratzscher betont.

f) Investitionen wird üblicherweise eine gewisse Zinselastizität unterstellt. Je niedriger der Kapitalmarktzins, desto höher das Investitionsvolumen. Als zinselastisch gelten Investitionen mit langer Kapitalbildung, wie beispielsweise Bauinvestitionen. Diese Zusammenhänge kennt man bereits aus elementaren Lehrbüchern der Makroökonomie.

Zahllose empirische Untersuchungen haben die Rolle all dieser Faktoren bestätigt, wenngleich je nach untersuchten Ländern und Zeitperioden durchaus unterschiedliche Gewichtungen folgen. Indes hat jede dieser Determinanten auch ihre eigenen Probleme. So existiert beispielsweise beim Akzelerator ein Kausalitätsproblem. Einerseits beeinflusst das Wachstum die Investitionen, andererseits hängen die Wachstumsraten (in neoklassischer Sicht zumindest kurz- und mittelfristig) auch von der Investitionsquote ab. Zwar ist die ökonometrische Schätzung solch simultaner Beziehungen kein prinzipielles Problem, aber für Deutschland passt das Bild prinzipiell nicht, denn die realen Wachstumsraten sind nicht oder allenfalls nur minimal zurückgegangen.

Die demographische Entwicklung scheint ebenfalls (noch) keine probate Erklärung zu liefern, zumindest nicht im Hinblick auf die deutsche Entwicklung. In den vergangenen 25 Jahren verlief der Alterungsprozess der Bevölkerung ja noch relativ moderat, der Abfall der Nettoinvestitionsquote war aber sehr deutlich. Stärker spürbare demographische Effekte sind hierzulande in den kommenden 20 bis 30 Jahren zu erwarten, ihr Einfluss auf die Investitionen bleibt damit gegenwärtig nur schwer abschätzbar. Als Hinweis auf die bevorstehenden Tendenzen könnte die Entwicklung Japans herangezogen werden. Dort ist die Alterung bereits stärker fortgeschritten als in Deutschland. Seit 1990 reduzierte sich dort die Investitionsquote (brutto) von etwa 32 Prozent auf gegenwärtig etwa 21 Prozent, also um 11 Prozentpunkte. Dies ist ein dramatischer Rückgang. Die Sparquote sank von 33 Prozent auf 22 Prozent. Dies widerspricht nun aber der Hypothese, wonach es in alternden Gesellschaften zu einem Anstieg der Sparquote aus Vorsorgemotiven komme. Die Japaner haben demgegenüber ihren anteiligen Konsum erhöht. Ob der Rückgang der Investitionsquote auf die Demographie zurückzuführen ist, ist ebenfalls nicht sicher, da auch hier Koinzidenz noch nichts über Kausalität aussagt. Möglich wäre auch eine Verlagerung der Investitionen in die aufstrebenden Schwellenländer Asiens aus kurz- und mittelfristigen Rentabilitätsgesichtspunkten. Alles in allem könnten demographische Faktoren für die Entwicklung der Investitionsquote durchaus eine Rolle spielen; für Deutschland ist das aber eher unwahrscheinlich.

Die Faktoren „Finanzielle Intermediation“ und „Humankapital“ taugen ebenfalls wenig, um die Investitionsschwäche zu erklären, denn hier hat es weder eine Disintermediation noch einen Humankapitalabbau gegeben. Bleiben die Zinsen. Deren empirische Bedeutung für die Höhe der Investitionen ist empirisch weit weniger klar als theoretisch angenommen. (Gischer, 1998; Hall, 1977) Wenn überhaupt signifikante Ergebnisse gefunden werden, dann sind die Effekte ziemlich klein. Überdies sind im fraglichen Zeitraum in Deutschland die Zinsen (sowohl nominal als auch real) deutlich gesunken. Dies hätte eigentlich investitionsfördernd sein müssen und steht im Widerspruch zur keynesianischen Theorie. Auch wenn man versucht, den Zusammenhang durch aufwendigere Schätzgleichungen (beispielsweise durch die Erweiterung von Akzeleratormodellen um Zinsgrößen) zu untersuchen, wird es nicht gelingen, für Deutschland in der relevanten Periode eine negative Zinselastizität der Investitionen zu finden. Dies gilt interessanterweise auch für die Bauinvestitionen und zeigt, dass Versuche, Investitionen und Wachstum durch expansive Geldpolitik zu fördern, mit allergrößter Skepsis beurteilt werden müssen. 

Fasst man den Erklärungsgehalt der traditionellen „Lehrbuchfaktoren“ zusammen, so ergibt sich ein ernüchterndes Bild. Die Investitionsschwäche Deutschlands lässt sich so nicht erklären.

Angebotsbedingungen als mögliche Ursache?

Eine Alternative ist eine Analyse der Angebotsbedingungen einer Volkswirtschaft. Gute Angebotsbedingungen im Sinne einer investitionsförderlichen Ordnungspolitik liegen dann vor, wenn die mit jeder Investition verbundenen Unsicherheiten möglichst klein und der erwartete Ertrag der Investitionen möglichst groß ist. Dies wird üblicherweise durch eine stetige und damit berechenbare Wirtschaftspolitik, eine niedrige Abgabenbelastung, geringe bürokratische Hürden, einen stabilen Geldwert und einige andere wirtschaftspolitische Faktoren gewährleistet. Eine umfassende Beschreibung und Bewertung dieser Faktoren findet sich in dem seit 1996 erscheinenden „Economic Freedom Index“ des Fraser Instituts. Der Index besteht aus fünf Teilindizes, die jeweils einen investitionsrelevanten Bereich einer Volkswirtschaft erfassen. Es handelt sich um

a) die Größe des Staatshaushalts,

b) das Rechtssystem (Wahrung der Eigentumsrechte),

c) die Sicherstellung stabilen Geldes,

d) die Freiheit zum internationalen Handel und

e) die Bedeutung der Regulierungen.

Der gesamte Economic Freedom Index (EFI) ergibt sich aus einer Addition der Teilindizes der fünf genannten Bereiche. Im besten Fall ist ein Indexwert von 10 erreichbar. Dieser repräsentiert eine idealtypische Marktwirtschaft mit einem schlanken Staat und einem Minimum an Regulierungen. Beträgt der Indexwert hingegen Null, liegt eine extreme Form eines sozialistischen Interventionsstaats vor. Der EFI wird gegenwärtig für 152 Länder ermittelt. Für jedes Land wird sowohl der Indexwert als auch der Rangplatz angegeben. Spitzenreiter ist (seit langem) Hongkong mit einem EFI von 8,98 (Wert für 2012), das Schlusslicht ist Venezuela mit einem EFI von 3,89. Empirisch gut gesichert ist inzwischen, dass zwischen dem EFI einerseits und wirtschaftlichem Wachstum und Investitionen andererseits eine positive Beziehung besteht. (Gartney; Lawson; Hall, 2014)

Die Bundesrepublik Deutschland belegt zwar immer noch relativ gute Rangplätze, auffällig ist aber ein deutlicher Positionsverlust gegenüber ähnlich entwickelten Ländern in den vergangenen 25 Jahren. Erreichte Deutschland im Jahr 1990 mit einem Indexwert von 7,65 noch den 9. Rang, so wird im Jahr 2012 mit einem Wert von 7,57 nur noch Rang 23 erreicht. Es ergab sich ein (geringer) absoluter und (sehr deutlicher) relativer Positionsverlust. (Gartney; Lawson; Hall, 2014, S. 78) Zumindest auf den ersten Blick passt dieser gut zu den rückläufigen Investitionsquoten. Empirisch breit untersucht wurde der Zusammenhang jedoch im Hinblick auf die Veränderungen bei Investitionen und EFI noch nicht. Aus diesem Grund soll hier ein erster Ansatz präsentiert werden.

Bei der Attraktivität als Investitionsstandort kommt es weniger auf die Wirtschaftsfreundlichkeit im absoluten Sinne, sondern mehr im relativen Sinne an. Unternehmen investieren dort, wo sie im Vergleich zu anderen Ländern die besseren Rahmenbedingungen vorfinden. Aus diesem Grund wurde untersucht, wie sich die Veränderung der Rangposition eines Landes auf die Veränderung der Bruttoinvestitionsquote auswirkt. Dabei wurde zunächst für jedes Land die Rangdifferenz zwischen dem EFI-Rang 2012 und 1990 ermittelt. In einem zweiten Schritt wurde aus dem Mittel der Investitionsquoten 2010-2012 und 1990-1992 berechnet, wie sich die durchschnittlichen Quoten in der 20-Jahres-Periode entwickelt haben. Die zu testende Nullhypothese lautet dann: „Eine Verbesserung beim EFI-Rang korreliert positiv mit einem Anstieg der Investitionsquote.“ Die folgende Abbildung 2 dokumentiert für 28 hochentwickelte Länder den Zusammenhang. (Die Auswahl war durch die Verfügbarkeit der Daten bestimmt. Die EFI-Wert wurden Gartney; Lawson; Hall, 2014 entnommen, die Investitionsquoten der Datenbank des Internationalen Währungsfonds, IMF, 2015).

Abbildung 2: Zusammenhang zwischen Veränderungen des EFI-Rangplatzes und Veränderungen der Bruttoinvestitionsquote

Ein positiver Zusammenhang ist hier durchaus erkennbar. Allerdings ist er nicht sehr stark. Der (statistisch nicht signifikante) Korrelationskoeffizient beträgt +0,2. Verantwortlich hierfür sind die Länder Israel und Italien. In beiden Ländern war die Investitionsquote nur geringfügig zurückgegangen, aber Israel konnte seinen EFI-Rang um 35 Plätze verbessern während Italien um 40 Plätze abrutschte. Während man bei Israel noch am ehesten von einem „Sonderfall“ sprechen kann, fällt die Erklärung für die noch relativ stabilen Investitionen im Falle Italiens schwer. 

Ein wesentlich deutlicheres Resultat ergibt sich, wenn wie in Abbildung 3 der Veränderung des EFI-Rangplatzes die durchschnittliche Wachstumsrate der Bruttoinvestitionen im Zeitraum 1990 bis 2013 gegenübergestellt wird. (Die Zahlen für die Investitionsveränderung sind den World Development Indicators der Weltbank entnommen: World Bank, 2015. Aufgrund fehlender Daten mussten zwei Taiwan und Hongkong weggelassen werden.)

Abbildung 3: Zusammenhang zwischen Veränderung des EFI-Rangplatzes und durchschnittlicher Veränderung der Bruttoinvestitionen

Hier erkennt man einen sehr deutlichen positiven Zusammenhang zwischen der Investitionsänderung und der Veränderung der Angebotsbedingungen. Der Korrelationskoeffizient beträgt +0,46 und ist hoch signifikant. Offensichtlich ist die Investitionsdynamik dort am höchsten, wo sich die Wirtschaftsordnung (weiter) in Richtung einer Marktwirtschaft bewegt. In Deutschland war dies offenkundig nicht der Fall. Damit könnte der Faktor „Angebotsbedingungen“ eine wichtige Rolle bei der Erklärung der Investitionsdynamik spielen. Weitere Untersuchungen stehen indes noch aus. Vielleicht eine gute Gelegenheit für ein Kooperationsprojekt von VWL-Professoren der FOM.
 

Literatur

Cesifo (Hrsg.) (2015), https://www.cesifo-group.de/de/ifoHome/presse/Pressemitteilungen/Pressemitteilungen-Archiv/2014/Q1/pm_20140114-Kapitalexport.html, abgerufen am 24.07.2015

Cesifo (Hrsg) (2015), http://www.cesifo-group.de/de/ifoHome/facts/Time-series-and-Diagrams/Diagram-Service/International-Economic-Situation/chart-Net-investment-rates.html, abgerufen am 23.07.2015

Flassbeck, H. (2015), http://www.flassbeck-economics.de/absurdes-theater-sigmar-gabriel-laesst-die-deutsche-investitionsschwaeche-er-forschen-und-frank-schaeffler-gruendet-eine-denkfabrik/, abgerufen am 10.07.2015.

Gwartney, J., Lawson,R., Hall; J. (2014), Economic Freedom of the World: 2014 Annual Report of the Fraser Institute, Vancouver

Gischer, H. (1998),: Zinsen, Investitionstätigkeit und Auswirkungen der Geldpolitik auf den Unternehmenssektor, in: Hamburger Jahrbuch für Wirtschafts- und Gesellschaftspolitik, 1998, S. 129-146

Hall, R. (1977), Investment, Interest Rates, and the Effects of Stabilization Policies, in: Brookings Papers on Economic Activity, 1977, S. 61-103

IMF (Hrsg.) (2105), World Economic Outlook Database, https://www.imf.org/external/pubs/ft/weo/2015/01/weodata/index.aspx

World Bank (Hrsg.) (2015), World Economic Indicators, http://wdi.worldbank.org/table/4.9, abgerufen am 23.07.2015

von Richard Reichel

Einleitung

Seit etwa zwei Jahren lassen sich in Europa rückläufige Inflationsraten beobachten, die zwischenzeitlich bei Werten angekommen sind, die weit unterhalb der EZB-Zielgröße von „unter zwei, aber nahe bei zwei Prozent“ angekommen sind. Die deutschen Inflationsraten liegen unter ein Prozent, einige Länder des Euro-Währungsgebiets weisen leicht negative Inflationsraten auf. Somit könnte die Gefahr einer Deflation mit all ihren mörderischen Folgen drohen, so jedenfalls die EZB. Dagegen müsse man etwas tun, also beispielsweise Staatsanleihen in großem Stil ankaufen. Ganz einig sind sich die Direktoriumsmitglieder allerdings nicht. Die deutsche Vertreterin Sabine Lautenschläger hält solche Käufe für „derzeit“ nicht notwendig und Bundesbank-Chef Weidmann ist prinzipiell dagegen. Aber diese Stimmen sind im europäischen Konzert klar in der Minderheit. Italiener, Franzosen und inzwischen auch die Österreicher fordern immer offener, man möge doch endlich zu einer starken Ausweitung der Zentralbankgeldmenge kommen um der Deflationsgefahr durch ein höheres Geldangebot zu begegnen. Im Folgenden soll die Deflationsproblematik etwas näher beleuchtet werden.

Wie wirkt Deflation?

Deflation ist ein dauerhafter Rückgang des gesamtwirtschaftlichen Preisniveaus, dem üblicherweise negative makroökonomische Wirkungen zugeschrieben werden. Die übelste Folge ist eine deflationäre Spirale, die sich wie folgt darstellt: Fallende Preise erzeugen Kaufzurückhaltung bei den Konsumenten, sinkende Absätze bei den Unternehmen, aufgeschobene Investitionen und fallende Gewinne. Es kommt zu Beschäftigungs- und Einkommenseinbußen, die wiederum einen Nachfrageausfall bewirken. Dadurch entsteht weiterer Druck auf die Preise. Flankiert wird dieser Kreislauf durch den Anstieg der realen Verschuldung bei Deflation. Sowohl den Unternehmen als auch dem Staat fällt es immer schwerer, Schulden zu bedienen. Unternehmenszusammenbrüche und Staatsschuldenkrisen sind die Folge. Auch die Geschäftsbanken werden getroffen, da die Zahl ausgefallener Kredite ansteigt. Dann werden auch Banken zahlungsunfähig und die gesamtwirtschaftliche Kreditvergabe geht zurück, was einen weiteren Nachfrageausfall entstehen lässt. Insgesamt droht also ein Szenario wie wir es in den frühen 1930er Jahren erlebt haben. Davor haben alle Angst. Ob diese Angst aber berechtigt ist, muss hinterfragt werden.

Zunächst einmal muss gefragt werden, wo denn die Deflation herkommt. Je nach Ursache sind auch die Auswirkungen verschieden. Zweitens muss ein Blick auf die Empirie geworfen werden. Gibt es überhaupt ein auf breiter Front fallendes Preisniveau wie wir es in den 1930er Jahren beobachten konnten. Denn damals fielen nahezu alle Preise, angefangen bei den Preisen von Salatgurken bin hin zu den Immobilienpreisen.

Gute und schlechte Deflation

Volkswirte unterscheiden zwischen „guter“ und „schlechter“ Deflation. Gute Deflation ist die Folge einer Rechtsverschiebung der gesamtwirtschaftlichen Angebotskurve, wie sie beispielsweise bei einer Energiepreissenkung oder anderen Kostensenkungen entsteht. In der Folge pendelt sich ein neues gesamtwirtschaftliches Gleichgewicht bei einem höheren Output und gesunkenen Preisen ein. Zumindest beobachtet man stark fallende oder dauerhaft sehr niedrige Inflationsraten. Aber auch bei tatsächlicher Deflation kommt es zu steigender Produktion. Wirtschaftspolitische Maßnahmen sind in diesem Fall natürlich nicht erforderlich. Anders sieht es bei der schlechten, der nachfrageinduzierten Deflation aus. Hier kommt es, aus welchen Gründen auch immer, zu einem gesamtwirtschaftlichen Nachfragerückgang und damit zu einer Linksverschiebung der Nachfragekurve. Die Preise fallen und die Produktion sinkt. Dann droht die Gefahr der oben geschilderten Deflationsspirale, der man durch expansive geld- oder fiskalpolitische Maßnahmen begegnen muss. Da die europäischen Staaten aber bereits hoch verschuldet sind, bietet die Fiskalpolitik kaum einen Ausweg. Also wendet man sich an die Zentralbank. Die EZB ist zwar – de jure – unabhängig, weiß aber natürlich genau, was gegenwärtig zu tun ist.

Wo fallen die Preise?

Welche Art von Deflation liegt gegenwärtig vor oder welche Art von Deflation droht? Die Antwort fällt ziemlich eindeutig aus. Hauptursache der rückläufigen Inflationsraten im Euro-Raum sind die seit längerem rückläufigen Energiepreise, die besonders in den letzten Monaten stark gefallen sind. Dies drückt die Inflationsraten aller Euro-Länder nach unten. Dies ist eindeutig angebotsinduzierte Deflation und als solche positiv zu bewerten. Vielfach wird ja bereits von einem Konjunkturprogramm gesprochen. In den Krisenländern des Südens kommt nun noch die Notwendigkeit einer internen Abwertung hinzu um die Wettbewerbsfähigkeit dieser Länder im Euro wieder herzustellen. Die damit verbundenen Preissenkungseffekte rühren nun tatsächlich von einer schwachen gesamtwirtschaftlichen Nachfrage her. Sie sind aber durchweg gering und bergen kaum die Gefahr einer sich selbst verstärkenden Spirale. Denn auch diese Effekte werden durch die positiven Wirkungen der Energiepreissenkungen überlagert. Diese führen makroökonomisch zu einem Anstieg des Realeinkommens, verursacht durch eine Übertragung von Kaufkraft von den Ölexporteuren zu den Verbrauchsländern. Die verschiedentlich geäußerte Befürchtung, die Deflation bei den Energiepreisen könnte eine Deflation auf breiter Front in Gang setzen, ist unbegründet und lächerlich. Warum sollten Verbraucher den Kauf langlebiger Konsumgüter zurückstellen weil die Ölpreise fallen? Warum sollten sie bei Himbeereis ähnlich verfahren? Auch wenn der Preisverfall bei vielen langlebigen Konsumgütern bekannt und vom Verbraucher absehbar ist, werden die Käufe doch nicht auf die lange Bank geschoben. Jedenfalls dann nicht, wenn es sich nicht um extreme Preisrückgänge innerhalb sehr kurzer Zeit handelt. Zumindest für Deutschland ist die Hypothese einer generellen Kaufzurückhaltung bei fallenden Konsumgüterpreisen empirisch widerlegt.

Bestätigt wird dies durch weitere empirische Studien, die den Zusammenhang zwischen Deflationsphasen und Depressionsperioden untersuchen. Die These einer deflationären Abwärtsspirale findet kaum empirische Unterstützung. Dieser Befund zeigt sich bei vielen Ländern und über unterschiedliche Zeitperioden. Es gibt lediglich eine Ausnahme und das ist die Zeit der frühen 1930er Jahre. Während vorher und nachher immer nur Deflationsphasen mit eher geringen negativen Inflationsraten beobachtet wurden, ging das gesamtwirtschaftliche Preisniveau damals in nahezu allen Industrieländern über einige Jahre hinweg drastisch zurück und zwar nicht nur als Mittelwert, sondern bei nahezu allen Gütern. Die Hypothese einer generell rückläufigen Nachfrage wird hier von der Literatur auch gestützt. Folglich waren damals expansive geld- und fiskalpolitische Maßnahmen in keynesianischer Tradition notwendig und wirksam. Von einer solchen Lage sind wir heute freilich weit entfernt. Dies gilt umso mehr, als es Bereiche gibt, in denen die Inflation bereits galoppiert. Aktien- und Immobilienmärkte lassen grüßen. In Deutschland und anderswo.

Der wahre Sinn der Staatsanleihenkäufe

Die Ankauf von Aktiva durch die Zentralbank erhöht die monetäre Basis und somit das Geldangebot, das in den Händen der Zentralbank liegt. Wie die Geschäftsbanken mit ihrer Buchgeldschöpfung reagieren werden, ist zunächst ungewiss. Die EZB hofft, durch eine Entlastung der Bilanzen des Geschäftsbankensektors durch Übernahme von Staatsschuldtiteln in die eigene Bilanz den Geschäftsbankensektor zu stabilisieren und zur Vergabe neuer Kredite zu bewegen. Genau das haben die Geschäftsbanken bisher nämlich nicht getan, insbesondere in den Südländern nicht. Der Ursache war klar: Die dortigen Banken müssen erst einmal bilanzielle Lasten und Risiken beseitigen und neues Eigenkapital bilden. In einer solchen Situation ist man mit der Vergabe neuer Kredite sehr vorsichtig. Da hilft es auch nicht viel, wenn die Zinsen bis auf fast Null gesenkt werden. Aber selbst wenn die Banken nach einer Bilanzsanierung neue Kredite gewähren, ist damit noch nichts über das Ausmaß der Investitionssteigerung und dessen Wachstumswirkung gesagt. Es ist bekannt, dass die Zinselastizität der gesamtwirtschaftlichen Investitionen (vielleicht mit Ausnahme der Bauwirtschaft) sehr gering ist und dass die induzierten Multiplikatoreffekte (außer in echten Depressionsphasen) ebenfalls nicht groß sind. Dann fällt die erzeugte Zusatznachfrage eher gering aus und taugt somit wenig, Deflation zu bekämpfen, wenn es sie denn gäbe. Ein anderer möglicher Wirkungskanal wäre der Wechselkurskanal. Extrem expansive Geldpolitik via „Quantitative Easing“ vermag zwar die Zinsen nicht weiter zu senken, kann aber ein glaubwürdiges Signal sein, dass vorerst keine Zinserhöhungen zu geplant sind. Das führt dann zu einer nominalen Abwertung der heimischen Währung und in Kombination mit zumindest niedrigen Inflationsraten auch zu einer realen Abwertung. Tendenziell fördert dies den Export der Euro-Länder in Drittstaaten. Zweifellos ein expansiver Effekt, der aber bei Lichte betrachtet ein Pyrrhussieg ist, denn es erfolgt über einen Terms-of-Trade-Rückgang eine Einkommensübertragung ans Ausland. Dem Terms-of-Trade-Verlust steht hier aber der Terms-of-Trade-Gewinn durch den Ölpreisrückgang entgegen. Wie der Nettoeffekt auf die Nachfrage im Euroraum ausfallen wird, ist schwer zu sagen. Jedenfalls profitiert die Exportindustrie.

Damit wird auch klar, worum es bei den geplanten Käufen von Staatsanleihen wirklich geht. Es geht um die Stabilisierung des Kartells aus privaten großen Geschäftsbanken, dem Staat und der Exportindustrie durch die EZB. Diese betätigt sich als Endlager für strahlenden Schuldenmüll, saniert damit die Bankbilanzen, entlastet die Staatshaushalte bei den Zinszahlungen und fördert die Exporte. Wie schön wäre das alles, würde man nicht alle Risiken auf die Gemeinschaft der Steuerzahler abladen. Aber die EZB ist ja bekanntlich der Ansicht, es handele sich um Geldpolitik und nicht um monetäre Staatsfinanzierung. Man kaufe die Anleihen ja nicht direkt von den Staaten, sondern am Sekundärmarkt. Dieses Argument ist allerdings schlicht dreist. Für die Wirkung der Heroindosis beim Süchtigen kommt es nicht darauf an, ob die Droge beim Händler oder beim Hersteller gekauft wird.

Der Europäische Gerichtshof

Bekanntlich hat sich das Bundesverfassungsgericht in seiner Entscheidung vom Februar 2014 kritisch mit möglichen Staatsanleihenkäufen auseinandergesetzt und die Sache an den EuGH verwiesen. Am 14.01.2015 hat der Generalanwalt Pedro Cruz Villalon in einer gutachterlichen Stellungnahme mitgeteilt, dass diese rechtmäßig seien, sofern bestimmte Bedingungen erfüllt seien. So sei „…das 2012 in Aussicht gestellte OMT-Programm erforderlich und verhältnismäßig im engeren Sinne, da die EZB kein Risiko eingehe, das sie notwendigerweise einem Szenario der Insolvenz aussetze.“ (N.N., 2015a) Weiterhin dürfe sie nur am Sekundärmarkt aktiv werden, sie dürfe sich nicht im Reformprogramme einmischen und müsse die Käufe begründen. (N.N., 2015b)

Was hat man als Volkswirt von diesen Thesen zu halten? Nichts! Das letzte Argument ist geradezu dümmlich. Als ob Herrn Draghi keine Begründung einfallen würde! Er würde natürlich sagen: „Das ist nötig und im Übrigen handeln wir im Rahmen unseres Mandats.“ Tiefergehendere Begründungen mit einem Minimum an ökonomischer Substanz sollte man sich nicht erwarten. Die These mit dem Sekundärmarkt hatte ich bereits angesprochen. Sie ist ebenso dumm. Signalisiert die EZB die Bereitschaft, Staatsanleihen zu kaufen, so dürfte es keine Probleme bereiten, geeignete Erstabnehmer oder Zwischenhändler zu finden wenn ein klammer Staat frische Schuldtitel emittieren möchte. Das Argument der „Reformneutralität“ ist bestenfalls naiv. Jede Übernahme von dubiosen Forderungen in das EZB-Endlager reduziert natürlich den Reformdruck indem tendenziell Zinssenkungen erzeugt werden und Raum für neue Emissionen geschaffen wird. Von geradezu erhabener Absurdität ist freilich das Argument von der Insolvenzgefahr. Keine Zentralbank kann in einem System ungedeckten Papiergelds insolvent werden. Ein wirtschaftliches Risiko in diesem Sinne besteht nicht. Genau das ist das Problem, nämlich die Gefahr unbegrenzt expandierender Geldmengen. Diese Problematik hatte das Bundesverfassungsgericht wohl im Blick, als es vor einem Jahr den Prüfauftrag an den EuGH gab. Warten wir ab, ob sich aus den unterschiedlichen Sichtweisen doch noch ein Machtkampf entwickelt und wie dieser ausgeht.

Literatur

Atkeson, A.; Kehoe, P. (2004), Deflation and Depression: Is There an Empirical Link?, in: American Economic Review, Vol. 94 (2), S. 99–103.

Neely, Christopher J.; Wood, Geoffrey E. (1995), Deflation and Real Economic Activity Under the Gold Standard, in: Federal Reserve Bank of St. Louis Review, 9/10, 1995, S. 27-37.

Guerrero, Federico; Elliott Parker (2006), Deflation, Recession and Slowing Growth. Finding the Empirical Links, in: ICFAI Journal of Monetary Economics, February 2006, S. 37-49.

N.N. (2015a), Unter Auflagen, EuGH-Generalanwalt segnet Draghis Euro-Kanone ab, in: www.focus.de/finanzen/news/unter-auflagen-eugh-generalanwalt-segnet-draghis-euro-kanone-ab_id_4404020.html; abgerufen am 19.01.2015

N.N. (2015b), EZB darf grundsätzlich Staatsanleihen kaufen, in: www.wiwo.de/politik/europa/eu-gutachter-ezb-darf-grundsaetzlich-staatsanleihen-kaufen-/11227362.html; abgerufen am 19.01.2015.

Reichel, Richard (2014), Deflation: Theoretische Überlegungen, empirische Befunde und die Rolle der EZB, in: Orientierungen, Dezember 2014, S. 33-40.

von Michael Göke


Einleitung

Die neue Bundesregierung hat als eine ihrer ersten Maßnahmen angekündigt, ein Gesetz zu verabschieden, dass Unternehmen verpflichtet, mindestens 30 % ihrer Aufsichtsratsmandate mit Frauen zu besetzen. Sie übernimmt damit Forderungen, die schon seit längerer Zeit von verschiedenen gesellschaftlichen Gruppierungen vertreten werden. Was ist von einer solchen Regelung aus ökonomischer Sicht zu halten?

Grundsätzlich bedeutet ökonomische Analyse stets, auf der Basis von Vernunftargumenten reale Probleme und Problemlösungen zu analysieren und kritisch zu bewerten. In diesem Fall sind dafür zwei Schritte notwendig:

  1. Ist zu klären, ob Frauen im Erwerbsleben diskriminiert werden.
  2. Falls das so ist, muss diskutiert werden, ob eine gesetzlich vorgeschriebene Frauenquote die beste Lösung für das bestehende Problem ist.


Werden Frauen diskriminiert?

Betrachten wir die 1. Frage. Unbestrittener Fakt ist, dass Frauen im Erwerbsleben unterrepräsentiert sind. Bei den Hochschulabsolventen in Deutschland herrscht noch fast eine Gleichverteilung zwischen den Geschlechtern (49 %: männlich, 51 %: weiblich). Je weiter man in den unternehmerischen Hierarchien nach oben geht, um weniger Frauen gibt es. So sind auf mittlerer Managementebene nur noch 15 % weibliche Führungskräfte zu finden, auf der Ebene der Vorstände lediglich 3 %. (Bundesministerium für Familie, Senioren, Frauen und Jugend, 2010; Daten für 2008). Ein weiterer Aspekt der schlechteren Stellung von Frauen zeigt sich in ihrer durchschnittlich schlechteren Bezahlung. So erhielten Frauen für vergleichbare Tätigkeiten im Jahre 2010 im Durchschnitt 22 % weniger Gehalt (Statistisches Bundesamt, 2013). Beide Aspekte, die quantitative Unterrepräsentanz wie auch der sog. Gender Pay Gap, sind unbestritten.

Will man redlich und sauber argumentieren, muss nun geklärt werden, ob die genannten Fakten ursächlich auf eine stattfindende Diskriminierung zurückgeführt werden können. Bereits theoretisch lässt sich ein solcher Ursache-Wirkungs-Zusammenhang nur schwer eindeutig begründen. Zwar wird angeführt, Männer schlössen sich aktiv oder stillschweigend zusammen, stellten lieber Geschlechtsgenossen als Frauen ein, und bildeten so eine „gläserne Decke“, die Frauen am Aufstieg in obere Managementposition hindere. Frauen würden also von Männern diskriminiert.

Allerdings ist auch denkbar, dass Unterbrechungen der weiblichen Erwerbsbiografie, geschlechterspezifische Entscheidungen für oder gegen spezielle Berufe oder einfach persönliche Präferenzen (etwa für eine bestimmte familiäre Arbeitsteilung) für die Unterrepräsentanz von Frauen im Erwerbsleben verantwortlich sind. Betrachtet man zudem theoretische Erkenntnisse ökonomischer Forschungen, so wird die angenommene Ursache-Wirkungs-Beziehung zwischen Diskriminierung und Unterrepräsentanz zunehmend unklarer. Der Nobelpreisträger Gary Becker argumentiert in seinem Aufsatz „An Economic Theory of Discrimination" (Becker, 1957), dass sich Diskriminierung für ein Unternehmen gar nicht lohnt. Herrscht nämlich Wettbewerb um das gewünschte Personal, müsste ein Unternehmer, der eine Frau aus Diskriminierungsgründen nicht einstellt, obwohl sie besser als ein Mann auf eine Stelle passt, kostenträchtiger produzieren als der nicht-diskriminierende Unternehmer. Bei funktionierendem Wettbewerb müsste der Diskriminierer über kurz oder lang aus dem Markt gedrängt werden. Diese wohltuende Funktion des Wettbewerbs zeigt sich auch in der Betrachtung des Gender-Pay-Gap. Zunächst zeigen verschiedene Studien, dass er im Zeitverlauf geringer wird (Weichselbaumer; Winter-Ebmer, 2005; Weck-Hannemann, 2000; Statistisches Bundesamt, 2013). Bereinigt man ihn darüber hinaus um Unterschiede in den Berufserfahrungen, Berufsabschlüssen, die Art der Tätigkeit und ihren Umfang sowie andere Faktoren, so reduziert er sich für 2010 auf nurmehr 7 % (Statistisches Bundesamt, 2013). Darüber hinaus ist der Unterschied zwischen der Bezahlung weiblicher und männlicher Arbeitnehmer vor allem in denjenigen Ländern geringer, in denen die wirtschaftliche Freiheit größer ist (Zweimüller; Winter-Ebmer; Weichselbaumer, 2008). Die bestehende Ungleichheit reduziert sich vermutlich also durch Marktkräfte und den Wettbewerb selbst, d.h. auch ohne einen staatlichen Eingriff. Grundsätzlich bleibt festzuhalten, dass es wissenschaftlich mindestens zweifelhaft ist, ob die weibliche Unterrepräsentanz tatsächlich auf Diskriminierung zurückzuführen ist.

Die Effizienz einer Frauenquote

Nehmen wir einmal an, Diskriminierung sei tatsächlich Ursache der Unterrepräsentanz von Frauen. Dann kommen wir zur 2. Frage: ist eine gesetzlich festgelegte Quote ein geeignetes Instrument, um die Probleme zu lösen? Für eine logisch korrekte Beantwortung sind alle Maßnahmewirkungen heranzuziehen und zu bewerten, d.h. nicht nur die gewünschten, intendierten Effekte, sondern auch und insbesondere die unerwünschten, nicht-intendierten. Schon eine grobe Betrachtung der Frauenquote lässt dabei die Vermutung zurück, dass mögliche negative Aspekte die positiven übersteigen.

So wird durch eine Quotierung das unternehmerische Entscheidungskriterium der Qualifikation im Zweifelsfall durch ein Geschlechterkriterium ersetzt. Für ein Unternehmen ergeben sich dann Probleme, wenn eigentlich qualifiziertere Männer einer weniger qualifizierteren Frau weichen müssten. Umfassende Meta-Studien aus Norwegen belegen die negativen Aspekte empirisch (Ahern/Dittmar, 2011). Sie widerlegen damit auch die Schlussfolgerung der Unternehmensberatung McKinsey, die argumentiert, dass höhere Gewinne möglich sind, wenn mehr Frauen in Führungspositionen tätig sind (McKinsey, 2007).

Darüber hinaus muss berücksichtigt werden, dass eine Quotierung als Anreiz wirkt, das heißt, dass ihre Einführung das Verhalten der Wirtschaftssubjekte verändern wird. Ob sie dabei das Ziel erreicht, mehr Frauen in unternehmerische Führungspositionen zu bringen, ist zumindest unklar. Etwa hat sich in Norwegen nach Einführung einer Quotierung gezeigt, dass zwar insgesamt mehr Frauen in Führungspositionen zu finden waren, allerdings waren es immer die gleichen Frauen. So hatten nur 70 Frauen, die sog. „Goldröcke“, die 300 weiblichen Aufsichtsratspositionen inne. Darüber hinaus sprechen fundamentale Erwägungen gegen eine staatlich festgesetzte Quotierung einer bestimmten gesellschaftlichen Gruppe. Ein solcher Eingriff ist letztlich nicht kohärent durchführbar, werden doch stets gesellschaftliche Gruppen existieren, die in Führungspositionen unterrepräsentiert sind und dies zum Anlass nehmen, eine staatliche Quotierung zu fordern. Wessen Interessen sollen nun durch den Staat durchgesetzt werden und wessen Interessen -nicht? Und wer entscheidet das?

Fazit

Alle genannten Argumente münden in der Schlussfolgerung: eine staatliche Quotierung von Frauen in Aufsichtsratspositionen ist nicht das richtige Instrument, um die Erwerbstätigkeit von Frauen insgesamt zu erhöhen. Stattdessen wären Maßnahmen sinnvoll, die auf eine grundsätzlich bessere Vereinbarkeit von Familie und Beruf für beide Geschlechter abzielten. Solche Maßnahmen zu entwickeln, ist Aufgabe von Politik und von zukunftsorientierten Unternehmern.

Literatur

Ahern, Kenneth R.; Dittmar, Amy K. (2012), The Changing of the Boards: The Impact on Firm Valuation of Mandated Female Board Representation, in: The Quarterly Journal of Economics, Bd. 127, S. 137-197.

Becker, Gary S. (1971), The Economics of Discrimination, revised Version, Chicago.

Bundesministerium für Familie, Senioren, Frauen und Jugend (Hrsg.) (2011), Frauen in Führungspositionen, Auswirkungen auf den Unternehmenserfolg, www.bmfsfj.de/

Bundesministerium für Familie, Senioren, Frauen und Jugend (Hrsg.) (2010), Frauen in Führungspositionen, Barrieren und Brücken, www.bmfsfj.de/

Mc Kinsey (Hrsg.) (2007), Women Matter, Gender diversity, a corporate performance driver, www.mckinsey.com.

Statistisches Bundesamt (Hrsg.) (2013), Verdienstunterschiede von Frauen und Männern bleiben bestehen, Pressemitteilung vom 19.03.2013.

Weichselbaumer, Doris; Winter-Ebmer, Rudolf (2005), A Meta-Analysis of the International Gender Wage Gap, in: Journal of Economic Surveys, Bd. 19, Nr. 3, S. 479-511.

Zweimüller, Martina; Winter-Ebmer, Rudolf; Weichselbaumer, Doris (2008), Market Orientation and Gender Wage Gaps: an International Study, in: Kyklos, Bd. 61, Nr. 4, S. 615-635.

Weck-Hannemann, Hannelore (2000), Frauen in der Ökonomie und Frauenökonomik : zur Erklärung geschlechtsspezifischer Unterschiede in der Wirtschaft und in den Wirtschaftswissenschaften, in: Perspektiven der Wirtschaftspolitik, Bd. 1, Nr. 2. S. 199-220.

Kommentare

10.12.2015 19:45 | Richard Reichel
Homo Oeconomicus
Analyse ist voll zutreffend. Oft resultiert die Fundamentalkritik am HOE daher, dass sich die Kritiker nicht der Mühe einer tiefen Einarbeitung in die Mikrotheorie machen möchten.

Ihr Kommentar

Um Ihre Anfrage bearbeiten zu können, werden die von Ihnen angegeben Daten zu diesem Zwecke gespeichert. Aus datenschutzrechtlichen Gründen benötigen wir dafür Ihre Einwilligung. Die Einwilligung können Sie jederzeit widerrufen.
In Verbindung mit Ihrem Interesse an der FOM Hochschule für Oekonomie & Management wollen wir Ihnen weitere wichtige Informationen und Veranstaltungshinweise zusenden. Die Einwilligung können Sie jederzeit widerrufen.
Ihre Daten werden nicht an Dritte weitergegeben.
Ihre Rechte: Auskunft, Berichtigung, Löschung und Sperrung, Widerspruchsrecht u.a.

Sie sind gemäß Art. 12 – Art. 23 EU-DSGVO jederzeit berechtigt, gegenüber der FOM Hochschule für Oekonomie & Management gGmbH u.a. um umfangreiche Auskunftserteilung zu den zu Ihrer Person gespeicherten Daten zu ersuchen. Sie können jederzeit gegenüber der FOM Hochschule für Oekonomie & Management gGmbH die Berichtigung, Löschung und Sperrung einzelner aufgrund vorstehender Einwilligung gespeicherter personenbezogener Daten verlangen. Sie können darüber hinaus jederzeit ohne Angabe von Gründen von Ihrem Widerspruchsrecht Gebrauch machen und die vorstehend erteilte Einwilligungserklärung mit Wirkung für die Zukunft abändern oder gänzlich widerrufen. Sie können den Widerruf mittels einer eindeutigen Erklärung (zum Beispiel per Email oder Brief) an die FOM Hochschule für Oekonomie & Management gGmbH übermitteln. Es entstehen Ihnen dabei keine anderen Kosten als die Portokosten bzw. die Übermittlungskosten nach den bestehenden Basistarifen.


* Pflichtfelder
Forschungsstruktur
Forschungsstruktur

Die Autoren

Prof. Dr. Michael Göke
Prof. Dr. Michael Göke
Prof. Dr. Norbert Lamar
Prof. Dr. Norbert Lamar
Prof. Dr. Gerald Mann
Prof. Dr. Gerald Mann
Prof. Dr. Richard Reichel
Prof. Dr. Richard Reichel
Prof. Dr. Matthias Ross
Prof. Dr. Matthias Ross