Hauptforschungsthemen des Promotionskollegs
Die zentralen Fragen, mit denen sich die Forschung in dem Promotionskolleg befassen soll, betreffen insbesondere die Eigenschaften der Dynamik, Stabilit?t und Verteilung in einem volkswirtschaftlichen System, das aus einer Vielzahl heterogener und interagierender Agenten mit beschr?nkt rationalen Erwartungen besteht. Darüber hinaus sollen verschiedene Mechanismen n?her untersucht werden, die in der kurzen als auch in der mittleren oder langen Frist destabilisierend auf die Makro?konomie wirken, ebenso wie die grunds?tzliche Rolle und Aufgabe von Wirtschaftspolitik in einem beschr?nkt rationalen Modellrahmen.
Im Folgenden werden vier Hauptforschungsthemen des Promotionskollegs im Detail dargestellt.
a) Beschr?nkt-rationales Verhalten, Finanzm?rkte und makro?konomische Aktivit?t
Es ist mittlerweile allgemein bekannt, zumindest innerhalb der Behavioral Finance Literatur, dass agentenbasierte Modelle, in denen verhaltensbasierte heterogene Erwartungsbildungsprozesse explizit berücksichtigt werden (siehe z.B. Day und Huang 1990, Kirman 1991, De Grauwe et al. 1993, Lux 1995, Brock und Hommes 1998, LeBaron et al. 1999 und Farmer und Joshi 2002), tats?chliche Finanzmarktentwicklungen besser erkl?ren k?nnen als ?traditionelle“ Finanzmarktmodelle mit ausschlie?lich rationalen Agenten (für ?bersichtsstudien siehe unter anderem Chiarella et al. 2009, Hommes und Wagener 2009, Lux 2009 oder Westerhoff 2009).
Neben einer angemessenen Beschreibung des Verhaltens individueller Agenten, welche oft auf empirischem Wissen über Prognose- und Anlagestrategien basiert, besteht der Vorteil der agentenbasierte Modelle in der M?glichkeit, auch direkte Interaktionseffekte, wie z.B. ein Herdenverhalten innerhalb sozialer Netzwerke, und institutionelle Aspekte des Marktes realit?tsnah berücksichtigen zu k?nnen (siehe z.B. Alfarano und Milakovic, 2009; Alfarano, Milakovic und Raddant, 2013). Darüber hinaus werden agentenbasierte Finanzmarktmodelle aufgrund ihrer Leistungsf?higkeit zunehmend als ?künstliche Labore“ eingesetzt, um die institutionellen Rahmenbedingungen von Finanzm?rkten zu verbessern. Beispielsweise untersuchen mittels agentenbasierter Finanzmarktmodelle Westerhoff (2003a) den Effekt von Transaktionssteuern, Westerhoff (2003b) den Effekt von Handelsunterbrechungen, Wieland und Westerhoff (2005) den Effekt von Zentralbankinterventionen, He und Westerhoff (2005) den Effekt von Preiskontrollen, sowie Thurner et al. (2012) und Anufriev und Tuinstra (2013) den Effekt der Einschr?nkung von Hebelgesch?ften und Leerverk?ufen. Der Einsatz von agentenbasierten Finanzmarktmodellen bringt im Vergleich zu konventionellen Analysemethoden eine Reihe von Vorteilen mit sich. Agentenbasierte Finanzmarktmodelle zeigen, wie bestimmte regulative Ma?nahmen die Dynamik von Finanzm?rkten beeinflussen k?nnen. Agentenbasierte Finanzmarktmodelle k?nnen benutzt werden, um neue regulative Ma?nahmen zun?chst im Computerlabor zu testen und daraufhin zu optimieren. Agentenbasierte Finanzmarktmodelle erlauben es, exogene St?rungen zu kontrollieren und somit extreme Ereignisse, wie z.B. schwere makro?konomische Krisen, in Form eines Stresstestes im Computerlabor zu generieren. Im Vergleich zu empirischen Studien k?nnen stets so viele Daten erzeugt werden, wie es die vorzunehmende statistische Auswertung erfordert, und diese Daten lassen sich genau messen. Dies ist besonders interessant, da die zu erreichenden Ziele einer regulativen Ma?nahme im Computerlabor genau definiert und deren Erreichung pr?zise überwacht werden k?nnen. Für einen aktuellen ?bersichtsartikel zu dieser Thematik siehe Westerhoff und Franke (2015).
Ein Manko vieler existierender agentenbasierter Finanzmarktmodelle ist jedoch, dass sie sich auf nur einen spekulativen Markt beziehen. Anders ausgedrückt: Marktinteraktionen spielen in den bisherigen Modellen kaum eine Rolle. Eine Ausnahme in diesem Bereich stellt das Modell von Schmitt und Westerhoff (2014) dar, in dem Interaktionen zwischen mehreren europ?ischen Aktienm?rkten untersucht wird. Mittels solch eines Modells l?sst sich beispielsweise erkl?ren, warum spekulative Blasen und/oder Phasen hoher Volatilit?t in der Regel auf mehreren M?rkten simultan entstehen. Dieci und Westerhoff (2010) entwickeln ein Modell, in dem die Aktienm?rkte zweier L?nder über den Devisenmarkt miteinander verbunden sind. Krisen in einem Land k?nnen in diesem Modell direkte Folgen für den Wechselkurs und den Aktienmarkt des anderen Landes haben. Eine weitere offene Flanke dieses Ansatzes ist, dass Wechselwirkungen zwischen Finanzm?rkten und Realwirtschaft in diesem theoretischen Rahmen bisher kaum untersucht worden sind. Zwei Ausnahmen, in denen Finanzm?rkte mit der Realwirtschaft verknüpft werden, stellen Proa?o (2011, 2012) und Westerhoff (2012) dar. In diesen Modellen kann untersucht werden, wie sich realwirtschaftliche Ver?nderungen auf die Finanzm?rkte übertragen und umgekehrt. Insgesamt ist leider zu konstatieren, dass es in dieser Richtung bisher nur sehr begrenzte Forschungsbemühungen gegeben hat. Die wenigen Ans?tze, die in diesem Bereich existieren, müssen dringend auf eine breitere Basis gestellt werden. Zudem ist es notwendig, weitere interagierende M?rkte, wie etwa den Immobilienmarkt, den Roh?lmarkt, oder Kreditm?rkte mit in die Analyse einzubeziehen.
Ein wichtiges Vorhaben im Rahmen des Promotionskollegs ist es, die soeben beschriebenen Erweiterungen zu adressieren.
b) Wirtschaftspolitisches Handeln unter beschr?nkter Rationalit?t
Der unterstellte Erwartungsbildungsprozess in einem Wirtschaftssystem ist nicht nur von zentraler Bedeutung für die Dynamik und Stabilit?t des Wirtschaftssystems (siehe z.B. Samuelson 1939), sondern bedingt in einer direkten Art und Weise die Wirkung und den Spielraum wirtschaftspolitischen Handelns. W?hrend die Wirtschaftspolitik unter adaptiven (zurückgewandten) Erwartungen über ?traditionelle makro?konomische Transmissionsmechanismen“ die Realwirtschaft beeinflusst, verl?uft dieser Effekt unter der Annahme von ?rationalen Erwartungen“ haupts?chlich über die Erwartungsbildung der Marktakteure. Folgerichtig ist die Hauptaufgabe der Wirtschafspolitik im letzteren Fall, den rationalen Erwartungsbildungsprozess durch deutliche und vorausschaubare Handlungen zu beeinflussen, um auf diesem Wege das Wirtschaftssystem zu einem bestimmten Gleichgewicht zu lenken (im technischen Jargon bedeutet dies, dass die Geldpolitik für die Determiniertheit eines bestimmten – und tats?chlich gewünschten – allgemeinen Gleichgewichts sorgt). Somit basiert die Effizienz und sogar die Angemessenheit wirtschaftspolitischer Handlungen auf einer extremen und in der Realit?t h?chst unwahrscheinlichen Situation in der a) alle Agenten das ?ganze Modell“ und seine Funktionsweise perfekt durchschauen, verstehen und dementsprechend ihre Erwartungen bilden, und b) der Staat den Erwartungsbildungsprozess der Agenten ebenfalls perfekt durchschaut, diesen versteht, um letztlich diese Kenntnisse bei seiner Lenkungsfunktion ausnutzen zu k?nnen.
Da es aber in keiner Weise gew?hrleistet ist, dass rationale – besser: modellkonsistente – Erwartungen tats?chlich endogen gebildet werden k?nnen, kann eine Diskrepanz zwischen dem wahren datengenerierenden Prozess, dem tats?chlichen Erwartungsbildungsprozess der Wirtschaftssubjekte und dem vom Staat angenommenen Erwartungsbildungsprozess der Agenten zu makro?konomischer Instabilit?t führen, wie die Learning Literatur gezeigt hat (siehe z.B. Bullard und Mitra 2002, Evans und Honkapohja 2003a, 2003b sowie jüngst, Bask und Proa?o 2012). Im Learning Ansatz von Evans und Honkapohja (2001) sind rationale Erwartungen nicht per Annahme der verwendete Erwartungsbildungsprozess der Agenten, sondern sie k?nnen das Ergebnis eines Lernprozesses sein, in dem die Agenten aus der beobachteten Dynamik des Wirtschaftssystems Informationen über den wahren datengenerierenden Prozess entziehen und somit ihre Erwartungsbildung modellkonsistenter machen, was ihnen im besten Fall – unter einer ad?quaten Führung der Wirtschaftspolitik – nach einer gewissen Zeit erlaubt, rationale Erwartungen zu bilden. Dies ist jedoch in keiner Weise immer garantiert, insbesondere dann nicht, wenn Handlungen des Staates und der Wirtschaftssubjekte nicht miteinander konsistent sind.
Vor diesem Hintergrund wollen wir im Rahmen dieses Promotionskollegs erforschen, wie das Design von geld- und fiskalpolitischen Regeln in einem solchen unsicheren makro?konomischen Rahmen ohne die zwingende Annahme von rationalen Erwartungen erfolgen soll. In dieser Hinsicht wollen wir sowohl schon vorhandene Arbeiten aus unserer eigenen Forschung (siehe Westerhoff 2006, Proa?o 2011, 2012, Bask and Proa?o 2012), sowie neuere Ans?tze weiterentwickeln, wie bspw. von De Grauwe (2011, 2012), insbesondere hinsichtlich des Designs wirtschaftspolitischer Regeln, die robust gegen alternative Erwartungsbildungsmechanismen sind.
c) Empirische Validierung/Sch?tzung behavioraler Makro- und Finanzmarktmodelle
Es gibt eine langanhaltende Debatte zur Rolle der Empirie in der Entwicklung makro?konomischer Theorien. Diese Debatte findet zwischen zwei Lagern statt: Das Lager, das das Primat der Theorie vertritt und der Empirie nur eine nachgeordnete Rolle zugesteht (?Theory First“) und das Lager, das die Empirie als Ausgangspunkt für die konstante Verbesserung vorhandener Theorierahmen (?Reality First“) ansieht (siehe Juselius, 2009 und Spanos, 2009).
Der ?Theory First“ Ansatz ist ma?geblich durch die Arbeit von Kydland und Prescott (1982) gepr?gt, die den Kalibrierungsansatz in die Makro?konomie eingeführt haben. Das Ziel des Kalibrierungsansatzes ist jedoch nicht, durch eine kongruente Repr?sentation der Daten eine empirisch-basierte Spezifikation theoretischer Modelle zu liefern, sondern vielmehr, die simulierten Eigenschaften eines theoretischen Modells entsprechend bestimmter Momente (Erwartungswerte, Varianzen und Kovarianzen) so nah wie m?glich an die empirischen Momente der analysierten Variablen zu bringen, ohne die tats?chliche Entwicklung dieser Variablen erkl?ren zu wollen. Diese Vorgehensweise steht in diametraler Beziehung zu dem ?Reality-First“ Ansatz, welcher haupts?chlich in Kontinentaleuropa weiterhin vertreten ist, siehe z. B. Hendry (1995), B?rdsen et al. (2005) und Juselius (2007). Nach dem ?Reality-First“ Ansatz ist die Beziehung zwischen Theorie und Empirie interaktiver Natur, mit der empirisch-?konometrischen Validierung als Mittel zur Weiterentwicklung theoretischer Modelle. Das Versagen der früheren makro?konometrischen Gro?modelle der 60er und 70er Jahre wird vom ?Reality-First“ Ansatz dadurch erkl?rt, dass damals den statistischen Eigenschaften der untersuchten Variablen nicht genügend Rechnung getragen wurde. Dementsprechend ist beim ?Reality-First“ Ansatz der Glaube an die konstruktive Rolle der Empirie ungebrochen, solange die statistischen Eigenschaften der untersuchten Variablen bei der empirischen Validierung eines theoretischen Rahmens angemessen behandelt werden.
Vor diesem Hintergrund ist die Arbeit aller drei am Promotionskolleg beteiligten Lehrstühle dem europ?ischen ?Reality-First“ Ansatz zuzuordnen, nicht nur, weil ihre Forschung eine stark empirische Motivation hat, sondern auch weil sie anhand verschiedener parametrischer und nicht-parametrischer ?konometrischer Methoden die empirische Validierung ihrer theoretischen Modelle vielfach unternommen haben (siehe z.B. Proa?o, 2009, 2011, 2012, Manzan und Westerhoff 2007, Franke und Westerhoff 2012). Im Rahmen des Promotionskollegs sollen gemeinsam diese methodologischen Ans?tze weiterentwickelt und verfeinert werden. Ein Beispiel dafür w?re eine systematische Zusammenfügung des Disequilibrium Macrodynamics Ansatzes (siehe z.B. Chiarella et al. 2005) mit dem Cointegrated VAR Ansatz (Juselius, 2007), welcher die Dynamik vieler Makrovariablen als das Ergebnis kurzfristiger Ungleichgewichtssituationen und deren graduelle Anpassung zu langfristigen Gleichgewichtsbeziehungen modelliert.
d) Statistisches Gleichgewicht: Aggregation, Verteilung und Industriedynamik
Obwohl die jeweilige funktionale Form ?konomischer Verteilungsgesetzm??igkeiten sowohl im Zeitablauf als auch im Querschnitt bemerkenswerte Stabilit?t und lediglich Variationen in den Parametern der jeweiligen Verteilungen aufweist, fristen diese Regularit?ten bzw. ihre Erkl?rungsans?tze ein relatives Schattendasein in der Volkswirtschaftslehre. Ein Hauptgrund hierfür liegt sicherlich in der Methodologie des repr?sentativen Agenten, weil ein solcher Ansatz Verteilungsfragen per Definition ausklammert – es macht wenig Sinn, die ?Verteilung“ über einen Einzelnen bzw. einige wenige repr?sentative Agenten zu betrachten. Erschwerend kommt hinzu, dass der repr?sentative Agent quasi in Personalunion alle Formen ?konomischen Einkommens in sich vereint und somit a priori (wenig bis gar) keinen Raum für Verteilungsk?mpfe im Sinne der klassischen ?konomik l?sst. Etwas sch?rfer k?nnte man sogar formulieren, dass das zentrale makro?konomische Problem der Aggregation durch die Annahme eines repr?sentativen Agenten bereits im Vorfeld negiert wird. Dabei hat die Allgemeine Gleichgewichtstheorie schon vor Jahrzehnten erkannt, dass Aggregation über heterogene Agenten hinweg mit erheblichen formalen Problemen belastet und nur in ?u?erst pathologischen F?llen zul?ssig ist (siehe hierzu die eingangs erw?hnten Arbeiten von Gorman, Mantel, Sonnenschein und Debreu).
Im Gegensatz hierzu besteht die Grundidee eines Statistischen Gleichgewichts darin, dass die Interaktion heterogener ?Teilchen“ (bspw. von Molekülen in der statistischen Physik, oder von Agenten in einer Volkswirtschaft) allein aufgrund kombinatorischer ?berlegungen zu statistischen Verteilungsgesetzm??igkeiten führt, die gr??tenteils unabh?ngig von den individuellen Charakteristika ebenjener Teilchen sind (siehe z.B. Jaynes, 1978; Foley, 1994). Formal findet sich das Konzept eines Statistischen Gleichgewichts bereits seit l?ngerem in ?konometrischen Lehrbüchern zur Zeitreihenanalyse (beginnend mit Box und Jenkins, 1976), wo es durch die Eigenschaften der Ergodizit?t und Stationarit?t von Zeitreihen definiert wird. Dahingegen betont die statistische Mechanik, dass in einem Statistischen Gleichgewicht die querschnittliche Verteilung eines Systems mit der l?ngsschnittlichen Verteilung individueller Zust?nde oder Schicksale identisch ist und die Parameter dieser Verteilung im Zeitablauf konstant bleiben. Aus makro?konomischer Sicht erscheint letztere Perspektive v.a. deshalb als methodologisch interessant, weil sie unsere Alltagserfahrungen einer gewissen makroskopischen Stabilit?t mit zum Teil deutlich fluktuierenden Einzelschicksalen ineinander vereinen kann.
Als illustratives Beispiel in einem ?konomischen Kontext mag hier die Einkommens- oder Verm?gensverteilung dienen: Die Grundausstattungen von Wirtschaftssubjekten, z.B. im Sinne ihrer ?Intelligenz“ oder ?F?higkeiten“, sind normalverteilt und besitzen somit eine charakteristische Skala (siehe z.B. Herrnstein und Murray, 1994), wohingegen die Verteilung des Einkommens oder Verm?gens einer leptokurtischen exponentiellen Form oder gar einem skalenfreien Potenzgesetz folgt (siehe z.B. Castaldi und Milakovic, 2007; Milakovic, 2003). Somit wird deutlich, dass die Interaktion von Agenten auf M?rkten oder durch Institutionen zu einer erheblich ungleicheren Verteilung führt, als dies auch nur ann?hrend in Anfangsausstattungen (oder Bildungserfolgen o.?.) der Fall ist bzw. sein kann. Daran anschlie?end stellt sich die immer noch unzureichend gekl?rte Frage, welche strukturellen Interaktionen, jenseits individueller Unterschiede, ma?geblich für die beobachteten Verteilungsgesetzm??igkeiten verantwortlich zeichnen? Erfreulicher Weise sind solche Fragen gerade wieder von aktuellem Interesse, insbesondere angesichts von Piketty’s (2013) einschl?gigem Beitrag zum ?Kapital im 21. Jahrhundert“, und sollen nicht zuletzt deshalb im Rahmen des vorgeschlagenen Promotionskollegs eindringlich erforscht werden.