Vorabversion von ,,Ökonometrie Praxis" von W.G. Müller & T. Url, 07.01.2009, Kap.3, Seite 1 3. Geld ,,Die Phönizier haben das Geld erfunden - aber warum so wenig?" Johann Nepomuk Nestroy ,,Money makes the world go around" hätte als fremdsprachiges geflügeltes Wort am Eingang zu diesem Kapitel auch gut gedient. Die Rolle des Geldes als zentrales Element einer Volkswirtschaft haben wir ja schon in Kapitel 1 an Hand einer Extremsituation beleuchtet. Selbstverständlich ist es mindestens ebenso interessant zu analysieren, welchen Gesetzmäßigkeiten die monetären Aspekte einer Ökonomie unter normalen Umständen unterliegen. Von nahezu historischem Interesse ­ in an der Entwicklung der Ökonometrie gemessenen Zeitbegriffen ­ sind dabei die Mechanismen der Generierung von Nachfrage nach Geld. Die Geldnachfragefunktion ist ein Eckpfeiler des IS-LM Modells. Die Reaktion des ganzen Modells auf wirtschaftspolitische Eingriffe hängt unter anderem von den Parametern der Geldnachfragefunktion ab. Mittlerweile ist es ein Gemeinplatz, dass die Geldnachfrage im Wesentlichen von zwei Faktoren bestimmt wird: einem Indikator für das Transaktionsvolumen in der Wirtschaft und einem Indikator für die Kosten der Geldhaltung. Je mehr Transaktionen in einer Wirtschaft abgewickelt werden, desto höher ist der Bedarf privater Haushalte und Unternehmen nach dem allgemeinen akzeptierten Transaktionsmittel Geld. Je höher die Kosten der Geldhaltung sind, desto geringer wird die Geldnachfrage sein, weil man durch Geldhaltung z. B. auf Zinserträge verzichtet. Nach der Veröffentlichung der General Theory von John M. Keynes (1936) entbrannte um diese Fragestellung eine heftige theoretische und empirische Auseinandersetzung, die sich vor allem darum drehte, ob die Geldnachfrage vom Zinssatz abhängt oder nicht, bzw. ob die Zinselastizität der Geldnachfrage hoch oder niedrig ist. Wenn die Zinselastizität der Geldnachfrage besonders hoch ist, ist die Geldpolitik tendenziell unwirksam. Wenn die Zinselastizität niedrig ist, ist sie tendenziell sehr wirksam (vgl. Blanchard, 2000, Kap. 5). Unser Beispiel für dieses Kapitel ist ein Modell für die Geldnachfragefunktion des Vereinigten Königreiches von Milton Friedman und Anna Schwartz (1982), das wegen der aufwendigen Dokumentation der Daten besonders aufschlussreich ist. Es ist die Fortsetzung einer Arbeit von Milton Friedman (1959) in der er folgerte, dass die Geldnachfrage nicht zinsabhängig ist. Welche Formen von Geld werden in der Geldnachfragefunktion eigentlich berücksichtigt? Unter Geldnachfrage versteht man im Allgemeinen nicht nur die Nachfrage nach Münzen und Banknoten, sondern auch die auf Girokonten gehaltenen Beträge. Die Summe aus diesen drei Kategorien von Geld bezeichnet man als M1. Vorabversion von ,,Ökonometrie Praxis" von W.G. Müller & T. Url, 07.01.2009, Kap.3, Seite 2 In englischsprachigen Texten wird dies oft auch als high powered money bezeichnet. Wenn man alle Sparguthaben ­ also alle Einlagen auf Sparbüchern hinzurechnet, gelangt man zum Geldmengenaggregat M2. Das am häufigsten verwendete Geldmengenaggregat ist M3. Es beinhaltet alle Komponenten von M2 und zusätzlich die Termineinlagen. Das sind zeitlich befristet Bankeinlagen, üblicherweise mit höherer Verzinsung. Die Europäische Zentralbank rechnet in die Geldmenge M3 auch die in Geldmarktfonds veranlagten Mittel, weil sie gleichzeitig verzinst sind und ein hohes Ausmaß an Liquidität aufweisen. Die Wachstumsrate von M3 ist eine Zielgröße der Europäischen Zentralbank. In der geldpolitischen Strategie ist dieser Referenzwert in die 2. Säule der europäischen Geldpolitik integriert (European Central Bank, 2004). Warum gibt es eigentlich so viele unterschiedliche Geldmengenkonzepte? Im Prinzip wegen der möglichen Substitutionsbeziehung zwischen den einzelnen Komponenten der Geldmenge: Je größer die Substitutionsbeziehung zwischen den Einzelkomponenten der Geldmenge ist, desto umfassender muss die Definition der Geldmenge erfolgen. Diese Substitutionsbeziehung ändert sich auch über die Zeit: teilweise wegen technischer Neuerungen und teilweise als Reaktion auf geldpolitische Maßnahmen. Die Entwicklung und Nutzung von Geldmarktfonds ist ein Beispiel für eine technische Neuerung. In Kombination mit elektronischen Bankkonten (Online Banking) wird der Transfer zwischen unterschiedlichen Veranlagungsformen immer leichter und schneller. Damit ist ein rascher und kostengünstiger Umstieg von Geld zu einer verzinsten Veranlagung, bei gleichzeitig hoher Liquidität, möglich. Neue Technologien erzeugen also neue Substitutionsmöglichkeiten und erschweren einer Zentralbank mit einem Geldmengenziel die Definition der für die Preisentwicklung relevanten Geldmenge? Stimmt, und das bringt mich auf die zweite Erklärung für die Vielfalt an Geldmengendefinitionen. In den Jahren 1974-1979 verfolgte die LabourRegierung im Vereinigten Königreich ein Geldmengenziel. Charles Goodhart (1984) formulierte aus dieser Erfahrung das nach ihm benannte Goodhart's Law. Es besagt, dass wann immer eine Regierung oder eine Nationalbank eine statistische Regelmäßigkeit für Kontrollzwecke benützen möchte und zur Erreichung des wirtschaftspolitischen Zieles Druck ausübt, diese Regelmäßigkeit zusammenbricht. Maßnahmen zur Erreichung des Geldmengenzieles, veranlassen die davon betroffenen Wirtschaftssubjekte zur Suche nach Umgehungsmöglichkeiten. In diesem Sinn ist Goodhart's Law eine Version der Lucas Kritik und zeigt, dass zur Schätzung einer Geldnachfragefunktion sowohl das Angebot als auch die Nachfrage am Geldmarkt berücksichtigt werden müssen. Die simultane Beziehung zwischen Geldmenge und Bruttoinlandsprodukt kann Identifikationsprobleme bereiten. Zusätzlich können geänderte institutionelle Rahmenbedingungen ­ wie etwa die Liberalisierung des Kapitalverkehrs oder Vorabversion von ,,Ökonometrie Praxis" von W.G. Müller & T. Url, 07.01.2009, Kap.3, Seite 3 eine Änderung des Wechelkursregimes ­ die Geldnachfrage beeinflussen. Laidler (1985) gibt einen sehr guten Überblick der praktischen Probleme in der Schätzung von Geldnachfragefunktionen. Wenn schon der Indikator für die Geldnachfrage umstritten ist, gibt es wenigstens Einigkeit über die Indikatoren für das Transaktionsvolumen oder die Opportunitätskosten? Üblicherweise nimmt man das reale Bruttoinlandsprodukt als Indikator für das Transaktionsvolumen. Das entspricht zwar nicht dem tatsächlichen Transaktionsbedarf ­ das wären die schwer messbaren nominellen Umsätze der Unternehmen bzw. der privaten und öffentlichen Haushalte ­ aber die Umsätze sollten in der Regel proportional zum Bruttoinlandsprodukt sein. Dass dieses Verhältnis nicht immer konstant ist, zeigt das hohe Wachstum der Geldmenge in der Europäischen Währungsunion und den USA während des Rückgangs der Börsenkurse zwischen 2000 und Mitte 2003. Private Haushalte und Investmentfonds bauten in dieser Periode ihre Geldhaltung aus, um das hohe Risiko von Kursverlusten auf den Aktienmärkten zu vermeiden. In diesem Fall kann der Bestand an Finanzvermögen ein besserer Indikator für den Transaktionsbedarf sein. Was den Zinssatz betrifft, muss man zwischen direkten und indirekten Kosten der Geldhaltung unterscheiden. Die direkten Kosten bestehen aus der Möglichkeit eines Verlustes und z. B. Buchungsgebühren bei Abhebungen. Vereinfachend werden sie meistens vernachlässigt und Null gesetzt. Die indirekten Kosten beziehen sich auf Opportunitätskosten der Geldhaltung in Form entgangener Zinsen. Da jede Komponente der Geldmenge andere Opportunitätskosten hat (Zinsen auf Girokonten, Sparbücher usw.), kann diese Frage eigentlich nur gemeinsam für alle Komponenten gelöst werden. Im ISLM-Modell wird vereinfachend angenommen, dass es nur zwei mögliche Veranlagungsformen gibt. Entweder halten die Wirtschaftssubjekte Geld und verzichten damit auf eine Verzinsung oder sie veranlagen ihr Vermögen in einer Einheitsanleihe zu einem einheitlichen Zinssatz. In der Realität gibt es allerdings viele sich mehr oder weniger stark hinsichtlich Liquidität und Verzinsung unterscheidende Veranlagungsformen. Friedman und Schwartz haben immer ein sehr weit gefasstes Verständnis alternativer Veranlagungsformen; es reicht von Bargeld bis zur Veranlagung in physische Vermögenswerte. Eigentlich sollten in der Geldnachfragefunktion die erwarteten ex ante Zinssätze einbezogen sein. Weil die aber schwer zu berechnen sind, werden oft die ex post beobachteten Zinssätze und Inflationsraten eingesetzt. In unserem Beispiel untersuchen Milton Friedman und Anna Schwartz (1982) den Zusammenhang zwischen Geldnachfrage, Einkommen, Preisen und Zinssätzen für das Vereinigte Königreich. Mit Jahreswerten von 1868 bis 1975 erreichen sie eine in der Ökonometrie unübliche Stichprobengröße von mehr als einem Jahrhundert. Ihr theoretischer Ausgangspunkt ist die folgende individuelle Nachfragefunktion nach Geld Vorabversion von ,,Ökonometrie Praxis" von W.G. Müller & T. Url, 07.01.2009, Kap.3, Seite 4 M/P = f(Y, w; E(rM), E(rB), E(rE), e ; u). Die reale Geldnachfrage M/P eines Wirtschaftssubjektes hängt vom realen Einkommen Y, dem Anteil w dieses Einkommens, das aus Vermögenserträgen entsteht, und dem erwarteten nominellen Zinssatz auf geldnahe Anlagen rM, sowie den nominellen Renditen auf festverzinsliche Anleihen rB und Aktien rE, wobei die Ertragsraten auf Anleihen und Aktien die erwarteten Preis- bzw. Kursänderungen beider Anlageformen beinhalten. Die erwartete Inflationsrate e dient zur Ermittlung von ex ante Realzinssätzen. Das letzte Element in der Geldnachfragefunktion u beschreibt alle Variablen, die den Nutzen von Geld beeinflussen können, z. B. die Dichte von automatischen Geldausgabeautomaten. Die abhängige Variable ist in diesem Modell die reale Geldmenge. Dadurch wird implizit angenommen, dass Preisänderungen nur eine Veränderung der Zähleinheit darstellen. Die nominelle Geldnachfrage sollte also auf eine Preissteigerung von 10% mit einem Anstieg von 10% reagieren. Damit bleibt die reale Geldnachfrage von Preisänderungen unabhängig. Technisch wird damit die direkte Preiselastizität der Geldnachfrage auf Eins gesetzt, bzw. die Geldnachfrage ist homogen vom Grad Eins in Bezug auf das Preisniveau. Eine für Monetaristen typische Annahme, die eigentlich nur langfristig gilt, aber von Friedman und Schwartz getestet und nicht abgelehnt wird. Friedman und Schwartz schätzen eine aggregierte Geldnachfrage für die Gesamtwirtschaft. Wie kommen sie von der individuellen Geldnachfragefunktion zur gesamtwirtschaftlichen? Sie verwenden anstelle individueller Werte die reale Geldmenge und das Bruttoinlandsprodukt und normieren diese Größen auf die Bevölkerung. Dadurch erreichen sie eine Funktion für die Realkasse und das Realeinkommen in Pro-Kopf-Werten, die sie in einer herkömmlichen Regression verwenden. Diese Vereinfachung unterstellt, dass Geld und Einkommen gleichmäßig über die Bevölkerung verteilt sind, bzw. dass man Verteilungseffekte vernachlässigen kann. Friedman und Schwartz (1982) wollen die langfristige Beziehung zwischen Geld, Einkommen und Zinssätzen untersuchen und bereinigen die Daten daher von zyklischen Schwankungen. Die kurzfristigen Schwankungen innerhalb eines Konjunkturzyklus können in einem langfristigen Vergleich der Daten starke Verzerrungen bewirken, wenn die erste und die letzte Beobachtung der Stichprobe aus einer anderen Phase des Konjunkturzyklus stammen. Friedman und Schwartz folgen in der Bereinigung einer damals im National Bureau of Economic Research (NBER) beliebten Methode. Sie nehmen die Beginn- und Endpunkte aller Konjunkturzyklen zwischen 1868 und 1975 und bilden aus den Beobachtungen jeder Aufschwung- bzw. jeder Abschwungphase jeweils einen Durchschnittswert. Dadurch verkleinert sich die Anzahl der Beobachtungen von 108 Jahreswerten auf 38 und letztendlich 36 brauchbare Phasenwerte. Vorabversion von ,,Ökonometrie Praxis" von W.G. Müller & T. Url, 07.01.2009, Kap.3, Seite 5 Die Daten stehen aus diesem Grund auch nur als ,,irreguläre" Zeitreihen in Eviews zur Verfügung, die entsprechenden Phasenmittelpunkte sind in der Variable t dokumentiert. Obwohl die Datendokumentation schon in Friedman und Schwartz ausgezeichnet ist sämtliche, auch transformierte Reihen sind abgedruckt ­ verwenden wir in diesem Kapitel den von Ericsson et al. (1998) aus den Originaljahresdaten rekonstruierten und von David Hendry freundlicherweise zur Verfügung gestellten Datensatz. Die von Friedman und Schwartz (1982) erzielten Ergebnisse lassen sich damit qualitativ richtig wiedergeben, kleinere Abweichungen sind laut Ericsson et al. (1998) vor allem auf Rundungsfehler zurückzuführen. Weil Ericsson et al. die Zeitreihen noch bis ins Jahr 1993 (Beobachtungszahl 44) verlängert haben, muss zu Beginn der Analyse der Zeitbereich (sample) auf 1 - 36 gesetzt werden. Im Einklang mit ihrer theoretischen Geldnachfragefunktion verwenden Friedman und Schwartz den Logarithmus der realen pro Kopf Geldmenge als abhängige Variable. Als Indikator für das Transaktionsvolumen verwenden sie das reale pro Kopf Einkommen Yc, ebenfalls in Logarithmen. Die Kosten der Geldhaltung messen sie als Unterschied zwischen hypothetischen direkten Kosten der Geldhaltung und den Opportunitätskosten in Form des kurzfristigen Zinssatzes. Dieser Unterschied misst die Grenzkosten für das Halten einer zusätzlichen Geldeinheit und wird mit RN bezeichnet. Da sie keinen großen Einfluss des Anleihezinssatzes auf die Geldnachfrage feststellen konnten, verzichten sie auf diesen Indikator. Die Breite der Substitutionsmöglichkeiten im monetaristischen Verständnis zeigt sich in der Berücksichtigung von Aktienerträgen in der Geldnachfragefunktion. Sie sollen alternative Veranlagungsformen in Form von Investitionen in physische Anlagen oder langfristige Konsumgüter in die Analyse integrieren. Weil die Ertragskennziffern börsennotierter Unternehmen einen viel zu engen Kreis von Anlagemöglichkeiten beschreiben, verwenden sie die Wachstumsrate gY des nominellen Einkommens. Sie soll den nominellen Ertrag auf physische Vermögensanlagen für die Gesamtwirtschaft abbilden. 3.1 Multiple Regression Sehen wir uns doch zunächst die Zeitreihenplots dieser vier Kenngrößen an. Hierbei darf in EViews nicht einfach die Line_Plot Option gewählt werden, da ja die Zeitabstände zwischen den Beobachtungen unregelmäßig sind. Abhilfe schafft die Definition einer Gruppe mit t (den Phasenmitteln) als erster Variable und danach ein Plot mittels View Multiple_Graphs ­ XY_line. Vorabversion von ,,Ökonometrie Praxis" von W.G. Müller & T. Url, 07.01.2009, Kap.3, Seite 6 Es ist naturgemäß schwierig daraus bereits Zusammenhänge zu erkennen, vor allem auch deshalb weil die Reihen trendbehaftet erscheinen. Einen besseren Überblick sollte uns eine Reihe von Streudiagrammen liefern. Am Interessantesten sind für uns ist sicher jene zwischen dem Regressanden und den einzelnen Regressoren. In EViews gibt es zwar die Möglichkeit aus einer vorher definierten Gruppe mittels View_Multiple-Graphs-Scatter-First_series_against_all eine einzelne Zeitreihe in einer Reihe von Streudiagrammen gegen mehrere andere zu plotten, dabei wird aber die betreffende Zeitreihe auf der horizontalen Achse aufgetragen. Da es sich in unserem Fall ja um den Regressanden handelt, entspräche dies nicht der Konvention und vertrauten Sichtweise. Es bleibt uns also nichts anderes übrig, als die Streudiagramme einzeln zu erzeugen und dann wie folgt nebeneinander zu stellen. 3.4 3.6 3.8 4.0 4.2 4.4 4.6 1860 1880 1900 1920 1940 1960 1980 phase midpoints log_m:logrealpercapitademandformoney 4.0 4.2 4.4 4.6 4.8 5.0 5.2 1860 1880 1900 1920 1940 1960 1980 phase midpoints log_y:logrealpercapitaincome .000 .004 .008 .012 .016 .020 .024 1860 1880 1900 1920 1940 1960 1980 phase midpoints rn:differentialyieldonnominalvalueassets -.10 -.05 .00 .05 .10 .15 1860 1880 1900 1920 1940 1960 1980 phase midpoints gy:rateofchangeofnominalincome Vorabversion von ,,Ökonometrie Praxis" von W.G. Müller & T. Url, 07.01.2009, Kap.3, Seite 7 3.0 3.5 4.0 4.5 5.0 5.5 4.0 4.5 5.0 5.5 6.0 log_y: log real per capita income log_m:logrealpercapitademandformoney 3.0 3.5 4.0 4.5 5.0 5.5 0.00 0.01 0.02 0.03 rn : differential yield on nominal value assets log_m:logrealpercapitademandformoney 3.0 3.5 4.0 4.5 5.0 5.5 -0.1 0.0 0.1 0.2 gy: rate of change of nominal income log_m:logrealpercapitademandformoney In dieser Sichtweise erwecken alle drei Regressoren den Eindruck sie wären mit dem Regressanden mehr oder weniger stark verbunden (am wenigsten sicherlich RN, am stärksten wohl LOG_Y). Wir wissen nun schon, dass wir die Einzelzusammenhänge mittels einfacher Regressionen analysieren können. Es ergeben sich die Outputs: Dependent Variable: LOG_M Method: Least Squares Sample: 1 36 Included observations: 36 Variable Coefficient Std. Error t-Statistic Prob. C 0.362372 0.371001 0.976743 0.3356 LOG_Y 0.801767 0.080932 9.906715 0.0000 R-squared 0.742703 Mean dependent var 4.028569 Adjusted R-squared 0.735135 S.D. dependent var 0.305842 S.E. of regression 0.157402 Akaike info criterion -0.806079 Sum squared resid 0.842360 Schwarz criterion -0.718106 Log likelihood 16.50942 F-statistic 98.14301 Durbin-Watson stat 0.205516 Prob(F-statistic) 0.000000 Dependent Variable: LOG_M Method: Least Squares Sample: 1 36 Included observations: 36 Variable Coefficient Std. Error t-Statistic Prob. C 4.002880 0.112355 35.62709 0.0000 RN 2.834092 11.00699 0.257481 0.7984 R-squared 0.001946 Mean dependent var 4.028569 Adjusted R-squared -0.027408 S.D. dependent var 0.305842 S.E. of regression 0.310005 Akaike info criterion 0.549497 Sum squared resid 3.267510 Schwarz criterion 0.637471 Log likelihood -7.890954 F-statistic 0.066297 Durbin-Watson stat 0.063624 Prob(F-statistic) 0.798359 Vorabversion von ,,Ökonometrie Praxis" von W.G. Müller & T. Url, 07.01.2009, Kap.3, Seite 8 Dependent Variable: LOG_M Method: Least Squares Sample: 1 36 Included observations: 36 Variable Coefficient Std. Error t-Statistic Prob. C 3.909157 0.063412 61.64683 0.0000 GY 2.853887 1.025829 2.782031 0.0088 R-squared 0.185428 Mean dependent var 4.028569 Adjusted R-squared 0.161470 S.D. dependent var 0.305842 S.E. of regression 0.280064 Akaike info criterion 0.346353 Sum squared resid 2.666813 Schwarz criterion 0.434327 Log likelihood -4.234359 F-statistic 7.739699 Durbin-Watson stat 0.156595 Prob(F-statistic) 0.008750 Diese Regressionen bestätigen die theoretisch erwarteten Beziehungen nur teilweise. Die Schätzgleichung mit Yc als erklärender Variable hat das höchste Bestimmtheitsmaß und der entsprechende Koeffizient ist statistisch signifikant. Letzteres trifft auch für die Gleichung mit gY zu, nicht aber für jene mit RN. Direkte Kosten der Geldhaltung und kurzfristige Opportunitätskosten haben keinen signifikanten Einfluss auf die reale Geldnachfrage. Dieses Ergebnis verleitet zur Vermutung, dass eine Spezifikation mit Transaktionsvolumen und Ertragsraten auf Veranlagungen in physische Vermögensgegenstände das bestmögliche Modell ist, also log(M/Pc) = 0 + 1 log(Yc) + 2 gY + , womit im Raum steht, dass nur die Substitutionsbeziehung zwischen Geldmenge und physischen Veranlagungen praktisch relevant sind; eine doch etwas unerwartete Schlussfolgerung. Ja, diese Schlussfolgerung ist unplausibel, dies kann jedoch in Modellen mit mehr als einem Regressor, so genannten multiplen Regressionsmodellen, durchaus auftreten. Um zu verstehen, warum dies so ist, müssen wir zuerst überlegen, wie wir im obigen Fall zu vernünftigen Schätzern kommen. Nun, das sollte kein Problem sein, da wir ja die Kleinst-Quadrate Lösung ohnehin schon in einer allgemeinen Matrixform dargestellt haben. Ganz genau, wir setzen also im allgemeinen Regressionsmodell ={0,1,2}' und X={, log(Yc), gY}, sowie y = log(M/Pc) ein und erhalten den gewünschten Schätzer wieder mit ^ = (X'X)-1 X'y. Dabei haben wir nun geometrisch statt einer Geraden an eine zweidimensionale Punktwolke eine Ebene an eine dreidimensionale Punktwolke angepasst. Die Parameterschätzer ^ 1 und ^ 2 sind deshalb auch nicht als (marginale) Steigung der individuellen Geraden zu interpretieren sondern als (bedingte) Steigung für den Fall, dass die jeweils andere Einflussgröße einen konstanten Wert annimmt. Genau darum aber sind Vorabversion von ,,Ökonometrie Praxis" von W.G. Müller & T. Url, 07.01.2009, Kap.3, Seite 9 diese Schätzer im Allgemeinen von einander abhängig und es ist nicht klar, dass die Kombinationen von individuell ,,guten" oder ,,schlechten" Regressoren auch insgesamt ,,gute" oder ,,schlechte" Modelle ergeben. Im vorliegenden Fall ergibt sich für die multiple Regression mit LOG_Y und GY als Regressoren der Output: Dependent Variable: LOG_M Method: Least Squares Sample: 1 36 Included observations: 36 Variable Coefficient Std. Error t-Statistic Prob. C 0.161671 0.437417 0.369604 0.7140 LOG_Y 0.851301 0.099034 8.596079 0.0000 GY -0.616611 0.705491 -0.874017 0.3884 R-squared 0.748524 Mean dependent var 4.028569 Adjusted R-squared 0.733283 S.D. dependent var 0.305842 S.E. of regression 0.157951 Akaike info criterion -0.773408 Sum squared resid 0.823301 Schwarz criterion -0.641448 Log likelihood 16.92135 F-statistic 49.11271 Durbin-Watson stat 0.224265 Prob(F-statistic) 0.000000 Die den Koeffizienten zugeordneten Kenngrößen sind genau wie im Fall der Einfachregression interpretierbar, das heißt in dieser Spezifikation hat die Wachstumsrate gY keinen statistisch signifikanten Einfluss (zusätzlich zu dem vom Einkommen log(Yc) generierten). Der in der Einzelgleichung festgestellte Effekt von gY wurde also von log(Yc) sozusagen überlagert. Algebraisch lässt sich diese Möglichkeit im Zwei-Regressoren-Modell leicht zeigen. Es folgt zum Beispiel aus = X0,1^ 0,1 + x2^ 2 sofort X0,1' = X0,1' X0,1^ 0,1 + X0,1'x2^ 2 und daraus ^ 0,1 = 0,1 - ( X0,1' X0,1)-1 X0,1'x2^ 2 . Hierbei steht 0,1 für den Schätzer aus der Einfachregression und die Abweichung verschwindet (bei geeigneter Skalierung) entweder, wenn die Regressoren unkorreliert sind (x1'x2 = 0) oder wenn der zweite Regressor keinen Einfluss hat (^ 2=0). Das bedeutet also, dass auch die Beziehungen der Regressoren untereinander die Schätzergebnisse wesentlich beeinflussen. Deshalb macht es auch Sinn, die Scatterplots der Regressoren untereinander in die explorative Analyse einzubeziehen. In unserer Anwendung ergeben sich die Plots Vorabversion von ,,Ökonometrie Praxis" von W.G. Müller & T. Url, 07.01.2009, Kap.3, Seite 10 -0.10 -0.05 0.00 0.05 0.10 0.15 4.0 4.5 5.0 5.5 log_y: log real per capita income gy:rateofchangeofnominalincome 0.000 0.005 0.010 0.015 0.020 0.025 -0.10 -0.05 0.00 0.05 0.10 0.15 gy : rate of change of nominal income rn:differentialyieldonnominalvalueassets 4.0 4.5 5.0 5.5 0.000 0.005 0.010 0.015 0.020 0.025 rn : differential yield on nominal value assets log_y:logrealpercapitaincome aus denen ganz klar positive Beziehungen zwischen den Regressoren zu erkennen sind. Am besten ist es wohl, gleich zu Beginn, sämtliche in die Analyse ein zu beziehende Variablen paarweise gegeneinander zu plotten. Dies lässt sich übersichtlich in einer Matrixform zusammenstellen und wird in EVIEWs überdies nach dem Definieren einer Gruppe automatisch durch den Befehl View ­ Multiple Graphs ­ Scatter ­ Matrix of all pairs (SCATMAT) erzeugt. 3.4 3.6 3.8 4.0 4.2 4.4 4.6 log_m:logrealpercapitademandformoney 4.0 4.2 4.4 4.6 4.8 5.0 5.2 log_y:logrealpercapitaincome .000 .004 .008 .012 .016 .020 .024 rn:differentialyieldonnominalvalueassets -.10 -.05 .00 .05 .10 .15 3.4 3.6 3.8 4.0 4.2 4.4 4.6 log_m : log real per capita demand for money gy:rateofchangeofnominalincome 4.0 4.2 4.4 4.6 4.8 5.0 5.2 log_y : log real per capita income .000 .005 .010 .015 .020 .025 rn : differential yield on nominal value assets -.1 .0 .1 .2 gy : rate of change of nominal income Vorabversion von ,,Ökonometrie Praxis" von W.G. Müller & T. Url, 07.01.2009, Kap.3, Seite 11 Für die Analyse hilft uns dies nun aber nur beschränkt weiter, wir wollen ja herausfinden, welche von den Regressoren wir zur Erklärung von log(M/Pc) heranziehen sollen und auf welche wir verzichten können. Bis jetzt wissen wir nur, dass wir aufgrund der Beziehungen der Regressoren untereinander bei der Bewertung ihrer Relevanz vorsichtig sein müssen. Gibt es auch grafische Verfahren, die es uns ermöglichen darüber hinaus noch Rückschlüsse zu ziehen und ein ,,gutes" Modell zu finden? 3.2 Added Variable Plots Zu diesem Zweck gibt es mehrere Verfahren, von denen die von Cook & Weisberg (1982) eingeführten, so genannten Added Variable Plots (A-V-P's) am meisten verbreitet sind. Sie geben den partiellen Einfluss eines einzelnen Regressors auf den Regressanden wieder und lassen sich in einfacher Weise motivieren. Dazu ist es wieder nützlich, den Regressor ,,unter Beobachtung" herauszuheben und das lineare Modell in der Form y = X0,10,1 + x22 + darzustellen. Der Schätzer für den ,,interessanten" Parameter lässt sich nun als ^ 2 = [x2'(I-H0,1)x2]-1 x2'(I-H0,1)^0,1 schreiben, also als Koeffizienten der Regression (ohne Interzept) der Residuen ^0,1=(I-H0,1)y aus der Regression von y auf X0,1 auf die Residuen (I-H0,1)x2 der Regression von x2 auf X0,1 (H0,1 bezeichnet hier die dem Modell mit Interzept und Regressor x1 zugeordnete ,,Hat"-matrix). Diese Darstellung ergibt sich aus y = X0,1^ 0,1 + x2^ 2 + ^ durch Vormultiplizieren mit x2'(IH0,1) wegen der Orthogonalität von Regressoren und Residuen (also sowohl x2'^ als auch X0,1'^ = 0); also vorerst x2'(I-H0,1)y = x2'(I-H0,1)x2^ 2 und wegen der Idempotenz von (I-H0,1) auch wie oben. Man bemerke, dass man hier nicht auf das Zwei-Variablen Modell beschränkt ist, da sich X0,1 durch jede beliebige mehrspaltige Matrix ersetzen lässt. Die obige Form bietet somit also die in Kapitel 1 erwähnte Verallgemeinerung des auf den Fall x2=t bezogenen Resultats von Frisch und Waugh (1933). Als Kandidat für einen partiellen Residualplot ergibt sich also ein Streudiagramm der Residuen (I-H0,1)y, also des um den Erklärungsanteil von X0,1 bereinigten Regressanden, gegen die Residuen (I-H0,1)x2, also des ,,Erklärungsrestes" im hinzugefügten (added) Regressor x2. Aus diesem Grund werden diese Streudiagramme eben A-V-P's genannt. In den meisten Softwarepaketen (so auch in EViews) müssen die Regressionen leider einzeln durchgeführt und danach die entsprechenden Residuen gegeneinander geplottet werden. Im konkreten Fall regressiert man zur Eliminierung des Einflusses von log(Yc) dies gegen log(M/Pc) und gegen gY. Die resultierenden Residuen wurden mit RESIDM_Y und RESIDGY_Y bezeichnet. Analoges kann man für gY machen. Vorabversion von ,,Ökonometrie Praxis" von W.G. Müller & T. Url, 07.01.2009, Kap.3, Seite 12 Aus den Resultaten ist nun, wie zuvor schon festgestellt wurde, deutlich ersichtlich, dass der partielle Einfluss von gY auf log(M/Pc) kaum vorhanden ist, während umgekehrt jener von log(Yc) auf log(M/Pc) besonders stark ausgeprägt ist. Das ist aus der diffusen Punktewolke im linken Bild und der fast diagonalen Anordnung im rechten Bild erkennbar. Könnte es also sein, dass wegen der Beziehungen zwischen den Regressoren die bereits als nichtsignifikant ausgeschiedene Variable RN doch ins Modell aufgenommen werden müsste? Dies lässt sich durch Hinzunahme von RN zur multiplen Regression leicht überprüfen. Dort ergibt sich nämlich: Dependent Variable: LOG_M Method: Least Squares Sample: 1 36 Included observations: 36 Variable Coefficient Std. Error t-Statistic Prob. C -0.625109 0.281156 -2.223351 0.0334 GY -1.137629 0.428107 -2.657347 0.0122 LOG_Y 1.086674 0.066687 16.29503 0.0000 RN -29.53291 3.816182 -7.738863 0.0000 R-squared 0.912425 Mean dependent var 4.028569 Adjusted R-squared 0.904215 S.D. dependent var 0.305842 S.E. of regression 0.094655 Akaike info criterion -1.772709 Sum squared resid 0.286709 Schwarz criterion -1.596762 Log likelihood 35.90876 F-statistic 111.1344 Durbin-Watson stat 0.488062 Prob(F-statistic) 0.000000 also der gegenteilige Effekt zu gY, der partielle Einfluss von RN ist sehr wohl signifikant. Eine schöne Übersicht würde hier selbstverständlich wieder eine Aufstellung der A-V-P's bieten. -.3 -.2 -.1 .0 .1 .2 .3 .4 -.2 -.1 .0 .1 .2 RESIDGY_Y RESIDM_Y -.6 -.4 -.2 .0 .2 .4 .6 -.6 -.4 -.2 .0 .2 .4 .6 RESIDY_GY RESIDM_GY Vorabversion von ,,Ökonometrie Praxis" von W.G. Müller & T. Url, 07.01.2009, Kap.3, Seite 13 3.3 Der F-Test Es könnte doch nun allerdings ­ eben wegen der Korreliertheit der Regressoren ­ auch vorkommen, dass t-Tests für individuelle Koeffizienten (Variable) aus einer Gruppe signifikante bzw. nicht signifikante Resultate liefern, während man, wenn man den Einfluss der Kombination aller Koeffizienten berücksichtigt, zum gegenteiligen Ergebnis kommt. In seltenen Fällen kann dies geschehen. Deshalb benötigen wir Testverfahren zum Überprüfen von Hypothesen der Form i= ...= j= 0, also unter gleichzeitiger Auslassung mehrerer potenzieller Einflussfaktoren. Dies leisten so genannte F-Statistiken, die in ihrer allgemeinsten Form F = (SSRR-SSR)/SSR (T-k-1)/g geschrieben werden können. Die Abkürzung SSR steht hier für die Residuenquadratsumme (sum of squared residuals) unter dem allgemeineren Modell, SSRR für jene unter dem eingeschränkten (restricted) Modell, bei dem die betreffenden Regressoren weggelassen wurden. Der Wert k bezeichnet die Gesamtzahl der Regressoren (ohne Interzept), der Wert g die Zahl der (Null)Restriktionen (weggelassenen Regressoren). Unter der Normalverteilungsannahme und der Nullhypothese folgen diese Zufallsgrößen einer F-verteilung, die durch die Parameter g und T-k-1, die so genannten Freiheitsgrade, bestimmt ist, aus der sich durch Transformation wieder die bereits bekannten p-Werte bestimmen lassen. Übrigens ist die obige F-Statistik bereits so allgemein formuliert, dass sie auch für andere (lineare) Restriktionen als nur einfache Nullrestriktionen anwendbar ist. Wenn wir also in unserem konkreten Beispiel überprüfen wollen ob gY und RN gemeinsam einen in Bezug auf Yc zusätzlichen signifikanten Erlärungsbeitrag für M/Pc liefern, müssen die Residuenquadratsumme unserer ersten Schätzung 0.842 mit der unserer letzten Schätzung 0.287 verglichen werden. Wir erhalten einen F-Wert von (0.842-0.287)/0.28732/2 30, welcher einem p-Wert nahe bei 0 entspricht; die Hypothese, dass beide Regressoren nicht signifikant sind, muss also abgelehnt werden. In EViews lässt sich dieser p-Wert direkt durch Eingabe von scalar p=1-@cfdist( (eq02.@ssr - eq01.@ssr) /eq01.@ssr*32/2,2,32) in der Kommandozeile generieren, nachdem zunächst die beiden Modellgleichungen unter eq01 und eq02 gespeichert wurden. Generell lassen sich in EViews mittels der Funktionen @c?(Wert,Freiheitsgrade) die Verteilungsfunktionen verschiedener Verteilungen bestimmen. Vorabversion von ,,Ökonometrie Praxis" von W.G. Müller & T. Url, 07.01.2009, Kap.3, Seite 14 Der Befehl show p (oder Anklicken des Objekts) führt dann zur Anzeige des Wertes links unten. Diese Testtechnik müsste aber auch anwendbar sein, um zu überprüfen, ob alle Regressoren in einem Modell nicht signifikant sind, oder? Dies ist ein wichtiger Spezialfall, bei dem SSRR durch eine Residuenquadratsumme aus einem Nur-Interzept Modell gegeben ist. Dies wird üblicherweise als totale Residuenquadratsumme SST (sum of squares total) bezeichnet, und kann mit Var(y)T bestimmt werden. Wir verwenden zur Berechnung von SST die Funktionen @var(.) und @obs(.) und erhalten hier also scalar sst=@var(log_m)*@obs(log_m). Dieser Test wird oft als Overall-Test bezeichnet und die zugehörige Testgröße findet man in den Standardoutputs unter F-statistic mit dem zugehörigen p-Wert unter Prob(F-statistic). Diese F-Werte stehen in enger Beziehung zu den Bestimmtheitsmaßen. Es gilt ja die Quadratsummenzerlegung SST = SSR + SSE (sum of squares explained). Aus der Definition von R2 = SSE/SST = SSE/(SSE+SSR) ergibt sich 1-R2 = (SSE+SSR)/(SSE+SSR) SSE/(SSE+SSR) = SSR/(SSE+SSR), also R2 /(1-R2 ) = SSE/SSR. Wegen F = SSE/SSR (T-k-1)/k gilt deshalb auch F = R2 /(1-R2 ) (T-k-1)/k. 3.4 Gewichtete (verallgemeinerte) Kleinst-Quadrate-Schätzung Lass uns zu unseren Added-Variable-Plots zurückkommen. Wir haben schon angesprochen, dass die verwendeten Daten keinen einheitlichen Erhebungszeiträumen entsprechen, sondern Durchschnittswerten über einzelne Vorabversion von ,,Ökonometrie Praxis" von W.G. Müller & T. Url, 07.01.2009, Kap.3, Seite 15 Konjunkturzyklen entsprechen. Sollten wird diese Tatsache bei der Interpretation unserer Plots nicht auch in Betracht ziehen? Das ist ein ganz wichtiger Punkt, denn die Herkunft und das Konstruktionsprinzip der Daten hat nicht nur für die explorative, grafische Analyse Bedeutung, sondern wirkt sich auch bezüglich der verwendeten schließenden Verfahren, also der Schätz- und Testmethoden entscheidend aus. Wie wir aus der elementaren Statistik wissen (vgl. Hackl und Katzenbeisser, 1994) ist unter der Annahme statistisch unabhängiger Messungen xi mit gleicher Varianz, die Varianz eines Durchschnitts stets umgekehrt proportional zur Anzahl der Jahre n, über die dieser Durchschnitt gebildet wird, also Var(n xi/n) = nVar(xi)/n2 . Für unsere Zyklusphasen bedeutet dies also, dass ­ für Ursprungsmessungen von ähnlicher ,,Genauigkeit" ­ die verwendeten Durchschnittsdaten sozusagen unterschiedliche Genauigkeiten (weniger oder mehr Variabilität) aufweisen. Diese Genauigkeit verhält sich in etwa proportional zur Dauer eines Konjunkturzyklus. Man nennt diese Eigenschaft der Daten ganz generell Heteroskedastizität. Sie lässt sich an Hand der von Friedman und Schwartz zur Verfügung gestellten Information noch expliziter machen. Es wird dort nämlich ausgeführt, dass bei der Erstellung der Phasenmittel, die erste und letzte Beobachtung jeder Phase nur mit halbem Gewicht berücksichtigt wurde, weshalb sich für die entsprechende Varianz ein Proportionalitätsfaktor von (2ni-1)/2ni 2 ergibt. Aus der Definition xi = (xi,1/2 + j=2,ni xi,j + xi,ni+1/2)/ni ergibt sich für die Varianz: Var(xi) = (Var(xi)/4 + j=2,ni Var(xi) + Var(xi)/4)/ni 2 = (ni-1/2) Var(xi)/ni 2 = (2ni-1)/2ni 2 Var(xi). Wenn man also die Phasendurchschnitte standardisiert, kann man mit der Analyse wie bisher fortfahren. Dazu muss man nur alle Beobachtungen durch die Standardabweichung dividieren, das heißt durch die Wurzel des Proportionalitätsfaktors (2ni-1)/2ni 2 . Zu diesem Zweck konstruiert man sich in unserem Workfile am besten diesen Standardisierungsfaktor als neue Reihe mit dem Befehl series V0=@sqrt((2*dur-1)/(2*dur^2)), wobei die Variable dur die Phasendauern ni beinhält. Danach müssen alle Variablen, sowohl Regressand als auch Regressoren inklusive der Konstante standardisiert werden. Man kann dies direkt bei der Spezifikation der Gleichung durchführen. Als Resultat der Schätzung erhält man nun den korrigierten Output: Vorabversion von ,,Ökonometrie Praxis" von W.G. Müller & T. Url, 07.01.2009, Kap.3, Seite 16 Dependent Variable: LOG_M/V0 Method: Least Squares Sample: 1 36 Included observations: 36 Variable Coefficient Std. Error t-Statistic Prob. 1/V0 -0.763842 0.281027 -2.718039 0.0105 LOG_Y/V0 1.114142 0.066509 16.75166 0.0000 RN/V0 -30.05410 3.790253 -7.929312 0.0000 GY/V0 -0.996446 0.470155 -2.119399 0.0419 R-squared 0.987624 Mean dependent var 7.333740 Adjusted R-squared 0.986464 S.D. dependent var 1.530226 S.E. of regression 0.178032 Akaike info criterion -0.509268 Sum squared resid 1.014252 Schwarz criterion -0.333322 Log likelihood 13.16683 F-statistic 851.2442 Durbin-Watson stat 0.673531 Prob(F-statistic) 0.000000 Diese Vorgangsweise ist völlig äquivalent zur so genannten gewichteten Kleinst-Quadrate Schätzung mit Gewichten vt, in der die Zielgrösse t vt(yt ­ t)2 minimiert wird (der Sonderfall v1=...=vT führt uns zurück zur gewöhnlichen Kleinst-Quadrateschätzung). Um dies deutlich zu machen schreiben wir in einem linearen Regressionsmodell die Varianz(Kovarianz)matrix Var(y|X)=Var()=2 V, wobei V hier eine Diagonalmatrix mit den (positiven) Einträgen v1,...,vT bezeichnet.Wir suchen nun eine Matrixzerlegung der Form L'L=V-1 damit LVL'=IT und aus dem transformierten Modell Ly=LX+L der KleinstQuadrate Schätzer ^ GLS =(X'L'LX)-1 X'L'Ly gebildet wird, was dem besten linearen unverzerrten Schätzer aus dem gewichteten Kleinst-Quadrate Problem (siehe Greene, 2000) entspricht. Für eine Diagonalmatrix V enthält die Zerlegung L gerade die Kehrwerte der Quadratwurzeln also 1/v1,...,1/vT in der Diagonale, was der Division aller Variablen durch diese Kehrwerte entspricht. Bemerke, dass der Schätzer ^ GLS =(X' V-1 X)-1 X' V-1 y für jedes auch nicht diagonale ­ positiv definite V definiert ist. Man spricht in diesem Fall von verallgemeinerter Kleinst Quadrate Schätzung (generalized least squares ­ GLS). Der gewichtete KleinstQuadrate Schätzer ist in EViews auch einfacher zu erhalten. Bei der Spezifikation der zu schätzenden Gleichung muss zunächst die Schaltfläche Options angeklickt werden, anschließend wird in neben stehendem Panel die Option Weighted LS/TSLS markiert und im darunter liegenden Feld der Name oder die Funktion der Gewichtungsvariable, hier also 1/V0 angegeben. Vorabversion von ,,Ökonometrie Praxis" von W.G. Müller & T. Url, 07.01.2009, Kap.3, Seite 17 Der resultierende Output gibt neben den Kenngrößen aus der transformierten Regression zum Vergleich auch die der untransformierten Regression an: Dependent Variable: LOG_M Method: Least Squares Sample: 1 36 Included observations: 36 Weighting 1/V0 Variable Coefficient Std. Error t-Statistic Prob. C -0.763842 0.281027 -2.718039 0.0105 LOG_Y 1.114142 0.066509 16.75166 0.0000 RN -30.05410 3.790253 -7.929312 0.0000 GY -0.996446 0.470155 -2.119399 0.0419 Weighted Statistics R-squared 0.987624 Mean dependent var 4.017565 Adjusted R-squared 0.986464 S.D. dependent var 0.838288 S.E. of regression 0.097529 Akaike info criterion -1.712888 Sum squared resid 0.304383 Schwarz criterion -1.536941 Log likelihood 34.83198 F-statistic 851.2442 Durbin-Watson stat 0.673531 Prob(F-statistic) 0.000000 Unweighted Statistics R-squared 0.909011 Mean dependent var 4.028569 Adjusted R-squared 0.900481 S.D. dependent var 0.305842 S.E. of regression 0.096483 Sum squared resid 0.297886 Durbin-Watson stat 0.470633 Man sollte hier beachten, dass EViews leider die der ungewichteten Schätzung entsprechenden Residuen in das Objekt RESID speichert! Für den Fall, dass nichts über die Struktur der Heteroskedastie bekannt ist, kann nach wie vor der auch hier noch erwartungstreue OLS Schätzer verwendet werden. Allerdings liefert er verzerrte Standardfehler (in der Regel nach oben), da ja nun Var( ^ OLS|X) = 2 (X'X)-1 X' VX(X'X)-1 2 (X'X)-1 ist. Abhilfe schafft hier die Heteroskedastiekorrektur von White (1980), der einfach die Diagonale von V durch die Quadrate der standardisierten OLS-Residuen, also V ^ tt = T^t 2 /^t 2 , abschätzt. Die entstandenen Standardfehler werden oft als robust bezeichnet. Vorabversion von ,,Ökonometrie Praxis" von W.G. Müller & T. Url, 07.01.2009, Kap.3, Seite 18 In EViews lässt sich dies wieder über das Menü Estimation Options regeln. Hierzu muss Heteroskedasticity und dann White markiert werden. Die zugehörige Schätzung liefert aber im vorliegenden Fall nur geringfügige Korrekturen: Dependent Variable: LOG_M Method: Least Squares Sample: 1 36 Included observations: 36 White Heteroskedasticity-Consistent Standard Errors & Covariance Variable Coefficient Std. Error t-Statistic Prob. C -0.625109 0.264925 -2.359572 0.0246 LOG_Y 1.086674 0.064017 16.97467 0.0000 RN -29.53291 3.589260 -8.228133 0.0000 GY -1.137629 0.396766 -2.867253 0.0073 R-squared 0.912425 Mean dependent var 4.028569 Adjusted R-squared 0.904215 S.D. dependent var 0.305842 S.E. of regression 0.094655 Akaike info criterion -1.772709 Sum squared resid 0.286709 Schwarz criterion -1.596762 Log likelihood 35.90876 F-statistic 111.1344 Durbin-Watson stat 0.488062 Prob(F-statistic) 0.000000 Falls gar nicht bekannt ist, ob in einem spezifischen Fall Heteroskedastizität vorliegt, lässt sich dies mit einem auch von White (1980) vorgeschlagenen Test überprüfen. Auch der beruht auf der Idee, dass die quadrierten OLS Residuen die Heteroskedastie reflektieren und diese sich recht unspezifisch als Polynom (zweiten Grades) in den Regressoren manifestieren. Man führt also die zusätzliche Regression ^t 2 = 0 + 1x1t + ... + mxmt + m+1x1t 2 + ... + 2mxmt 2 + 2m+1xt1xt2 + ... + t durch und überprüft die Hypothese anschließend mittels Overall F-Test. Vorabversion von ,,Ökonometrie Praxis" von W.G. Müller & T. Url, 07.01.2009, Kap.3, Seite 19 Eviews bietet uns hier direkt zwei Möglichkeiten, nämlich einmal mit, das andere mal ohne Einbeziehung von Wechselwirkungen. Man wählt dazu nach erfolgter Schätzung einfach aus dem Menu View-Residual Tests zum Beispiel White Heteroskedasticity (no cross terms) und erhält dann sofort nachstehenden Output. White Heteroskedasticity Test: F-statistic 0.847128 Probability 0.544445 Obs*R-squared 5.368684 Probability 0.497468 Test Equation: Dependent Variable: RESID^2 Method: Least Squares Sample: 1 36 Included observations: 36 White Heteroskedasticity-Consistent Standard Errors & Covariance Variable Coefficient Std. Error t-Statistic Prob. C -0.455250 0.275624 -1.651708 0.1094 LOG_Y 0.200017 0.125852 1.589304 0.1228 LOG_Y^2 -0.021608 0.014289 -1.512241 0.1413 RN 0.836425 1.389004 0.602176 0.5517 RN^2 -39.31663 73.61233 -0.534104 0.5973 GY 0.012665 0.027326 0.463475 0.6465 GY^2 -0.350086 0.193145 -1.812558 0.0803 R-squared 0.149130 Mean dependent var 0.007964 Adjusted R-squared -0.026912 S.D. dependent var 0.007417 S.E. of regression 0.007516 Akaike info criterion -6.770767 Sum squared resid 0.001638 Schwarz criterion -6.462860 Log likelihood 128.8738 F-statistic 0.847128 Durbin-Watson stat 1.696422 Prob(F-statistic) 0.544445 In vorliegendem Fall ergibt sich (trotz gegenteiligen Wissens) kein Hinweis auf Heteroskedastie, was nicht weiter verwunderlich ist, da die entscheidende Größe ­ die Dauer der Zyklusphasen ­ in der Regression nicht aufscheint. 3.5 Dummy Variable Friedman und Schwartz untersuchen die Beziehung zwischen realer Pro-Kopf Geldmenge und dem realen Pro-Kopf Einkommen sehr eingehend und bemerken drei Phasen mit ungewöhnlichen Abweichungen von der ansonsten konstanten Einkommenselastizität der Geldnachfrage. Im Vereinigten Königreich fallen ihnen die 1920er Jahre und die Zeit jeweils nach den beiden Weltkriegen durch außergewöhnlich hohe Geldnachfrage auf. Sie schreiben die Abweichung in den 1920er Jahren den Auswirkungen der Weltwirtschaftskrise zu. Im Vereinigten Königreich begann die Wirtschaftskrise bereits zu Beginn der 1920er Jahre und endete 1932 etwas früher als in den USA und im restlichen Europa. In dieser Periode kam es zu Vorabversion von ,,Ökonometrie Praxis" von W.G. Müller & T. Url, 07.01.2009, Kap.3, Seite 20 Deflation, d. h. zu einem fallenden Preisniveau, sodass selbst Bargeldhaltung einen positiven Ertrag hatte. Bei fallenden Preisen entsteht dieser Ertrag durch Aufschieben der Konsumentscheidung in die Zukunft. Kennen wir dieses Phänomen nicht auch heute noch? Elektronische Geräte, wie z. B. PCs, machen nach der Neueinführung doch regelmäßig eine Phase mit starkem Preisrückgang durch. Ja, die Ertragsrate aus der Verschiebung des Kaufes in die Zukunft entspricht genau dem prozentuellen Preisrückgang. Zusätzlich zum positiven Ertrag der Geldhaltung erwähnen Friedman und Schwartz die hohe Unsicherheit durch Arbeitslosigkeit und Bankenzusammenbrüche, die ebenfalls zu gesteigerter Bargeldnachfrage führte. Die Periode während und nach den beiden Weltkriegen fällt auch durch höhere Geldnachfrage auf. Erhöhte Unsicherheit in Kriegszeiten und das kleinere Angebot an Waren während des Krieges und danach belebten die Geldnachfrage. Jeweils die ersten drei Konjunkturphasen nach dem I. und II. Weltkrieg unterscheiden sich von den anderen Phasen. Als nahe liegendste Lösung fällt mir ein, das Modell über diese Perioden separat zu schätzen, was allerdings zu erheblichen Verlusten in den Freiheitsgraden führt. Es gibt allerdings ein Instrument mit dem wir zeitlich begrenzte Abweichungen vom Normalzustand in einer Regressionsgleichung berücksichtigen können ohne die Schätzer in den unterschiedlichen Perioden vollständig von einander zu trennen: die so genannte Dummy Variable. Als solches werden in der Mathematik ja üblicherweise Größen genannt, die nur während eines Kalkulationsvorgangs vorübergehend verwendet werden und im Ergebnis nicht mehr aufscheinen, daher der ursprünglich von ,,dumb" abgeleitete Name. Die Bedeutung in der Ökonometrie ist etwas anders. Hier bezeichnet Dummy eine einfach strukturierte, üblicherweise binäre, Variable zur Unterscheidung beziehungsweise Modellierung von Unterscheidungen. Im einfachsten Fall ­ zur Differenzierung zweier unterschiedlicher Perioden, so genannter Regime ­ weist die Dummy Variable die Werte 0 (für die Referenzperiode) und 1 (sonst) auf. Im Fall von Friedman und Schwartz wird also eine Größe St mit den Eigenschaften S1=...=S15=0, S16=...=S28=1, S29=...=S36=0 eingeführt, wobei die mit dem Wert 1 ausgeflaggten Daten den Perioden 1923-1954 entsprechen. Wenn nun eine einfache Verschiebung der Geldnachfrage in dieser Periode modelliert werden soll, muss die Schätzgleichung einfach um die Variable S ergänzt werden (vorerst mal ungewichtet): Vorabversion von ,,Ökonometrie Praxis" von W.G. Müller & T. Url, 07.01.2009, Kap.3, Seite 21 Dependent Variable: LOG_M Method: Least Squares Sample: 1 36 Included observations: 36 Variable Coefficient Std. Error t-Statistic Prob. C -0.121560 0.188028 -0.646497 0.5227 LOG_Y 0.924542 0.047119 19.62137 0.0000 RN -14.74058 3.134206 -4.703130 0.0001 GY -0.371056 0.286295 -1.296060 0.2045 S 0.198453 0.027521 7.210842 0.0000 R-squared 0.967290 Mean dependent var 4.028569 Adjusted R-squared 0.963069 S.D. dependent var 0.305842 S.E. of regression 0.058775 Akaike info criterion -2.701961 Sum squared resid 0.107089 Schwarz criterion -2.482028 Log likelihood 53.63531 F-statistic 229.1804 Durbin-Watson stat 1.249423 Prob(F-statistic) 0.000000 Der der Dummy zugeordnete Koeffizient bezeichnet nun den Unterschied im Interzept zwischen der Referenz- und der Restperiode, es gab also laut obiger Gleichung zwischen 1923 und 1954 eine deutlich erhöhte Geldnachfrage, was sich ­ wegen der logarithmischen Natur des Modells ­ siehe Kennedy, 1981 in einer durchschnittlichen Steigerung um etwa 100×[exp(^ 4) ­ 1] 22% niederschlägt. Obiges ergibt sich wenn der relative Effekt der Dummy über [y(St=1)-y(St=0)]/y(St=0) bestimmt wird. Kennedy, 1981 weist allerdings darauf hin, dass eine bessere Abschätzung des Effekts durch 100×[exp(^ 4 -^{^ 4}/2) ­ 1] erzielt wird, was hier allerdings keinen wesentlichen Unterschied macht. Letztendlich verwenden Friedman und Schwartz noch eine zweite Dummy Variable W, nämlich zur Modellierung zweier Anpassungsperioden in den Nachkriegsjahren. Es ergibt sich damit ­ nach korrekter Gewichtung - auch das von Ericsson et al. in deren Gleichung (6) replizierte Modell: Dependent Variable: LOG_M Method: Least Squares Sample: 1 36 Included observations: 36 Weighting series: 1/V0 Variable Coefficient Std. Error t-Statistic Prob. C 0.021083 0.193736 0.108825 0.9141 LOG_Y 0.882881 0.048982 18.02473 0.0000 RN -11.21374 3.285429 -3.413172 0.0019 W 0.013782 0.005821 2.367800 0.0245 S 0.205901 0.027388 7.517951 0.0000 GY -0.212149 0.291022 -0.728979 0.4717 Vorabversion von ,,Ökonometrie Praxis" von W.G. Müller & T. Url, 07.01.2009, Kap.3, Seite 22 Weighted Statistics R-squared 0.996072 Mean dependent var 4.017565 Adjusted R-squared 0.995417 S.D. dependent var 0.838288 S.E. of regression 0.056751 Akaike info criterion -2.749292 Sum squared resid 0.096619 Schwarz criterion -2.485372 Log likelihood 55.48726 F-statistic 1521.371 Durbin-Watson stat 1.503403 Prob(F-statistic) 0.000000 Unweighted Statistics R-squared 0.966056 Mean dependent var 4.028569 Adjusted R-squared 0.960399 S.D. dependent var 0.305842 S.E. of regression 0.060863 Sum squared resid 0.111128 Durbin-Watson stat 1.325585 Jetzt wo wir die Phasenlänge und abweichende Teilperioden in die Gleichung eingearbeitet haben, können wir einen näheren Blick auf die Ergebnisse werfen und zu einer Interpretation schreiten. Erstens, wir konnten eine Geldnachfragefunktion mit hohem Erklärungswert identifizieren. Zweitens alle Koeffizienten haben das erwartete Vorzeichen. Die Einkommenselastizität der Geldnachfrage ist positiv, während die Opportunitätskosten der Geldhaltung die Geldnachfrage senken. Mit 0,88 ist der Koeffizient des logarithmierten Pro-Kopf-Einkommens etwas kleiner als Eins. Weil beide Größen logarithmiert sind, ist dieser Wert als eine Elastizität zu interpretieren. Sie zeigt an, dass eine Steigerung des Realeinkommens um 1% mit einer Erhöhung der realen Geldnachfrage um etwa 0,9% einhergeht. Ein Wert in der Nähe von 1% erscheint plausibel, wenn man davon ausgeht, dass ein höheres Einkommensniveau mit mehr Transaktionen verbunden ist. Ein Wert kleiner als 1% kann durch eine mit der Einkommenssteigerung verbundene Weiterentwicklung von Finanzdienstleistungen erklärt werden. In diesem Fall wirkt das Realeinkommen als ein dynamischer Indikator für den technischen Fortschritt in den Finanzdienstleistungen einer Wirtschaft. Die Maßeinheiten für die Opportunitätskosten sind Prozentpunkte. Daher ist der betreffende Koeffizient ein semilogarithmischer Parameter mit etwas anderer Interpretation. Diese Wahl der Maßeinheit garantiert, dass eine Zinsänderung von einem halben Prozentpunkt dieselbe prozentuelle Wirkung auf die reale Geldnachfrage erzeugt, unabhängig davon, ob der Zinssatz ursprünglich 5% oder 10% beträgt. Es wird also unterstellt, dass die absolute Veränderung des Zinssatzes die relevante ökonomische Größe ist und nicht die relative Veränderung. Ein halber Prozentpunkt entspricht 10% des ursprünglichen Zinsniveaus, wenn im Ausgangszeitpunkt der Zinssatz 5% beträgt, aber nur 5% des ursprünglichen Zinsniveaus, wenn er im Ausgangszeitpunkt 10% beträgt. Zinssätze werden üblicherweise in Prozentpunkten (z. B. 5.0) oder in mathematischen Prozent (z. B. 0.05) ausgedrückt. Vorabversion von ,,Ökonometrie Praxis" von W.G. Müller & T. Url, 07.01.2009, Kap.3, Seite 23 Die Reaktion der Geldmenge auf Zinsänderungen wird damit allerdings von der Einheit abhängig, in der der Zinssatz gemessen wird. Das sieht man ganz deutlich am Unterschied zwischen den Koeffizienten für die kurzfristigen Opportunitätskosten RN und dem Ertrag auf physische Veranlagungen gY. Obwohl der Koeffizient für gY um einen Faktor 100 kleiner ist als der für RN, wirkt eine Änderung des Alternativertrags um einen halben Prozentpunkt doppelt so stark auf die reale Geldnachfrage wie eine gleich große Änderung der kurzfristigen Opportunitätskosten. Der einfache Grund ist der unterschiedliche Maßstab. Im Unterschied zu den Originalergebnissen von Friedman und Schwartz (1982) ist der Koeffizient für physische Veranlagungen mit den rekonstruierten Daten von Ericsson et al. (1998) nicht mehr signifikant. Die Ergebnisse und Schlussfolgerungen von Friedman und Schwartz haben David Hendry und Neil Ericsson (1991) dazu veranlasst, die alten Berechnungen nachzuvollziehen. Sie zeigen einige Mängel dieser Schätzgleichung auf, die an dieser Stelle nicht aufgegriffen werden. Hier erscheint jedoch wichtig, dass sie eine der zentralen Schlussfolgerungen von Friedman und Schwartz widerlegen: sie können keine über die Zeit stabile Geldnachfragefunktion identifizieren. Wie schon erwähnt ist eine stabile Geldnachfragefunktion Grundlage für jede Geldpolitik, die ein Geldmengenziel verfolgt. Weiters finden Hendry und Ericsson Hinweise auf Geldillusion im Vereinigten Königreich. Die Preiselastizität der Geldnachfrage kann also nicht per Annahme auf 1 gesetzt werden, sondern sollte durch eine eigene Preisvariable als Regressor berücksichtigt werden. Friedman und Schwartz (1991) geben eine interessante Replik auf diese Vorwürfe. Vorabversion von ,,Ökonometrie Praxis" von W.G. Müller & T. Url, 07.01.2009, Kap.3, Seite 24 Übungsaufgaben * Erstellen Sie A-V-P's für alle relevanten Regressorvarianten im korrekt gewichteten Modell und interpretieren Sie sie. * Ericsson et al. (1998) haben die Schätzungen auf einer erweiterten Datenbasis bis 1993 erneut durchgeführt. Replizieren Sie deren Ergebnisse (phase-average daten) und diskutieren Sie die Unterschiede zur vorherigen Schätzung. * Führen Sie dafür einen Goldfeld-Quandt Test auf Heteroskedastie durch. * Welche Schwierigkeiten geben sich beim Vergleich gewichteter KleinstQuadrate Regressionen? Vorabversion von ,,Ökonometrie Praxis" von W.G. Müller & T. Url, 07.01.2009, Kap.3, Seite 25 Literaturhinweise Cook, R. D., and Weisberg S. (1982), Residuals and Influence in Regression, London : Chapman and Hall. Ericsson, N.R., Hendry, D.F., Prestwich, K.M., "Friedman and Schwartz (1982) revisited: Assessing annual and phase-average models of money demand in the United Kingdom", Empirical Economics, 23, 401-415, 1998. Friedman, M., ,,The Demand for Money ­ Some Theoretical and Empirical Results", Journal of Political Economy, 67, 327-351, 1959. Friedman, M., Schwartz, A.J., ,,Monetary Trends in the United States and the United Kingdom", University of Chicago Press, Chicago, 1982. Friedman, M., Schwartz, A., ,,An Alternative Approach to Analyzing Economic Data", American Economic Review, 81, 39-49, 1991. Frisch, R. und Waugh, F. ,,Partial time regressions as compared with individual trends", Econometrica, 45, 939-953, 1933. Goldfeld, S.M. und Quandt, R.E., ,,Some Tests for Homoskedasticity". Journal of the American Statistical Association, 60, 539-547, 1965. Goodhart, C., ,,Monetary Theory and Practice", Macmillan, Basingstoke, 1984. Hendry, D.F., Ericsson, N.R., "An econometric analysis of U.K. money demand in `Monetary Trends in the United States and the United Kingdom´ by Milton Friedman and Anna J. Schwartz", American Economic Review, 81, 8-38, 1991. Kennedy, P., "Estimation with Correctly Interpreted Dummy Variables in Semilogarithmic Equations", American Economic Review, Vol. 71, 1981, p. 801. Keynes, J.M., ,,The General Theory of Employment Interest and Money", 1936, reprinted MacMillan, London, 1973. Laidler, D., ,,The Demand for Money", Harper & Row, New York, 1985. White, H. (1980), A Heteroscedasticity-Consistent Covariance Matrix Estimator and a Direct Test for Heteroscedasticity. Econometrica 48, 817-838.