Zeitreihen - von der Momentenmethode zur Praxis

Mit Update III von Santiago setzen wir bei den stationären Zeitreihen konsequent auf die Momentenmethode zur Schätzung der Parameter. Theoretisch ist dieses Verfahren der Maximum Likelihood Methode unterlegen, aber folgend erklären wir unsere Beweggründe und zeigen im Anschluss, wie dies praktisch umgesetzt ist.


Um es vorweg zu sagen: die Maximum Likelihood Methode (MLE – englisches Akronym für maximum likelihood estimation) ist das ultimative Verfahren zur Bestimmung der Schätzer eines statistischen Modells, hier vorliegend einer Zeitreihe. Kaum ein Buch oder ein Artikel, welches nicht auf dieses Verfahren zurückgreift. Daher mag es überraschen, dass wir bei MC FLO nicht darauf setzen. Dies hat zwei Gründe.


Der erste Grund ist technischer Natur. Das Einbauen von MLE setzt eine erhebliche Anpassung unserer Programmbibliothek voraus. So müssten für jede mögliche Realisierung (sowohl in Bezug auf Zeitreihen als auch den implementierten Verteilungen) eine entsprechende Zielfunktion im Quellcode sowie umfangreiche Matrizenoperationen hinterlegt werden, um möglichst rasch zu einem Ergebnis zu kommen. Dies hätte jedoch unweigerlich zu einem Aufblähen der mit MC FLO gelieferten Daten geführt und unserer Philosophie widersprochen, Monte Carlo Simulationen so einfach wie möglich zu gestalten, sowohl im Hinblick auf die Handhabung als auch des Programmes an sich. Kein anderes Monte-Carlo Simulationsprogramm für Excel mit der Fülle an Funktionen wie MC FLO kommt so schlank daher. Und ja, auch wir müssten über die Bücher und die eine und andere Methode vertieft anschauen.


Der zweite Grund hat philosophische Beweggründe. Bei allem was wir von Simulationen wissen, ist die Erkenntnis, dass auch wir die Zukunft nicht vorhersagen können. Daher macht es unseres Erachtens keinen Sinn, wenn wir bis ins Detail die Vergangenheit erforschen. Oder auch anders ausgedrückt: mit dem Blick in den Rückspiegel werden Sie beim Autofahren nur bei einem Rundkurs die nächste Kurve vorhersehen können. Unseres Erachtens ist es daher viel wichtiger, dass wesentliche Zusammenhänge bei der Beurteilung, wie sich die Zukunft verhalten kann, einfliessen. Hierzu reichen einfachere Schätzverfahren -wie die Momentenmethode- vollkommen aus. 

 

Mit der Abbildung von AR(1), MA(1), ARMA(1,1) und dem ARCH(1) Prozess stellen wir eine beschränkte aber doch mächtige Anzahl an Zeitreihenmodellen zur Verfügung. Vervollständigt wird dies mit dem Wiener Prozess oder auch der geometrisch brownschen Bewegung, welcher im Gegensatz zu den vorher genannten die Stationaritätsbedingung nicht erfüllen muss. Andere Schätzmethoden, wie die exponentielle Glättung oder das Holt-Winters Modell zur Abbildung von saisonalen Effekten lassen sich ohne grosses Zutun direkt in Excel umsetzen. 


Ohne wieder auf komplizierte mathematische Formeln einzugehen, wollen wir dies anhand eines praktischen Beispiels direkt und mit Excel erläutern:

Wir unterstellen eine Zeitreihe, die einem AR(1) Prozess folgt mit Startwert 3, einem Gewicht der Vorperiode von 0.3 und einer Zufallskomponente mit Mittelwert 0 und Standardabweichung 1.

 

In einem ersten Schritt sind die Zufallszahlen zu ermitteln (Spalte B). Hierzu wurde durchgängig die Formel „=NORM.INV(ZUFALLSZAHL();0;1)“ benutzt. Da es sich hierbei um eine volatile Funktion handelt, die bei einer Anpassung in Excel zu einer Neuberechnung führt, haben wir die Werte anschliessend in die Spalte B kopiert. In Spalte C ist gemäss Spezifikation die Zeitreihe abgebildet.  Das Resultat als Zeitreihe und Graphik sehen Sie folgend (als blaue Linie mit der Bezeichnung Original).

Zeitreihenanalyse - das AR Modell

Zusätzlich wurde eine lineare Regressionsgerade in Excel abgebildet (schwarze Linie). Wie unschwer zu erkennen ist, verläuft die Steigung der Gerade nahezu flach, was als Indiz einer stationären Zeitreihe aufgefasst werden kann. Vereinfacht gesprochen und für die weitere Diskussion als hinreichend angenommen, ist eine Zeitreihe dann stationär, wenn der Mittelwert über die Zeit invariant ist. In Spalte D haben wir die Mittelwerte von jeweils sechs Beobachtungen genommen. Auch wenn diese leicht schwanken, kann kein Trend festgestellt werden. Die ermittelten Mittelwerte sinken oder steigen nicht kontinuierlich im Zeitablauf. Die leichte Steigung ist der geringen Anzahl Datenpunkte geschuldet. Je mehr Datenpunkte zur Verfügung stehen und die Mittelwerte über mehrere Perioden hinweg ermittelt werden, desto eher nähern sich diese dem Mittelwert des gesamten Zeitprozesses an (und je flacher würde dann auch die Regressionsgerade resultieren).


Nun möchten wir den umgekehrten Weg gehen. Gehen wir davon aus, dass uns die in Spalte C dargestellte Zeitreihe präsentiert wurde und wir die Aufgabe haben, diesem einem AR(1) oder MA(1) Prozess zuzuordnen und darauf folgend die entsprechenden Parameter zu bestimmen. Von einem MA(1) Prozess ist bekannt, dass die Kovarianz zweiter Ordnung theoretisch Null beträgt. Bei einem AR(1) Prozess fällt hingegen die Kovarianz absolut betrachtet mit erster Ordnung langsam ab und erreicht irgendwann (nach n-Ordnungen) auch hier den Wert von Null.


Zur Bestimmung eines geeigneten Prozesses sind daher in einem ersten Schritt die Kovarianzen erster und zweiter Ordnung zu bilden, welche wir in Spalte L und M dargestellt haben. Die Kovarianz erster Ordnung beträgt 0.37, die der zweiten Ordnung 0.16. In Zeile L17 wird anhand eines einfachen Vergleichs daher der AR(1) dem MA(1) Prozess vorgezogen. Da der AR(1) Prozess ausgewählt wurde, sind als nächste Schritte das Gewicht und die Standardabweichung zu bestimmen. Bei einem AR(1) Prozess entspricht das Gewicht der „Autokorrelation“ erster Ordnung, welches aus dem Verhältnis der Kovarianz erster Ordnung zur Varianz des Zeitprozesses hergeleitet wird. Dies als auch die Formel für die Standardabweichung haben wir in den Zellen S8 und S9 abgebildet. Gemäss der Momentmethode beträgt das Gewicht 0.42 und die Standardabweichung 0.85.

 

Der Vergleich zum unterstellten Prozess mit Gewicht von 0.3 und Standardabweichung von 1 zeigt auf, dass die Unterschiede durchaus markant sind. Wir sollten uns bei der Abweichung trotzdem vergewissern, dass Zeitreihenprozesse dem Zufall unterworfen sind und daher die ermittelte Abweichung generell keine Aussage zur Qualität zum Schätzer zum Ausdruck bringt.


In folgender Graphik haben wir die in Spalte B ermittelten Zufallszahlen (auch weisses Rauschen genannt) dargestellt, welche wir bei der Herleitung der Schätzparameter nicht kennen. Unter Zugrundelegung einer neuen Zufallsreihe (weisses Rauschen) und unter Berücksichtigung der gewählten Schätzer für den historischen Zeitverlauf kann  - ohne andere Anpassungen – eine gänzlich andere Realisierung erfolgen (siehe Spalte G), welche aber dem Zeitprozess vollauf genügt (in obiger und zu besseren Darstellung in unterer Graphik als "Schätzer" dargestellt).

Für viele Entscheidungsträger ist eine von der historischen Entwicklung divergierende Zeitreihe oftmals nicht als korrekte Schätzung nachvollziehbar. Intuitiv wird erwartet, dass die geschätzte Zeitreihe für vergangene Daten mit der historischen Entwicklung annähernd deckungsgleich ist oder wie bei den deterministischen Verfahren zumindest dessen Verlauf folgen kann. Die dargestellte geschätzte Zeitreihe der Spalte G weist zwischen den Datenpunkten 12 und 15 hingegen eine komplett andere Realisierung als die Originaldatenreihe auf. Auf den ersten Blick erscheint daher die exponentielle Glättung mit Ordnung von 0.3 (die Herleitung der exponentiellen Glättung ist im Excel ersichtlich und in obiger Graphik als "exp. Glättung" dargestellt) ein viel besserer Schätzer als unser Zeitreihenprozess zu sein. Wenn wir aber die oben dargestellten Zufallszahlen als Störung des Prozess auffassen und eine Neuordnung dieser Zufallszahlen vornähmen, wäre die Logik des Zeitreihenprozesses nicht gebrochen und wir hätten unter Umständen eine bessere Annäherung. Dieses „unter Umständen“ wird in MC FLO anhand des „Nächsten Nachbarn“ Verfahren materialisiert. Nehmen wir den ersten Datenpunkt der beobachteten Zeitreihe (3.1394068 in Zelle C3). Welchen Zufallswert müssen wir als erstes nehmen, damit die Quadratsumme des Schätzfehlers minimiert wird? Es liegt auf Hand, dass dies der Zufallswert aus Zeile 34 ist. Mit dem zweiten und folgenden Datenpunkten ist dieses Verfahren entsprechend anzuwenden. Resultat ist somit eine neue Zeitreihe, welche mit den geschätzten Parametern von 0.42 und 0.85 in Bezug auf die historischen Daten fasst Deckungsgleichheit aufweist. Eine Erweiterung besteht darin, bereits vorab eine grosse Anzahl an Zufallszahlen zu generieren und dann den beschriebenen „Nächsten Nachbar“ Ansatz anzuwenden. Theoretisch sind die so gezogenen Zufallszahlen (hier aber mit der berechneten Standardabweichung von 0.85) mutmasslich „korrekt“, da bei einer unendlichen Zeitreihe jede Zufallszahl in beliebiger Reihenfolge erscheinen kann. Erst für die prognostizierenden und in der Zukunft liegenden Werte wird in MC FLO eine neuer Zufallsprozess in die Wege geleitet. Folgend sehen Sie das Resultat den mit dem Nächster Nachbar optimierten AR(1) Zeitreihenprozess in MC FLO. 

Schätzung Zeitreihenprozess mit nearest neigbour Verfahren

Als Quintessenz kann mitgenommen werden, dass die beobachtete Zeitreihe einem autoregressiven Prozess folgt, deren Datenpunkte positiv miteinander korreliert sind (wir verzichten somit auf den genauen Ausweis der Parameter). 

 

Bemerkung: In der Literatur wird bei einem AR(1) Prozess häufig der Startwert ohne eine Zufallskomponente genommen. Da Zeitreihen theoretisch unendlich sind, fassen wir in MC FLO den Startwert bei der Schätzung unter Einschluss der Zufallszahl auf.


Ausblick: In einem unserer weiteren Blogs werden wir das oben dargestellte Verfahren auf den MA(1) Prozess anwenden als auch auf die MLE vertiefter eingehen und dies anhand eines einfaches Excel-Beispiels näher beleuchten.

Kommentar schreiben

Kommentare: 0