Monday 20 November 2017

Autoregressive Integrierte Moving Average Ppt


Autoregressive integrierte Moving Average (ARIMA) Modelle 1. Präsentation zum Thema: Autoregressive Modelle mit integriertem Moving Average (ARIMA) 1. Präsentationstranskript: 2 2 - Prognosemethoden basierend auf exponentieller Glättung - Allgemeine Annahme für die obigen Modelle: Zeitreihendaten werden dargestellt als Die Summe aus zwei verschiedenen Komponenten (deterministc random) - Random Rauschen: erzeugt durch unabhängige Schocks für den Prozess-In der Praxis: sukzessive Beobachtungen zeigen serielle Abhängigkeit 3 ​​- ARIMA Modelle sind auch bekannt als die Box-Jenkins Methodik - beliebt. Geeignet für fast alle Zeitreihen viele Male erzeugen genauere Prognosen als andere Methoden. - Grenzungen: Wenn es nicht genügend Daten gibt, sind sie möglicherweise nicht besser bei der Prognose als die Zersetzung oder exponentielle Glättung Techniken. Empfohlene Anzahl der Beobachtungen mindestens Unempfindliche Stationarität erforderlich - Gleicher Abstand zwischen den Intervallen 3 ARIMA Models 7 7 Linearfilter - Es ist ein Prozess, der den Eingang xt in den Ausgang yt umwandelt - die Umwandlung bezieht sich auf aktuelle, aktuelle und zukünftige Werte des Eingangs Die Form einer Summierung mit unterschiedlichen Gewichten - Zeitinvariante hängen nicht von der Zeit ab - Physikalisch realisierbar: die Ausgabe ist eine lineare Funktion der aktuellen und vergangenen Werte des Eingangs - Stable, wenn In linearen Filtern auch die Stationarität der Eingangszeitreihen ist Die in dem Ausgang 9 reflektiert wird. Eine Zeitreihe, die diese Bedingungen erfüllt, neigt dazu, zu ihrem Mittel zurückzukehren und um diesen Mittelwert mit konstanter Varianz zu schwanken. Anmerkung: Strenge Stationarität erfordert neben den Bedingungen der schwachen Stationarität, dass die Zeitreihe weitere Bedingungen hinsichtlich ihrer Verteilung einschließlich Schiefe, Kurtosis etc. erfüllen muss. 9 - Take Snaphots des Prozesses zu verschiedenen Zeitpunkten beobachten sein Verhalten: wenn ähnlich Im Laufe der Zeit stationäre Zeitreihen - ein starkes, langsam sterbendes ACF schlägt Abweichungen von der Stationarität vor Bestimmen der Stationarität 12 Infinite Moving Average Eingang xt stationär THEN, der lineare Prozeß mit weißer Rauschen Zeitreihe t stationär 12 Ausgang yt stationär, mit t unabhängigen Zufallsschocks, mit E (t) 0 14 14 Der unendliche gleitende Durchschnitt dient als allgemeine Klasse von Modellen für jede stationäre Zeitreihe THEOREM (Welt 1938): Jede nicht deterministische schwach stationäre Zeitreihe yt kann dargestellt werden, wenn INTERPRETATION eine stationäre Zeitreihe zu sehen ist Als die gewichtete Summe der gegenwärtigen und vergangenen Störungen 15 15 Unendlicher gleitender Durchschnitt: - Impraktiv, um die unendlichen Gewichte zu schätzen - Unterstützung in der Praxis, außer für spezielle Fälle: Finite-order-Moving-Average-Modelle (MA). Gewichte, die auf 0 gesetzt sind, mit Ausnahme einer endlichen Anzahl von Gewichten ii. Finite-order autoregressive (AR) Modelle: Gewichte werden mit nur einer endlichen Anzahl von Parametern iii erzeugt. Eine Mischung von autoregressiven Movement-Average-Modellen endlicher Ordnung (ARMA) 16 Finite Order Moving Average (MA) - Prozess Gleitender durchschnittlicher Auftragsablauf q (MA (q)) MA (q). Unabhängig von den Werten der Gewichte 16 17 Erwarteter Wert von MA (q) Varianz von MA (q) Autokovarianz von MA (q) Autocorelation von MA (q) 17 t weißes Rauschen 18 18 ACF-Funktion: Hilft bei der Identifikation des MA-Modells (.)............................................................. MA (q) 19 q1 20 20 - Mean-Varianz. Stabil - Kurzlauf läuft, wo aufeinanderfolgende Beobachtungen tendenziell einander folgen - Positive Autokorrelation - Observationen oszillieren sukzessive - negative Autokorrelation 21 Zweite Ordnung Moving Average MA (2) Prozess Autokovarianz von MA (q) Autokorelation von MA (q) 21 23 Finite Order Autoregressive Process 23 - Weltentheorem: unendliche Anzahl von Gewichtungen, nicht hilfreich bei Modellierung Prognose - Finite Ordnung MA Prozess: schätzen eine endliche Anzahl von Gewichten, setzen die anderen gleich Null Älteste Störung veraltet für die nächste Beobachtung nur endliche Anzahl von Störungen tragen zum Strom Wert der Zeitreihe - Berücksichtigen Sie alle Störungen der Vergangenheit. Verwenden autoregressive Modelle schätzen unendlich viele Gewichte, die einem bestimmten Muster folgen, mit einer kleinen Anzahl von Parametern 24 erster Ordnung Autoregressiver Prozess, AR (1) Angenommen. Sind die Beiträge der Störungen, die in der Vergangenheit liegen, klein im Vergleich zu den jüngsten Störungen, die der Prozeß erlebt hat. Reflektieren Sie die abnehmenden Beträge der Beiträge der Störungen der Vergangenheit durch eine Menge von unendlich vielen Gewichten in absteigenden Größen, wie The Gewichte in den Störungen ausgehend von der aktuellen Störung und zurück in der Vergangenheit: 24 Exponentielles Zerfallsmuster 25 erster Ordnung autoregressiver Prozess AR (1) AR (1) stationär, wenn 25 wo WHUT AUTOREGRESSIVE. 26 Mittleres AR (1) Autokovarianzfunktion AR (1) Autokorrelationsfunktion AR (1) 26 Das ACF für einen stationären AR (1) - Prozess hat eine exponentielle Zerfallsform 28 2. Ordnung Autoregressiver Prozess, AR (2) 28 Dieses Modell kann dargestellt werden In der unendlichen MA-Form die Bedingungen der Stationarität für yt in Form von 1 2 WARUM 1. Unendlich MA Anwenden 31 31 Lösungen Die Gleichung zweiter Ordnung erfüllen Die Lösung. (2) unendliche MA-Darstellung: 32 32 Mittlere Autokovarianzfunktion Für k0: Für k0: Yule-Walker-Gleichungen 0: Yule - Walmer-Gleichungen 0: Yule-Walker-Gleichungen title32 Mittlere Autokovarianzfunktion Für k0: Für k0: Yule-Walker-Gleichungen 33 33 Autokorrelationsfunktion Lösungen A. Lösen Sie die Yule-Walker-Gleichungen rekursiv B. Allgemeine Lösung Besorgen Sie sie Die Wurzeln m 1 m 2, die mit dem Polynom assoziiert sind 34 34 Fall I: m 1, m 2 deutliche reale Wurzeln c 1, c 2 Konstanten: erhalten werden aus (0), (1) Stationarität: ACF-Form: Mischung von 2 exponentiell Abklingbedingungen zB AR (2) - Modell Es kann als ein angepasstes AR (1) - Modell gesehen werden, für das ein einzelner exponentieller Zerfallsausdruck wie im AR (1) nicht ausreichend ist, um das Muster in dem ACF zu beschreiben, und somit wird ein zusätzlicher Zerfallsausdruck hinzugefügt Durch Einführen des zweiten Nachlaufterms y t-2 35 35 Fall II: m 1, m 2 Komplexkonjugate in der Form c 1, c 2. besondere Konstanten ACF Form: feuchter sinusförmiger Dämpfungsfaktor R Frequenzperiode 37 37 AR (2) : Yt 40.4yty t-2 et Wurzeln des Polynoms: reelle ACF-Form: Gemisch aus 2 exponentiellen Zerfallsbedingungen 38 38 AR (2) Prozess: yt 40.8yty t-2 et Wurzeln des Polynoms: komplex konjugiert ACF-Form: gedämpftes Sinusoid Verhalten 40 40 AR (P) stationär Wenn die Wurzeln des Polynoms kleiner als 1 im Absolutwert sind AR (P) absolute summierbare unendliche MA-Darstellung Unter der vorherigen Bedingung 43 43 ACF p-te Ordnung der linearen Differenzgleichungen AR (p). - erfüllt die Yule-Walker-Gleichungen - ACF aus den p Wurzeln des zugehörigen Polynoms, z. B. Unterschiedliche reale Wurzeln. - Im Allgemeinen werden die Wurzeln nicht wirklich ACF sein. Gemisch aus exponentiellem Abklingen und gedämpftem Sinus 44 44 ACF - MA (q) - Verfahren: nützliches Werkzeug zur Bestimmung der Reihenfolge der Prozessabkürzungen nach Verzögerung k - AR (p) - Verfahren: Mischung aus exponentiell abgebremsten sinusförmigen Ausdrücken Auskunft über die Reihenfolge Von AR 45 45 Partielle Autokorrelation Funktion Betrachten. - drei zufällige Variablen X, Y, Z - einfache Regression von X auf ZY auf Z Die Fehler werden aus 46 46 Partielle Korrelation zwischen XY nach Anpassung für Z: Die Korrelation zwischen XY Partielle Korrelation kann als die Korrelation zwischen zwei Variablen nach gesehen werden (PACF) zwischen yty tk Die Autokorrelation zwischen yty tk nach der Anpassung für y t-1, y t-2, y tk AR (p) - Prozeß: PACF zwischen yty tk Für kp gleich Null Betrachten wir eine stationäre Zeitreihe yt nicht unbedingt einen AR-Prozeß - Für jeden festen Wert k sollten die Yule-Walker-Gleichungen für die ACF eines AR (p) - Prozesses p gleich Null sein. Betrachten wir eine stationäre Zeitreihe yt Nicht notwendigerweise ein AR-Prozeß - Für einen beliebigen f-Wert k sind die Yule-Walker-Gleichungen für die ACF eines AR (p) - Prozesses 48 48 Matrixnotationslösungen Für jeden gegebenen k, k 1,2 wird der letzte Koeffizient als partielle Autokorrelation bezeichnet Koeffizient des Prozesses bei Verzögerung k AR (p) Prozess: Ermitteln der Reihenfolge eines AR-Prozesses unter Verwendung der PACF 49 49 Abkürzung nach 1 st Verzögerungsmuster AR (2) MA (1) MA (2) 1) AR (2) Abkürzung nach 2. Verzögerung 50 50 Invertierbarkeit der MA-Modelle Invertierbarer gleitender Durchschnittsprozess: Der MA (q) - Prozess ist invertierbar, wenn er eine absolute summierte unendliche AR-Darstellung aufweist MA (q) 51 51 Erhalten Wir brauchen Bedingung der Invertierbarkeit Die Wurzeln des zugehörigen Polynoms sind kleiner als 1 im absoluten Wert. Ein invertierbarer MA (q) Prozess kann dann als unendlicher AR Prozess 52 52 PACF eines MA (q) Prozeß ist eine Mischung von exponentiellen Zerfallsdämpfen sinusförmiger Ausdrücke Bei der Modellidentifizierung verwenden Sie beide Abtast-ACF-Abtastwerte PACF-PACF vermutlich niemals 53 53 Gemischtes ARMA-Verfahren (ARMA) ARMA-Modell (p, q) Stellen Sie das exponentielle Zerfallsmuster durch Zugabe von a ein (P, q) prozessabhängig, wenn die Wurzeln des Polynoms kleiner als eins im Absolutwert ARMA (p, q) eine unendliche MA-Darstellung 55 55 haben Invertierbarkeit des ARMA-Prozesses im Zusammenhang mit der MA-Komponente Prüfung der Wurzeln des Polynoms Wenn die Wurzeln kleiner als 1 im Absolutwert sind, dann ist ARMA (p, q) invertierbar mit einer unendlichen Darstellung Koeffizienten: 60 60 Nicht stationärer Prozess Nicht konstantes Niveau, homogenes Verhalten im Zeitverlauf yt ist homogen, nicht stationär, wenn - nicht stationär - der erste Unterschied, wtyt - y t-1 (1-B) yt oder höhere Ordnungsunterschiede wt (1- B) dyt erzeugt eine stationäre Zeitreihe Yt autoregressive intergrate gleitende Mittelwert der Ordnung p, d, q ARIMA (p, d, q) Wenn die d-Differenz wt (1-B) dyt eine stationäre ARMA (p, q) ARIMA (p, d, q) 61 61 Der Random-Walk-Prozess ARIMA (0,1,0) Einfachstes stationäres Modell Erstes Differenzieren eliminiert die serielle Abhängigkeit zu einem Weißrausch-Prozess 62 62 yt 20y t-1 et Beweis für nicht - Stationärer Prozess - Beispiel ACF. Stirbt langsam ab Beispiel PACF: signifikant bei der ersten Verzögerung - Sample PACF-Wert bei Verzögerung 1 nahe bei 1 erster Unterschied - Zeitreihenplot von wt. Stationär - Beispiel ACF PACF: keinen signifikanten Wert anzeigen - Use ARIMA (0,1,0) 63 63 Der Random-Walk-Prozess ARIMA (0,1,1) Infinite AR-Darstellung, abgeleitet von: ARIMA (0,1,1 ) (IMA (1,1)): ausgedrückt als exponentieller gewichteter gleitender Durchschnitt (EWMA) aller vergangenen Werte 64 64 ARIMA (0,1,1) - Der Mittelwert des Prozesses bewegt sich zeitlich nach oben - Probe ACF: stirbt Relativ langsam - Sample PACF: 2 signifikante Werte bei Lags 1 2 - erster Unterschied schaut stationär - Beispiel ACF PACF: ein MA (1) - Modell wäre für die erste Differenz geeignet, sein ACF schneidet nach dem ersten verzögerten PACF-Zerfallsmuster ab Mögliche Modell : AR (2) Überprüfen Sie die RootsA RIMA steht für Autoregressive Integrated Moving Average Modelle. Univariate (Einzelvektor) ARIMA ist eine Prognosemethode, die die zukünftigen Werte einer Serie, die vollständig auf ihrer eigenen Trägheit basiert, projiziert. Seine Hauptanwendung liegt im Bereich der kurzfristigen Prognose mit mindestens 40 historischen Datenpunkten. Es funktioniert am besten, wenn Ihre Daten eine stabile oder konsistente Muster im Laufe der Zeit mit einem Minimum an Ausreißern zeigt. Manchmal nennt man Box-Jenkins (nach den ursprünglichen Autoren), ARIMA ist in der Regel überlegen exponentielle Glättung Techniken, wenn die Daten relativ lange und die Korrelation zwischen vergangenen Beobachtungen ist stabil. Wenn die Daten kurz oder stark flüchtig sind, kann eine gewisse Glättungsmethode besser ablaufen. Wenn Sie nicht über mindestens 38 Datenpunkte verfügen, sollten Sie eine andere Methode als ARIMA betrachten. Der erste Schritt bei der Anwendung der ARIMA-Methodik ist die Überprüfung der Stationarität. Stationarität impliziert, dass die Reihe auf einem ziemlich konstanten Niveau über Zeit bleibt. Wenn ein Trend besteht, wie in den meisten wirtschaftlichen oder geschäftlichen Anwendungen, dann sind Ihre Daten nicht stationär. Die Daten sollten auch eine konstante Varianz in ihren Schwankungen im Laufe der Zeit zeigen. Dies ist leicht zu sehen mit einer Serie, die stark saisonal und wächst mit einer schnelleren Rate. In einem solchen Fall werden die Höhen und Tiefen der Saisonalität im Laufe der Zeit dramatischer. Ohne dass diese Stationaritätsbedingungen erfüllt sind, können viele der mit dem Prozess verbundenen Berechnungen nicht berechnet werden. Wenn eine grafische Darstellung der Daten Nichtstationarität anzeigt, dann sollten Sie die Serie unterscheiden. Die Differenzierung ist eine hervorragende Möglichkeit, eine nichtstationäre Serie in eine stationäre zu transformieren. Dies geschieht durch Subtrahieren der Beobachtung in der aktuellen Periode von der vorherigen. Wenn diese Transformation nur einmal zu einer Reihe erfolgt, sagen Sie, dass die Daten zuerst unterschieden wurden. Dieser Prozess im Wesentlichen eliminiert den Trend, wenn Ihre Serie wächst mit einer ziemlich konstanten Rate. Wenn es mit steigender Rate wächst, können Sie die gleiche Prozedur anwenden und die Daten erneut differenzieren. Ihre Daten würden dann zweite differenziert werden. Autokorrelationen sind Zahlenwerte, die angeben, wie sich eine Datenreihe mit der Zeit auf sich bezieht. Genauer gesagt misst es, wie stark Datenwerte bei einer bestimmten Anzahl von Perioden auseinander über die Zeit miteinander korreliert werden. Die Anzahl der Perioden wird in der Regel als Verzögerung bezeichnet. Zum Beispiel misst eine Autokorrelation bei Verzögerung 1, wie die Werte 1 Periode auseinander in der Reihe miteinander korreliert sind. Eine Autokorrelation bei Verzögerung 2 misst, wie die Daten, die zwei Perioden voneinander getrennt sind, über die gesamte Reihe miteinander korrelieren. Autokorrelationen können im Bereich von 1 bis -1 liegen. Ein Wert nahe 1 gibt eine hohe positive Korrelation an, während ein Wert nahe -1 impliziert eine hohe negative Korrelation. Diese Maßnahmen werden meist durch grafische Darstellungen, sogenannte Korrelagramme, ausgewertet. Ein Korrelationsdiagramm zeigt die Autokorrelationswerte für eine gegebene Reihe bei unterschiedlichen Verzögerungen. Dies wird als Autokorrelationsfunktion bezeichnet und ist bei der ARIMA-Methode sehr wichtig. Die ARIMA-Methodik versucht, die Bewegungen in einer stationären Zeitreihe als Funktion von autoregressiven und gleitenden Durchschnittsparametern zu beschreiben. Diese werden als AR-Parameter (autoregessiv) und MA-Parameter (gleitende Mittelwerte) bezeichnet. Ein AR-Modell mit nur einem Parameter kann als geschrieben werden. X (t) A (1) X (t-1) E (t) wobei X (t) Zeitreihen A (1) der autoregressive Parameter der Ordnung 1 X (t-1) (T) der Fehlerterm des Modells Dies bedeutet einfach, dass jeder gegebene Wert X (t) durch eine Funktion seines vorherigen Wertes X (t-1) plus einen unerklärlichen Zufallsfehler E (t) erklärt werden kann. Wenn der geschätzte Wert von A (1) 0,30 betrug, dann wäre der aktuelle Wert der Reihe mit 30 seines vorherigen Wertes 1 verknüpft. Natürlich könnte die Serie auf mehr als nur einen vergangenen Wert bezogen werden. Zum Beispiel ist X (t) A (1) X (t-1) A (2) X (t-2) E (t) Dies zeigt an, dass der aktuelle Wert der Reihe eine Kombination der beiden unmittelbar vorhergehenden Werte ist, X (t-1) und X (t-2) zuzüglich eines Zufallsfehlers E (t). Unser Modell ist nun ein autoregressives Modell der Ordnung 2. Moving Average Models: Eine zweite Art von Box-Jenkins-Modell wird als gleitendes Durchschnittsmodell bezeichnet. Obwohl diese Modelle dem AR-Modell sehr ähnlich sind, ist das Konzept hinter ihnen ganz anders. Bewegliche Durchschnittsparameter beziehen sich auf das, was in der Periode t stattfindet, nur auf die zufälligen Fehler, die in vergangenen Zeitperioden aufgetreten sind, dh E (t-1), E (t-2) usw. anstatt auf X (t-1), X T-2), (Xt-3) wie in den autoregressiven Ansätzen. Ein gleitendes Durchschnittsmodell mit einem MA-Begriff kann wie folgt geschrieben werden. X (t) - B (1) E (t-1) E (t) Der Begriff B (1) wird als MA der Ordnung 1 bezeichnet. Das negative Vorzeichen vor dem Parameter wird nur für Konventionen verwendet und in der Regel ausgedruckt Automatisch von den meisten Computerprogrammen. Das obige Modell sagt einfach, dass jeder gegebene Wert von X (t) direkt nur mit dem Zufallsfehler in der vorherigen Periode E (t-1) und mit dem aktuellen Fehlerterm E (t) zusammenhängt. Wie im Fall von autoregressiven Modellen können die gleitenden Durchschnittsmodelle auf übergeordnete Strukturen mit unterschiedlichen Kombinationen und gleitenden mittleren Längen erweitert werden. Die ARIMA-Methodik erlaubt es auch, Modelle zu erstellen, die sowohl autoregressive als auch gleitende Durchschnittsparameter zusammenführen. Diese Modelle werden oft als gemischte Modelle bezeichnet. Obwohl dies für eine kompliziertere Prognose-Tool macht, kann die Struktur tatsächlich simulieren die Serie besser und produzieren eine genauere Prognose. Pure Modelle implizieren, dass die Struktur nur aus AR oder MA-Parameter besteht - nicht beides. Die Modelle, die von diesem Ansatz entwickelt werden, werden in der Regel als ARIMA-Modelle bezeichnet, da sie eine Kombination aus autoregressiver (AR), Integration (I) verwenden, die sich auf den umgekehrten Prozess der Differenzierung bezieht, um die Prognose zu erzeugen. Ein ARIMA-Modell wird üblicherweise als ARIMA (p, d, q) angegeben. Dies ist die Reihenfolge der autoregressiven Komponenten (p), der Anzahl der differenzierenden Operatoren (d) und der höchsten Ordnung des gleitenden Mittelwerts. Beispielsweise bedeutet ARIMA (2,1,1), dass Sie ein autoregressives Modell zweiter Ordnung mit einer ersten gleitenden Durchschnittskomponente haben, deren Serie einmal differenziert wurde, um die Stationarität zu induzieren. Auswahl der richtigen Spezifikation: Das Hauptproblem in der klassischen Box-Jenkins versucht zu entscheiden, welche ARIMA-Spezifikation zu verwenden - i. e. Wie viele AR - und / oder MA-Parameter eingeschlossen werden sollen. Dies ist, was viel von Box-Jenkings 1976 dem Identifikationsprozeß gewidmet wurde. Es hing von der graphischen und numerischen Auswertung der Stichprobenautokorrelation und der partiellen Autokorrelationsfunktionen ab. Nun, für Ihre grundlegenden Modelle, ist die Aufgabe nicht allzu schwierig. Jeder hat Autokorrelationsfunktionen, die eine bestimmte Weise aussehen. Allerdings, wenn Sie gehen in der Komplexität, die Muster sind nicht so leicht zu erkennen. Um es schwieriger zu machen, stellen Ihre Daten nur eine Probe des zugrundeliegenden Prozesses dar. Das bedeutet, dass Stichprobenfehler (Ausreißer, Messfehler etc.) den theoretischen Identifikationsprozess verzerren können. Deshalb ist die traditionelle ARIMA-Modellierung eher eine Kunst als eine Wissenschaft.

No comments:

Post a Comment