Saturday 28 January 2017

Autoregressive Moving Average Ppt

Autoregressive integrierte Moving Average (ARIMA) Modelle 1. Präsentation zum Thema: Autoregressive Modelle mit integriertem Moving Average (ARIMA) 1. Präsentationstranskript: 2 2 - Prognosemethoden basierend auf exponentieller Glättung - Allgemeine Annahme für die obigen Modelle: Zeitreihendaten werden dargestellt als Die Summe aus zwei verschiedenen Komponenten (deterministc random) - Random Rauschen: erzeugt durch unabhängige Schocks für den Prozess-In der Praxis: sukzessive Beobachtungen zeigen serielle Abhängigkeit 3 ​​- ARIMA Modelle sind auch bekannt als die Box-Jenkins Methodik - beliebt. Geeignet für fast alle Zeitreihen viele Male erzeugen genauere Prognosen als andere Methoden. - Grenzungen: Wenn es nicht genügend Daten gibt, sind sie möglicherweise nicht besser bei der Prognose als die Zersetzung oder exponentielle Glättung Techniken. Empfohlene Anzahl der Beobachtungen mindestens Unempfindliche Stationarität erforderlich - Gleicher Abstand zwischen den Intervallen 3 ARIMA Models 7 7 Linearer Filter - Es ist ein Prozess, der den Eingang xt in den Ausgang yt umwandelt. Die Umwandlung beinhaltet Vergangenheit, aktuelle und zukünftige Werte des Eingangs Die Form einer Summierung mit unterschiedlichen Gewichten - Zeitinvariante hängen nicht von der Zeit ab - Physikalisch realisierbar: die Ausgabe ist eine lineare Funktion der aktuellen und vergangenen Werte des Eingangs - Stable, wenn In linearen Filtern auch die Stationarität der Eingangszeitreihen ist Die in dem Ausgang 9 reflektiert wird. Eine Zeitreihe, die diese Bedingungen erfüllt, neigt dazu, zu ihrem Mittel zurückzukehren und um diesen Mittelwert mit konstanter Varianz zu schwanken. Anmerkung: Strenge Stationarität erfordert neben den Bedingungen der schwachen Stationarität, dass die Zeitreihe weitere Bedingungen hinsichtlich ihrer Verteilung einschließlich Schiefe, Kurtosis etc. erfüllen muss. 9 - Nehmen Sie Snaphots des Prozesses zu unterschiedlichen Zeitpunkten auf, wenn es ähnlich ist Im Laufe der Zeit stationäre Zeitreihen - ein starkes, langsam sterbendes ACF schlägt Abweichungen von der Stationarität vor Bestimmen der Stationarität 12 Infinite Moving Average Eingang xt stationär THEN, der lineare Prozeß mit weißer Rauschen Zeitreihe t stationär 12 Ausgang yt stationär, mit t unabhängigen Zufallsschocks, mit E (t) 0 14 14 Der unendliche gleitende Durchschnitt dient als allgemeine Klasse von Modellen für jede stationäre Zeitreihe THEOREM (Welt 1938): Jede nicht deterministische schwach stationäre Zeitreihe yt kann dargestellt werden, wenn INTERPRETATION eine stationäre Zeitreihe zu sehen ist Als die gewichtete Summe der gegenwärtigen und vergangenen Störungen 15 15 Unendlicher gleitender Durchschnitt: - Impraktiv, um die unendlichen Gewichte zu schätzen - Unterstützung in der Praxis, außer für spezielle Fälle: Finite-order-Moving-Average-Modelle (MA). Gewichte, die auf 0 gesetzt sind, mit Ausnahme einer endlichen Anzahl von Gewichten ii. Finite-order autoregressive (AR) Modelle: Gewichte werden mit nur einer endlichen Anzahl von Parametern iii erzeugt. Eine Mischung von autoregressiven Movement-Average-Modellen endlicher Ordnung (ARMA) 16 Finite Order Moving Average (MA) - Prozess Gleitender durchschnittlicher Auftragsablauf q (MA (q)) MA (q). Unabhängig von den Werten der Gewichte 16 17 Erwarteter Wert von MA (q) Varianz von MA (q) Autokovarianz von MA (q) Autocorelation von MA (q) 17 t weißes Rauschen 18 18 ACF-Funktion: Hilft bei der Identifikation des MA-Modells (.)............................................................. MA (q) 19 q1 20 20 - Mean-Varianz. Stabil - Kurzlauf läuft, wo aufeinanderfolgende Beobachtungen tendenziell einander folgen - Positive Autokorrelation - Observationen oszillieren sukzessive - negative Autokorrelation 21 Zweite Ordnung Moving Average MA (2) Prozess Autokovarianz von MA (q) Autocorelation von MA (q) 21 23 Finite Order Autoregressive Process 23 - Weltentheorem: unendliche Anzahl von Gewichtungen, nicht hilfreich bei Modellierung Prognose - Finite Ordnung MA Prozess: Schätzen eine endliche Anzahl von Gewichten, setzen die anderen gleich Null Älteste Störung veraltet für die nächste Beobachtung nur endliche Anzahl von Störungen beitragen, um den Strom Wert der Zeitreihe - Berücksichtigen Sie alle Störungen der Vergangenheit. Verwenden autoregressive Modelle schätzen unendlich viele Gewichte, die einem bestimmten Muster folgen, mit einer kleinen Anzahl von Parametern 24 erster Ordnung Autoregressiver Prozess, AR (1) Angenommen. Sind die Beiträge der Störungen, die in der Vergangenheit liegen, klein im Vergleich zu den jüngsten Störungen, die der Prozeß erlebt hat. Reflektieren Sie die abnehmenden Beträge der Beiträge der Störungen der Vergangenheit durch eine Menge von unendlich vielen Gewichten in absteigenden Größen, wie The Gewichte in den Störungen ausgehend von der aktuellen Störung und zurück in der Vergangenheit: 24 Exponentielles Zerfallsmuster 25 erster Ordnung autoregressiver Prozess AR (1) AR (1) stationär, wenn 25 wo WHUT AUTOREGRESSIVE. 26 Mittleres AR (1) Autokovarianzfunktion AR (1) Autokorrelationsfunktion AR (1) 26 Das ACF für einen stationären AR (1) - Prozess hat eine exponentielle Zerfallsform 28 2. Ordnung Autoregressiver Prozess, AR (2) 28 Dieses Modell kann dargestellt werden In der unendlichen MA-Form die Bedingungen der Stationarität für yt in Form von 1 2 WARUM 1. Unendlich MA Anwenden 31 31 Lösungen Die Gleichung zweiter Ordnung erfüllen Die Lösung. (2) unendliche MA-Darstellung: 32 32 Mittlere Autokovarianzfunktion Für k0: Für k0: Yule-Walker-Gleichungen 0: Yule - Walmer-Gleichungen 0: Yule-Walker-Gleichungen title32 Mittlere Autokovarianzfunktion Für k0: Für k0: Yule-Walker-Gleichungen 33 33 Autokorrelationsfunktion Lösungen A. Lösen Sie die Yule-Walker-Gleichungen rekursiv B. Allgemeine Lösung Besorgen Sie sie Die Wurzeln m 1 m 2, die mit dem Polynom assoziiert sind 34 34 Fall I: m 1, m 2 deutliche reale Wurzeln c 1, c 2 Konstanten: erhalten werden aus (0), (1) Stationarität: ACF-Form: Mischung von 2 exponentiell Abklingbedingungen zB AR (2) - Modell Es kann als ein angepasstes AR (1) - Modell gesehen werden, für das ein einzelner exponentieller Zerfallsausdruck wie im AR (1) nicht ausreichend ist, um das Muster in dem ACF zu beschreiben, und somit wird ein zusätzlicher Zerfallsausdruck hinzugefügt Durch Einführen des zweiten Nachlaufterms y t-2 35 35 Fall II: m 1, m 2 Komplexkonjugate in der Form c 1, c 2. besondere Konstanten ACF Form: feuchter sinusförmiger Dämpfungsfaktor R Frequenzperiode 37 37 AR (2) : Yt 40.4yty t-2 et Wurzeln des Polynoms: reelle ACF-Form: Mischung aus 2 exponentiellen Zerfallstermen 38 38 AR (2) Prozess: yt 40.8yty t-2 et Wurzeln des Polynoms: komplex konjugiert ACF-Form: gedämpfte Sinuskurve Verhalten 40 40 AR (P) stationär Wenn die Wurzeln des Polynoms kleiner als 1 im Absolutwert sind AR (P) absolute summierbare unendliche MA-Darstellung Unter der vorherigen Bedingung 43 43 ACF p-te Ordnung der linearen Differenzgleichungen AR (p). - erfüllt die Yule-Walker-Gleichungen - ACF aus den p Wurzeln des zugehörigen Polynoms, z. B. Unterschiedliche reale Wurzeln. - Im Allgemeinen werden die Wurzeln nicht wirklich ACF sein. Gemisch aus exponentiellem Abklingen und gedämpftem Sinus 44 44 ACF - MA (q) - Verfahren: nützliches Werkzeug zur Bestimmung der Reihenfolge der Prozessabkürzungen nach Verzögerung k - AR (p) - Verfahren: Mischung aus exponentiell abgebremsten sinusförmigen Ausdrücken Auskunft über die Reihenfolge Von AR 45 45 Partielle Autokorrelation Funktion Betrachten. - drei zufällige Variablen X, Y, Z - einfache Regression von X auf ZY auf Z Die Fehler werden aus 46 46 Partielle Korrelation zwischen XY nach Anpassung für Z: Die Korrelation zwischen XY Partielle Korrelation kann als die Korrelation zwischen zwei Variablen nach gesehen werden (PACF) zwischen yty tk Die Autokorrelation zwischen yty tk nach der Anpassung für y t-1, y t-2, y tk AR (p) - Prozeß: PACF zwischen yty tk Für kp gleich Null Betrachten wir eine stationäre Zeitreihe yt nicht unbedingt einen AR-Prozeß - Für jeden festen Wert k sollten die Yule-Walker-Gleichungen für die ACF eines AR (p) - Prozesses p gleich Null sein. Betrachten wir eine stationäre Zeitreihe yt Nicht notwendigerweise ein AR-Prozeß - Für einen beliebigen f-Wert k sind die Yule-Walker-Gleichungen für die ACF eines AR (p) - Prozesses 48 48 Matrixnotationslösungen Für jeden gegebenen k, k 1,2 wird der letzte Koeffizient als partielle Autokorrelation bezeichnet Koeffizient des Prozesses bei Verzögerung k AR (p) Prozess: Ermitteln der Reihenfolge eines AR-Prozesses unter Verwendung der PACF 49 49 Abkürzung nach 1 st Verzögerungsmuster AR (2) MA (1) MA (2) 1) AR (2) Abkürzung nach 2. Verzögerung 50 50 Invertierbarkeit der MA-Modelle Invertierbarer gleitender Durchschnittsprozess: Der MA (q) - Prozess ist invertierbar, wenn er eine absolute summierte unendliche AR-Darstellung aufweist MA (q) 51 51 Erhalten Wir brauchen Bedingung der Invertierbarkeit Die Wurzeln des zugehörigen Polynoms sind kleiner als 1 im absoluten Wert. Ein invertierbarer MA (q) Prozess kann dann als unendlicher AR Prozess 52 52 PACF eines MA (q) Prozeß ist eine Mischung von exponentiellen Zerfallsdämpfen sinusförmiger Ausdrücke Bei der Modellidentifizierung verwenden Sie beide Abtast-ACF-Abtastwerte PACF-PACF vermutlich niemals 53 53 Gemischtes ARMA-Verfahren (ARMA) ARMA-Modell (p, q) Passen Sie das exponentielle Zerfallsmuster an, indem Sie a hinzufügen (P, q) prozessabhängig, wenn die Wurzeln des Polynoms kleiner als eins im Absolutwert ARMA (p, q) eine unendliche MA-Darstellung 55 55 haben Invertierbarkeit des ARMA-Prozesses im Zusammenhang mit der MA-Komponente Prüfung der Wurzeln des Polynoms Wenn die Wurzeln kleiner als 1 im Absolutwert sind, dann ist ARMA (p, q) invertierbar mit einer unendlichen Darstellung Koeffizienten: 60 60 Nicht stationärer Prozess Nicht konstantes Niveau, homogenes Verhalten im Zeitverlauf yt ist homogen, nicht stationär, wenn - nicht stationär - der erste Unterschied, wtyt - y t-1 (1-B) yt oder höhere Ordnungsdifferenzen wt (1- B) dyt erzeugt eine stationäre Zeitreihe Yt autoregressive intergrate gleitende Mittelwert der Ordnung p, d, q ARIMA (p, d, q) Wenn die d-Differenz wt (1-B) dyt eine stationäre ARMA (p, q) ARIMA (p, d, q) 61 61 Der Random-Walk-Prozess ARIMA (0,1,0) Einfachstes stationäres Modell Erstes Differenzieren eliminiert die serielle Abhängigkeit zu einem Weißrausch-Prozess 62 62 yt 20y t-1 et Beweis für nicht - Stationärer Prozess - Beispiel ACF. Stirbt langsam ab Beispiel PACF: signifikant bei der ersten Verzögerung - Sample PACF-Wert bei Verzögerung 1 nahe bei 1 erster Unterschied - Zeitreihenplot von wt. Stationär - Beispiel ACF PACF: keinen signifikanten Wert anzeigen - Use ARIMA (0,1,0) 63 63 Der Random-Walk-Prozess ARIMA (0,1,1) Infinite AR-Darstellung, abgeleitet von: ARIMA (0,1,1 ) (IMA (1,1)): ausgedrückt als exponentieller gewichteter gleitender Durchschnitt (EWMA) aller vergangenen Werte 64 64 ARIMA (0,1,1) - Der Mittelwert des Prozesses bewegt sich zeitlich nach oben - Probe ACF: stirbt Relativ langsam - Sample PACF: 2 signifikante Werte bei Lags 1 2 - erster Unterschied schaut stationär - Beispiel ACF PACF: ein MA (1) - Modell wäre für die erste Differenz geeignet, sein ACF schneidet nach dem ersten verzögerten PACF-Zerfallsmuster ab Mögliche Modell ARIMA (p, d, q) Prognoserechnung: ARIMA-Modelle sind in der Theorie die allgemeinste Klasse von Modellen zur Prognose einer Zeitreihe, die auf 8220 stationary8221 umgestellt werden kann (Falls erforderlich), möglicherweise in Verbindung mit nichtlinearen Transformationen, wie zum Beispiel Protokollierung oder Abscheidung (falls erforderlich). Eine Zufallsvariable, die eine Zeitreihe ist, ist stationär, wenn ihre statistischen Eigenschaften alle über die Zeit konstant sind. Eine stationäre Reihe hat keinen Trend, ihre Variationen um ihren Mittelwert haben eine konstante Amplitude, und sie wackelt in einer konsistenten Weise. D. h. seine kurzzeitigen Zufallszeitmuster sehen immer im statistischen Sinne gleich aus. Die letztgenannte Bedingung bedeutet, daß ihre Autokorrelationen (Korrelationen mit ihren eigenen vorherigen Abweichungen vom Mittelwert) über die Zeit konstant bleiben oder daß ihr Leistungsspektrum über die Zeit konstant bleibt. Eine zufällige Variable dieser Form kann (wie üblich) als eine Kombination von Signal und Rauschen betrachtet werden, und das Signal (wenn eines offensichtlich ist) könnte ein Muster einer schnellen oder langsamen mittleren Reversion oder einer sinusförmigen Oszillation oder eines schnellen Wechsels im Vorzeichen sein , Und es könnte auch eine saisonale Komponente. Ein ARIMA-Modell kann als ein 8220filter8221 betrachtet werden, der versucht, das Signal vom Rauschen zu trennen, und das Signal wird dann in die Zukunft extrapoliert, um Prognosen zu erhalten. Die ARIMA-Vorhersagegleichung für eine stationäre Zeitreihe ist eine lineare Gleichung (d. H. Regressionstyp), bei der die Prädiktoren aus Verzögerungen der abhängigen Variablen und oder Verzögerungen der Prognosefehler bestehen. Das heißt: Vorhergesagter Wert von Y eine Konstante undeine gewichtete Summe aus einem oder mehreren neuen Werten von Y und einer gewichteten Summe aus einem oder mehreren neuen Werten der Fehler. Wenn die Prädiktoren nur aus verzögerten Werten von Y bestehen, handelt es sich um ein reines autoregressives Modell (8220 selbst-regressed8221), das nur ein Spezialfall eines Regressionsmodells ist und mit einer Standard-Regressions-Software ausgestattet werden kann. Beispielsweise ist ein autoregressives Modell erster Ordnung (8220AR (1) 8221) für Y ein einfaches Regressionsmodell, bei dem die unabhängige Variable nur um eine Periode (LAG (Y, 1) in Statgraphics oder YLAG1 in RegressIt) verzögert ist. Wenn einige der Prädiktoren Verzögerungen der Fehler sind, handelt es sich bei einem ARIMA-Modell nicht um ein lineares Regressionsmodell, da es keine Möglichkeit gibt, 8220last period8217s error8221 als unabhängige Variable festzulegen: Die Fehler müssen auf einer Periodenperiode berechnet werden Wenn das Modell an die Daten angepasst ist. Aus technischer Sicht ist das Problem der Verwendung von verzögerten Fehlern als Prädiktoren, dass die Vorhersagen von model8217s keine linearen Funktionen der Koeffizienten sind. Obwohl es sich um lineare Funktionen der vergangenen Daten handelt. Daher müssen Koeffizienten in ARIMA-Modellen, die verzögerte Fehler enthalten, durch nichtlineare Optimierungsmethoden (8220hill-climbing8221) abgeschätzt werden, anstatt nur ein Gleichungssystem zu lösen. Das Akronym ARIMA steht für Auto-Regressive Integrated Moving Average. Verzögerungen der stationären Reihe in der Prognose-Gleichung werden als autoregressiveQuot-Terme bezeichnet, die Verzögerungen der Prognosefehler werden als mittlere mittlere quot-Terme bezeichnet, und eine Zeitreihe, die differenziert werden muß, um stationär gemacht zu werden, wird als eine integrierte quotierte Version einer stationären Reihe bezeichnet. Random-walk und random-trend Modelle, autoregressive Modelle und exponentielle Glättungsmodelle sind alle Sonderfälle von ARIMA Modellen. Ein nicht-saisonales ARIMA-Modell wird als ein quotarIMA-Modell (p, d, q) klassifiziert, wobei p die Anzahl der autoregressiven Terme ist, d die Anzahl der für die Stationarität benötigten nicht-seasonalen Differenzen ist und q die Anzahl der verzögerten Prognosefehler ist Die Vorhersagegleichung. Die Vorhersagegleichung ist wie folgt aufgebaut. Zuerst bezeichne y die d - te Differenz von Y. Das bedeutet, daß die zweite Differenz von Y (der Fall d2) nicht die Differenz von 2 Perioden ist. Es ist vielmehr die erste Differenz der ersten Differenz. Was das diskrete Analogon einer zweiten Ableitung ist, d. h. die lokale Beschleunigung der Reihe anstatt ihres lokalen Takts. In Bezug auf y. Ist die allgemeine Prognosegleichung: Hier sind die gleitenden Durchschnittsparameter (9528217s) so definiert, daß ihre Vorzeichen in der Gleichung negativ sind, und zwar nach der Konvention von Box und Jenkins. Einige Autoren und Software (einschließlich der Programmiersprache R) definieren sie so, dass sie stattdessen Pluszeichen haben. Wenn tatsächliche Zahlen in die Gleichung gesteckt werden, gibt es keine Mehrdeutigkeit, aber es ist wichtig zu wissen, welche Konvention Ihre Software verwendet, wenn Sie die Ausgabe lesen. Oft werden dort die Parameter mit AR (1), AR (2), 8230 und MA (1), MA (2), 8230 usw. bezeichnet. Um das entsprechende ARIMA-Modell für Y zu identifizieren, beginnt man die Reihenfolge der Differenzierung zu bestimmen (D) Notwendigkeit, die Serie zu stationarisieren und die Brutto-Merkmale der Saisonalität zu entfernen, möglicherweise in Verbindung mit einer variationsstabilisierenden Transformation, wie z. B. Protokollierung oder Entleerung. Wenn Sie an diesem Punkt anhalten und voraussagen, dass die differenzierten Serien konstant sind, haben Sie lediglich ein zufälliges oder zufälliges Trendmodell angebracht. Die stationäre Reihe kann jedoch weiterhin autokorrelierte Fehler aufweisen, was nahe legt, daß in der Vorhersagegleichung auch einige Anzahl von AR-Terme (p 8805 1) und einige MA-MA-Terme (q 8805 1) benötigt werden. Der Prozess der Bestimmung der Werte von p, d und q, die für eine gegebene Zeitreihe am besten sind, werden in späteren Abschnitten der Notizen (deren Links oben auf dieser Seite sind), aber eine Vorschau von einigen der Typen erörtert Von nicht-saisonalen ARIMA-Modellen, die üblicherweise angetroffen werden, ist unten angegeben. ARIMA (1,0,0) erstes autoregressives Modell: Wenn die Serie stationär und autokorreliert ist, kann sie vielleicht als ein Vielfaches ihres eigenen vorherigen Wertes plus einer Konstante vorhergesagt werden. Die Prognose-Gleichung ist in diesem Fall 8230, die Y auf sich selbst zurückgeblieben um eine Periode zurückgeblieben ist. Dies ist ein 8220ARIMA (1,0,0) constant8221 Modell. Wenn der Mittelwert von Y Null ist, dann würde der konstante Term nicht eingeschlossen werden. Wenn der Steigungskoeffizient 981 & sub1; positiv und kleiner als 1 in der Grße ist (er muß kleiner als 1 in der Grße sein, wenn Y stationär ist), beschreibt das Modell ein Mittelrücksetzverhalten, bei dem der nächste Periodenblockwert 981 1 mal als vorhergesagt werden sollte Weit weg vom Durchschnitt, wie dieser Zeitraum8217s Wert. Wenn 981 & sub1; negativ ist, prognostiziert es ein Mittelwert-Wiederherstellungsverhalten mit einer Veränderung von Vorzeichen, d. h. es sagt auch voraus, daß Y unterhalb der mittleren nächsten Periode liegt, wenn sie über dem Mittel dieser Periode liegt. In einem autoregressiven Modell zweiter Ordnung (ARIMA (2,0,0)), würde es auch einen Yt-2-Term auf der rechten Seite geben, und so weiter. Abhängig von den Zeichen und Größen der Koeffizienten kann ein ARIMA (2,0,0) - Modell ein System beschreiben, dessen mittlere Reversion sinusförmig oszillierend erfolgt, wie die Bewegung einer Masse auf einer Feder, die zufälligen Schocks ausgesetzt ist . ARIMA (0,1,0) zufälliger Weg: Wenn die Reihe Y nicht stationär ist, ist das einfachste mögliche Modell ein zufälliges Wandermodell, das als Begrenzungsfall eines AR (1) - Modells betrachtet werden kann, in dem die autoregressive Koeffizient ist gleich 1, dh eine Reihe mit unendlich langsamer mittlerer Reversion. Die Vorhersagegleichung für dieses Modell kann folgendermaßen geschrieben werden: wobei der konstante Term die mittlere Periodenperiodenänderung (dh die Langzeitdrift) in Y ist. Dieses Modell könnte als ein No-Intercept-Regressionsmodell angepasst werden, in dem die Die erste Differenz von Y ist die abhängige Variable. Da es nur einen nicht sonderbaren Unterschied und einen konstanten Term enthält, wird er als quotarima (0,1,0) - Modell mit constant. quot klassifiziert. Das random-walk-ohne - driftmodell wäre ein ARIMA (0,1, 0) - Modell ohne konstantes ARIMA (1,1,0) differenziertes autoregressives Modell erster Ordnung: Wenn die Fehler eines Zufallswegmodells autokorreliert werden, kann das Problem möglicherweise durch Hinzufügen einer Verzögerung der abhängigen Variablen zu der Vorhersagegleichung - - ie Durch Rückgang der ersten Differenz von Y auf sich selbst verzögert um eine Periode. Dies würde die folgende Vorhersagegleichung ergeben, die umgeordnet werden kann: Dies ist ein autoregressives Modell erster Ordnung mit einer Ordnung der Nichtsaisonaldifferenzierung und einem konstanten Term - d. e. Ein ARIMA (1,1,0) - Modell. ARIMA (0,1,1) ohne konstante einfache exponentielle Glättung: Eine weitere Strategie zur Korrektur autokorrelierter Fehler in einem Random-Walk-Modell wird durch das einfache exponentielle Glättungsmodell vorgeschlagen. Es sei daran erinnert, dass für einige nichtstationäre Zeitreihen (z. B. diejenigen, die geräuschschwankungen um einen langsam variierenden Mittelwert aufweisen) das Zufallswegmodell nicht ebenso gut funktioniert wie ein gleitender Durchschnitt von vergangenen Werten. Mit anderen Worten, anstatt die letzte Beobachtung als Prognose der nächsten Beobachtung zu nehmen, ist es besser, einen Durchschnitt der letzten Beobachtungen zu verwenden, um das Rauschen herauszufiltern und das lokale Mittel genauer zu schätzen. Das einfache exponentielle Glättungsmodell verwendet einen exponentiell gewichteten gleitenden Durchschnitt vergangener Werte, um diesen Effekt zu erzielen. Die Vorhersagegleichung für das einfache exponentielle Glättungsmodell kann in einer Anzahl mathematisch äquivalenter Formen geschrieben werden. Von denen eine die sogenannte 8220-Fehlerkorrektur8221-Form ist, in der die vorhergehende Prognose in der Richtung ihres Fehlers angepasst wird: Weil e t-1 Y t-1 - 374 t-1 per Definition umgeschrieben werden kann : Es handelt sich um eine ARIMA (0,1,1) - konstante Vorhersagegleichung mit 952 1 1 - 945. Dies bedeutet, dass Sie eine einfache exponentielle Glättung durch Angabe als ARIMA (0,1,1) - Modell ohne passen Konstant und der geschätzte MA (1) - Koeffizient entspricht 1-minus-alpha in der SES-Formel. Denken Sie daran, dass im SES-Modell das durchschnittliche Alter der Daten in den 1-Periodenprognosen 1 945 beträgt, was bedeutet, dass sie tendenziell hinter Trends oder Wendepunkten um etwa 1 945 Perioden zurückbleiben werden. Daraus folgt, dass das Durchschnittsalter der Daten in den 1-Periodenprognosen eines ARIMA-Modells (0,1,1) ohne Konstante 1 (1 - 952 1) ist. Wenn beispielsweise 952 1 0,8 beträgt, ist das Durchschnittsalter 5. Da sich 952 1 1 nähert, wird das ARIMA-Modell (0,1,1) ohne Konstante zu einem sehr langfristigen gleitenden Durchschnitt und als 952 1 Ansätze 0 wird es ein random-walk-ohne-Drift-Modell. What8217s der beste Weg, um für Autokorrelation zu korrigieren: Hinzufügen von AR-Begriffe oder Hinzufügen von MA-Begriffen In den vorherigen beiden Modellen, die oben diskutiert wurden, wurde das Problem der autokorrelierten Fehler in einem zufälligen Fußmodell auf zwei verschiedene Arten behoben: durch Hinzufügen eines Verzögerungswertes der differenzierten Reihe Auf die Gleichung oder das Hinzufügen eines verzögerten Wertes des Prognosefehlers. Welcher Ansatz am besten ist Eine Regel für diese Situation, die später noch ausführlicher diskutiert wird, besteht darin, dass die positive Autokorrelation normalerweise am besten durch Hinzufügen eines AR-Terms zum Modell behandelt wird und negative Autokorrelation in der Regel am besten durch Hinzufügen eines MA-Semester. In der Wirtschafts - und Wirtschaftszeitreihe entsteht häufig eine negative Autokorrelation als Artefakt der Differenzierung. (Im allgemeinen differenziert die Differenzierung die positive Autokorrelation und kann sogar einen Wechsel von positiver zu negativer Autokorrelation bewirken.) Daher wird das ARIMA (0,1,1) - Modell, in dem die Differenzierung von einem MA-Begriff begleitet wird, häufiger verwendet als ein ARIMA (1,1,0) - Modell. ARIMA (0,1,1) mit konstanter einfacher exponentieller Glättung mit Wachstum: Durch die Implementierung des SES-Modells als ARIMA-Modell gewinnen Sie tatsächlich etwas Flexibilität. Zuerst darf der geschätzte MA (1) - Koeffizient negativ sein. Dies entspricht einem Glättungsfaktor von mehr als 1 in einem SES-Modell, das nach dem SES-Modellanpassungsverfahren meist nicht zulässig ist. Zweitens haben Sie die Möglichkeit, einen konstanten Begriff in das ARIMA-Modell aufzunehmen, wenn Sie es wünschen, um einen durchschnittlichen Trend, der nicht Null ist, abzuschätzen. Das Modell ARIMA (0,1,1) mit Konstante hat die Vorhersagegleichung: Die Ein-Perioden-Prognosen aus diesem Modell sind qualitativ denjenigen des SES-Modells ähnlich, mit der Ausnahme, dass die Trajektorie der Langzeitprognosen typischerweise a ist (Deren Neigung gleich mu ist) und nicht eine horizontale Linie. ARIMA (0,2,1) oder (0,2,2) ohne konstante lineare Exponentialglättung: Lineare exponentielle Glättungsmodelle sind ARIMA-Modelle, die zwei nicht-sauren Differenzen in Verbindung mit MA-Begriffen verwenden. Die zweite Differenz einer Folge Y ist nicht einfach die Differenz von Y und selbst von zwei Perioden verzögert, sondern sie ist die erste Differenz der ersten Differenz - i. e. Die Änderung in der Änderung von Y in der Periode t. Somit ist die zweite Differenz von Y in der Periode t gleich (Yt - Yt - 1) - (Yt - 1 - Yt - 2) Yt - 2Yt - 1Yt - 2. Eine zweite Differenz einer diskreten Funktion ist analog zu einer zweiten Ableitung einer stetigen Funktion: sie mißt zu einem gegebenen Zeitpunkt die Quota-Beschleunigung quot oder quotvequot in der Funktion. Das ARIMA (0,2,2) - Modell ohne Konstante sagt voraus, daß die zweite Differenz der Reihe eine lineare Funktion der letzten beiden Prognosefehler ist, die umgeordnet werden können: wobei 952 1 und 952 2 die MA (1) und MA (2) Koeffizienten. Dies ist ein allgemeines lineares exponentielles Glättungsmodell. Im Wesentlichen das gleiche wie Holt8217s Modell, und Brown8217s Modell ist ein spezieller Fall. Es verwendet exponentiell gewichtete gleitende Mittelwerte, um sowohl eine lokale Ebene als auch einen lokalen Trend in der Reihe abzuschätzen. Die Langzeitprognosen von diesem Modell konvergieren zu einer Geraden, deren Steigung von dem durchschnittlichen Trend abhängt, der gegen Ende der Reihe beobachtet wird. ARIMA (1,1,2) ohne konstante gedämpfte lineare Exponentialglättung. Dieses Modell ist in den begleitenden Dias auf ARIMA-Modellen dargestellt. Es extrapoliert die lokale Tendenz am Ende der Serie, sondern flacht es auf längere Prognose Horizonte, um eine Notiz von Konservatismus, eine Praxis, die empirische Unterstützung hat einzuführen. Siehe den Artikel auf quotWarum die Damped Trend Werke von Gardner und McKenzie und die quotGolden Rulequot Artikel von Armstrong et al. für Details. Es ist grundsätzlich ratsam, bei Modellen zu bleiben, bei denen mindestens einer von p und q nicht größer als 1 ist, dh nicht versuchen, ein Modell wie ARIMA (2,1,2) anzubringen, da dies zu Überbeanspruchungen führen kann Die in den Anmerkungen zur mathematischen Struktur von ARIMA-Modellen näher erläutert werden. Spreadsheet-Implementierung: ARIMA-Modelle wie die oben beschriebenen lassen sich einfach in einer Tabellenkalkulation implementieren. Die Vorhersagegleichung ist einfach eine lineare Gleichung, die sich auf vergangene Werte von ursprünglichen Zeitreihen und vergangenen Werten der Fehler bezieht. Auf diese Weise können Sie eine ARIMA-Prognosekalkulation einrichten, indem Sie die Daten in Spalte A, die Prognoseformel in Spalte B und die Fehler (Daten minus Prognosen) in Spalte C speichern. Die Prognoseformel in einer typischen Zelle in Spalte B wäre einfach Ein linearer Ausdruck, der sich auf Werte in vorhergehenden Zeilen der Spalten A und C bezieht, multipliziert mit den entsprechenden AR - oder MA-Koeffizienten, die in Zellen an anderer Stelle auf der Kalkulationstabelle gespeichert sind.


No comments:

Post a Comment