Thursday, 12 October 2017

Exponentiell Gewichtete Bewegliche Durchschnitt Vorteile


GARCH und EWMA 21. Mai 2010 von David Harper, CFA, FRM, CIPM AIM: Vergleichen, kontrastieren und berechnen parametrische und nichtparametrische Ansätze zur Schätzung der bedingten Volatilität 8230 Inklusive: GARCH APPROACH Inklusive: EXPONENTIAL SMOOTHING (EWMA) Exponentielle Glättung (bedingte parametrische) Moderne Methoden legen mehr Gewicht auf aktuelle Informationen. Sowohl EWMA als auch GARCH legen mehr Gewicht auf aktuelle Informationen. Weiterhin, da EWMA ein Spezialfall von GARCH ist, setzen EWMA und GARCH eine exponentielle Glättung ein. GARCH (p, q) und insbesondere GARCH (1, 1) GARCH (p, q) ist ein allgemein autoregressives, bedingtes heteroskedastisches Modell. Zu den wichtigsten Aspekten gehören: Autoregressive (AR). Morgen8217s Varianz (oder Volatilität) ist eine regressierte Funktion von heute8217s varance8212it regresses auf sich selbst Bedingung (C). Morgen8217svarianz hängt von der letzten Abweichung ab. Eine bedingungslose Abweichung würde nicht von heute abhängen8217s Varianz Heteroskedastic (H). Abweichungen sind nicht konstant, sie fließen im Laufe der Zeit GARCH regresses auf 8220lagged8221 oder historische Begriffe. Die verzögerten Begriffe sind entweder Varianz oder quadrierte Renditen. Das generische GARCH (p, q) Modell regressiert auf (p) quadratischen Rückkehr und (q) Abweichungen. Daher GARCH (1, 1) 8220lags8221 oder regresses auf letzter Periode8217s quadrierte Rückkehr (d. h. nur 1 Rückkehr) und letzte Periode8217s Varianz (d. h. nur 1 Varianz). GARCH (1, 1) gegeben durch die folgende Gleichung. Die gleiche GARCH (1, 1) Formel kann mit griechischen Parametern gegeben werden: Hull schreibt dieselbe GARCH-Gleichung wie folgt: Der erste Term (gVL) ist wichtig, weil VL die Langzeit-Durchschnittsvarianz ist. Daher ist (gVL) ein Produkt: Es ist die gewichtete Langzeit-Durchschnittsabweichung. Das Modell GARCH (1, 1) löst für die bedingte Varianz als Funktion von drei Variablen (vorherige Varianz, vorherige Rückkehr2 und Langzeitvarianz): Persistenz ist ein Merkmal, das im GARCH-Modell eingebettet ist. Tipp: In den obigen Formeln ist die Persistenz (b ​​c) oder (alpha-1 beta). Persistenz bezieht sich darauf, wie schnell (oder langsam) die Varianz zurückkehrt oder auf den langjährigen Durchschnitt zurückkehrt. Hohe Beharrlichkeit entspricht dem langsamen Zerfall und der langsamen Abbau der mittleren Verhältnisse entspricht dem raschen Zerfall und der schnellen Verringerung des Mittels.8221 Eine Beharrlichkeit von 1,0 impliziert keine mittlere Reversion. Eine Beharrlichkeit von weniger als 1,0 impliziert 8220reversion zum Mittelwert, 8221 wo eine niedrigere Persistenz eine stärkere Reversion zum Mittel bedeutet. Tipp: Wie oben ist die Summe der Gewichte, die der verzögerten Varianz und der verzögerten quadratischen Rückkehr zugeordnet sind, die Beharrlichkeit (bc persistence). Eine hohe Beharrlichkeit (größer als null, aber weniger als eins) impliziert eine langsame Rückkehr zum Mittelwert. Aber wenn die Gewichte, die der verzögerten Varianz und der zurückgebliebenen quadratischen Rückkehr zugeordnet sind, größer als eins sind, ist das Modell nicht stationär. Ist (bc) größer als 1 (wenn bc gt 1) ist das Modell nicht stationär und nach Hull instabil. In diesem Fall wird EWMA bevorzugt. Linda Allen sagt über GARCH (1, 1): GARCH ist sowohl 8220compact8221 (d. h. relativ einfach) und bemerkenswert genau. GARCH-Modelle dominieren in der wissenschaftlichen Forschung. Viele Variationen des GARCH-Modells wurden versucht, aber nur wenige haben das Original verbessert. Der Nachteil des GARCH-Modells ist seine Nichtlinearität sic Zum Beispiel: Für die Langzeitvarianz in GARCH lösen (1,1) Betrachten wir die GARCH (1, 1) Gleichung unten: Angenommen, der Alpha-Parameter 0.2, der Beta-Parameter 0,7, Und beachten Sie, dass Omega ist 0,2 aber don8217t Fehler Omega (0,2) für die langfristige Varianz Omega ist das Produkt von Gamma und die langfristige Varianz. Also, wenn Alpha Beta 0,9, dann muss Gamma 0,1 sein. Angesichts der Tatsache, dass Omega 0,2 ist, wissen wir, dass die Langzeitabweichung 2,0 (0,2 184 0,1 2,0) betragen muss. GARCH (1,1): Der bloße Notationsunterschied zwischen Hull und Allen EWMA ist ein Spezialfall von GARCH (1,1) und GARCH (1,1) ist ein allgemeiner Fall von EWMA. Der herausragende Unterschied besteht darin, dass GARCH den zusätzlichen Term für die mittlere Reversion enthält und EWMA eine mittlere Reversion fehlt. Hier gelangen wir von GARCH (1,1) zu EWMA: Dann lassen wir 0 und (bc) 1, so dass die obige Gleichung vereinfacht wird: Dies entspricht nun der Formel für exponentiell gewichtete gleitende Mittelwerte (EWMA): In EWMA bestimmt der Lambda-Parameter nun den 8220decay: 8221 ein Lambda, der nahe bei einem (hohen Lambda) liegt, zeigt einen langsamen Abfall. Der RiskMetricsTM-Ansatz RiskMetrics ist eine Markenform des exponentiell gewichteten gleitenden Durchschnitts (EWMA) - Ansatzes: Das optimale (theoretische) Lambda variiert je nach Assetklasse, aber der von RiskMetrics verwendete Gesamt-Optimal-Parameter betrug 0,94. In der Praxis verwendet RiskMetrics nur einen Zerfallsfaktor für alle Serien: 183 0,94 für Tagesdaten 183 0,97 für monatliche Daten (Monat definiert als 25 Handelstage) Technisch sind die täglichen und monatlichen Modelle inkonsistent. Allerdings sind sie beide einfach zu bedienen, sie approximieren das Verhalten der tatsächlichen Daten ganz gut, und sie sind robust zu misspecification. Hinweis: GARCH (1, 1), EWMA und RiskMetrics sind jeweils parametrisch und rekursiv. Rekursive EWMA Vorteile und Nachteile von MA (dh STDEV) vs. GARCH Grafische Zusammenfassung der parametrischen Methoden, die den jüngsten Erträgen mehr Gewicht verleihen (GARCH amp EWMA) Zusammenfassung Tipps: GARCH (1, 1) ist verallgemeinert RiskMetrics und umgekehrt ist RiskMetrics Beschränkter Fall von GARCH (1,1) wobei a 0 und (bc) 1. GARCH (1, 1) gegeben ist durch: Die drei Parameter sind Gewichte und müssen daher zu einem: Tip: Sei vorsichtig über den ersten Begriff in der GARCH (1, 1) Gleichung: omega () gamma () (durchschnittliche Langzeitvarianz). Wenn Sie nach der Varianz gefragt sind, müssen Sie das Gewicht aufteilen, um die durchschnittliche Varianz zu berechnen. Bestimmen Sie, wann und ob ein GARCH - oder EWMA-Modell in der Volatilitätsschätzung verwendet werden soll. In der Praxis sind die Abweichungsraten in der Regel ein Mittelwert, so dass das GARCH (1, 1) - Modell theoretisch überlegen ist (8220 eher ansprechend als8221) an das EWMA-Modell. Denken Sie daran, dass8217s der große Unterschied: GARCH fügt den Parameter hinzu, der den Langzeitdurchschnitt gewichtet hat und daher eine mittlere Reversion beinhaltet. Tipp: GARCH (1, 1) ist bevorzugt, wenn der erste Parameter nicht negativ ist (was impliziert wird, wenn alpha beta gt 1). In diesem Fall ist GARCH (1,1) instabil und EWMA ist bevorzugt. Erläutern Sie, wie die GARCH-Schätzungen Prognosen liefern können, die genauer sind. Der gleitende Durchschnitt berechnet die Varianz auf der Grundlage eines nachlaufenden Beobachtungsfensters, z. B. Die letzten zehn Tage, die letzten 100 Tage. Es gibt zwei Probleme mit gleitendem Durchschnitt (MA): Ghosting-Funktion: Volatilitätsstöße (plötzliche Erhöhungen) werden abrupt in die MA-Metrik integriert und dann, wenn das nachlaufende Fenster vergeht, werden sie plötzlich aus der Berechnung fallen gelassen. Dadurch wird die MA-Metrik in Bezug auf die gewählte Fensterlänge verschoben. Trendinformationen werden nicht berücksichtigt GARCH-Schätzungen verbessern diese Schwächen auf zwei Arten: Neuere Beobachtungen werden mit größeren Gewichten vergeben. Dies überwindet das Geisterbild, weil ein Volatilitätsschock sofort die Schätzung beeinflussen wird, aber sein Einfluss wird allmählich verblassen, wenn die Zeit vergeht. Ein Begriff wird hinzugefügt, um die Reversion in den Mittelwert zu integrieren. Erklären Sie, wie die Beharrlichkeit mit der Rückkehr zum Mittelwert zusammenhängt. Angesichts der GARCH (1, 1) Gleichung: Die Persistenz ist gegeben durch: GARCH (1, 1) ist instabil, wenn die Persistenz gt 1. Eine Persistenz von 1,0 bedeutet keine mittlere Reversion. Eine geringe Persistenz (z. B. 0,6) zeigt einen schnellen Abfall und eine hohe Reversion zum Mittel an. Tipp: GARCH (1, 1) hat drei Gewichte, die drei Faktoren zugeordnet sind. Persistenz ist die Summe der Gewichte, die sowohl der verzögerten Varianz als auch der verzögerten quadratischen Rückkehr zugeordnet sind. Das andere Gewicht ist der Langzeitvarianz zugeordnet. Wenn P-Persistenz und G-Gewicht der Langzeit-Varianz zugeordnet sind, dann gilt PG 1. Wenn also P (Persistenz) hoch ist, dann ist G (mittlere Reversion) niedrig: Die anhaltende Reihe ist nicht stark, das bedeutet, dass sie sich zurückzieht bedeuten. Wenn P niedrig ist, dann muss G hoch sein: die unauffällige Reihe bedeutet stark, dass es zurückkehrt, zeigt es 8220rapid decay8221 zum Mittelwert. Die durchschnittliche, bedingungslose Varianz des GARCH (1, 1) Modells ist gegeben durch: Erläutern Sie, wie EWMA systematisch ältere Daten abgibt und die täglichen und monatlichen Zerfallsfaktoren von RiskMetrics174 identifiziert. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) ist gegeben durch: Die obige Formel ist eine rekursive Vereinfachung der 8220true8221 EWMA-Serie, die gegeben ist durch: In der EWMA-Reihe ist jedes Gewicht, das den quadrierten Rückgängen zugeordnet ist, ein konstantes Verhältnis des vorhergehenden Gewichts. Speziell ist Lambda (l) das Verhältnis zwischen benachbarten Gewichten. Auf diese Weise werden ältere Daten systematisch abgezinst. Der systematische Rabatt kann schrittweise (langsam) oder abrupt, je nach Lambda. Wenn Lambda hoch ist (z. B. 0,99), dann ist die Diskontierung sehr allmählich. Wenn Lambda niedrig ist (z. B. 0,7), ist die Diskontierung abrupt. Die RiskMetrics TM-Zerfallsfaktoren: 0,94 für tägliche Daten 0,97 für monatliche Daten (Monat definiert als 25 Handelstage) Erläutern Sie, warum Prognose-Korrelationen wichtiger sein können als die Prognose von Volatilitäten. Bei der Messung des Portfolio-Risikos können Korrelationen wichtiger sein als die individuelle Volatilitätsvariabilität. Daher kann im Hinblick auf das Portfolio-Risiko eine Korrelationsvorhersage wichtiger sein als einzelne Volatilitätsprognosen. Verwenden Sie GARCH (1, 1) zur Prognose der Volatilität Die erwartete zukünftige Varianzrate in (t) Perioden vorwärts ist gegeben durch: Nehmen wir beispielsweise an, dass eine aktuelle Volatilitätsschätzung (Periode n) durch die folgenden GARCH (1, 1 ) Gleichung: In diesem Beispiel ist alpha das Gewicht (0,1), das der vorherigen quadratischen Rückkehr zugeordnet ist (die vorherige Rückkehr war 4), beta ist das Gewicht (0,7), das der vorherigen Varianz (0,0016) zugeordnet ist. Was ist die erwartete zukünftige Volatilität, in zehn Tagen (n 10) Erstens, für die langfristige Varianz zu lösen. Es ist nicht 0,00008 dieser Begriff ist das Produkt der Varianz und sein Gewicht. Da das Gewicht 0,2 (1 - 0,1 - 0,7) betragen muss, beträgt die Langzeitabweichung 0,0004. Zweitens brauchen wir die aktuelle Varianz (Periode n). Das ist uns fast oben gegeben: Jetzt können wir die Formel anwenden, um für die erwartete zukünftige Varianz zu lösen: Dies ist die erwartete Varianzrate, so dass die erwartete Volatilität etwa 2,24 beträgt. Beachten Sie, wie das funktioniert: Die aktuelle Volatilität beträgt etwa 3,69 und die Langzeitvolatilität ist 2. Die 10-Tage-Vorwärtsprojektion 8220fades8221 die aktuelle Rate näher an der Langzeitrate. Nichtparametrische VolatilitätsvorhersageMoving durchschnittliche und exponentielle Glättungsmodelle Als erster Schritt, um über mittlere Modelle hinauszugehen, können zufällige Wandermodelle und lineare Trendmodelle, Nichtseasonalmuster und Trends mit einem gleitenden Durchschnitt oder Glättungsmodell extrapoliert werden. Die Grundannahme hinter Mittelwertbildung und Glättung von Modellen ist, dass die Zeitreihe lokal stationär mit einem langsam variierenden Mittel ist. Daher nehmen wir einen bewegten (lokalen) Durchschnitt, um den aktuellen Wert des Mittelwerts abzuschätzen und dann das als die Prognose für die nahe Zukunft zu verwenden. Dies kann als Kompromiss zwischen dem mittleren Modell und dem random-walk-without-drift-Modell betrachtet werden. Die gleiche Strategie kann verwendet werden, um einen lokalen Trend abzuschätzen und zu extrapolieren. Ein gleitender Durchschnitt wird oft als quotsmoothedquot Version der ursprünglichen Serie, weil kurzfristige Mittelung hat die Wirkung der Glättung der Beulen in der ursprünglichen Serie. Durch die Anpassung des Grades der Glättung (die Breite des gleitenden Durchschnitts), können wir hoffen, eine Art von optimalem Gleichgewicht zwischen der Leistung der mittleren und zufälligen Wandermodelle zu schlagen. Die einfachste Art von Mittelungsmodell ist die. Einfache (gleichgewichtete) Moving Average: Die Prognose für den Wert von Y zum Zeitpunkt t1, der zum Zeitpunkt t gemacht wird, entspricht dem einfachen Durchschnitt der letzten m Beobachtungen: (Hier und anderswo verwende ich das Symbol 8220Y-hat8221 zu stehen Für eine Prognose der Zeitreihe Y, die zum frühestmöglichen früheren Datum durch ein gegebenes Modell gemacht wurde.) Dieser Durchschnitt ist in der Periode t (m1) 2 zentriert, was impliziert, dass die Schätzung des lokalen Mittels dazu neigen wird, hinter dem wahren zu liegen Wert des lokalen Mittels um etwa (m1) 2 Perioden. So sagen wir, dass das Durchschnittsalter der Daten im einfachen gleitenden Durchschnitt (m1) 2 relativ zu dem Zeitraum ist, für den die Prognose berechnet wird: Dies ist die Zeitspanne, mit der die Prognosen dazu neigen, hinter den Wendepunkten in den Daten zu liegen . Zum Beispiel, wenn Sie durchschnittlich die letzten 5 Werte sind, werden die Prognosen etwa 3 Perioden spät in Reaktion auf Wendepunkte. Beachten Sie, dass, wenn m1, das einfache gleitende Durchschnitt (SMA) - Modell entspricht dem zufälligen Walk-Modell (ohne Wachstum). Wenn m sehr groß ist (vergleichbar mit der Länge der Schätzperiode), entspricht das SMA-Modell dem mittleren Modell. Wie bei jedem Parameter eines Prognosemodells ist es üblich, den Wert von k anzupassen, um die besten Quoten für die Daten zu erhalten, d. h. die kleinsten Prognosefehler im Durchschnitt. Hier ist ein Beispiel für eine Reihe, die zufällige Schwankungen um ein langsam variierendes Mittel zeigt. Zuerst können wir versuchen, es mit einem zufälligen Spaziergang Modell, das entspricht einem einfachen gleitenden Durchschnitt von 1 Begriff: Das zufällige Spaziergang Modell reagiert sehr schnell auf Änderungen in der Serie, aber in diesem Fall nimmt es viel von der Quotierung in der Daten (die zufälligen Schwankungen) sowie das quotsignalquot (das lokale Mittel). Wenn wir stattdessen einen einfachen gleitenden Durchschnitt von 5 Begriffen ausprobieren, erhalten wir einen glatteren Prognosen: Der 5-fach einfache gleitende Durchschnitt liefert in diesem Fall deutlich kleinere Fehler als das zufällige Spaziergangmodell. Das Durchschnittsalter der Daten in dieser Prognose beträgt 3 ((51) 2), so dass es dazu neigt, hinter den Wendepunkten um etwa drei Perioden zurückzukehren. (Zum Beispiel scheint ein Abschwung in der Periode 21 aufgetreten zu sein, aber die Prognosen drehen sich nicht um einige Perioden später.) Beachten Sie, dass die Langzeitprognosen des SMA-Modells eine horizontale Gerade sind, genau wie im zufälligen Spaziergang Modell. So geht das SMA-Modell davon aus, dass es keinen Trend in den Daten gibt. Während die Prognosen aus dem zufälligen Wandermodell einfach dem letzten beobachteten Wert entsprechen, sind die Prognosen des SMA-Modells gleich einem gewichteten Durchschnitt der letzten Werte. Die von Statgraphics für die Langzeitprognosen des einfachen gleitenden Durchschnittes berechneten Vertrauensgrenzen werden nicht weiter erhöht, wenn der Prognosehorizont zunimmt. Das ist offensichtlich nicht richtig Leider gibt es keine zugrundeliegende statistische Theorie, die uns sagt, wie sich die Konfidenzintervalle für dieses Modell erweitern sollten. Allerdings ist es nicht zu schwer, empirische Schätzungen der Vertrauensgrenzen für die längerfristigen Prognosen zu berechnen. Zum Beispiel könnten Sie eine Kalkulationstabelle einrichten, in der das SMA-Modell zur Vorhersage von 2 Schritten voraus, 3 Schritten voraus, etc. im historischen Datenmuster verwendet werden würde. Sie können dann die Stichproben-Standardabweichungen der Fehler bei jedem Prognosehorizont berechnen und dann Konfidenzintervalle für längerfristige Prognosen durch Addition und Subtraktion von Vielfachen der entsprechenden Standardabweichung aufbauen. Wenn wir einen 9-fach einfachen gleitenden Durchschnitt versuchen, bekommen wir noch glattere Prognosen und mehr von einem nacheilenden Effekt: Das Durchschnittsalter beträgt nun 5 Perioden ((91) 2). Wenn wir einen 19-fachen gleitenden Durchschnitt nehmen, steigt das Durchschnittsalter auf 10: Beachten Sie, dass die Prognosen in der Tat hinter den Wendepunkten um etwa 10 Perioden zurückbleiben. Welche Menge an Glättung ist am besten für diese Serie Hier ist eine Tabelle, die ihre Fehlerstatistik vergleicht, auch einen 3-Term-Durchschnitt: Modell C, der 5-fache gleitende Durchschnitt, ergibt den niedrigsten Wert von RMSE um einen kleinen Marge über die 3 - term und 9-term Mittelwerte, und ihre anderen Statistiken sind fast identisch. So können wir bei Modellen mit sehr ähnlichen Fehlerstatistiken wählen, ob wir ein wenig mehr Reaktionsfähigkeit oder ein wenig mehr Glätte in den Prognosen bevorzugen würden. (Zurück zum Anfang der Seite) Browns Einfache Exponential-Glättung (exponentiell gewichteter gleitender Durchschnitt) Das oben beschriebene einfache gleitende Durchschnittsmodell hat die unerwünschte Eigenschaft, dass es die letzten k-Beobachtungen gleichermaßen behandelt und alle vorherigen Beobachtungen völlig ignoriert. Intuitiv sollten vergangene Daten in einer allmählicheren Weise abgezinst werden - zum Beispiel sollte die jüngste Beobachtung ein wenig mehr Gewicht als die 2. jüngste, und die 2. jüngsten sollte ein wenig mehr Gewicht als die 3. jüngsten bekommen, und bald. Das einfache exponentielle Glättungsmodell (SES) erreicht dies. Sei 945 eine quotsmoothing constantquot (eine Zahl zwischen 0 und 1). Eine Möglichkeit, das Modell zu schreiben, besteht darin, eine Reihe L zu definieren, die den gegenwärtigen Pegel (d. h. den lokalen Mittelwert) der Reihe repräsentiert, wie er von den Daten bis zur Gegenwart geschätzt wird. Der Wert von L zum Zeitpunkt t wird rekursiv aus seinem eigenen vorherigen Wert wie folgt berechnet: Somit ist der aktuelle geglättete Wert eine Interpolation zwischen dem vorherigen geglätteten Wert und der aktuellen Beobachtung, wobei 945 die Nähe des interpolierten Wertes auf den letzten Wert steuert Überwachung. Die Prognose für die nächste Periode ist einfach der aktuell geglättete Wert: Gleichermaßen können wir die nächste Prognose direkt in Bezug auf vorherige Prognosen und frühere Beobachtungen in einer der folgenden gleichwertigen Versionen ausdrücken. In der ersten Version ist die Prognose eine Interpolation zwischen vorheriger Prognose und vorheriger Beobachtung: In der zweiten Version wird die nächste Prognose erhalten, indem man die vorherige Prognose in Richtung des vorherigen Fehlers um einen Bruchteil 945 anpasst Zeit t. In der dritten Version ist die Prognose ein exponentiell gewichteter (dh diskontierter) gleitender Durchschnitt mit Rabattfaktor 1-945: Die Interpolationsversion der Prognoseformel ist am einfachsten zu bedienen, wenn man das Modell auf einer Tabellenkalkulation implementiert: Es passt in eine Einzelzelle und enthält Zellreferenzen, die auf die vorherige Prognose, die vorherige Beobachtung und die Zelle hinweisen, in der der Wert von 945 gespeichert ist. Beachten Sie, dass bei 945 1 das SES-Modell einem zufälligen Walk-Modell entspricht (ohne Wachstum). Wenn 945 0 ist, entspricht das SES-Modell dem mittleren Modell, vorausgesetzt, dass der erste geglättete Wert gleich dem Mittelwert ist. (Zurück zum Anfang der Seite) Das Durchschnittsalter der Daten in der einfach-exponentiellen Glättungsprognose beträgt 1 945 gegenüber dem Zeitraum, für den die Prognose berechnet wird. (Das soll nicht offensichtlich sein, aber es kann leicht durch die Auswertung einer unendlichen Reihe gezeigt werden.) Die einfache gleitende Durchschnittsprognose neigt daher dazu, hinter den Wendepunkten um etwa 1 945 Perioden zurückzukehren. Zum Beispiel, wenn 945 0,5 die Verzögerung 2 Perioden beträgt, wenn 945 0,2 die Verzögerung 5 Perioden beträgt, wenn 945 0,1 die Verzögerung 10 Perioden und so weiter ist. Für ein gegebenes Durchschnittsalter (d. H. Verzögerung) ist die Prognose der einfachen exponentiellen Glättung (SES) der einfachen gleitenden Durchschnitts - (SMA) - Prognose etwas überlegen, da sie die jüngste Beobachtung - Es ist etwas mehr auffallend auf Veränderungen, die in der jüngsten Vergangenheit auftreten. Zum Beispiel hat ein SMA-Modell mit 9 Begriffen und einem SES-Modell mit 945 0,2 beide ein Durchschnittsalter von 5 für die Daten in ihren Prognosen, aber das SES-Modell setzt mehr Gewicht auf die letzten 3 Werte als das SMA-Modell und am Gleichzeitig ist es genau 8220forget8221 über Werte mehr als 9 Perioden alt, wie in dieser Tabelle gezeigt: Ein weiterer wichtiger Vorteil des SES-Modells gegenüber dem SMA-Modell ist, dass das SES-Modell einen Glättungsparameter verwendet, der stufenlos variabel ist, so dass er leicht optimiert werden kann Indem ein Quotsolverquot-Algorithmus verwendet wird, um den mittleren quadratischen Fehler zu minimieren. Der optimale Wert von 945 im SES-Modell für diese Baureihe ergibt sich auf 0,2961, wie hier gezeigt: Das Durchschnittsalter der Daten in dieser Prognose beträgt 10.2961 3.4 Perioden, was ähnlich ist wie bei einem 6-fach einfach gleitenden Durchschnitt. Die Langzeitprognosen des SES-Modells sind eine horizontale Gerade. Wie im SMA-Modell und dem zufälligen Walk-Modell ohne Wachstum. Allerdings ist zu beachten, dass die von Statgraphics berechneten Konfidenzintervalle nun in einer vernünftig aussehenden Weise abweichen und dass sie wesentlich schmaler sind als die Konfidenzintervalle für das zufällige Spaziergangmodell. Das SES-Modell geht davon aus, dass die Serie etwas vorhersehbar ist als das zufällige Spaziergangmodell. Ein SES-Modell ist eigentlich ein Spezialfall eines ARIMA-Modells. So bietet die statistische Theorie der ARIMA-Modelle eine fundierte Grundlage für die Berechnung von Konfidenzintervallen für das SES-Modell. Insbesondere ist ein SES-Modell ein ARIMA-Modell mit einer nicht-seasonalen Differenz, einem MA (1) Term und keinem konstanten Term. Ansonsten bekannt als ein quotARIMA (0,1,1) Modell ohne constantquot. Der MA (1) - Koeffizient im ARIMA-Modell entspricht der Menge 1-945 im SES-Modell. Zum Beispiel, wenn man ein ARIMA (0,1,1) Modell ohne Konstante an die hier analysierte Serie passt, ergibt sich der geschätzte MA (1) Koeffizient 0,7029, was fast genau ein minus 0.2961 ist. Es ist möglich, die Annahme eines nicht-null konstanten linearen Trends zu einem SES-Modell hinzuzufügen. Um dies zu tun, geben Sie einfach ein ARIMA-Modell mit einer nicht-seasonalen Differenz und einem MA (1) Begriff mit einer Konstante, d. h. ein ARIMA (0,1,1) Modell mit konstant. Die langfristigen Prognosen werden dann einen Trend haben, der dem durchschnittlichen Trend entspricht, der über den gesamten Schätzungszeitraum beobachtet wird. Sie können dies nicht in Verbindung mit saisonaler Anpassung tun, da die saisonalen Anpassungsoptionen deaktiviert sind, wenn der Modelltyp auf ARIMA eingestellt ist. Allerdings können Sie einen konstanten langfristigen exponentiellen Trend zu einem einfachen exponentiellen Glättungsmodell (mit oder ohne saisonale Anpassung) hinzufügen, indem Sie die Inflationsanpassungsoption im Vorhersageverfahren verwenden. Die jeweilige Quotenquote (prozentuale Wachstumsrate) pro Periode kann als Steigungskoeffizient in einem linearen Trendmodell geschätzt werden, das an die Daten in Verbindung mit einer natürlichen Logarithmus-Transformation angepasst ist, oder sie kann auf anderen, unabhängigen Informationen über langfristige Wachstumsaussichten basieren . (Zurück zum Seitenanfang) Browns Linear (dh Double) Exponentielle Glättung Die SMA Modelle und SES Modelle gehen davon aus, dass es in den Daten keinen Trend gibt (was in der Regel ok oder zumindest nicht so schlecht ist für 1- Schritt-voraus Prognosen, wenn die Daten relativ laut sind), und sie können modifiziert werden, um einen konstanten linearen Trend wie oben gezeigt zu integrieren. Was ist mit kurzfristigen Trends Wenn eine Serie eine unterschiedliche Wachstumsrate oder ein zyklisches Muster zeigt, das sich deutlich gegen den Lärm auszeichnet, und wenn es notwendig ist, mehr als einen Zeitraum voraus zu prognostizieren, dann könnte auch eine Einschätzung eines lokalen Trends erfolgen Ein Problem. Das einfache exponentielle Glättungsmodell kann verallgemeinert werden, um ein lineares exponentielles Glättungsmodell (LES) zu erhalten, das lokale Schätzungen sowohl von Ebene als auch von Trend berechnet. Das einfachste zeitveränderliche Trendmodell ist das lineare, exponentielle Glättungsmodell von Browns, das zwei verschiedene geglättete Serien verwendet, die zu unterschiedlichen Zeitpunkten zentriert sind. Die Prognoseformel basiert auf einer Extrapolation einer Linie durch die beiden Zentren. (Eine ausgefeiltere Version dieses Modells, Holt8217s, wird unten diskutiert.) Die algebraische Form des linearen exponentiellen Glättungsmodells von Brown8217s, wie das des einfachen exponentiellen Glättungsmodells, kann in einer Anzahl von verschiedenen, aber äquivalenten Formen ausgedrückt werden. Die quadratische Form dieses Modells wird gewöhnlich wie folgt ausgedrückt: Sei S die einfach geglättete Reihe, die durch Anwendung einer einfachen exponentiellen Glättung auf die Reihe Y erhalten wird. Das heißt, der Wert von S in der Periode t ist gegeben durch: (Erinnern Sie sich, dass unter einfachem Exponentielle Glättung, das wäre die Prognose für Y in der Periode t1.) Dann sei Squot die doppelt geglättete Reihe, die durch Anwendung einer einfachen exponentiellen Glättung (mit demselben 945) auf die Reihe S erhalten wird: Schließlich ist die Prognose für Y tk. Für irgendwelche kgt1 ist gegeben durch: Dies ergibt e 1 0 (d. h. Cheat ein Bit, und lassen Sie die erste Prognose gleich der tatsächlichen ersten Beobachtung) und e 2 Y 2 8211 Y 1. Nach denen Prognosen mit der obigen Gleichung erzeugt werden. Dies ergibt die gleichen angepassten Werte wie die Formel auf Basis von S und S, wenn diese mit S 1 S 1 Y 1 gestartet wurden. Diese Version des Modells wird auf der nächsten Seite verwendet, die eine Kombination aus exponentieller Glättung mit saisonaler Anpassung darstellt. Holt8217s Lineare Exponential-Glättung Brown8217s LES-Modell berechnet lokale Schätzungen von Level und Trend durch Glättung der aktuellen Daten, aber die Tatsache, dass es dies mit einem einzigen Glättungsparameter macht, legt eine Einschränkung auf die Datenmuster, die es passen kann: das Niveau und den Trend Dürfen nicht zu unabhängigen Preisen variieren. Holt8217s LES-Modell adressiert dieses Problem, indem es zwei Glättungskonstanten einschließt, eine für die Ebene und eine für den Trend. Zu jeder Zeit t, wie in Brown8217s Modell, gibt es eine Schätzung L t der lokalen Ebene und eine Schätzung T t der lokalen Trend. Hier werden sie rekursiv aus dem Wert von Y, der zum Zeitpunkt t beobachtet wurde, und den vorherigen Schätzungen des Niveaus und des Tendenzes durch zwei Gleichungen berechnet, die eine exponentielle Glättung für sie separat anwenden. Wenn der geschätzte Pegel und der Trend zum Zeitpunkt t-1 L t82091 und T t-1 sind. Dann ist die Prognose für Y tshy, die zum Zeitpunkt t-1 gemacht worden wäre, gleich L t-1 T t-1. Wenn der Istwert beobachtet wird, wird die aktualisierte Schätzung des Pegels rekursiv durch Interpolation zwischen Y tshy und dessen Prognose L t-1 T t-1 unter Verwendung von Gewichten von 945 und 1 945 berechnet. Die Änderung des geschätzten Pegels, Nämlich L t 8209 L t82091. Kann als eine laute Messung des Trends zum Zeitpunkt t interpretiert werden. Die aktualisierte Schätzung des Trends wird dann rekursiv durch Interpolation zwischen L t 8209 L t82091 und der vorherigen Schätzung des Trends T t-1 berechnet. Mit Gewichten von 946 und 1-946: Die Interpretation der Trend-Glättungs-Konstante 946 ist analog zu der Niveau-Glättungs-Konstante 945. Modelle mit kleinen Werten von 946 gehen davon aus, dass sich der Trend nur sehr langsam über die Zeit ändert, während Modelle mit Größer 946 nehmen an, dass es sich schneller ändert. Ein Modell mit einer großen 946 glaubt, dass die ferne Zukunft sehr unsicher ist, denn Fehler in der Trendschätzung werden bei der Prognose von mehr als einer Periode sehr wichtig. (Zurück zum Seitenanfang) Die Glättungskonstanten 945 und 946 können in der üblichen Weise durch Minimierung des mittleren quadratischen Fehlers der 1-Schritt-voraus-Prognosen geschätzt werden. Wenn dies in Statgraphics geschieht, ergeben sich die Schätzungen auf 945 0.3048 und 946 0,008. Der sehr kleine Wert von 946 bedeutet, dass das Modell eine sehr geringe Veränderung des Trends von einer Periode zur nächsten einnimmt, so dass dieses Modell grundsätzlich versucht, einen langfristigen Trend abzuschätzen. In Analogie zum Begriff des Durchschnittsalters der Daten, die bei der Schätzung der lokalen Ebene der Serie verwendet wird, ist das Durchschnittsalter der Daten, die bei der Schätzung des lokalen Trends verwendet wird, proportional zu 1 946, wenn auch nicht genau gleich . In diesem Fall stellt sich heraus, dass es sich um 10.006 125 handelt. Dies ist eine sehr genaue Zahl, da die Genauigkeit der Schätzung von 946 wirklich 3 Dezimalstellen ist, aber sie ist von der gleichen allgemeinen Größenordnung wie die Stichprobengröße von 100 Dieses Modell ist durchschnittlich über eine ganze Menge Geschichte bei der Schätzung der Trend. Die prognostizierte Handlung unten zeigt, dass das LES-Modell einen geringfügig größeren lokalen Trend am Ende der Serie schätzt als der im SEStrend-Modell geschätzte konstante Trend. Auch der Schätzwert von 945 ist fast identisch mit dem, der durch die Anpassung des SES-Modells mit oder ohne Trend erhalten wird. Das ist also fast das gleiche Modell. Nun, sehen diese aus wie vernünftige Prognosen für ein Modell, das soll ein lokaler Trend schätzen Wenn Sie diese Handlung, es sieht so aus, als ob der lokale Trend hat sich nach unten am Ende der Serie Was ist passiert Die Parameter dieses Modells Wurden durch die Minimierung der quadratischen Fehler von 1-Schritt-voraus Prognosen, nicht längerfristige Prognosen geschätzt, in welchem ​​Fall der Trend doesn8217t machen einen großen Unterschied. Wenn alles, was Sie suchen, sind 1-Schritt-vor-Fehler, sehen Sie nicht das größere Bild der Trends über (sagen) 10 oder 20 Perioden. Um dieses Modell mehr im Einklang mit unserer Augapfel-Extrapolation der Daten zu erhalten, können wir die Trend-Glättung konstant manuell anpassen, so dass es eine kürzere Grundlinie für Trendschätzung verwendet. Zum Beispiel, wenn wir uns dafür entscheiden, 946 0,1 zu setzen, dann ist das Durchschnittsalter der Daten, die bei der Schätzung des lokalen Trends verwendet werden, 10 Perioden, was bedeutet, dass wir den Trend über die letzten 20 Perioden oder so vermitteln. Hier8217s, was die Prognose Handlung aussieht, wenn wir 946 0,1 gesetzt, während halten 945 0,3. Das sieht für diese Serie intuitiv vernünftig aus, obwohl es wahrscheinlich gefährlich ist, diesen Trend in Zukunft mehr als 10 Perioden zu extrapolieren. Was ist mit den Fehlerstatistiken Hier ist ein Modellvergleich für die beiden oben gezeigten Modelle sowie drei SES-Modelle. Der optimale Wert von 945 für das SES-Modell beträgt etwa 0,3, aber es werden ähnliche Ergebnisse (mit etwas mehr oder weniger Ansprechverhalten) mit 0,5 und 0,2 erhalten. (A) Holts linear exp. Glättung mit alpha 0.3048 und beta 0.008 (B) Holts linear exp. Glättung mit alpha 0,3 und beta 0,1 (C) Einfache exponentielle Glättung mit alpha 0,5 (D) Einfache exponentielle Glättung mit alpha 0,3 (E) Einfache exponentielle Glättung mit alpha 0.2 Ihre Stats sind nahezu identisch, so dass wir wirklich die Wahl treffen können Von 1-Schritt-voraus Prognosefehler innerhalb der Datenprobe Wir müssen auf andere Überlegungen zurückgreifen. Wenn wir stark davon überzeugt sind, dass es sinnvoll ist, die aktuelle Trendschätzung auf das, was in den letzten 20 Perioden passiert ist, zu stützen, so können wir einen Fall für das LES-Modell mit 945 0,3 und 946 0,1 machen. Wenn wir agnostisch darüber sein wollen, ob es einen lokalen Trend gibt, dann könnte eines der SES-Modelle leichter zu erklären sein und würde auch mehr Mittelwert der Prognosen für die nächsten 5 oder 10 Perioden geben. (Rückkehr nach oben) Welche Art von Trend-Extrapolation ist am besten: horizontal oder linear Empirische Evidenz deutet darauf hin, dass, wenn die Daten bereits für die Inflation angepasst wurden (falls erforderlich), dann kann es unklug sein, kurzfristig linear zu extrapolieren Trends sehr weit in die Zukunft. Trends, die heute deutlich werden, können in Zukunft aufgrund unterschiedlicher Ursachen wie Produktveralterung, erhöhter Konkurrenz und zyklischer Abschwünge oder Aufschwünge in einer Branche nachlassen. Aus diesem Grund führt eine einfache, exponentielle Glättung oftmals zu einem besseren Out-of-Sample, als es sonst zu erwarten wäre, trotz der quadratischen horizontalen Trend-Extrapolation. Gedämpfte Trendmodifikationen des linearen exponentiellen Glättungsmodells werden auch in der Praxis häufig verwendet, um eine Note des Konservatismus in seine Trendprojektionen einzuführen. Das LES-Modell mit gedämpftem Trend kann als Spezialfall eines ARIMA-Modells, insbesondere eines ARIMA (1,1,2) - Modells, implementiert werden. Es ist möglich, Konfidenzintervalle um Langzeitprognosen zu berechnen, die durch exponentielle Glättungsmodelle erzeugt werden, indem sie sie als Sonderfälle von ARIMA-Modellen betrachten. (Vorsicht: Nicht alle Software berechnet die Konfidenzintervalle für diese Modelle korrekt.) Die Breite der Konfidenzintervalle hängt von (i) dem RMS-Fehler des Modells ab, (ii) der Art der Glättung (einfach oder linear) (iii) der Wert (S) der Glättungskonstante (n) und (iv) die Anzahl der voraussichtlichen Perioden, die Sie prognostizieren. Im Allgemeinen werden die Intervalle schneller ausgebreitet als 945 im SES-Modell größer und sie breiten sich viel schneller aus, wenn lineare statt einfache Glättung verwendet wird. Dieses Thema wird im ARIMA-Modellteil der Notizen weiter erörtert. (Zurück zum Anfang der Seite) Erforschung der exponentiell gewichteten beweglichen durchschnittlichen Volatilität ist die häufigste Maßnahme des Risikos, aber es kommt in mehreren Geschmacksrichtungen. In einem früheren Artikel haben wir gezeigt, wie man einfache historische Volatilität berechnet. (Um diesen Artikel zu lesen, siehe Volatilität verwenden, um zukünftiges Risiko zu beurteilen.) Wir haben Googles aktuelle Aktienkursdaten verwendet, um die tägliche Volatilität auf der Grundlage von 30 Tagen Lagerbestand zu berechnen. In diesem Artikel werden wir die einfache Volatilität verbessern und den exponentiell gewichteten gleitenden Durchschnitt (EWMA) diskutieren. Historische Vs. Implizite Volatilität Zuerst können wir diese Metrik in ein bisschen Perspektive bringen. Es gibt zwei breite Ansätze: historische und implizite (oder implizite) Volatilität. Der historische Ansatz geht davon aus, dass Vergangenheit Prolog ist, messen wir die Geschichte in der Hoffnung, dass es prädiktiv ist. Implizite Volatilität hingegen ignoriert die Geschichte, die sie für die Volatilität der Marktpreise löst. Es hofft, dass der Markt am besten weiß und dass der Marktpreis, auch wenn implizit, eine Konsensschätzung der Volatilität enthält. (Für verwandte Lesung siehe die Verwendungen und Grenzen der Volatilität.) Wenn wir uns nur auf die drei historischen Ansätze konzentrieren (links oben), haben sie zwei Schritte gemeinsam: Berechnen Sie die Reihe der periodischen Renditen Bewerben Sie ein Gewichtungsschema Zuerst haben wir Berechnen Sie die periodische Rückkehr. Das ist typischerweise eine Reihe von täglichen Renditen, bei denen jede Rückkehr in kontinuierlich zusammengesetzten Begriffen ausgedrückt wird. Für jeden Tag nehmen wir das natürliche Protokoll des Verhältnisses der Aktienkurse (d. h. der Preis heute geteilt durch den Preis gestern und so weiter). Dies führt zu einer Reihe von täglichen Renditen, von u i zu u i-m. Je nachdem wie viele Tage (m Tage) wir messen. Das bringt uns zum zweiten Schritt: Hier unterscheiden sich die drei Ansätze. In dem vorherigen Artikel (mit Volatility To Gauge Future Risk), haben wir gezeigt, dass unter ein paar akzeptablen Vereinfachungen, die einfache Varianz ist der Durchschnitt der quadrierten Renditen: Beachten Sie, dass dies summiert jede der periodischen Renditen, dann teilt diese Summe durch die Anzahl der Tage oder Beobachtungen (m). Also, es ist wirklich nur ein Durchschnitt der quadratischen periodischen Rückkehr. Setzen Sie einen anderen Weg, jede quadratische Rückkehr wird ein gleiches Gewicht gegeben. Wenn also Alpha (a) ein Gewichtungsfaktor ist (speziell 1 m), dann sieht eine einfache Varianz so aus: Die EWMA verbessert sich auf einfache Abweichung Die Schwäche dieses Ansatzes ist, dass alle Renditen das gleiche Gewicht verdienen. Gestern (sehr neuere) Rückkehr hat keinen Einfluss mehr auf die Varianz als die letzten Monate zurück. Dieses Problem wird durch die Verwendung des exponentiell gewichteten gleitenden Durchschnitts (EWMA) behoben, bei dem neuere Renditen ein größeres Gewicht auf die Varianz haben. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) führt Lambda ein. Der als Glättungsparameter bezeichnet wird. Lambda muss kleiner als eins sein. Unter dieser Bedingung wird anstelle von gleichen Gewichten jede quadrierte Rendite mit einem Multiplikator wie folgt gewichtet: Zum Beispiel neigt RiskMetrics TM, ein Finanzrisikomanagement-Unternehmen, dazu, ein Lambda von 0,94 oder 94 zu verwenden. In diesem Fall ist das erste ( (1 - 0,94) (94) 0 6. Die nächste quadratische Rückkehr ist einfach ein Lambda-Vielfaches des vorherigen Gewichts in diesem Fall 6 multipliziert mit 94 5,64. Und das dritte vorherige Tagegewicht ist gleich (1-0,94) (0,94) 2 5,30. Das ist die Bedeutung von Exponential in EWMA: jedes Gewicht ist ein konstanter Multiplikator (d. h. Lambda, der kleiner als eins sein muss) des vorherigen Tagegewichts. Dies stellt eine Varianz sicher, die gewichtet oder voreingenommen auf neuere Daten ist. (Um mehr zu erfahren, schau dir das Excel-Arbeitsblatt für Googles-Volatilität an.) Der Unterschied zwischen einfacher Volatilität und EWMA für Google ist unten dargestellt. Die einfache Volatilität wirkt effektiv jede periodische Rendite um 0,196, wie in Spalte O gezeigt (wir hatten zwei Jahre täglich Kursdaten, das sind 509 tägliche Renditen und 1509 0,196). Aber beachten Sie, dass Spalte P ein Gewicht von 6, dann 5.64, dann 5.3 und so weiter zuteilt. Das ist der einzige Unterschied zwischen einfacher Varianz und EWMA. Denken Sie daran: Nachdem wir die ganze Serie (in Spalte Q) zusammengefasst haben, haben wir die Varianz, die das Quadrat der Standardabweichung ist. Wenn wir Volatilität wollen, müssen wir uns daran erinnern, die Quadratwurzel dieser Varianz zu nehmen. Was ist der Unterschied in der täglichen Volatilität zwischen der Varianz und EWMA im Googles-Fall Sein signifikant: Die einfache Varianz gab uns eine tägliche Volatilität von 2,4, aber die EWMA gab eine tägliche Volatilität von nur 1,4 (siehe die Kalkulationstabelle für Details). Anscheinend hat sich die Googles-Volatilität in jüngster Zeit niedergelassen, eine einfache Varianz könnte künstlich hoch sein. Heutige Varianz ist eine Funktion von Pior Days Variance Youll bemerken wir brauchten, um eine lange Reihe von exponentiell abnehmenden Gewichten zu berechnen. Wir werden die Mathematik hier nicht machen, aber eines der besten Features der EWMA ist, dass die ganze Serie bequem auf eine rekursive Formel reduziert: Rekursive bedeutet, dass heutige Varianzreferenzen (d. h. eine Funktion der vorherigen Tagesabweichung) ist. Sie finden diese Formel auch in der Kalkulationstabelle, und sie erzeugt genau das gleiche Ergebnis wie die Langzeitberechnung Es heißt: Die heutige Varianz (unter EWMA) ist gleichbedeutend mit der vulkanischen Varianz (gewichtet durch Lambda) plus gestern quadrierte Rückkehr (gewogen von einem Minus Lambda). Beachten Sie, wie wir nur zwei Begriffe zusammenfügen: gestern gewichtete Varianz und gestern gewichtet, quadratische Rückkehr. Dennoch ist Lambda unser Glättungsparameter. Ein höheres Lambda (z. B. RiskMetrics 94) zeigt einen langsamen Abfall in der Serie an - in relativer Hinsicht werden wir mehr Datenpunkte in der Serie haben und sie werden langsamer abfallen. Auf der anderen Seite, wenn wir das Lambda reduzieren, zeigen wir einen höheren Zerfall an: die Gewichte fallen schneller ab, und als direkte Folge des schnellen Zerfalls werden weniger Datenpunkte verwendet. (In der Kalkulationstabelle ist Lambda ein Eingang, also kannst du mit seiner Empfindlichkeit experimentieren). Zusammenfassung Volatilität ist die momentane Standardabweichung eines Bestandes und die häufigste Risikometrität. Es ist auch die Quadratwurzel der Varianz. Wir können die Abweichung historisch oder implizit (implizite Volatilität) messen. Wenn man historisch misst, ist die einfachste Methode eine einfache Varianz. Aber die Schwäche mit einfacher Abweichung ist, dass alle Renditen das gleiche Gewicht bekommen. So stehen wir vor einem klassischen Kompromiss: Wir wollen immer mehr Daten, aber je mehr Daten wir haben, desto mehr wird unsere Berechnung durch entfernte (weniger relevante) Daten verdünnt. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) verbessert die einfache Varianz durch die Zuordnung von Gewichten zu den periodischen Renditen. Auf diese Weise können wir beide eine große Stichprobengröße verwenden, aber auch ein größeres Gewicht auf neuere Renditen geben. (Um ein Film-Tutorial zu diesem Thema zu sehen, besuchen Sie die Bionische Schildkröte.) Ein Maß für die Beziehung zwischen einer Veränderung der Menge, die von einem bestimmten Gut gefordert wird, und eine Änderung in seinem Preis. Preis. Der Gesamtdollarmarktwert aller ausstehenden Aktien der Gesellschaft039s. Die Marktkapitalisierung erfolgt durch Multiplikation. Frexit kurz für quotFrench exitquot ist ein französischer Spinoff des Begriffs Brexit, der entstand, als das Vereinigte Königreich stimmte. Ein Auftrag mit einem Makler, der die Merkmale der Stop-Order mit denen einer Limit-Order kombiniert. Ein Stop-Limit-Auftrag wird. Eine Finanzierungsrunde, in der Anleger eine Aktie von einer Gesellschaft mit einer niedrigeren Bewertung erwerben als die Bewertung, Eine ökonomische Theorie der Gesamtausgaben in der Wirtschaft und ihre Auswirkungen auf die Produktion und Inflation. Keynesianische Ökonomie wurde entwickelt.

No comments:

Post a Comment