Thursday, November 3, 2016

Exponentiell gewichtet moving average algorithmus

Bei einer Zeitreihe xi möchte ich einen gewichteten gleitenden Durchschnitt mit einem Mittelungsfenster von N Punkten berechnen, wobei die Gewichtungen für neuere Werte über ältere Werte sprechen. Bei der Wahl der Gewichte verwende ich die bekannte Tatsache, daß eine geometrische Reihe gegen 1 konvergiert, d. H. Sum (frac) k, sofern unendlich viele Begriffe genommen werden. Um eine diskrete Zahl von Gewichtungen zu erhalten, die zu einer Einheit summieren, nehme ich einfach die ersten N-Terme der geometrischen Reihe (frac) k und normalisiere dann ihre Summe. Bei N4 ergeben sich zum Beispiel die nicht normierten Gewichte, die nach Normalisierung durch ihre Summe ergibt. Der gleitende Mittelwert ist dann einfach die Summe aus dem Produkt der letzten 4 Werte gegen diese normierten Gewichte. Diese Methode verallgemeinert sich in der offensichtlichen Weise zu bewegten Fenstern der Länge N und scheint auch rechnerisch einfach. Gibt es einen Grund, diese einfache Methode nicht zu verwenden, um einen gewichteten gleitenden Durchschnitt mit exponentiellen Gewichten zu berechnen, frage ich, weil der Wikipedia-Eintrag für EWMA komplizierter erscheint. Was mich fragt, ob die Lehrbuch-Definition von EWMA hat vielleicht einige statistische Eigenschaften, die die obige einfache Definition nicht oder sind sie in der Tat gleichwertig sind, beginnen Sie mit 1), dass es keine ungewöhnlichen Werte Und keine Pegelverschiebungen und keine Zeittrends und keine saisonalen Dummies 2), dass das optimale gewichtete Mittel Gewichte aufweist, die auf eine gleichmäßige Kurve fallen, die durch einen Koeffizienten 3 beschreibbar ist), dass die Fehlerabweichung konstant ist, dass es keine bekannten Ursachenreihen gibt Annahmen. Ndash IrishStat Okt 1 14 am 21:18 Ravi: In dem gegebenen Beispiel ist die Summe der ersten vier Ausdrücke 0,9375 0,06250,1250.250,5. Die ersten vier Ausdrücke haben also 93,8 des Gesamtgewichts (6,2 ist im abgeschnittenen Schwanz). Verwenden Sie diese, um normierte Gewichte zu erhalten, die zu einer Einheit durch Reskalierung (dividieren) um 0,9375 zusammenkommen. Dies ergibt 0,06667, 0,1333, 0,267, 0,5333. Ndash Assad Ebrahim Ich habe festgestellt, dass die Berechnung der exponentiell gewichteten laufenden Durchschnitte mit overline leftarrow overline alpha (x - overline), alphalt1 ist eine einfache einzeilige Methode, die leicht, wenn auch nur annähernd interpretierbar in Bezug auf Eine effektive Anzahl von Proben Nalpha (vergleichen Sie diese Form an die Form für die Berechnung der laufenden Mittelwert), erfordert nur das aktuelle Datum (und den aktuellen Mittelwert), und ist numerisch stabil. Technisch integriert dieser Ansatz alle Geschichte in den Durchschnitt. Die beiden Hauptvorteile bei der Verwendung des Vollfensters (im Gegensatz zum verkürzten, in der Frage diskutierten) liegen darin, dass es in einigen Fällen die analytische Charakterisierung der Filterung erleichtern kann, und es reduziert die Fluktuationen, die bei sehr großen (oder kleinen) Daten induziert werden Wert ist Teil des Datensatzes. Zum Beispiel betrachten das Filter-Ergebnis, wenn die Daten alle Null sind, außer für ein Datum, dessen Wert ist 106. beantwortet Nov 29 12 bei 0: 33Erwerben der exponentiell gewichteten Moving Average Volatilität ist die häufigste Maßnahme des Risikos, aber es kommt in mehreren Geschmacksrichtungen. In einem früheren Artikel haben wir gezeigt, wie man einfache historische Volatilität berechnet. (Um diesen Artikel zu lesen, lesen Sie unter Verwenden der Volatilität, um zukünftiges Risiko zu messen.) Wir verwendeten Googles tatsächliche Aktienkursdaten, um die tägliche Volatilität basierend auf 30 Tagen der Bestandsdaten zu berechnen. In diesem Artikel werden wir auf einfache Volatilität zu verbessern und diskutieren den exponentiell gewichteten gleitenden Durchschnitt (EWMA). Historische Vs. Implied Volatility Erstens, lassen Sie diese Metrik in ein bisschen Perspektive. Es gibt zwei breite Ansätze: historische und implizite (oder implizite) Volatilität. Der historische Ansatz geht davon aus, dass Vergangenheit ist Prolog Wir messen Geschichte in der Hoffnung, dass es prädiktive ist. Die implizite Volatilität dagegen ignoriert die Geschichte, die sie für die Volatilität der Marktpreise löst. Es hofft, dass der Markt am besten weiß und dass der Marktpreis, auch wenn implizit, eine Konsensschätzung der Volatilität enthält. (Für verwandte Erkenntnisse siehe Die Verwendungen und Grenzen der Volatilität.) Wenn wir uns auf die drei historischen Ansätze (auf der linken Seite) konzentrieren, haben sie zwei Schritte gemeinsam: Berechnen Sie die Reihe der periodischen Renditen Berechnen die periodische Rendite. Das ist typischerweise eine Reihe von täglichen Renditen, bei denen jede Rendite in kontinuierlich zusammengesetzten Ausdrücken ausgedrückt wird. Für jeden Tag nehmen wir das natürliche Protokoll des Verhältnisses der Aktienkurse (d. H. Preis heute geteilt durch den Preis gestern und so weiter). Dies erzeugt eine Reihe von täglichen Renditen, von u i bis u i-m. Je nachdem wie viele Tage (m Tage) wir messen. Das bringt uns zum zweiten Schritt: Hier unterscheiden sich die drei Ansätze. Wir haben gezeigt, dass die einfache Varianz im Rahmen einiger akzeptabler Vereinfachungen der Mittelwert der quadratischen Renditen ist: Beachten Sie, dass diese Summe die periodischen Renditen zusammenfasst und dann diese Summe durch die Anzahl der Tage oder Beobachtungen (m). Also, seine wirklich nur ein Durchschnitt der quadrierten periodischen kehrt zurück. Setzen Sie einen anderen Weg, jede quadratische Rückkehr wird ein gleiches Gewicht gegeben. Wenn also Alpha (a) ein Gewichtungsfaktor (speziell eine 1 / m) ist, dann sieht eine einfache Varianz so aus: Die EWMA verbessert die einfache Varianz Die Schwäche dieses Ansatzes ist, dass alle Renditen das gleiche Gewicht verdienen. Yesterdays (sehr jüngste) Rückkehr hat keinen Einfluss mehr auf die Varianz als die letzten Monate zurück. Dieses Problem wird durch Verwendung des exponentiell gewichteten gleitenden Mittelwerts (EWMA), bei dem neuere Renditen ein größeres Gewicht auf die Varianz aufweisen, festgelegt. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) führt Lambda ein. Die als Glättungsparameter bezeichnet wird. Lambda muss kleiner als 1 sein. Unter dieser Bedingung wird anstelle der gleichen Gewichtungen jede quadratische Rendite durch einen Multiplikator wie folgt gewichtet: Beispielsweise neigt die RiskMetrics TM, eine Finanzrisikomanagementgesellschaft, dazu, eine Lambda von 0,94 oder 94 zu verwenden. In diesem Fall wird die erste ( (1 - 0,94) (94) 0 6. Die nächste quadrierte Rückkehr ist einfach ein Lambda-Vielfaches des vorherigen Gewichts in diesem Fall 6 multipliziert mit 94 5,64. Und das dritte vorherige Tagegewicht entspricht (1-0,94) (0,94) 2 5,30. Das ist die Bedeutung von exponentiell in EWMA: jedes Gewicht ist ein konstanter Multiplikator (d. h. Lambda, der kleiner als eins sein muß) des vorherigen Gewichtes. Dies stellt eine Varianz sicher, die gewichtet oder zu neueren Daten voreingenommen ist. (Weitere Informationen finden Sie im Excel-Arbeitsblatt für die Googles-Volatilität.) Der Unterschied zwischen einfacher Volatilität und EWMA für Google wird unten angezeigt. Einfache Volatilität wiegt effektiv jede periodische Rendite von 0,196, wie in Spalte O gezeigt (wir hatten zwei Jahre tägliche Aktienkursdaten, das sind 509 tägliche Renditen und 1/509 0,196). Aber beachten Sie, dass die Spalte P ein Gewicht von 6, dann 5,64, dann 5,3 und so weiter. Das ist der einzige Unterschied zwischen einfacher Varianz und EWMA. Denken Sie daran: Nachdem wir die Summe der ganzen Reihe (in Spalte Q) haben wir die Varianz, die das Quadrat der Standardabweichung ist. Wenn wir Volatilität wollen, müssen wir uns daran erinnern, die Quadratwurzel dieser Varianz zu nehmen. Was ist der Unterschied in der täglichen Volatilität zwischen der Varianz und der EWMA im Googles-Fall? Bedeutend: Die einfache Varianz gab uns eine tägliche Volatilität von 2,4, aber die EWMA gab eine tägliche Volatilität von nur 1,4 (Details siehe Tabelle). Offenbar ließ sich die Googles-Volatilität in jüngster Zeit nieder, daher könnte eine einfache Varianz künstlich hoch sein. Die heutige Varianz ist eine Funktion der Pior Tage Variance Youll bemerken wir benötigt, um eine lange Reihe von exponentiell sinkenden Gewichte zu berechnen. Wir werden die Mathematik hier nicht durchführen, aber eine der besten Eigenschaften der EWMA ist, daß die gesamte Reihe zweckmäßigerweise auf eine rekursive Formel reduziert: Rekursiv bedeutet, daß heutige Varianzreferenzen (d. h. eine Funktion der früheren Tagesvarianz) ist. Sie können diese Formel auch in der Kalkulationstabelle zu finden, und es erzeugt genau das gleiche Ergebnis wie die Langzeitberechnung Es heißt: Die heutige Varianz (unter EWMA) ist gleichbedeutend mit der gestrigen Abweichung (gewichtet mit Lambda) plus der gestrigen Rückkehr (gewogen durch ein Minus-Lambda). Beachten Sie, wie wir sind nur das Hinzufügen von zwei Begriffe zusammen: gestern gewichtet Varianz und gestern gewichtet, quadriert zurück. Dennoch ist Lambda unser Glättungsparameter. Ein höheres Lambda (z. B. wie RiskMetrics 94) deutet auf einen langsameren Abfall in der Reihe hin - in relativer Hinsicht werden wir mehr Datenpunkte in der Reihe haben, und sie fallen langsamer ab. Auf der anderen Seite, wenn wir das Lambda reduzieren, deuten wir auf einen höheren Abfall hin: die Gewichte fallen schneller ab, und als direkte Folge des schnellen Zerfalls werden weniger Datenpunkte verwendet. (In der Kalkulationstabelle ist Lambda ein Eingang, so dass Sie mit seiner Empfindlichkeit experimentieren können). Zusammenfassung Volatilität ist die momentane Standardabweichung einer Aktie und die häufigste Risikomessung. Es ist auch die Quadratwurzel der Varianz. Wir können Varianz historisch oder implizit messen (implizite Volatilität). Bei der historischen Messung ist die einfachste Methode eine einfache Varianz. Aber die Schwäche mit einfacher Varianz ist alle Renditen bekommen das gleiche Gewicht. So stehen wir vor einem klassischen Kompromiss: Wir wollen immer mehr Daten, aber je mehr Daten wir haben, desto mehr wird unsere Berechnung durch weit entfernte (weniger relevante) Daten verdünnt. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) verbessert die einfache Varianz durch Zuordnen von Gewichten zu den periodischen Renditen. Auf diese Weise können wir beide eine große Stichprobengröße, sondern auch mehr Gewicht auf neuere Renditen. (Um ein Film-Tutorial zu diesem Thema zu sehen, besuchen Sie die Bionic Turtle.) Dieses Repo bietet Exponential Weighted Moving Average Algorithmen, oder EWMAs kurz, basierend auf unserem Quantifying Abnormal Behavior talk. Exponentiell gewichteter gleitender Durchschnitt Ein exponentiell gewichteter gleitender Durchschnitt ist ein Weg, um kontinuierlich einen Durchschnittswert für eine Reihe von Zahlen zu berechnen, wenn die Zahlen ankommen. Nachdem ein Wert in der Reihe dem Durchschnitt hinzugefügt worden ist, nimmt sein Gewicht im Durchschnitt exponentiell über die Zeit ab. Dies verzögert den Durchschnitt auf jüngere Daten. EWMAs sind aus mehreren Gründen von Nutzen, vor allem von ihren kostengünstigen Rechen - und Speicherkosten, sowie der Tatsache, dass sie die jüngste zentrale Tendenz der Wertereihe darstellen. Der EWMA-Algorithmus erfordert einen Abklingfaktor, alpha. Je größer die Alpha, desto mehr ist der Durchschnitt in Richtung der jüngsten Geschichte voreingenommen. Das Alpha muß zwischen 0 und 1 liegen und ist typischerweise eine ziemlich kleine Zahl, wie 0,04. Wir diskutieren die Wahl von alpha später. Der Algorithmus arbeitet also im Pseudocode: Multiplizieren Sie die nächste Zahl in der Reihe mit alpha. Multiplizieren Sie den aktuellen Wert des Durchschnitts um 1 minus alpha. Fügen Sie das Ergebnis der Schritte 1 und 2 hinzu, und speichern Sie es als neuen aktuellen Wert des Durchschnitts. Wiederholen Sie für jede Zahl in der Reihe. Es gibt spezielle Verhaltensweisen für das Initialisieren des aktuellen Wertes, und diese variieren zwischen den Implementierungen. Eine Annäherung ist, mit dem ersten Wert in der Reihe zu beginnen, ist, die ersten 10 oder so Werte in der Reihe unter Verwendung eines arithmetischen Mittelwertes zu messen und dann die inkrementale Aktualisierung des Durchschnittes zu beginnen. Jede Methode hat Vor-und Nachteile. Es kann helfen, ihn bildhaft zu betrachten. Angenommen, die Serie hat fünf Zahlen, und wir wählen alpha 0,50 für die Einfachheit. Heres die Serie, mit Zahlen in der Nähe von 300. Jetzt können wir den gleitenden Durchschnitt dieser Zahlen. Zuerst setzen wir den Mittelwert auf den Wert der ersten Zahl. Als nächstes multiplizieren wir die nächste Zahl mit alpha, multiplizieren den aktuellen Wert mit 1-alpha und addieren sie, um einen neuen Wert zu erzeugen. Das geht weiter, bis wir fertig sind. Beachten Sie, dass jeder der Werte in der Serie jedes Mal um die Hälfte abfällt, wenn ein neuer Wert hinzugefügt wird und der obere Teil der Balken im unteren Teil des Bildes die Größe des gleitenden Durchschnitts darstellt. Es ist ein geglättetes oder Tiefpass-Mittel der ursprünglichen Serie. Man betrachte einen gleitenden gleitenden Durchschnitt mit fester Grße (nicht einen exponentiell gewichteten gleitenden Durchschnitt), der durchschnittlich über den vorherigen N Abtastwerten liegt. Was ist das Durchschnittsalter der einzelnen Proben Es ist N / 2. Nehmen wir nun an, Sie möchten eine EWMA konstruieren, deren Muster das gleiche Durchschnittsalter haben. Die Formel für die Berechnung des hierfür erforderlichen Alphas lautet: alpha 2 / (N1). Beweis ist in dem Buch Production and Operations Analysis von Steven Nahmias. Wenn Sie z. B. eine Zeitreihe mit Samples pro Sekunde haben und den gleitenden Durchschnitt über die vorhergehende Minute erhalten möchten, sollten Sie ein Alpha von .032786885 verwenden. Dies ist übrigens die konstante Alpha für diese Repositories SimpleEWMA verwendet. Dieses Repository enthält zwei Implementierungen des EWMA-Algorithmus mit unterschiedlichen Eigenschaften. Die Implementierungen entsprechen alle der MovingAverage-Schnittstelle und der Konstruktor gibt diesen Typ zurück. Aktuelle Implementierungen gehen von einem impliziten Zeitintervall von 1,0 zwischen jeder hinzugefügten Probe aus. Das heißt, der Ablauf der Zeit wird so behandelt, als sei er der gleiche wie der Eintritt der Proben. Wenn Sie einen zeitbasierten Zerfall benötigen, wenn Proben nicht genau in festgelegten Intervallen ankommen, wird dieses Paket Ihre derzeitigen Bedürfnisse nicht unterstützen. Ein SimpleEWMA ist für geringen CPU - und Speicherverbrauch ausgelegt. Es wird aus verschiedenen Gründen ein anderes Verhalten als das VariableEWMA haben. Es hat keine Aufwärmphase und verwendet einen konstanten Zerfall. Diese Eigenschaften lassen es weniger Speicher. Es wird sich auch anders verhalten, wenn es gleich Null ist, was als uninitialisiert angenommen wird. Wenn also ein Wert wahrscheinlich im Laufe der Zeit tatsächlich Null wird, dann wird ein ungleicher Wert einen scharfen Sprung statt einer kleinen Änderung bewirken. Im Gegensatz zu SimpleEWMA unterstützt dies ein benutzerdefiniertes Alter, das gespeichert werden muss und somit mehr Speicher benötigt. Es hat auch eine Aufwärmzeit, wenn Sie mit dem Hinzufügen von Werten beginnen. Es wird einen Wert von 0,0 melden, bis Sie die erforderliche Anzahl von Samples hinzugefügt haben. Er speichert die Anzahl der hinzugefügten Samples. Infolgedessen verwendet es ein wenig mehr als das Doppelte der Erinnerung an SimpleEWMA. Die GoDoc-generierte Dokumentation finden Sie hier. Wir akzeptieren nur Pull-Anfragen für kleinere Korrekturen oder Verbesserungen. Dies beinhaltet: Kleine Bugfixes Typos Dokumentation oder Kommentare Bitte öffnen Sie Probleme, um neue Funktionen zu besprechen. Anfragen für neue Features werden abgelehnt, daher empfehlen wir, das Repository zu forkeln und Änderungen an Ihrer Gabel für Ihren Anwendungsfall vorzunehmen. Dieses Repository ist Copyright (c) 2013 VividCortex, Inc. Alle Rechte vorbehalten. Es ist lizenziert unter der MIT-Lizenz. Bitte beachten Sie die LIZENZ-Datei für die Lizenzbedingungen. EWMA 101 Der EWMA-Ansatz hat ein attraktives Merkmal: Es erfordert relativ wenig gespeicherte Daten. Um unsere Schätzung an jedem Punkt zu aktualisieren, benötigen wir nur eine vorherige Schätzung der Varianzrate und des jüngsten Beobachtungswertes. Ein weiteres Ziel der EWMA ist es, Veränderungen in der Volatilität nachzuvollziehen. Für kleine Werte beeinflussen jüngste Beobachtungen die Schätzung zeitnah. Für Werte, die näher an einem liegen, ändert sich die Schätzung langsam auf der Grundlage der jüngsten Änderungen in den Renditen der zugrundeliegenden Variablen. Die von JP Morgan erstellte und öffentlich zugängliche RiskMetrics-Datenbank nutzt die EWMA zur Aktualisierung der täglichen Volatilität. WICHTIG: Die EWMA-Formel geht nicht von einem lang anhaltenden durchschnittlichen Varianzniveau aus. So bedeutet das Konzept der Volatilität Reversion nicht von der EWMA erfasst. Die ARCH / GARCH Modelle sind dafür besser geeignet. Lambda Ein sekundäres Ziel der EWMA ist es, Veränderungen in der Volatilität nachzuvollziehen, so dass für kleine Werte die jüngsten Beobachtungen die Schätzung sofort beeinflussen, und für Werte, die näher an einem liegen, ändert sich die Schätzung langsam auf die jüngsten Änderungen der Renditen der zugrunde liegenden Variablen. Die RiskMetrics-Datenbank (erstellt von JP Morgan), die 1994 veröffentlicht wurde, verwendet das EWMA-Modell zur Aktualisierung der täglichen Volatilitätsschätzung. Das Unternehmen festgestellt, dass über eine Reihe von Marktvariablen, gibt dieser Wert der Prognose der Varianz, die am nächsten zu realisierten Varianz Rate kommen. Die realisierten Varianzraten an einem bestimmten Tag wurden als gleichgewichteter Durchschnitt der folgenden 25 Tage berechnet. Um den optimalen Wert von lambda für unseren Datensatz zu berechnen, müssen wir die realisierte Volatilität an jedem Punkt berechnen. Es gibt mehrere Methoden, so wählen Sie ein. Als nächstes wird die Summe der quadratischen Fehler (SSE) zwischen der EWMA-Schätzung und der realisierten Volatilität berechnet. Schließlich minimieren die SSE durch Variieren des Lambdawertes. Klingt einfach Es ist. Die größte Herausforderung besteht darin, einen Algorithmus zur Berechnung der realisierten Volatilität zu vereinbaren. Zum Beispiel wählten die Leute bei RiskMetrics die folgenden 25 Tage, um die realisierte Varianzrate zu berechnen. In Ihrem Fall können Sie einen Algorithmus wählen, der Tägliche Volumen-, HI / LO - und / oder OPEN-CLOSE Preise nutzt. FAQ Q 1: Können wir EWMA verwenden, um die Volatilität mehr als einen Schritt voraus zu schätzen (oder prognostizieren) Die EWMA-Volatilitätsdarstellung setzt keine langfristige Durchschnittsvolatilität voraus, so dass die EWMA für jeden Prognosehorizont über einen Schritt hinaus a Konstante Wert: Berechnen der gewichteten Bewegungsdurchschnitte in Excel mit Exponentialglättung Excel-Datenanalyse für Dummies, 2. Ausgabe Das Exponential-Glättungswerkzeug in Excel berechnet den gleitenden Durchschnitt. Die exponentielle Glättung gewichtet jedoch die in den gleitenden Durchschnittsberechnungen enthaltenen Werte, so daß neuere Werte einen größeren Einfluss auf die Durchschnittsberechnung haben und alte Werte einen geringeren Effekt haben. Diese Gewichtung wird durch eine Glättungskonstante erreicht. Um zu veranschaulichen, wie das Exponential-Glättungswerkzeug arbeitet, nehmen Sie an, dass Sie wieder die durchschnittliche tägliche Temperaturinformation betrachten. Gehen Sie folgendermaßen vor, um gewichtete gleitende Mittelwerte mit exponentieller Glättung zu berechnen: Um einen exponentiell geglätteten gleitenden Durchschnitt zu berechnen, klicken Sie zuerst auf die Schaltfläche Data tab8217s Data Analysis. Wenn Excel das Dialogfeld Datenanalyse anzeigt, wählen Sie aus der Liste den Punkt Exponentielle Glättung aus, und klicken Sie dann auf OK. Excel zeigt das Dialogfeld Exponentielle Glättung an. Identifizieren Sie die Daten. Um die Daten zu identifizieren, für die Sie einen exponentiell geglätteten gleitenden Durchschnitt berechnen möchten, klicken Sie in das Textfeld Eingabebereich. Identifizieren Sie dann den Eingabebereich, indem Sie entweder eine Arbeitsbereichsadresse eingeben oder den Arbeitsblattbereich auswählen. Wenn Ihr Eingabebereich eine Textbeschriftung enthält, um Ihre Daten zu identifizieren oder zu beschreiben, aktivieren Sie das Kontrollkästchen Labels. Geben Sie die Glättung konstant. Geben Sie den Glättungskonstantenwert in das Textfeld Dämpfungsfaktor ein. Die Excel-Hilfedatei legt nahe, dass Sie eine Glättungskonstante zwischen 0,2 und 0,3 verwenden. Vermutlich jedoch, wenn Sie dieses Werkzeug verwenden, haben Sie Ihre eigenen Ideen, was die richtige Glättungskonstante ist. (Wenn you8217re ahnungslos über die Glättungskonstante, vielleicht sollten Sie shouldn8217t mit diesem Tool.) Sagen Sie Excel, wo die exponentiell geglättete gleitende durchschnittliche Daten platzieren. Verwenden Sie das Textfeld Ausgabebereich, um den Arbeitsblattbereich zu identifizieren, in dem Sie die gleitenden Durchschnittsdaten platzieren möchten. Beispielsweise legen Sie die gleitenden Durchschnittsdaten in das Arbeitsblatt-Feld B2: B10. (Optional) Diagramm die exponentiell geglätteten Daten. Um die exponentiell geglätteten Daten darzustellen, aktivieren Sie das Kontrollkästchen "Diagrammausgabe". (Optional) Geben Sie an, dass Standardfehlerinformationen berechnet werden sollen. Um Standardfehler zu berechnen, aktivieren Sie das Kontrollkästchen Standardfehler. Excel legt Standardfehlerwerte neben den exponentiell geglätteten gleitenden Mittelwerten fest. Klicken Sie auf OK, nachdem Sie festgelegt haben, welche gleitenden durchschnittlichen Informationen Sie berechnen möchten und wo Sie sie platzieren möchten. Excel berechnet gleitende Durchschnittsinformationen.


No comments:

Post a Comment