Autor: robertchristiankoch

Simulating Luck – Timing-Strategien Teil 2

Wie bereits im vorherigen Beispiel beschrieben, ist es extrem schwierig den Markt auf lange Frist mit Timing-Strategien outzuperformen. Vor allem dann, wenn bei einem Verkaufssignal nur in eine Geldmarktveranlagung gewechselt wird bzw. wenn die Möglichkeit des Short-Sellings nicht gegeben ist.

Um dies nochmals zu verdeutlichen, werden 1000 verschiedene Pfade einer Veranlagungsstrategie simuliert, welche auf Tagesbasis in 52 Prozent der Fälle beim S&P 500 (seit 1980) richtig positioniert waren. Erwähnt werden sollte auch, dass während einem Verkaufssignal, die gesamte Position in Geldmarkt (mit einer Null-Verzinsung) investiert wurde, wobei keinerlei Transaktionskosten berücksichtigt werden!

Dies soll veranschaulichen, dass es trotz erhöhter Gewinnwahrscheinlichkeiten doch manchmal etwas Glück auch bedarf um langfristig besser als der Gesamtmarkt abzuschneiden. Des Weiteren wird auch gezeigt, dass längere Phasen Underperformance auftreten können, obwohl der Investor statistisch gesehen im Vorteil ist. Somit wird auch klar, warum es einen sehr langen Atem benötigt um mit einer reinen Timing-Strategie innerhalb einer Anlageklasse langfristig erfolgreich sein zu können. Dies wird besonders deutlich, wenn man sich die Performance sämtlicher Pfade bis ins Jahr 2000 genauer ansieht. Weniger als 20 Prozent aller Pfade haben bis zu dem Zeitpunkt eine höhere Performance als der Gesamtmarkt generiert. Des Weiteren haben insgesamt nur 42 Prozent aller Pfade besser abgeschnitten als der S&P 500!

Simulating_Luck_Timing_001

Der wesentliche Grund für die Underperformance ist neben Glück auch die Tatsache, dass eine binäre Timing-Strategie (Markt oder Geldmarkt), tendenziell in fallenden Märkten besser performt als in steigenden. Dies ist auch dadurch erklärbar, dass in fallenden Märkten die Renditen deutlich höher schwanken als in steigenden (dies wurde bereits im Kapitel Statistische Eigenschaften von Finanzzeitreihen im Vergleich zur Normalverteilung erörtert). Dieses Phänomen ist sehr schön in den unteren Charts erkennbar.

Simulating_Luck_Timing_002

Da wir im ersten Beispiel nur innerhalb einer Anlageklasse investiert haben, verwenden wir im zweiten Beispiel Gold anstatt Geldmarkt. Das heißt, es wird bei einem Verkaufssignal nicht die ganze Position in Geldmarkt investiert sondern in Gold. Wie sehr schön zu erkennen ist, sehen jetzt die Auszahlungspfade bedeutend attraktiver aus als im ersten Beispiel.

Dies liegt vor allem dran, dass die Korrelation von Gold zu Aktien sehr gering ist und somit ein Verkaufssignal am Aktienmarkt nicht zwangsläufig zu negativen Renditen am Goldmarkt führt. Des Weiteren ist dies ein sehr schönes, wenn auch extreme theoretisches Beispiel dafür, dass die Allokation zwischen Anlageklassen bzw. die Portfoliokonstruktion im weiteren Sinne wesentlich wichtiger ist als die richtige Timing-Entscheidung.

Simulating_Luck_Timing_003

Advertisements

Timing-Strategien – Durchschnittslinien

Laut Wikipedia, versteht man unter einer Timing-Strategie „eine Anlagestrategie, bei der zu bestimmten Zeitpunkten zwischen zwei oder mehreren Anlageinstrumenten gewechselt wird. In der Regel werden zwei Instrumente verwendet, die eine unterschiedliche Charakterisierung bezüglich Erwartungswert und Varianz aufweisen. Eine typische Timingstrategie investiert beispielsweise in Aktien und Festgeld.

Abgesehen von der fundamentalen Einschätzung des Investors über die zukünftige Entwicklung, können verschiedenste Modelle für die Timing-Entscheidung herangezogen werden. Diese basieren meist auf Fundamentaldaten (Fundamental-Analyse) und/oder es wird der zugrundeliegende Kursverlauf einer bestimmten Anlageklasse auf signifikante Veränderungen hin analysiert (Technische Analyse).

 

Durchschnittslinien als Grundlage für eine gute Timing-Entscheidung?

Viele Investoren benutzen Durchschnittslinien um den zugrundeliegenden Trend eines Marktes zu evaluieren. Der Vorteil von solchen Durchschnittslinien ist, dass das Rauschen des Marktes reduziert wird und somit der Trend leichter bestimmt werden kann. Ein Kauf Signal wird ausgelöst, wenn entweder der Markt über dem gleitenden Durschnitt schließt oder wenn eine kürzere Durchschnittslinie eine längere von unten nach oben durchkreuzt.

Dax_SMA

Anbei ein Beispiel von einem Auszahlungsprofil des Golden Cross (Kauf Signal: 50 Tagesdurchschnittslinie >= 200 Tagesdurchschnittslinie bzw. Verkaufssignal: 50 Tagesdurchschnittslinie < 200 Tagesdurchschnittslinie). Des Weiteren wird bei einem Verkaufssignal die ganze Position geschlossen und in Cash veranlagt. Um die Signale nicht durch unterschiedliche Geldmarktsätze zu verzerren, wurde einfachhalber 0 Prozent als Verzinsung angenommen. Des Weiteren werden keinerlei Transaktionskosten berücksichtigt.

Wie sehr schön zu erkennen ist, hat diese Systematik in den letzten 10 Jahren sehr gut funktioniert. Nichtsdestotrotz hat diese Systematik seit 2009 eine klassische Buy&Hold-Strategie underperformt. Der Wesentliche Grund dafür ist, dass kurze Korrekturen zu einem Ausstieg führen und es wieder eine gewisse Zeit braucht, bis es wieder ein Long-Signal generiert wird.

 

Dax_SMA_Payoff

Um nun zu evaluieren, ob Timing-Systeme mit diversen Durchschnittslinien einen Mehrwert gegenüber einem klassischen Buy&Hold Ansatz liefern, ist es sinnvoll sämtliche Kombinationsmöglichkeiten zu analysieren. Somit kann der Frage nachgegangen werden, ob es gewisse Kombinationen gibt, die historisch gesehen besser waren als andere bzw. ob das Resultat eher zufallsgetrieben oder von stabilerer Natur war. Zu diesem Zwecke, werden nun alle Kombinationen vom DAX von 1989-12-26 bis 2014-08-21analysiert. Des Weiteren wird bei einem Verkaufssignal eine Geldmarkt-Verzinsung von 0 Prozent angenommen, wobei zusätzlich keinerlei Transaktionskosten berücksichtigt werden.

Ergebnisse:

Logischerweise nimmt die Anzahl der Kauf-Signale zu, je kürzer die Perioden für die Durchschnittslinien gewählt werden, was wiederum großen Einfluss auf die Transaktionskosten innerhalb des Portfolios hat. In blau wurde die Kombination 10 Tage zu 80 Tage für Illustrationszwecke hervorgehoben. Das heißt ein Kauf-Signal wird generiert, wenn der 10 Tagesdurchschnitt die 80 Tagesdurchschnittslinie von unten nach oben durchkreuzt. In diesem Zeitfenster wurden seit 1989 etwa 130 Kaufsignale generiert, welche eine annualisierte Rendite von knapp 5.5 Prozent erwirtschaftet haben.

Des Weiteren ist sehr schön zu sehen, dass die Rendite-Verteilung bei Perioden > 100 Tagen relativ stabil verläuft, da die Renditen nur geringfügig voneinander abweichen. Das heißt, jede Kombination von Durchschnittslinien über 100 Tage führt zu ähnlichen Ergebnissen, was dafür spricht das das Auszahlungsprofil in der Vergangenheit relativ stabil war. Das Ergebnis ist aber keinerlei bemerkenswert, wenn man bedenkt dass da der Dax seit 1989 ca. 616% zugelegt hat und somit jede längere Partizipation am Markt tendenziell eine positive Entwicklung zur Folge hatte.

 DAX_MA_Crossover_001

 

Dies erkennt man sehr schnell daran, dass nur sehr wenige Kombinationen in der Vergangenheit in der Lage waren eine klassische Buy & Hold Strategie seit 1989 outzuperformen (unteres linkes Chart). Nichtsdestotrotz, scheinen die diejenigen Kombinationen, historisch gesehen, relativ stabil zu sein, da die die Outperformance sich in einem Cluster von bestimmten Zeitperioden befindet. Man sollte aber bedenken, dass es seit 1989 zwei große Bear-Markets gegeben hat und eine Vermeidung dieser natürlich sich sehr stark auf das Ergebnis auswirkt!

Um diesen Bias zu eliminieren, wurde ermittelt in wie viel Prozent der Fälle eine Geldmarktveranlagung (also ein Verkaufssignal) besser abgeschnitten hat als der Gesamtmarkt. Somit wird evaluiert, ob der Markt während eines Verkaufssignals wirklich signifikant fällt. Wie am rechten Chart zu erkennen ist, outperformt eine Geldmarktveranlagung in weniger als 50 Prozent der Fälle. In anderen Worten, führen negative Crossover-Signale nicht zwangsläufig zu stärkeren Korrekturen bzw. entwickelt sich der zugrundeliegende Markt in den meisten Fällen besser als die Geldmarktveranlagung in dieser Zeitperiode. Das zeigt auch, dass eine Short-Position bei einem Verkaufssignal in weniger als 50 Prozent der Fälle zu einem positiven Ertrag geführt hat!

Daher erklärt sich die Outperformance dadurch, dass diese es während den letzten 2 großen Bear-Markets geschafft haben, rechtzeitig ein Verkaufssignal zu generieren. Wäre die Historie des Dax länger, würde sich somit die Outperformance deutlich reduzieren, da in weniger als 50 Prozent der Fälle ein Verkaufssignal besser abgeschnitten hat als der Gesamtmarkt.

DAX_MA_Crossover_002

Würde somit ausschließlich die Outperformance über eine klassische Buy & Hold Strategie im Vordergrund stehen, sollten Investoren von einer Durchschnittslinienstrategie absehen. Nichtsdestotrotz kann diese Sichtweise etwas kurz gegriffen sein, da ein Veranlagungshorizont von über 20 Jahren in unserem Beispiel berücksichtigt wird. Des Weiteren ist vielen Investoren der Kapitalerhalt innerhalb dieser Zeit ebenfalls ein großes Anliegen. Somit rückt der Absolut-Return-Gedanken bzw. die Reduzierung des maximalen Verlustes ebenfalls in den Vordergrund.

Im folgenden Chart ist sehr schön zu erkennen, dass eine Durchschnittslinienstrategie durchaus den maximalen Verlust innerhalb einer Anlageklasse deutlich reduzieren kann. Vor allem wenn man bedenkt das der maximale Verlust des DAX Index in dem Zeitraum ca. 78% betragen hat! Aus diesem Gesichtspunkt heraus, kann eine Durchschnittslinienstrategie im Rahmen der taktischen Asset Allocation durchaus sinnvoll eingesetzt werden.

 

DAX_MA_Crossover_003

Ansätze zur Risiko-/Ertragssteuerung

Wie schon im ersten Teil erwähnt, existiert ein starker Zusammenhang zwischen der Volatilität und dem erwarteten Gewinn bzw. Verlust einer Anlageklasse. Am unteren Chart kann man den Zusammenhang zwischen der Volatilität und dem höchsten jemals gemessenen Verlust (Maximum Drawdown) relativ schön ablesen. Je höher die Volatilität, desto höher der erwartete Verlust/Gewinn.

Volatilität_zu_Maximum_Drawdown

Ziel des Portfoliomanagements ist es daher, das Risiko-/Ertragsverhältnis dieser Anlageklassen bzw. mehrerer Anlageklassen innerhalb eines Portfolios zu optimieren. Folgende Möglichkeiten stehen dazu zur Verfügung:

  • Timing (Investition in Anlageklassen zu einem bestimmten Zeitpunkt)
  • Portfoliokonstruktion (Optimale Aufteilung des Vermögens auf verschiedene Anlageklassen)
  • Einsatz von Optionen

Dax: Komponentenzerlegung und Forecast

Wenn wir die im ersten Teil beschriebene Methode auf den Dax Index anwenden, erkennen wir sehr schnell die Grenzen von diversen (einfacheren) Prognose-Modellen. Obwohl sich die Dax-Zeitreihe in die drei Komponenten (Trend, Saisonal und Noise) zerlegen lässt, und die Trendkomponente durchaus einen Großteil der Bewegung erklärt, sind die anderen zugrundeliegenden Einflussfaktoren wesentlich schwerer zu modellieren.

Das ist sehr schön daran zu erkennen, dass die Zufallskomponente den zweitgrößten Anteil für sich beansprucht.

Dax_Zerlegung_Hauptkomponenten

Dies führt dazu, dass das Ergebnis der Prognose nach Holt-Winters eher einen Bereich von möglichen statistischen Ausprägungen wiedergibt, die der zugrundeliegenden Verteilung des Wertpapiers entspricht.

Dax_Forecast_Holt_Winters

Da Prognosen über die Zukunft äußerst unzuverlässig sind, konzentrieren sich viele Investoren eher darauf den aktuellen Zustand eines Marktes zu evaluieren. Dabei werden häufig verschiedene Trend-Modelle eingesetzt, da ein Trend wie bereits oben gezeigt, denn größten Anteil einer Bewegung erklärt. Somit wird versucht zu evaluieren, ob sich ein bestimmter Markt nach wie vor in einem Auf- bzw. Abwärtstrend befindet. Damit wird der Verlauf eines Kurses nicht prognostiziert sondern der Investor reagiert eher auf wesentliche Veränderung von der zugrundeliegenden Zeitreihe.

Beispiel Komponentenzerlegung und Forecast

Grundsätzlich ist eine Zeitreihe nichts anderes als eine zeitabhängige Abfolge von Datenpunkten, die Auskunft über bestimmte Ereignisse liefert.

Im Wesentlichen wird die Zeitreihen-Analyse dafür eingesetzt um:

  • Veränderungen von bestimmten Ereignissen zu messen (Beispiel: EKG oder Blutdruck) bzw.
  • Vorhersagen über künftige Ereignisse besser einschätzen zu können (Produktionskapazitäten, Wirtschaftswachstum, Weltbevölkerung etc.)

Somit ist man als Unternehmen in der Lage, Kapazitätsengpässe zu antizipieren und gegebenenfalls darauf zu reagieren. Bei der „Financial Time-Series Analysis“, geht es vor allem darum, wesentliche Einflussfaktoren zu identifizieren um verlässliche Aussagen über die mögliche Entwicklung zu treffen bzw. um zu prüfen ob die Annahmen die getroffen wurden, nach wie vor Gültigkeit haben.

Im unten angeführten Chart, sieht man die CO2 Belastung in der Atmosphäre, ausgedrückt in Teilchen pro Millionen, von 1959 bis 1997.

Co2_Belastung_Zeitablauf

Am Chart ist eindeutig ein Trend zu erkennen, was natürlich mit dem steigenden Verkehrsaufkommen erklärbar ist. Des Weiteren sind teils wiederkehrende Einflüsse (Anstieg des Co2-Aufkommens während der Sommerzeit sowie Reduktion während der Winterzeit), und zufällige Variablen abzulesen.

Das ist auch gleich die Überleitung zur klassischen Zeitreihenanalyse, wo eine Zeitreihe generell in drei verschiedene Komponenten eingeteilt wird (klassisches Komponentenmodell):

  • Trendkomponente, welche eine langfristige Veränderung des Mittelwerts darstellt
  • Saisonale Komponente, welche eine sich wiederholende und jahreszeitliche abhängige Schwankung darstellt
  • Restkomponente (Noise/Zufall), die nicht zu erklärende Einflusse zusammenfasst.

Im unten angeführten Chart, habe ich die oben angeführte Zeitreihe in die verschiedenen Komponenten, mittels statistischer Verfahren, zerlegt.

Co2_Belastung_Zeitablauf_Zerlegung

Nachdem man die Komponentenzerlegung durchgeführt hat, ist man in der Lage die einzelnen Einflussfaktoren zu genauer zu analysieren. Im oberen Beispiel ist sehr schön zu erkennen, dass sich die Zeitreihe größtenteils aus einer Saisonalen – bzw. Trendkomponente zusammensetzt, während der Zufallsanteil relativ gering ausfällt. In solch einem Falle, ist es sehr leicht Prognosen über den zukünftigen Verlauf zu modellieren, da beide Komponenten tendenziell einem fixen Muster folgen.

Im unteren Chart, wurde die Co2 Belastung mittels des Holt-Winters Prognoseverfahren, 200 Zeitperioden in die Zukunft geschätzt.

Co2_Belastung_Forecast

Obwohl die Schätzung durchaus plausibel erscheint und die prognostizierten Werte durchaus mit den aktuellen Werten übereinstimmen (Juli 2014 wurden 399.91 ppm gemessen), sollten die Ergebnisse von Prognosen immer mit Vorsicht genossen werden. Dies trifft insbesondere auf Zeitreihen zu, die eher stochastischen unterliegen (z. B. Aktien oder andere Finanzzeitreihen).

Statistische Eigenschaften von Finanzzeitreihen im Vergleich zur Normalverteilung

Wertpapier-Renditen sind leider nicht normalverteilt, da ihre Entwicklung eher einem stochastischen Prozess folgt und sind daher nicht exakt berechenbar. Nichtsdestotrotz ist beobachtbar, dass bestimmte Kursveränderungen mit einer bestimmten Häufigkeit auftreten und somit diese sich sehr stark an der Normalverteilung orientieren.

Im Folgenden werden einige typische Eigenschaften von Finanzzeitreihen am Beispiel des DAX von 1989 bis 2014 beschrieben:

  • Wie am Histogramm sehr schön zu erkennen ist, sind Finanzzeitreihen nicht normalverteilt obwohl die Verteilung sehr ähnlich ist. Die Verteilung kann als steilgipflig (leptokurtisch) beschrieben werden. Somit ist Verteilung an den Rändern sowie an der Spitze deutlich höher als bei normalverteilten Renditen. In anderen Worten, die Wahrscheinlichkeit von extremen Renditeausreißern (positiv wie negativ) sowie um den erwarteten Mittelwert sind höher als bei der Normalverteilung üblich.  
  • Die Volatilität (Schwankungsbreite/Standardabweichung) der Renditen ändert sich im Zeitablauf (siehe tägliche Renditen)
  • Des Weiteren existiert eine gewisse Form der Autokorrelation. Das heißt, die heutigen Renditen (t+0) sind nicht eindeutig unabhängig von den gestrigen Renditen (t-1) (siehe AutoCorrelationFunction der Renditen).
  • Da es eine sehr starke Autokorrelation bei den absoluten Renditen messbar ist, kann man daraus folgen, dass Finanzzeitreihen zusätzlich einem gewissen Volatilitätsclustering unterliegen. Das heißt auf betragsmäßige kleine Renditen folgen oft betragsmäßige kleine Renditen und auf betragsmäßige große Renditen (ruhige Phase) folgen ebenfalls betragsmäßige große Renditen (volatile Phase).

Eigenschaften_Finanzzeitreihen_001

Diese Eigenschaften sollten natürlich bei allen getroffenen Annahmen/Modellen berücksichtigt werden, bzw. ist die exakte Modellierung dieser Eigenheiten noch immer großer Bestandteil des quantitativen Risikomanagements.

Im nachfolgenden Chart ist sehr schön zu erkennen, dass die historischen Wahrscheinlichkeiten der Dax-Renditen sich zwar an der Normalverteilung orientiert, jedoch in manchen Bereichen sehr deutliche Abweichungen aufweist. Während sich bei der Normalverteilung ca. 68.2 Prozent der Beobachtungen innerhalb einer Standardabweichung befinden, ist die diese Wahrscheinlichkeit beim Dax deutlich ausgeprägter.

Diese beträgt ca. 75.5 Prozent und somit ist die Wahrscheinlichkeit dass der Dax täglich zwischen minus 1,41% und plus 1.48% schwankt deutlich höher. Dies ist bei erster Betrachtung halb so schlimm, jedoch kann man auch gut erkennen, dass das Eintreten von Extremfällen (Verteilung am Rand) ebenfalls höher ist. Genau diese kleinen Unterschiede zu modellieren, ist Bestandteil des modernen Risikomanagements.

Eigenschaften_Finanzzeitreihen_002

Ein paar Basics zu Beginn:

Der Mittelwert und seine verheerenden Folgen für ein angenehmes Fußbad!

Wie überall im Leben geht es auch bei der Veranlagung um Wahrscheinlichkeiten. Normalerweise oder besser gesagt, normalverteilterweise verwenden die meisten Leute einen Mittelwert um Schätzungen für bestimmte Ereignisse (in der Zukunft) zu treffen. Wie zum Beispiel: „Im Durschnitt können mit Aktien ca. 6-7% Rendite pro Jahr erzielt werden oder Durschnitt werden die Menschen in Österreich ca. 81 Jahre alt etc.

Das Problem bei einem Mittelwert ist, dass dieser sehr stark von Extrempunkten beeinflusst wird und somit recht irreführend sein kann. Ein berühmter Physiker hat mal gesagt: „Am linken Fuß ein Fußbad von -30 Grad und am rechten Fuß von 90 Grad und im Durschnitt erhält man ein angenehmes Fußbad von 30 Grad ((-30+90)/2=30). Wie sehr schön zu erkennen ist, sagt der Mittelwert wenig über die zugrundeliegende Verteilung aus. Interessant wäre somit ein weiterer Parameter, der darüber Auskunft gibt, wie sich der Mittelwert zusammen setzt.

Die Normalverteilung: Das Schweizer Messer der Statistik

Mit diesem Problem hat sich vor langer Zeit mal ein großer Mathematiker beschäftigt (Gauß). Gauß ist bei seinen Analysen draufgekommen, dass man zusätzlich zum Mittelwert noch mindestens einen weiteren Parameter braucht um konkretere Aussagen über die zugrundeliegende Verteilung machen zu können. Dabei hat er auch entdeckt, dass sehr viele Ereignisse in der Natur (Intelligenz, Einkommen, Körpergröße …) einer bestimmten Verteilung unterliegen. Da diese so häufig auftraten, wurde diese auch Normalverteilung genannt. Dies bedeutet beispielsweise, dass die meisten Menschen durchschnittlichen groß sind und nur sehr wenige sind sehr klein oder sehr groß.

Gauß hat des weiteren entdeckt, dass die Eigenschaften dieser Verteilung durch zwei Parameter, den Erwartungswert (Mittelwert/Durschnitt) sowie deren Schwankungsbreite (auch Standardabweichung bzw. Volatilität genannt) um ihren erwarteten Mittelwert, beschrieben werden kann. Mit anderen Worten, hat man mal den Mittelwert sowie deren Schwankungsbreite (auch STandardABWeichung) mal errechnet, kann man exakte Angaben über die zugrundeliegende Wahrscheinlichkeit treffen. Im Chart unten ist zu erkennen, dass sich ca. 68,2% der Erscheinungen innerhalb einer Standardabweichung befinden. Diese Aussage ist auf den ersten Blick nicht wirklich spannend, bringt aber beim genaueren Hinsehen sehr viel mehr Vorteile gegenüber einer normalen Mittelwertsbetrachtung. Erwähnt sollte noch werden, dass es natürlich weitere zentrale Momente einer Verteilung gibt (Schiefe und Wölbung, auf die aber hier nicht weiter eingegangen werden soll“)

Normalverteilung

Der Friseur, die Steuerprüfer und die Normalverteilung:

Viele Steuerprüfer benutzen die Standardabweichung um Steuersünder zu identifizieren. Zum Beispiel, aus historischen Messungen ist bekannt, dass ein Gast bei einem Friseur ca. 0.5 Tassen Kaffee zu sich nimmt. Die Schwankungsbreite/Standardabweichung um diesen Mittelwert beträgt plus/minus 0.1 Tassen. Mit diesen Informationen ist der Steuerprüfer nun in der Lage zu prüfen, ob der Kaffeeverbrauch (der vom Friseur natürlicherweise auch von der Steuer abgesetzt wird) mit der Anzahl der Kunden übereinstimmt.

Falls der Kaffeeverbrauch bei ca. 500 Tassen liegen würde, wäre somit der Mittelwert bei ca. 1000 Kunden (500/0.5). Da nicht jeder Kunde genau 0.5 Tassen trinkt, ergibt sich eine Schwankungsbreite/Standardabweichung von ca. 0.1 Tassen pro Kunde. Anhand der Normalverteilung, sollten ca. 68% der Erscheinungen innerhalb einer Standardabweichung (-1 Standardabweichung + Mittelwert + 1 Standardabweichung) liegen. Somit wäre eine Kundenanzahl von ca. 833 (500/0.4) bzw. 1250 (500/0.6) anhand des Kaffeeverbrauchs logisch. Würde der Friseur weniger als 833 Kunden angeben, so wäre die Wahrscheinlichkeit für solch ein Event nur 15.8% (13.6%+2.1%+0.1% = linke Seite der Verteilung). In solch einem Fall, würde der Steuerprüfer sich die Bücher des Friseurs sicherlich genauer ansehen. 

Pain or Gain? Standardabweichung als Risiko-/Ertragsmaß von Finanzzeitreihen

Bei historischen Renditen von Finanzzeitreihen kann ebenfalls ein Mittelwert bzw. eine Standardabweichung ermittelt werden. Die Volatilität/Schwankungsbreite kann als in Form von Tages-, Wochen-, Monats- oder Jahresschwankungen ausgedrückt werden. Somit ist die Volatilität/Standardabweichung die gängigste Form der Risikobestimmung eines zugrundeliegenden Wertpapiers.

Die Volatilität ermittelt die durchschnittliche Schwankungsbreite eines Kurses für eine bestimmte Periode um ihren Mittelwert. Statistisch gesehen, entspricht sie der Standardabweichung. Eine hohe Volatilität bedeutet, dass der Kurs eines Wertpapieres stark nach oben (positiv) oder unten (negativ) schwankt. Je höher die Volatilität eines Wertpapiers, desto höher sind die Ertrags- bzw. Verlustchancen.

Anbei ein Histogramm von deutschen Aktien (Dax) sowie deutschen Staatsanleihen (EFFAS Euro Gov > 1 Jahr). Der Dax hat eine historische jährliche Schwankungsbreite von 23% (entspricht ca. 1.4% am Tag), wobei europäische Staatsanleihen eine Volatilität von ca. 4% pro Jahr haben. Somit sollten naturgemäß natürlich die Ertrags- als auch die Verlustchancen vom Dax deutlich höher sein als bei Anleihen.

 Verteilung_Dax_Effas_001

Kein Taschenrechner bei der Hand? Daumenregeln für einen schnellen Überblick!

Da die Normalverteilung oft als Proxi für die Verteilung von Wertpapierrenditen herangezogen wird, ist es möglich sehr heuristische Annahmen abzuleiten. Angenommen ein Wertpapier hat eine jährliche Volatilität von ca. 20%. Des Weiteren nehmen wir einen Mittelwert von Null an (um das Kopfrechnen zu erleichtern).

Hat man erstmals beide Werte, so ist man in der Lage über die Normalverteilung diverse Annahmen über die zukünftige Entwicklung einer zugrundeliegenden Anlageklasse zu treffen.

Volatilität und Erwartungswerte:

Bei einer jährlichen Volatilität von 20%, liegt der jährliche erwartete Ertrag in 68.2% der Fälle zwischen +20 und -20% (innerhalb 1 Standardabweichung). Leichter gesagt, in 6.82 Jahren von 10 sollte sich der jährliche Ertrag irgendwo dazwischen befinden. Des Weiteren ist die Wahrscheinlichkeit einen jährlichen Ertrag zwischen 20% und 40% zu erwirtschaften, ca. 13.6%. Da sich ca. 95% aller möglichen Resultate innerhalb von 2 Standardabweichungen befinden, könnte man auch sagen dass man in 9.5 Jahren von 10 einen jährlichen Ertrag zwischen -40% und +40% erzielen sollte.

Normalverteilung_002

Zusätzlich könnte man die Volatilität auch noch die 3 bzw. 4 Standardabweichung heranziehen um die äußersten Extremfälle heuristisch abzuleiten (siehe Beschriftung Chart oben). In diesem Fall, wäre die maximale Verlustwahrscheinlichkeit größer gleich 60% (20% x minus 3x STABW), wobei natürlich zu berücksichtigen ist, dass jedes Investment natürlich auch 100% verlieren kann.

Um diese Daumenregel zu überprüfen, versuchen wir analysieren ob die jährlichen Erträge vom S&P 500 von 1928 bis 2013 der einigermaßen der Normalverteilung folgen. Die langfristige Volatilität des Index beträgt 18.8%. In anderen Worten, 68.2% der jährlichen Erträge sollten bei einem angenommenen Mittelwert von Null zwischen plus und minus 18.8% liegen.

Zu diesem Zwecke, sortieren wir mal die jährlichen Erträge des S&P 500 seit 1923 und zeichnen die dazugehörigen Standardabweichungen ein. Zusätzlich ermitteln wir die Anzahl der jährlichen Erträge die innerhalb einer Standardabweichung liegen.

SPX_Yearly_Sorted_001

Wie sehr schön zu erkennen ist, befinden sich 61.63% aller jährlichen Erträge innerhalb einer Standardabweichung und somit war die Normalverteilung ein guter Orientierungspunkt. Nichtsdestotrotz dient ein solch heuristischer Ansatz nur als schnelle Orientierungshilfe für das erwartete Auszahlungsprofil einer Anlageklasse, da die Verteilung an den Rändern deutlich abweicht und somit Finanzzeitreihen nicht normalverteilt sind!