Strategien
7. Juli 2011

Risikomanager in der Sackgasse

Gastbeitrag von Dr. Volker Bieta und Dr. Hellmuth Milde. Bieta ist Lehrbeauftragter für Spieltheorie an der TU Dresden, Milde ist Gastprofessor an der Universität Luxembourg.

Seit 50 Jahren deuten Risikomanager Rendite-Risiko-Profile. ­Das zentrale Problem: Niemand weiß, wie man "Risiko" messen kann. Die Frage der Messbarkeit ist eng verknüpft mit der Definition. Es gibt die Begriffe "Risiko" und "Unsicherheit". Im Deutschen sind die Begriffe Synonyme. Dies gilt auch im Englischen.

Dies verwundert, da ­Autoren wie Frank H. Knight und John M. Keynes schon früh die ­Unterschiede zeigen. Knight führt in seiner Monographie "Risk, Uncertainty, and Profit" die Unterscheidung von Unsicherheit und Risiko explizit ein. Er spricht von "risk", wenn Ungewissheit messbar ist. Ist dies nicht der Fall, spricht er von "uncertainty". Die Messbarkeit im Risikofall ­basiert darauf, dass Wahrscheinlichkeitsaussagen durch Wahrscheinlichkeitsverteilungen ­generiert werden.

Bei "uncertainty" existieren keine Wahrscheinlichkeitsverteilungen; Wahrscheinlichkeitsaussagen sind dann unmöglich. Auch Keynes betont diesen Unterschied: "By ‚very uncertain‘ I do not mean the same thing as ‚very improbable’”. An anderer Stelle wird er noch deutlicher: "By ‚uncertain knowledge‛ … I do not mean merely to distinguish what is known for certainty from what is only probable. The game of roulette is not subject … to uncertainty.” Beim Roulette sind Wahrscheinlichkeitsaussagen möglich; das ist im Prinzip ein Fall von "Quasi"-Sicherheit. Beim Poker-Spiel sind dagegen Wahrscheinlichkeitsaussagen sinnlos. Dieser ­Unterschied wird uns später noch beschäftigen.
_Die Schwächen des Markowitz-Modells
Heute ist das Markowitz-Modell die Basis für Entscheidungen im Portfoliomanagement. Nach Knight und Keynes ist es ein ­Risiko­modell. Es hat folgende Struktur: Der Anleger stellt sich sein Wertpapier­portfolio so zusammen, dass die Kombination aus Portfolioertrag und Portfoliorisiko gemäß seiner subjektiven Risikopräferenz optimal ist. Dazu braucht er neben der Kenntnis seiner Risikopräferenz genaue Informationen über die Parameter der Renditeverteilungen der beteiligten Papiere. Die Berechnung der Verteilungsparameter basiert auf historischen Daten, die ex-post mit ökonometrischen Verfahren stark korrigiert werden. Man spricht von "expertenbasierten" und ­"zukunftsorientierten" Anpassungen. Auf Basis der gegebenen Parameter ist die Festlegung der verschiedenen Wertpapieranteile im ­Gesamtportfolio das Resultat einer einfachen Optimierungsaufgabe. In der Zielfunktion und in den Nebenbedingungen gibt es keine ­Zufallsgrößen mehr. Stochastische Analyse ist überflüssig. Aus dem Ungewissheitsfall wird durch Einbau der Verteilungsparameter eine deterministische Sicherheitsanalyse gemacht. Dies überrascht nicht. In Risikomodellen ist oft von "Sicherheitsäquivalenten" die Rede; wir hatten schon von "Quasi-Sicherheit" gesprochen.
Die Transformation einer Ungewissheits-Welt in eine Risiko-Welt ist das zentrale Defizit des Markowitz-Ansatzes. Dennoch hat sich ­dieser Ansatz in Theorie und Praxis durchgesetzt. Für den Siegeszug gibt es einen einzigen Grund: Markowitz hatte die kühne Idee, dass undefinierbare Konzept der Zukunftsungewissheit in genau einer Zahl auszudrücken: Varianz oder Volatilität. Die nicht messbare ­Unsicherheit wird in ein messbares Risiko transformiert. Varianz und Risiko sind in der Terminologie von Finanzierern Synonyme. An die Stelle der Varianz hat man heute die Kennzahl "Value at Risk" zur ­Berechnung potenzieller Verluste gesetzt. Die Grundaussage des ­Markowitz-Ansatzes bleibt jedoch unverändert gültig: Man erhält in jedem Fall genau eine Zahl zur Quantifizierung der Risikohöhe. Der komplexe Sachverhalt einer konkreten Ungewissheitssituation kann also auf exakt eine Zahl "eingedampft" werden.

Die Argumentation mit eindeutigen Kennzahlen ist das Markenzeichen von Top-Experten im Risikomanagement. Risikomanager ­haben daher ein großes Interesse an Modellen, die eindeutige Resultate liefern. Ohne diese Zahlen hat der Risikomanager seine Existenzberechtigung verloren. Man sieht die Absicht: Risikomodelle sind auch Marketinginstrumente. Um beim Anleger überzeugend argumentieren zu können, braucht man die eindeutige Lösung. Nur dann kann der Kunde die Aussage des Risikomanagers oder des Anlage­prospektes überprüfen; nur dann kann er auch Vergleichsrechnungen durchführen. Die Eindeutigkeit der Lösung suggeriert Exaktheit und Wahrhaftigkeit.
Wie muss ein Risikomodell aussehen, damit es eindeutige Lösungen liefert? Es muss genau den Baustein enthalten, der für das Markowitz-Modell konstitutiv ist: Es müssen ­Wahrscheinlichkeitsverteilungen für jedes beteiligte Wertpapier vorliegen. Wertpapierpreise und Wertpapierrenditen werden als Zufallsgrößen behandelt. Die Abläufe auf Wertpapiermärkten werden als stochastische Prozesse modelliert. Das schon bei Keynes erwähnte Roulette-Spiel beschreibt die Modellstruktur sehr gut. Beim Roulette spielt der aktive Spieler gegen die ­"passive" Kugel. Sie produziert Ergebnisse nach den Gesetzen der Wahrscheinlichkeitsrechnung mit bekannten und konstanten Eintrittswahrscheinlichkeiten. Die Konstanz resultiert aus der Tatsache, dass die Stochastik der Kugel, nicht manipulierter Tisch vorausgesetzt, vom Spieler nicht beeinflussbar ist. Man spricht in der ­Finanzierungstheorie von einem "Random Walk". Dies ist ein stochastischer Prozess, der dem "Torkeln" eines Betrunkenen ähnelt. Die "Random Walk"-Idee wurde durch die Monographie "A Random Walk Down Wall Street" von Burton Malkiel auch in der Finanzierungspraxis sehr populär.

_Poker statt Roulette
Was begründet den Erfolg der "Random Walk"-Hypothese? Der Grund ist einfach. Märkte und Börsen für Wertpapiere sind seit Adam Smith die Paradebeispiele für perfekte Märkte. Hier gibt es keine ­Monopole, keine Transaktionskosten und keine Informationsasymmetrien. Sind diese Bedingungen erfüllt, gibt es keine Barrieren: Alle Transaktionen können zum herrschenden Marktpreis abgewickelt werden. Für die Akteure ist der Preis ein Datum; es werden nur Mengen­entscheidungen getroffen. Man spricht vom Mengenanpasser­verhalten. Wer trifft in dieser Welt die Preisentscheidungen? Wer ­ändert den Preis bei veränderten Rahmenbedingungen? Da die ­Akteure die Preise nicht ändern können, braucht man einen "Not­helfer". Bei Leon Walras ist es der bekannte "Auktionator". Er allein kann die Preise anpassen. Wie tut er das? Er wirft eine Münze. Bei "Kopf" geht der Preis nach oben, bei "Zahl" geht der Preis nach unten. Das ist die "Random Walk"-Idee. Stochastische Prozesse modellieren auf diese Weise schablonenhaft das Geschehen auf Finanzmärkten. Alle Entscheidungen im Asset Management basieren auf diesen Überlegungen. Alle Prozesse zur Erklärung der Preisbildung bei Finanz­aktiva verwenden stochastische Ansätze. Wir fragen: Ist das sinnvoll?

Wir vertreten die These, dass die stochastische Modellierung des Finanzmarktgeschehens sinnlos ist. Wir begründen unsere Position empirisch und theoretisch. Die empirische Begründung basiert auf der Berechnungsweise der Verteilungsparameter. Dazu gehören ­Erwartungswerte, Varianzen und Kovarianzen, aber auch Schiefe- und Wölbungsparameter. Die Parameter werden auf Basis historischer ­Daten kalkuliert. Ökonometrische Verfahren werden eingesetzt, um "expertenbasierte" und "zukunftsorientierte" Zusatzinformationen einzubauen. Die Finanzmarktkrise hat gezeigt, dass diese Verfahren absolut ungeeignet sind; nachweisbar haben sie auf den ­Finanzmärkten seit 2007 nur Chaos geschaffen. Risikomanager entschuldigen sich dafür mit ihren Illusionen über die Prognosequalität der ökonometrischen Methoden.
Auch aus theoretischer Sicht ist das Nachbilden der Finanzmärkte durch Roulette-Spiele ein schwerer Fehler. Beim Roulette trifft ein ­aktiver Spieler auf einen passiven Spieler: die Kugel. In jeder ­Spielrunde wird als Umweltzustand eine Zahl zwischen null und 36 ­ausgelost. Die Zahlen von null bis 36 treten stets mit einer Wahrscheinlichkeit von eins zu 37 auf. Der aktive Spieler spielt also gegen eine Umwelt, die passiv ist. In der Spieltheorie bezeichnet man Roulette daher als "Spiel gegen die Natur". Auf Finanzmärkten sieht die Welt anders aus als beim Roulette. Der Gegenspieler des Finanzinvestors ist auch ein Finanzinvestor. ­Damit stehen sich auf dem Markt zwei aktive Spieler gegenüber. Jeder Spieler muss bei seinen Aktionen die Reaktionen der anderen Spieler mit ins Kalkül ziehen. Die Wechsel­wirkungen dürfen nicht ignoriert werden. Man spricht hier von strategischen Spielen. ­Finanzinvestoren müssen sich wie Poker-Spieler und nicht wie ­Roulette-Spieler ­verhalten.
Strategische Spiele sind der Gegenstand der Spieltheorie. Weil kein Spieler exakt voraussagen kann, was sein Gegenspieler tun wird, gibt es keine Informationssymmetrie mehr. Bei Informations­asymmetrie existieren keine perfekten Märkte. Ohne perfekte Märkte gibt es kein Mengenanpasserverhalten. Die Preise werden von den ­Akteuren bestimmt. Der münzewerfende Auktionator ist überflüssig. Die "Random Walk"-Geschichte kann nicht mehr erzählt werden. Wir argumentieren wie Scot Blythe: "There is no such a thing as a random walk." Dass das Random-Walk-Modell für Finanzmärkte falsch ist, hat selbst Alan Greenspan eingesehen. In einem US-Congress-Hearing ­erklärte er am 23. Oktober 2008: "There is a flaw in the model … that defines how the world works.”

_Der Nutzen der Spieltheorie
In einer Welt mit strategischem Verhalten spielen Informationen eine sehr wichtige Rolle. Seit mehr als 30 Jahren gibt es dafür die ­Prinzipal-Agent-Theorie. Diese Theorie ist ein Anwendungsfall der Spieltheorie. Der Agent ist der Informationsinsider; der Prinzipal ist der Informationsoutsider. Der Agent ist der Experte; er kann mit ­seinen Fachentscheidungen das Gesamtergebnis des Unternehmens steuern. Die Entscheidungen des Agenten hängen von der ­Entlohnung ab, die der Prinzipal festlegt. Damit ist die Aufteilung des Ergebnisses auf die beiden Spieler definiert. Welche Kombination von Entscheidungen werden die Spieler wählen?
Ein Stochastiker ordnet in dieser Situation jeder Entscheidung und damit auch jeder Entscheidungskombination eine mehr oder ­weniger bekannte Eintrittswahrscheinlichkeit zu. Die Gesamtheit der Eintrittswahrscheinlichkeiten definiert eine Verteilungsfunktion. ­Gemäß der Funktion werden Verteilungsparameter und Kennzahlen berechnet. Dazu gehört auch die Risikokennzahl. Damit kann dann wiederum das Rendite-Risiko-Profil erstellt werden. Ein Kunde wird mit der nur ihm bekannten Risikopräferenz eine Wahlentscheidung treffen.
Dieses Vorgehen ist aus unserer Sicht sinnlos. In diesem Fall ­liefert das Nash-Kriterium eine Lösung. Das Nash-Gleichgewicht ist definitionsgemäß eine Entscheidungskombination, von der kein ­Spieler abweicht, wenn der Gegner daran festhält. Die Bewertung des Spielers konzentriert sich auf die ihm nach der Aufteilungsregel zustehende Auszahlung. Auszahlungsvergleiche liefern für beide Spieler die gesuchten Entscheidungen. Um diese Lösungen zu erhalten, sind Wahrscheinlichkeiten und Kennzahlen völlig überflüssig.
Für die komplexe Welt der Finanzmärkte gibt es jedoch ein ­anderes Problem. Typischerweise erhält man eine Vielzahl von Nash-­Lösungen. Damit gibt es keine Eindeutigkeit mehr. Die Folge ist: Risikomanager müssen eine Auswahlentscheidung treffen. Dabei können sie Fehler machen, für die sie haften müssen; möglicherweise müssen sie ­Schadenersatz leisten. Damit ist es keine Überraschung, dass Risikomanager den Spieltheorie-Ansatz ablehnen und den Markowitz-­Ansatz präferieren. Stets liefert das Risikomodell eindeutige ­Lösungen und Kennzahlen. Niemals muss der Risikomanager eigenverantwortlich eine Auswahlentscheidung treffen.

Im Zentrum des unten folgenden Beispiels steht der Verbriefungsmarkt. Bei ­Verbriefungsgeschäften werden Bankaktiva neu verpackt und in ­Tranchen an Anleger verkauft. Im einfachsten Fall unterscheiden wir Senior-Tranchen mit kleinen und Junior-Tranchen mit hohen Ausfallwahrscheinlichkeiten. Als Informationsinsider kennen die Banken die Tranchenqualitäten genau. Als Informationsoutsider wissen die Anleger nicht, ob eine Tranche auch "senior" ist, wenn sie als "senior" deklariert wurde. Dies ist die fundamentale Informations­asymmetrie. Die Banken können Glaubwürdigkeit schaffen, wenn sie kostspielige Signale senden. Dabei müssen Signale kostspielig sein, damit sie von anderen Banken nicht einfach imitiert werden können. Ein kostspieliges Signal ist die Entscheidung, Teile der eigenen Junior-Tranche im eigenen Bankportfolio zurückzuhalten. Die Kosten sind die entgangenen Erträge aus dem Nicht-Verkauf der einbehaltenen Anteile. Glaubwürdigkeit entsteht, weil beim Ausfall von Tilgungs- und ­Zinszahlungen wegen der Eigenanlage zuerst das Eigenkapital der Bank reduziert wird. Um das zu vermeiden, wird die Bank intensive Kundenüber­wachungen durchführen. Dies reduziert die Ausfallwahrscheinlichkeit und führt über "Spill over"-Effekte auch zur Verbesserung der ­Anlegersituation.

_Anwendungsbeispiel der Spieltheorie
Wir nehmen an, dass beide Spieler, Bank und Anleger, jeweils zwei Alternativen haben. Beim Anleger sind das: (A): Ankauf von ­Junior-Tranchen: ja; (B): Ankauf von Junior-Tranchen: nein. Für die Bank gilt: (C): Eigenanlage in Junior-Tranchen: ja; (D): Eigenanlage in Junior-Tranchen: nein. Die Bewertung der Spielausgänge orientiert sich an der Höhe der Zahlungen. Gibt es darüber keine ­Informationen, wird nach Hirshleifer durch Ordnungszahlen eine Rangfolge angegeben. Im Beispiel gibt es die Entscheidungskombinationen: AC, AD, BC, BD. Wegen der unterschiedlichen Interessen der Spieler existieren dafür divergierende Bewertungen. Die beste Bewertung erhält die Note (1), die schlechteste Bewertung erhält die Note (4); dazwischen liegen die Noten (2) und (3). Jede Bewertung hängt von der konkreten Entscheidungssituation ab. Wir betrachten zwei Teilperioden: die Zeit vor der Finanzkrise und die Zeit danach.
Weiter nehmen wir an, dass nur die Banken in den Teilperioden unterschiedliche Bewertungen haben. Die Anleger verändern die ­Bewertungen nicht. Für Anleger wäre es das Beste, wenn Banken durch Eigenanlage Glaubwürdigkeit signalisieren würden. Damit ist C immer besser als D. Hinsichtlich der eigenen Entscheidung gilt für die Anleger folgende Interessenlage: Junior-Tranchen sind wegen der hohen Zinsen besser als Senior-Tranchen. Also folgt: A ist besser als B. Für gegebene C-Situationen gilt: AC ist besser als BC; analog dazu gilt für gegebene D-Situationen: AD ist besser als BD. Wie oben gesagt wurde, ist C besser als D. Also erhält man für die Anleger folgende Rangordnung: (1) AC, (2) BC, (3) AD, (4) BD. Aus Bankensicht ist das Beste, wenn die Anleger massiv Junior-Tranchen kaufen. Um möglichst große Mengen abzusetzen, ist die Eigennachfrage so gering wie möglich zu ­halten. Damit ist die Rangordnung der Banken: (1) DA, (2) CA, (3) DB, (4) CB. Die vier Kombinationen werden in einem Vier-Felder-Schema notiert. Jede Kombination wurde oben von den Spielern durch eine Ordnungszahl bewertet. In jedem Feld des Schemas stehen somit zwei Zahlen. Die erste Zahl steht für die Bank; die zweite Zahl für die Anleger.
Welche Kombination werden die Spieler in Abbildung 1 wählen? Das Nash-Kriterium gibt die Antwort. Es ist die Kombination zu suchen, von der kein Spieler abweicht, wenn der andere Spieler daran festhält. Hier ist die Kombination AD mit den Auszahlungen (1/3) die Nash-Lösung. Kein Spieler kann sich verbessern, wenn der andere Spieler an seiner ­Entscheidung festhält. Bei allen anderen Kombinationen gibt es ­Verbesserungspotenzial. In AD kaufen die Anleger massiv­ hochriskante Junior-Tranchen; die Banken werden alle Tranchen verkaufen. Genau diese Situation wurde vor 2007 beobachtet.
Nach der Krise hatten die Banken dazugelernt. Sie haben ihre ­Bewertungen verändert. Haben sie aber auch ihr Verhalten verändert? Diese Frage beantworten wir durch ein modifiziertes Vier-Felder-­Schema. Die Anleger verändern ihre Bewertungen annahmegemäß auch weiterhin nicht. Die Banken bewerten nun den Kauf hochriskanter­ Junior-Tranchen durch die Anleger nicht mehr so positiv wie zuvor. Damit ist die Rangordnung: (1) DB, (2) CB, (3) DA, (4) CA. Das neue Schema zeigt die Abbildung 2.
Das Ergebnis des neuen Spiels lautet: Die Nash-Lösung ist wieder AD. Was wir in der Realität beobachten, zeigt das letzte Spiel: Banken agieren wie vor der Krise und ändern ihr Verhalten nicht. Die Kombination AD ist zudem ein Gefangenendilemma, das heißt die denkbar schlechteste Situation. Die Banken steuern die Märkte an den ­Abgrund. Die Frage des "Warum" zeigt die Abbildung 2. Man sieht, BC mit der Auszahlung (2/2) ist im Vergleich mit AD bei (3/3) für beide Spieler ­eine Win-win-Situation. Leider ist BC aber kein Nash-Gleichgewicht. Beide Spieler achten nur egoistisch auf ihren Eigennutzen: Anleger werden von B auf A abweichen; Banken weichen von C auf D ab. ­Damit handeln die Spieler zwar individuell rational; aus kollektiver Sicht ist dieses Verhalten aber völlig abartig.
Natürlich kann man sich über Details der obigen Spielanalyse streiten. Dies ist das Ziel des Beitrags. Man kann zum Beispiel ­problemlos die Rangordnung der Bewertungen ändern. In der Realität müssen sich dann die Cashflows der Spieler verändern. Das kann durch Anreize, Regulierungen, Steuern oder Subventionen erfolgen. Bei solchen Eingriffen können aber die Stochastiker keine Vorher­sagen über die Ergebnisse machen. Dies liegt daran, dass sie in der Markowitz-Welt gefangen sind. Ein nicht-strategisches Roulette-­Szenario und ein strategisches Poker-Szenario sind eben grundverschiedene Welten. Das hat die letzte Finanzkrise deutlich gezeigt. Wir brauchen im Risikomanagement strategische Modelle. Mit der Spieltheorie stehen dafür die Methoden zur Verfügung.

Autoren:

In Verbindung stehende Artikel:

Schreiben Sie einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert