Die Aufklärung erfindet sich neu

Juli 26, 2020

Wir leben in einer Zeit, in der das Vertrauen in die Eliten immer stärker schwindet. Was zur Sorge Anlass gibt ist der Umstand, dass der Vertrauensverlust nicht unbegründet ist. Der Journalismus ist mehr damit beschäftigt einer politischen Agenda zu folgen, die Politik beschäftigt sich zunehmend mit Themen geringer gesellschaftlicher Relevanz, während die Echten Probleme unadressiert bleiben, die Bildungsinstitutionen beklagen sich über eine schwindende Reife von Schülern und Studenten. In diesem Artikel, will ich zeigen, was das tieferen Ursachen für diese Entwicklung in der Dynamik des Politischen selbst liegt und wie ein möglicher Ausweg daraus aussehen könnte.

Zentral für das Verständnis der Dynamik politischer System ist der Antagonismus zwischen Realitätsprinzip und der Dynamik des politischen Prozesses. Der politische Prozess wird durch das Bilden und Wiederaufbrechen von Koalitionen bestimmt. Dabei spielt es keine Rolle wie der politische Prozess konkret ausgefochten wird. Die Abstimmung über die Besetzung von Ämter oder der Bürgerkrieg folgen abstrakt der gleichen Logik.

Die politischen Akteure stehen zunächst vor der Aufgabe genug politische Ressourcen zu vereinen um ihre Gegenspieler aus dem politischen Kampf auszuschließen. Im reinen politische Prozess wird von der Realität abstrahiert. Das heißt den Akteuren geht es nur darum politische Ressourcen für sich zu sichern und das Verhältnis der Akteure untereinander besteht nur aus Koalitions- und Gegnerschaftsbeziehungen. Besteht noch keine Koalition, die stark genug ist, um ihre Gegner auszuschließen müssen sich die Akteure so koordinieren, dass sie eine solche Allianz bilden. Besteht eine werden ihre Gegner aus dem Politischen Prozess ausgeschlossen. Damit endet der politische Prozess jedoch nicht. Die ehemaligen Koalitionäre stehen wieder vor der Situation, dass Sie die Verbleibenden Akteure ausschließen müssen, um ihre eigenen Ressourcen zu sichern. Innerhalb der Koalition entsteht eine neue Koalition, die ihre ehemaligen Mitstreiter ausschließt.

Die Koordination der Akteure funktioniert über Bekenntnisse. Ein Akteur würde z.B. fordern dass nur diejenigen Teil des Politischen Prozesses bleiben dürfen, die sich zum A-ismus bekennen. Die übrigen Akteure wären dann gezwungen sich entweder als A-ist oder als Anit-A-ist zu bekennen. Wenn die A-isten genug politische Macht auf sich vereinen können, schließen sie die Anti-A-isten aus et vice versa. Bildet sich ein Patt besteht die Möglichkeit unter einem anderen Bekenntnis B-ismus neue Koalitionen zu bilden. Eine übliche Methode um eine Unterkoalition zu bilden ist die Radikalisierung. Ein A-ist würde dann fordern das ein Bekenntnis zum A-ismus nicht ausreicht, sondern auch diejenigen auszuschließen sind deren A-ismus zu gemäßigt ist.

Eine Sonderform des Patts ist das Schisma. Hier reichen die Ressourcen von Koalition und Gegenkoalition nicht aus um sich zu beseitigen und die Organisation, die beide getragen hat zerbricht. Koalition und Gegenkoalition bilden dann neue Organisationen. Beispiele wären Rotchina und Taiwan nach dem Chinesischen Bürgerkrieg oder das Schisma zwischen römischer und altorientalischer Kirche infolge des Konzils von Chalcedon.

A-ismus kann alles sein das Christentum, der Kommunismus, der Nationalismus, der Feminismus usw. Aber nicht Demokratie oder Liberalismus, da dies Meta-Ideologien sind, die den politischen Prozess selbst zum Gegenstand haben. Wenn wir zum reinen Politischen Prozess hinzunehmen, dass bestimmte Akteure vormarkiert sind, ergibt das die Möglichkeit für Koalitionen, die diese Akteure von vorneherein ausschließen oder einschließen. So könnte eine Ideologie Menschen bestimmter ethnischer Herkunft oder Geschlechts von vorneherein ausschließen. Dies ist politisch Attraktiv, nicht weil an diesen Menschen real etwas auszusetzen wäre, sondern weil derartige Koalitionen bei ihrer Koordinierung einen Vorteil haben. Optimaler Weise nutzt man schon vorhandene Stimmungen aus, die verhindern dass sich eine wirksame Gegenkoalition bildet. So konnte der Nationalsozialismus den latent vorhandenen Antisemitismus für sich ausnutzen.

Für den politischen Prozess spielt die Realität nur insofern eine Rolle, dass durch sie bestimmte Koalitionszugehörigkeiten vorfestgelegt sind. Je abgehobener eine Ideologie ist, desto vorteilhafter ist das für die politischen Akteure, da dies ihnen flexiblere Koalitionsbildung ermöglicht. Die abgehobensten Ideologien sind heute diejenigen, die Postmoderne ausmachen.

Das andere Prinzip, das das Handeln gesellschaftlichen Institutionen bestimmt, ist das Realitätsprinzip. Es sagt einfach aus, dass man das, was ist, zur Kenntnis zu nehmen hat. Dass das überhaupt in Frage steht, liegt an der Fähigkeit des Menschen zwischen relevant und irrelevant zu unterscheiden und Irrelevantes zu ignorieren. Da er dies kann, kann er auch zwischen angenehm und unangenehm unterscheiden und unangenehme Tatsachen ignorieren und wird dies tun, um Unlust zu vermeiden. So wird der veränderte Leberfleck nicht geprüft, weil die Möglichkeit dass es ein Tumor sein könnte Angst macht und daher ignoriert wird. Es erfordert also bewusste Anstrengung sich am Realitätsprinzip zu orientieren und der Tendenz unangenehme Tatsachen zu ignorieren entgegenzuwirken.

Das Realitätsprinzip ist die Voraussetzung dafür überhaupt adäquat handeln und somit die Grundlage für den Einzelnen sein Leben erfolgreich gestalten zu können. Ähnliches gilt für Organisationen, Institutionen und die Gesellschaft als Ganzes. Je besser das Realitätsprinzip in der Gesellschaft verankert ist, desto höher ist das Funktionsniveau derselben.

Eine Organisation die die Herausforderungen, denen sie ausgesetzt ist, nicht zur Kenntnis nimmt, wird ihren Organisationszweck zunehmend schlechter erfüllen, da notwendige Anpassungen unterbleiben. Für Organisationen ist die Orientierung am Realitätsprinzip jedoch schwieriger als für Individuen. Es reicht nicht aus, dass einzelne einen Anpassungsbedarf erkennen. Dieser muss auch in der Entscheidungsfindung berücksichtigt werden, was eine entsprechende Koordination voraussetzt. In der Folge reicht es für Organisationen nicht aus, einmalig das gebotene zu erkennen. Realitätsorientierung kann nur durch kontinuierliche Anstrengungen aufrechterhalten werden.

Dass das Realitätsprinzip in der Gesellschaft verankert ist, ist historisch eher die Aufnahme. Es war die entscheidende Leistung der Aufklärung das Realitätsprinzip gesellschaftlich zu etablieren. Mit der Aufklärung entstand der Anspruch, dass das Handeln gesellschaftlicher Institutionen vom Einzelnen rational überprüft werden kann. Da nun Außenstehende das Handeln der Institutionen in Frage stellen können, lastet auf diesen ein Druck sich an der Realität zu orientieren. Auf diese Weise gelang es der Aufklärung die Gesellschaft auf ein höheres Funktionsniveau zu hieven.

Wie leicht zu sehen ist, besteht ein Spannungsverhältnis zwischen dem Realitätsprinzip und der Eigendynamik des politischen Prozesses. Das Realitätsprinzip erfordert neue Erkenntnisse hinreichend zu würdigen, der politische Prozess erfordert diese im Rahmen der jeweiligen Ideologie zu interpretieren. Wenn die Erkenntnisse den Prämissen der Ideologie widersprechen, müssen die Angehörigen der Ideologie dies als einen politisch motivierten Angriff interpretieren und werden diesem mit politischen Mitteln begegnen. D.h. sie spielen ihre politischen Ressourcen aus, um die Verbreitung der Erkenntnisse zu unterbinden. Das ist der realitätsverachtende Charakter von Ideologie.

Obwohl wir seit der Aufklärung ein ungewöhnlich hohes Funktionsniveau der Gesellschaft und damit ungewöhnlich viel Wohlstand, Freiheit und Sicherheit genießen, befindet sich die Aufklärung unter Beschuss. Unter den Beobachtern des Zeitgeschehens dürft es als ausgemachte Sache gelten, dass sich die Werte der Aufklärung auf dem Rückzug befinden und ideologisches Denken zunehmend dominiert.

Erkennbar ist das unter anderem daran, dass der öffentliche Diskurs den Ansprüchen einer rationalen Auseinandersetzung in der Regel nicht genügt. Er scheitert typischerweise daran normative und empirische Aussagen voneinander zu trennen, und empirische Fragestellungen sinnvoll zu operationalisieren. Das Diskussionsziel ist es weniger zu einem Erkenntnisgewinn zu kommen, sondern dem Gegner der Diskussion nachzuweisen, dass er untragbare Positionen vertritt und somit vom Diskurs auszuschließen ist. Kurz der öffentliche Diskurs folgt nicht mehr einer rationalen, sondern einer politischen Logik.

Das wäre in einem begrenzten Rahmen legitim. Was jedoch verheerend ist, ist der Umstand das der Gesellschaft nach und nach die Fähigkeit abhandenkommt, zwischen einer rationalen und politischen Argumentation zu unterscheiden. Dies kommt dadurch zustande, dass die Fähigkeit zur Rationalen Argumentation zunehmen nicht mehr an die jüngere Generation vermittelt wird.

Der Kampf für Aufklärung bzw. allgemein eine rationale Ordnung konzentrierte sich auf Gegner die die Werte der Aufklärung explizit ablehnten. Die sind historisch der Absolutistische Obrigkeitsstaat und der totalitäre Staat. In der Folge ordnet die konventionelle Aufklärung die Akteure des Diskurses in eine falsche Dichotomie ein. Entweder bekenne sich ein Akteur zum rationalen Diskurs oder er verweigert ihn und versucht durch Gewalt seine Forderungen durchzusetzen. In der Gegenwart ist die Aufklärung jedoch durch einen Gegner neuen Typs herausgefordert: Der Postmodernismus.

Der Postmodernismus gibt vor einen rationalen Diskurs zu führen, bekämpft jedoch die Grundlagen der Rationalität und führt schließlich zu einer Politisierung des Diskurses. Der Postmodernismus macht zunächst den Glauben an eine mögliche Objektivität verächtlich, um dann ihre Gegner im Diskurs mit unlauteren Mitteln zu besiegen. Die Ursache dafür, dass sich die Postmoderne gegen die Aufklärung durchsetzen konnte ist, dass die Postmoderne perfekt an die Eigenlogik der Politik angepasst ist.

Dass das Funktionsniveau unserer Gesellschaft sinkt hat also ihre Ursache in einem Niedergang der Aufklärung, verursacht durch den Postmodernismus. Dieser führt zu einem Verlust der Fähigkeit rational  zu argumentieren und zu einer Politisierung der gesellschaftliche Diskurs. In der Folge laufen die Entscheidungsbildungsprozessen von Institutionen und Organisationen nicht mehr realitätsorientiert ab, sondern ideologiekonform. Das führt schließlich dazu, dass diese ihren Zweck nur noch mangelhaft nachkommen.

Obwohl uns bewusst ist, dass der Niedergang der Aufklärung verheerend ist, können wir nicht einfach zur Aufklärung zurückgehen. Der Postmodernismus hat sich gegenüber der Aufklärung bereit als durchsetzungsfähig herausgestellt, eine Wiederholung des Konflikts würde lediglich zum gleichen Ergebnis führen, das wir heute haben. Um dem Postmodernismus zu begegnen muss die Aufklärung auf eine neue Basis gestellt werden.

Der Fehler der Aufklärung lag darin anzunehmen, dass Objektivität einfach so gegeben wäre. Zwar waren sich die Theoretiker der Aufklärung um die Grenzen der Objektivität bewusst, in der Praxis wurden diese jedoch ausgeblendet. Dadurch verlor der Rationale Diskurs an Überzeugungskraft. Wir benötigen also ein Verständnis dafür, dass Objektivität nicht einfach vorausgesetzt werden kann, sondern dass Objektivität immer wieder neu errungen werden muss.

Das Programm der Neuen Aufklärung hat epistemologische, diskurspraktische und politische Aspekte. Die Erkenntnistheorie an der wir uns orientieren, strahlt auf unser Diskursverhalten und unsere Politische Strategie aus. Daher haben die Demokratie und die Rechtstaatlichkeit epistemologische Grundlagen. Ohne die Zuversicht, dass eine Verständigung mit dem politischen Gegner möglich ist, verkommt die Demokratie zu einer Wahldiktatur. Ohne die Intention Objektivität anzustreben wird aus dem Rechtsstaat Cargo-Kult-Rechtsprechung.

Diese Grundlagen werden durch den Postmodernismus in Frage gestellt. Hier wird die Möglichkeit universell gültiger Wahrheiten und Objektivität verneint. Um dem zu begegnen ist epistemologisch dem Vorurteil aufzuräumen, dass eine Letztbegründung unmöglich ist. Vielversprechende Ansätze findet man vor allem in der Phänomenologie, für die in der Lebenswelt und dem Bewusstsein der Ausgangpunkt für Erschließung der Wirklichkeit besteht. Dadurch wird es möglich die Bedingungen für Objektivität auf eine universelle Basis zu stellen, die die Eigenheiten der Subjekte mitberücksichtig.

Diskurspraktisch sind Strategien zu finden wie verhindert werden kann, dass der Diskurs zu eristische Machtspielen verkommt. Das hohe Funktionsniveau unserer Gesellschaft kann nur aufrechterhalten werden, wenn das bessere Argument wieder die notwendige Achtung findet. Das heißt, dass Versuche einen rationalen Diskurs auszuweichen oder zu sabotieren entschieden abgelehnt werden und bis hin zur gesellschaftlichen Ächtung führen müssen. Andererseits ist Objektivität nicht als etwas zu begreifen, was dem Diskurs vorrangeht, sondern erst in der Auseinandersetzung herausgearbeitet werden muss. Keine der Streiparteien ist ohne Vorurteil, jedoch kann das Vorurteil durch kritisches Hinterfragen beseitigt werden.

Politisch hat die neue Aufklärung zwei Aufgaben. Das Bildungssystem ist so zu reformieren, dass die kommenden Generationen wieder zum rationalen Diskurs befähigt werden und auf die Angriffe durch den Postmodernismus vorbereitet sind. Zum zweiten sind die Gesellschaftlichen Institutionen so zu reformieren, dass sie dem Realitätsprinzip gerecht werden. D.h. das ihr Handeln wieder rational hinterfragt werden kann. Für die Institution Politik läuft das auf eine Reform des Parteienstaates hinaus.

Die These der Aufklärung ist die Erkenntnis das Objektivität notwendig ist. Die Antithese der Postmoderne besteht in der Feststellung, dass Menschen nicht Objektiv sind. Es ist die Zentrale Einsicht der neuen Aufklärung, dass Objektivität hergestellt werden muss.

Austritt aus der FDP

Februar 14, 2020

Sehr geehrte Damen und Herren,

hiermit erkläre ich, […] meinen Austritt aus der FDP mit sofortiger Wirkung.

[…]

Mit der Entscheidung den demokratisch gewählten Thüringer Ministerpräsidenten Thomas Kemmerich zum Rücktritt zu zwingen, beging die Parteiführung schwere taktische und staatspolitische Fehler und hat charakterlich schwer enttäuscht. Mit der Wahl Thomas Kemmerich zeigte die AFD, dass sie bereit ist einen Kandidaten der Mitte mitzutragen und dem ihre nationale Agenda unterzuordnen. Damit bestand die Chance eine Beteiligung der politischen Ränder an der Landesregierung zu verhindern.

Anstatt diese Chance zu nutzten übernahm die Parteiführung die Interpretation des politischen Gegners, der in ahistorischen Gleichsetzung von Nationalismus und dem historischen National Sozialismus die Wahl Kemmerichs zum Tabubruch erklärte. Versuche dem eigne Narrative entgegenzusetzten unternahm die Parteiführung nicht. Stattdessen übte sie Druck auf Thomes Kemmerich aus, um diesen zum Rücktritt zu zwingen. Sie verstieß damit mutmaßlich gegen §106 StGB (Nötigung des Bundespräsidenten und von Mitgliedern eines Verfassungsorgans).

In der Folge beschädigte sie in unverdienter Weise das Ansehen Thomas Kemmerichs und der Partei und ließ keinen eigenen politischen Gestaltungswillen erkennen. Durch den übereilten Rücktritt Kemmerichs ist darüber hinaus der Freistaat Thüringen auf absehbare Zeit unregierbar.

Aufgrund dieser massiven Fehlleistungen der Parteiführung, an der von der Partei auch im Nachhinein festgehalten wird, spreche der Partei die Eignung ab liberale Positionen politisch durchzusetzen. Mein Austritt ist konsequent.

Dieses Schreiben ist ein Öffentliches.

[Eine ungekürzte Version dieses Schreibens wurde der Bundesgeschäftstelle übermittelt]

Die Krise der Demokratie und ihre Überwindung

Februar 11, 2020

Mit der Nötigung zum Rücktritt des Thüringer Ministerpräsidenten Kemmerich, tritt die Krise der Parteiendemokratie in eine neue Phase. Nachdem sich die politischen Eliten soweit von der Wirklichkeit und der Lebenswelt der breiten Bevölkerungen entfernt haben, dass es zu latenten Spannungen gekommen ist, treten diese nun offen zu Tage. Prinzipiell wären drei Wege möglich, durch die sich die Krise löst: Die Eliten ordnen sich wieder dem Realitätsprinzip unter, sie werden durch neue ausgetauscht oder sie beginnen ihre Macht mit diktatorischen Mitteln zu sichern. Durch die Ereignisse der vergangen Tage ist deutlich geworden, dass die politischen Spitzen willens sind sich über demokratische Prozesse hinwegzusetzen. Verschärfend kommt hinzu dass mit der FDP nun einer politisch Kraft weggefallen ist, die noch am ehesten am Realitätsprinzip orientiert war. In diesem Artikel will ich darlegen welche Faktoren zu der oben skizzierten Entwicklung geführt haben, das diese Entwicklung kein der Demokratie zu eigenes Schicksal ist, sondern das die Demokratie reformierbar ist und will einen Weg aufzeigen durch den diese Reformen verwirklicht werden können.

Die Krise der Parteiendemokratie äußert sich darin, dass die Parteien nicht mehr in der Lage sind, für die bestehenden Probleme Lösungen zu finden und stattdessen eine Politik betreiben die weitere Probleme nach sich ziehen werden. Die Ursache ist die fehlende Bereitschaft sich mit den Kausalitäten ihrer Wirkungsfelder auseinanderzusetzten, also eine intellektuelle Verflachung, die die sachliche Auseinandersetzung durch eine ideologischen Scholastik ersetzt. Den Politiker interessiert es nicht welche Wirkungen, die von ihm beschlossenen Maßnahmen haben, ihn interessiert wie er sich durch die Befürwortung oder Ablehnung im politischen Spektrum positioniert. Daher ist es unvermeidbar, das der Großteil der durch die Politik beschlossenen Maßnahmen die Probleme, die sie vorgeben zu lösen, gar nicht lösen und in der Regel unerwünschte Konsequenzen nach sich ziehen.

Natürlich ist den Politikern kein böser Wille zu unterstellen; es ist davon auszugehen, dass auch Politiker stehst bemüht sind den Anforderungen ihrer Verantwortung gerecht zu werden. Diese Bemühungen werden durch das Umfeld in dem sich der Politiker bewegt zunichte gemacht. Das entscheidende Merkmal der Parteiendemokratie ist, dass um als Politiker überhaupt in verantwortliche Positionen zu kommen, sich in ein Netzwerk anderer Politiker einbinden müssen, dessen Unterstützung sie erhalten. Dieses Netzwerk ermöglicht den Zugang zu Parlamentssitzen, Regierungsposten und anderen Einflussmöglichkeiten. Ohne Netzwerk ist der Politiker nichts, er ist von ihm absolut abhängig, im Fall von Berufspolitikern auch in seiner bürgerlichen Existenz.

Ein Politiker wird nichts unternehmen was ihn von sein Netzwerk entfremden würde. Insbesondere wird er keine Position beziehen, die von seinen Unterstützern und Gönnern abweicht. Es wird jede Kritik unterlassen und damit auch jeden Versuch seine eigene Position auszudifferenzieren. Da sich sein gesamtes Netzwerk so verhält wird sich das ganze Netzwerk auf den kleinsten intellektuellen Nenner reduzieren. Jede Position wird lediglich aus einem Katalog vorgefertigter Rezepte entnommen. So ist beispielsweise zu erklären warum Kevin Kühnert Konzepte vorschlägt, die bereits vor 30 Jahren spektakulär gescheitert sind. Wenn eine Weiterentwicklung stattfinden, dann oft in die Richtung weiterer Verflachung oder Radikalisierung.

Wie wir gesehen haben ist die Ursache für den Verlust des Realitätsprinzips die Abhängigkeit des Politikers von einem festen Personenkreis. Um eine realitätsbezogene, evidenzbasierte Politik zu ermöglichen muss es für einen Politiker möglich sein verantwortliche Positionen zu gewinnen, ohne sich in derartige Abhängigkeiten zu begeben. Die nahliegende Methode um die zu erreichen ist es, die Parlamente durch Losentscheid zu besetzten. Der Gedanke mag zunächst befremdlich erscheinen, hat bei näherer Betrachtung eine Reihe von Vorteilen.

Politiker sind in der Tat frei und nur ihrem Gewissen unterworfen, sie können für ihre Position mit Authentizität und Integrität einstehen. Anstatt sich in dem Kampf um Listenplätze aufzureiben, werden für die eigentliche Sachliche Arbeit Ressourcen frei. Das Parlament spiegelt die Zusammensetzung der Bevölkerung bezüglich sozialer-herkunft und psychologischer Verfasstheit besser wieder. Zu den wichtigsten Fragen werden es im Parlament direkt betroffene vertreten sein. Ein echtes Zweikammersystem in dem eine Kammer die andere kontrolliert wird möglich. In der Parteiendemokratie wird die gegenseitige Kontrolle durch die gemeinsame Abhängigkeit von den Parteien unterlaufen.

Der wichtigste Einwand gegen die Losdemokratie ist die Befürchtung, dass Abgeordnete ins Parlament berufen werden, die nicht die Eignung zur parlamentarischen Arbeit haben. Dieser Gefahr muss begegnet werden in dem es Prozesse gibt, durch die inaktive oder krass auffällige Parlamentarier ihre Sitze verlieren können. Auch ist es sinnvoll die Parlamentssitze nicht automatisch aus der Gesamtbevölkerung zu berufen, sondern nur denjenigen, die sich aus eigener Initiative melden, in das Losverfahren einzubeziehen.

Der zweite wichtige Einwand ist demokratietheoretischer Natur: Ist durch die Losdemokratie die Volkssouveränität gewährleistet? Diesem Einwand möchte ich mit dem Verweis darauf begegnen, dass der Begriff Volkssouveränität nicht operationalisierbar ist. Das Volk ist eine Fiktion, Handelnde sind immer die Einzelnen. Legitimität leitet sich aus der Volkssouveränität ab, sondern durch die Möglichkeit eine Funktionierende Gesellschaft zu erhalten.

Nach der kurzen Skizzierung der Losdemokratie als Alternative zur Parteiendemokratie, stellt sich die Frage wie die Losdemokratie politisch durchgesetzt werden kann. Ein gewaltsamer Umsturz scheidet aus moralischen und pragmatischen Gründen aus. Die Losdemokratie muss also im bestehenden Politischen System umgesetzt werden. D.h. müssen auf parlamentarischen Weg entsprechende Verfassungsänderungen angestrebt werden. Die Änderungen können entweder den entsprechenden Parlamenten mit verfassungsändernder Mehrheit beschlossen werden oder was der einfachere Weg wäre, können durch die Parlamente Verfassungsreferenden legitimiert werden (z.B. Art. 146 GG).

Scheinbar paradoxerweise braucht es also ein Engagement in den Parteien, um die Parteien zu entmachten. Das Paradox kann dadurch aufgelöst werden, dass Parteien die losdemokratischen Reformen anstreben sich selbst losdemokratisch konstituieren. D.h. eine losdemokratische Partei, muss wenn sie ein solche sein will, ihre Wahlvorschläge und Delegierten durch losdemokratische Verfahren bestimmen. Wenn die hier entwickelten Ideen halbwegs zutreffend sind, ist das nicht zum Nachteil der Partei, die gleichen Vorteile die die gesamte Gesellschaft aus der Losdemokratie bezieht, würden auch einer Losdemokratischen Partei zu teil. Diese Vorgehen hat den Charme das losdemokratische Reformen mitnichten Experimente am Staat wären. Losdemokratische Verfahren können sich zunächst innerparteilich bewähren, wo sie durch inkrementelle Verbesserungen (den Begriff hört man viel zu selten im Zusammenhang mit der Politik) die passende Ausgestaltung erfahren.

Gerade in den kommenden Monaten würde eine Partei stark davon profitieren losdemokratische Ideen zu übernehmen. Die FDP hinterlässt eine Lücke, die bald von neuen Parteien ausgefüllt werden wird. Losdemokratie könnte für eine Partei der Unique Selling Point sein durch den gegenüber potenziellen Mitgliedern und Wählern glaubhaft argumentiert werden kann, dass sie nicht aus den gleichen Gründen scheitern wird wie FDP, Piratenpartei und andere Kleinstparteien.

„Die Mitschaffenden sucht der Schaffende, die, welche neue Werte auf neue Tafeln schreiben.“ — Friedrich Nietzsche

Was ist Soziale Gerechtigkeit?

Oktober 28, 2017

Der Beitrag „Du verdienst was du verdienst“ von Natascha ist polarisierend. Kein Wunder also, dass sich durch den Beitrag angestoßen eine größere Debatte entzündet hat. Um mehr Übersicht über die Debatte zu gewinnen rief Sebastian von hobbyinvestor.de zu einer Blogparade zu dem Thema soziale Gerechtigkeit auf. Hier also mein Beitrag zu dem.

Der Begriff „Soziale Gerechtigkeit“ wird vor allem in der politischen Debatte verwendet. In der Regel impliziert die Absicht sich für soziale Gerechtigkeit einzusetzen, den Willen zu mehr Umverteilung. Oft wird soziale Gerechtigkeit mit sozialer Gleichheit gleichgesetzt. Eine saubere Bestimmung wann die soziale Gerechtigkeit verwirklicht sei bleiben uns ihre Befürworter meist schuldig, daher wird der Begriff meist in unklarer Weise gebraucht. In eine politische Debatte ist das günstig und in einen gewissen Rahmen auch legitim. Günstig ist es deswegen, weil jeder Adressat selbst ausmalen kann, was er unter sozialer Gerechtigkeit versteht. Legitim, weil in der politischen Debatte, die Dinge auch verkürzt dargestellt werden dürfen.

Es stellt sich jedoch die Frage, ob der Begriff soziale Gerechtigkeit einen nur Schall und Rauch ist oder ob er einen harten Kern hat. Von den Philosophen die die soziale Gerechtigkeit in das Zentrum ihrer Überlegungen gestellt haben ist John Rawls vermutlich der bekannteste. Er definiert als Kriterium für Gerechtigkeit dass

„a) Jede Person hat den gleichen unabdingbaren Anspruch auf ein völlig adäquates System gleicher Grundfreiheiten, das mit demselben System von Freiheiten für alle vereinbar ist. b) Soziale und ökonomische Ungleichheiten müssen zwei Bedingungen erfüllen: erstens müssen sie mit Ämtern und Positionen verbunden sein, die unter Bedingungen fairer Chancengleichheit allen offenstehen; und zweitens müssen sie den am wenigsten begünstigten Angehörigen der Gesellschaft den größten Vorteil bringen (Differenzprinzip).“ [John Rawls: Justice as Fairness. A Restatement.]

Nach Rawls ist ökonomische Ungleichheit also nur dann gerechtfertigt, wenn die am schlechtesten Gestellen durch die Ungleichheit profitieren. Unabhängig davon was man von diesem Grundsatz denkt, ist deutlich dass er die Maximalforderung nach Gleichheit darstellt. Von einer noch schärferen Forderung würde schließlich niemand mehr profitieren. Rawls zufolge ist eine Abweichung von dieser Maximalforderung unfair. Er begründet dies mit einem Gedankenexperiment, dem Schleier des Nichtwissens. Seine Argumentation beruht darauf, dass die Menschen ihre Gerechtigkeitsvorstellungen an ihre eigene Situation anpassen. Wenn jemand ein sehr hohes Einkommen hat, wird er Gerechtigkeit in einer Weise definieren, die hohe Einkommen zulässt. Jemand ärmeres wird Gleichheit stärker betonen. Die Entscheidung was als gerecht zu gelten hat, müsse also von jemanden gefällt werden, der seine Stellung in der Gesellschaft nicht kennt. Dies ist der „Schleier des Nichtwissens“.

Rawls geht davon aus das man sich unter dem Schleier des Nichtwissens auf die von ihm benannten Gerechtigkeitskriterien einigen würde. Er geht davon aus das man lieber auf der sicheren Seite sein will und daher nach dem Minimax-Prinzip entscheidet. Also seine Entscheidungen so tritt, dass man versucht  das Ergebnis, das man im schlechtesten Fall erhält, zu optimieren. Bezogen auf die Verteilung von Gesellschaftlichen Gütern ergibt sich daraus gerade das Differenzprinzip. Unter dem Schleier des Nichtwissens ist der schlechteste Fall gerade, dass man sein Angehöriger der am wenigsten begünstigtsten ist. Also wird das Ergebnis, dass im schlechtesten Fall eintritt, optimiert, wenn die gesellschaftlichen Regeln so ausgelegt werden, dass sie dem am wenigsten begünstigten den größten Vorteil bringen.

Der größte Schwachpunkt in Rawls Argumentation ist der Rückgriff auf das Minimax-Prinzip. Tatsächlich begründet er auch nicht weiter warum man unter dem Schleier des Nichtwissens nach dem Minimax-Prinzip entscheiden würde, er schreibt lediglich, dass er es für plausibel hält. In der Tat sind auch viele andere Entscheidungsmaximen denkbar. Die meisten Menschen würden es wohl bevorzugen, die Regeln so zu gestalten, dass der Durchschnitt (Median) optimiert wird, aber gleichzeitig ein Existenzminimum gewährt wird. Das  Minimax-Prinzip ist von allen denkbaren Entscheidungsmaximen dahingehend extrem das es die pessimistische und am stärksten risikovermeidende Entscheidungsregel ist. Sinn macht das Minimax-Prinzip in strategischen Situationen, d.h. wenn ich einen vernunftbegabten Gegenspieler habe, der versucht mir den größten Schaden zuzufügen. Ein solcher Gegenspieler würde sich an meine Entscheidungen derart anpassen, dass das für mich schlechteste Resultat eintritt. Es macht in strategischen Situationen also Sinn das schlechteste Resultat zu optimieren, weil ich mir sehr sicher sein kann, dass es das Resultat ist, das tatsächlich eintritt. Das Mimimax-Prinzip in einer Situation anzuwenden um der es um das persönliche Schicksal geht, macht nur für jemanden Sinn, der das Leben als Gegenspieler betrachtet. Es ist absolut denkbar, dass Rawls persönliche Schicksalschläge (seine Brüder starben noch in seiner Jugend) ihn zu einer äußerst pessimistischen Lebenshaltung gebracht haben.

Wie wir also gesehen haben, hängen die Entscheidungen, die man unter dem Schleier des Nichtwissens treffen würde, ganz entscheidend von seiner Risikoneigung ab. Es ist m.E. nicht einsichtig warum eine bestimmte Risikoneigung objektiver oder rationaler sein sollte als eine andere. Die persönliche Risikoneigung erklärt sich vor allem aus jemandes Biographie, etwas was man unter dem Schleier des Nichtwissens nicht besitzt. Das Problem beschränkt sich nicht nur auf die Risikoneigung, viele andere Charakterzüge, die für das Gerechtigkeitsempfinden maßgeblich sind, hängen von Lebenserfahrung und Lebenswelt ab. Ist das Gerechtigkeitsempfinden nicht etwas, was durch zunehmende Erfahrungen wächst und sich durch erworbene Einsichten verändert? Wenn wir Leistung oder Bedürftigkeit selbst erfahren ändert sich auch unser Blick auf die Gerechtigkeit. Damit ist meines Erachtens ist Rawls Programm, die Gerechtigkeit auf objektive Grundsätze zu stellen, zum Scheitern verurteilt; Gerechtigkeit ist grundsätzlich subjektiv.

Betrachtet man die Frage, ob es eine objektive Gerechtigkeit gibt, genauer, zeigt sich eine weitere Problematik. Warum ist es so wichtig die Gerechtigkeit auf objektive Grundätzte abzustellen? Letztlich geht es darum welche Grundsätze allgemeine Verbindlichkeit erhalten und im Zweifel durch die Staatsgewalt durchgesetzt werden. Rawls möchte jemanden sagen können: „Wir besteuern dich jetzt so hoch, dass gerade noch ein Anreiz zur Mehrleistung übrigbleibt und du hast das Ganze als fair zu empfinden. Denn du empfindest das nur aus deiner subjektiven Lage als unfair, wärst du objektiv würdest auch du erkennen, dass es nur gerecht ist, dich so hoch zu besteuern.“ Warum sollte man aber die Entscheidung eines fiktiven Wesens als verbindlich ansehen, wenn dessen Entscheidung in Konflikt mit dem eignen biographisch erworbenen Gerechtigkeitssinn steht? Rawls Absicht die Gerechtigkeitsgrundsätze ein für alle Mal fest zu legen, stehen letztlich auch quer zu einer pluralistischen Gesellschaft in der Regeln durch kontinuierliches Aushandeln entstehen.

Eine Gerechtigkeit, wie sie Rawls konzeptioniert hat, steht immer im Konflikt mit der persönlichen Freiheit. Rawls Ansatz liegt bereits die Annahme zu Grunde, dass die Güter, die verteilt werden können, der Gesellschaft als Ganzes gehören und nicht der Einzelne frei über sie verfügen kann. Die Güterverteilung wird in Rawls Denken von den gesellschaftlichen Regeln bestimmt, die aus den Gerechtigkeitsgrundsätzen deduziert werden sollten. Sie entsteht nicht daraus das die Einzelnen in gegenseitigen Austausch treten, wie das eigentlich der Fall ist. Je mehr Spielraum der Einzelne hat, über seine Resoucen frei zu entscheiden, desto eher entsteht eine Güterverteilung, die nicht mit Rawls Vorstellung konform geht. Der Verlust an Freiheit wiegt umso schwerer, wie unklar ist worin der Schaden besteht, wenn Rawls Gerechtigkeitsvorstellungen nicht durchgesetzt werden. Die meisten Menschen dürften viel mehr am absoluten Lebenstandard als am relativen interessiert sein. Wenn ich für mich genug habe, was interessiert es mich noch, ob der reichste Mann der Stadt das Zehnfache oder das Hundertfache von meinem Güterstand hat? Gut ein Reicher hat mehr Macht, darum möchte ich Regeln haben, die die Ausübung von Macht generell beschränken unabhängig davon ob Reichtum die Quelle der Macht ist oder ob sie auf einer anderen Quelle beruht.

Insgesamt stehen wir also vor der unbefriedigenden Situation, dass Soziale Gerechtigkeit nur schwer zu fassen ist. Zwar spielt der Begriff in der Politischen Debatte eine große Rolle, jedoch lässt sich gar nicht objektiv sagen wann sie verwirklicht ist. Damit bleibt sein Gebrauch immer problematisch.

Die Suche nach den niedrig hängenden Früchten — Das deep value Depot

August 22, 2017

Vor wenigen Tagen rief Stefan von Stefansbörsenblog dazu auf die Renditen der deutschsprachigen Finanzblogger zusammenzutragen. Eine derartige Sammlung bietet sicher interessante Einblicke und da ich vor hatte über kurz oder lang meine Strategie als Ganzes vorzustellen, nutze ich die Gelegenheit und nehme gerne daran teil. Nicht zuletzt ist der vorgeschlagene Vergleichszeitraum nicht ganz unvorteilhaft für mich. Dazu später mehr.

Ziel der Blogparade „Wir machen uns alle nackig“ ist es die Rendite von interessierten Anlegern also vor allem Finanzbloggern und ihren Lesern vergleichbar zu machen. Um eine gemeinsame Basis für den Vergleich zu bieten schlägt Stefan vor den internen Zinsfuß als Berechnungsmethode zu verwenden und den Zeitraum vom 25. August 2015 bis 20.August 2017 zu betrachten.

Der Zeitraum ist mit etwa 2 Jahren zwar zu kurz um aussagekräftige Zahlen zu liefern, aber wenn wir das Vorgehen jedes Jahr wiederholen dürfte auf Dauer ein sehr interessantes Live-Experiment werden. Ernst zu nehmen sind auch Sorgen die im Kommentarstrang zum Aufruf laut wurden: Wenn man nur auf die selbst berichtet Zahlen vertraut, was hindert die Teilnehmer daran sich zu ihren Gunsten zu verrechnen? Oder etwas subtiler werden nicht vor allem diejenigen Auskünfte geben, die in dem gewählten Zeitraum besonders gut abgeschnitten haben? Man kann also auf einige Interessante Zahlen und einige aufschlussreiche Geschichten dazu hoffen, aber man sollte nicht den Fehler machen das Ergebnis für repräsentativ zu halten.

Bevor ich nun meine eigenen Zahlen besteuere möchte ich meine Anlagestrategie darlegen. Wenn man sein Vermögen gewinnbringend investieren möchte und bereit ist die nötige Zeit zu investieren, dann sollte man versuchen die höchste Rendite bei dem geringsten Risiko einzufahren. Ausgehend von diesen Grundgedanken habe ich vor fünf Jahren angefangen zu untersuchen welche Ansätze Aussicht auf Erfolg haben und welche weniger. Relativ schnell bin ich in der Value-Schiene gelandet, d.h. ich versuche bevorzugt in Aktien zu investieren, die in irgendeine Art billig sind. Durch Erfolg und Misserfolg hat sich dann auch mein Anlagestil weiterentwickelt und ich probiere gerne neue Ansätze aus. Andererseits hat es sich schnell gezeigt, dass es für mich am besten funktioniert solche Titel auszuwählen die eine starke Bilanz mit einer sehr niedrigen Bewertung kombinieren. Am liebesten sind mir daher Net-Nets.

Mein Investmentprozess sieht so aus, dass ich auf der Basis einer bestimmten Idee einen Aktienscreen konstruiere, dessen Parameter ich solange ändere bis ich auf etwa 40 Werte komme. Diese sehe mir der Reihe nach an, wobei ich die meisten Werte nach wenigen Sekunden verwerfe. Übersteht der Wert die erste Begutachtung, schaue ich mir den letzten Geschäftsbericht an, auf dessen Basis ich meine Investitionsentscheidung treffe. Im Erfolgsfall bleiben etwa ein bis zwei Werte bestehen in die ich investiere.

Leider wird es mit dem fortschreitenden Bullenmarkt immer schwerer niedrige bewertete Aktien zu finden. Daher weiche ich zunehmend auf andere Anlagestile aus. Wenn man sich vor Augen hält dass Qualitätsaktien ihre beste Performanz in Rezessionen haben und Value Aktien im jungen Bullenmarkt macht es vielleicht auch Sinn eine Strategie- bzw. Faktorrotation zu betreiben. Andererseits Deep Value ist niemals zu hoch bewertet, Deep Value stirbt im Bullenmarkt einfach aus.

Unabhängig von der inhaltlichen Aktienauswahl  habe ich mir einige formale Regeln zurecht gelegt:

  1. Um den Einfluss von Währungsschwankungen zu begrenzen und gleichzeitig eine möglichst gute Diversifikation zu erreichen strebe ich an um 40% meines Depots in nicht Euroländern zu investieren. Die Auswahl der Währungen erfolgt bottom-up. Das heißt ich investiere dort wo ich passende Aktien finde und stelle Makroöknomische Überlegungen in den Hintergrund.
  2. Ich investiere in 20 bis 25 Titel. Das ist für mich der beste Kompromiss aus Diversifikation und Zeitaufwand.
  3. Hat eine einzelne Aktie mehr als 10% Depotgewicht wird der Anteil reduziert. Das Gewicht mit der ich eine Position eröffne beträgt 5% oder weniger wenn nicht ausreichend Liquidität vorhanden ist. Ich strebe an, dass alle Positionen möglichst ähnliches Gewicht haben.
  4. Pro Monat sollte es etwa einen Verkauf und einen Kauf geben. Durch diese Weise versuche ich den Turn-Over zu begrenzen.
  5. Es wird angestrebt 10% des Depots in Cash zu halten.
  6. Finde ich Aktien mit attraktiver impliziten Volatilität schreibe ich ATM Puts die mit dem Bargeldbestand gedeckt sind.
  7. Ist die implizite Volatität generell niedrig investiere ich 2-4% des Depots in langlaufende ATM Calls.
  8. Es ist zulässig Aktien leerzuverkaufen.

Aber nun zu den Zahlen:

Depot am 31.08.2015:

Depot_30_07_2017

Depot 31.07.2017:

Depot_01_09_2015

Die Performanz in unterschiedlichen Zeiträumen:

Performanztabelle

Die Performanz für den jeweiligen Zeitraum entspricht dem internen Zinsfuß nach eigener Berechnung. Die Volatilität und Sharpe Ratio habe ich aus dem entsprechenden Report meines Brokers entnommen. Die Angaben zur Benchmark habe ich ebenfalls aus dem entsprechenden Report. Da die Performanz nach einer anderer Methode berechnet wird ist, die Performanz der Benchmark nicht mit dem internen Zinsfuß des Depots vergleichbar. Allerding zeigt der Vergleich die allgemeinen Tendenzen.

Neben dem Vergleichszeitraum und den Zeitraum seit Beginn meines Aktienengagements habe drei weitere Zeiträume ausgewertet, die durch unterschiedliche Strategien geprägt waren. Die Sturm und Drang Phase umfasst den Zeitraum in dem ich noch wenig Investmenterfahrung hatte. Typisch waren einfache KGV-Strategien und so landeten Werte wie EON und Commerzbank in meinem Depot. Was meine Performanz rettete waren kleine Werte wie KWG und Travel Viva. Da sich die Märkte in dieser Phase von dem Wiederaufflackern der Euro-Kreise 2011 erholten konnten sowohl der Gesamtmarkt als auch mein Depot hohe Zuwächse erzielen. Insgesamt spiegelte mein Depot die Performanz des Gesamtmarkts erstaunlich exakt wieder. Es gelang mir nicht mich positiv oder negativ gegenüber diesem abzusetzen.

Angeregt von den Erfahrungen aus meinen Anfänger Jahren versuchte ich in der darauffolgenden Phase an mich stärker vom Gesamtmarkt zu differenzieren und investierte verstärkt in Nebenwerte und probierte es mit verschiedene Optionsstrategien. Und damit fiel ich auf die Nase. In dem Zeitraum von 28.02.2014-31.10.2015 erlitt ich mit ALBEMARLE & BOND HOLDINGS und Mox Telekom zwei Insolvenzen, wodurch ich stark gegenüber meiner Benchmark zurückfiel. Ich sah mich gezwungen die Lehre aus meinen Erlebnissen zu ziehen und nach Wegen zu suchen das Risiko in meinem Depot zu reduzieren.

Mit den neuen Einsichten ausgestattet begann damit die dritte Phase, die vor allem dadurch geprägt ist, dass ich meinen Investments gegenüber deutlich anspruchsvoller geworden bin. Während mir in früheren Zeiten schon relativ oberflächliche Überlegungen ausgereicht haben, um ein Wert ins Depot zu legen, möchte ich heute ein genaueres Verständnis dafür haben, warum ein Titel nicht zu seinem Fairen Wert gehandelt wird. Es wäre sicher erfreulich, wenn ich die Performanz der letzten zwei Jahre halten könnte. Allerding hatte ich in dieser Zeit auch sehr viel Rückenwind erhalten. POLYTEC HOLDING AG legte eine Entwicklung hin mit der niemand rechnen konnte und den Aktionären von ZAPF CREATION AG wurde wenige Tagen nachdem ich eingestiegen bin ein Buy-Out angeboten, was zur Neubewertung dieses Titels führte und nur zwei günstige Begebenheiten zu nennen.

Ich hoffe dieser Abriss meiner Strategie und meiner Investmentbiographie konnte dem geneigtem Leser zu neuen Einsichten verhelfen oder zumindest eine gute Unterhaltung bieten.

Fundamentales Momentum

Juni 27, 2017

Wenn man versucht an den Aktienmärkten ein möglichst gutes Verhältnis aus Rendite und Risiko für sich zu gewinnen, kommt nicht darum sich mit den Verschiedenen Marktanomalien zu beschäftigen. Neben der Value-Anomalie gehört die Momentum-Anomalie zu den wichtigsten Marktanomalien. Momentum bezeichnet das Phänomen, dass Aktien die in einem bestimmten Zeitraum gut abgeschnitten haben auch im folgenden Zeitraum überdurchschnittlich gut abschneiden. Eine gute Einführung zu dem Thema Momentum hat Ferhat auf Weniger Schlecht Investieren in einer Artikelserie verfasst. In diesem Artikel möchte ich über die Ursachen von Momentum spekulieren.

Eines der spannendsten Ergebnisse zu dem Thema war, dass es sehr stark auf die betrachtete Zeitskala ankommt, ob sich Momentum ergibt. Betrachtet man die Aktien die in den vergangen 12 Monaten gut abgeschnitten haben, sieht man dass sie in der folgenden Zeit besser abschneiden als der Gesamtmarkt. Beobachtet man jedoch nur eine Periode von einem Monat schneiden die besseren Aktien schlechter ab. Auch bei einer Periode von 5 Jahren schneiden die besten Aktien schlechter ab als der Gesamtmarkt. Auf kurzen oder sehr langen Zeitskalen überwiegt also das Gegenteil von Momentum, das Reversal.

Momentum wird klassischer Weise damit erklärt, dass Anleger dazu tendieren neue Informationen nicht genügend berücksichtigen. Wenn ein Unternehmen gute Zahlen liefert, wird das zwar durch steigenden Aktienkursen honoriert, jedoch nicht in dem Maß wie das eigentlich der Fall sein müsste. In der Folge steigt der Kurs noch weiter, wenn im weiteren Verlauf die Unterbewertung aufgedeckt wird, die sich durch die nicht genügend berücksichtigten Informationen ergeben hat. Auf einen steigenden Kurs folgt also ein noch weiter steigender Kurs — Momentum.

Es ist auf dem ersten Blick nicht plausibel, warum Anleger auf diese Weise Reagieren sollten, also Informationen systematisch zu unterschätzen. Am ehesten liefert der Anker-Effekt eine Erklärung. Der frühere Kurs wäre demnach für viele Anleger ein Bezugspunkt für den fairen Wert der Aktie, der neue Kurs erscheint ihnen ungerechtfertigt und in der Folge erwarten sie das der Kurs dahin zurückkehrt wo er früher stand. Es ist jedoch nicht klar warum dieser Fehler, der zweifellos oft gemacht wird, nicht von besser informierten Anlegern ausgeglichen wird, wenn doch die dazu notwendigen Informationen öffentlich sind.

Meine Überlegung geht daher in eine andere Richtung. Kann es sein, dass das Gewicht von Neuigkeiten unterschätzt wird, weil die Neuigkeiten etwas implizieren, das über ihren face value hinausgeht. Dass sich in ihnen Entwicklungen niederschlagen, die sich noch nicht voll entfaltet haben und daher noch an Kraft gewinnen und die Dinge weiter in die eingeschlagene Richtung beeinflussen also Fundamentales Momentum bewirken.

Nehmen wir als Beispiel einen typischen Branchenzyklus, wie den Schiffsmarkt. Die Rate die ein Schiff verdienen kann hängt im Wesentlichen von dem Verhältnis zwischen Angebot und Nachfrage ab. Wenn es im Vergleich zur Nachfrage viele Schiffe gibt, sind die Raten niedrig, sind es wenige hoch. Nun braucht es ein bis zwei Jahre bevor neu bestellt Schiffe vom Stapel laufen. Gleichzeitig werden die Entscheidungsträger ihre Bestellungen an ähnlichen Überlegungen festmachen, so dass Bestellungen gehäuft auftreten. Dadurch kann sich Fundamentales Momentum bilden. Nehmen wir an wir befinden uns am Ende einer Hochphase: Die Raten sind noch relativ hoch, aber es befinden sich bereit viele Schiffe im Bau. Wenn die ersten Neubauten auf den Markt drängen, bewirkt die bereits Druck auf die Raten, die anfangen zu sinken. Die Ursache für die sinkenden Raten, der steigende Bestand an Schiffen, hat jedoch noch nicht voll durchgeschlagen, dass Groß der Neubauten kommt erst in den folgenden Monaten, wodurch die Raten erst mit Verzögerung ihr eigentliches Tief erreichen. Auf sinkende Raten folgen also sinkende Raten — fundamentales Momentum.

Die Schifffahrt ist insofern ein schlechtes Beispiel, das hier alle Informationen öffentlich zugänglich sind. Jedoch können wirkt sich das Prinzip fundamentalen Momentums auch oder sogar vor allem dann aus, wenn sich die zugrundeliegenden Entwicklungen nicht öffentlich abspielen. Das Momentum besonders klar auf Zeitskalen von einem Jahr auftritt, würde ich darauf zurückführen, dass dieser Zeitraum gerade mit der Zeitskala übereinstimmt auf der auch die typischen Fundamentalen Entwicklungen ablaufen.

Fundamentales Momentum wurde relativ kürzlich auch von der akademischen Finanzforschung entdeckt. Robert Novy-Marx untersuchte wie sich Preis Momentum und fundamentales Momentum zueinander verhalten. Er kam zu dem Ergebnis, dass Preis Momentum vollständig durch fundamentales Momentum erklären lässt. Strategien die auf fundamentales Momentum setzten profitieren sogar davon Preis Momentum zu vermeiden, auf diese Weise lassen sich die Volatilität senken und starke Einbrüche abmildern.

Wir haben also gesehen, dass es Gründe gibt anzunehmen, dass sich bestehende Trends in den Fundamentaldaten eines Unternehmens fortsetzten. Auch weißen erste wissenschaftliche Untersuchungen darauf hin, dass man eine Überrendite erzielen kann, indem man auf das Fortbestehen fundamentaler Trends setzt. Es macht also Sinn sich um ein Verständnis der fundamentalen Trends zu bemühen, wenn man sich starken Preisbewegungen ausgesetzt sieht. Auf diese Weise sollte man der Versuchung wiederstehen blind auf eine Gegenbewegung zu hoffen. Nach dem der Öl-Preis von 100 Dollar auf 70 Dollar abgestürzt sind, haben viele meiner Bekannten dies nicht beachtet und auf steigende Ölpreise gesetzt.

Rationalität und Empathie

Juni 15, 2017

Rationalität hat mit unter einen äußerst schlechten Ruf. Mit ihr werden Kaltherzigkeit und fehlendes Einfühlungsvermögen assoziiert. Im Folgenden werde ich der Frage nachgehen auf welche Weise sich Rationalität und Empathie wirklich beeinflussen.

Rationalität ist das Charakteristikum einer Person, die ihr Denken und Handeln an nachvollziehbaren und faktenbasierten Kriterien ausrichtet. Abhängig von dem Bereich über den gedacht oder in dem gehandelt wird, kann Rationalität Unterschiedliches bedeuten. Wichtig ist etwa die Zweckrationalität. Die ist verwirklicht, wenn die verwendeten Mittel dazu geeignet und angemessen sind, ein gefasstes Ziel zu erreichen. Zweckrationalität bedient sich insbesondere den Kenntnissen über Ursache-Wirkungs-Zusammenhänge. Eine andere Form von Rationalität ist z.B. die Fähigkeit, Überzeugungen in sich schlüssig und für andere nachvollziehbar zu entwickeln.

Empathie bezeichnet ein Spektrum von Fähigkeiten, die einem helfen sich in andere Menschen hineinzuversetzen. Man unterscheidet zwischen der emotionalen und der kognitiven Empathie. Emotionale Empathie lässt einen das gleiche empfinden, wie ein anderer, umfasst also Mitleiden und Mitfreuen. Kognitive Empathie ist die Fähigkeit Vermutungen darüber anzustellen, was andere Denken, Fühlen oder Wissen. Ein Standardbeispiel für Kognitive Empathie sind „False-Belief“-Aufgaben. Z.B. wird einem Kind in Anwesenheit einer Person, nennen wir sie A, gezeigt, dass ein Gegenstand in einer ersten Box liegt. Dann Verlässt A den Raum und der Gegenstand wird von der Box in eine andere gelegt. Ist die kognitive Empathie des Kindes weitgenug entwickelt, weiß es, dass A den Gegenstand immer noch in der ersten Box vermutet.

Studien zu der Frage, wie sich Rationalität und Empathie gegenseitig beeinflussen, kommen tatsächlich zu dem Ergebnis, das Menschen nicht gleichzeitig emphatisch und analytisch handeln können. Es hat sich gezeigt, dass wenn Menschen mit Aufgaben beschäftig sind, die analytisches Nachdenken erfordert, der Teil des Gehirns gehemmt wird, der mit Empathie im Zusammenhang steht und umgekehrt. Darüber hinaus wurde festgestellt, dass bei Menschen je nachdem ob sie bevorzugt emotionale Empathie oder kognitive Empathie verwenden, unterschiedliche Regionen im Gehirn stärker ausgeprägt sind. Dieses Ergebnis legt nahe, dass die Fähigkeit zu den Unterschiedlichen Arten von Empathie davon abhängt wie stark wir sie verwenden. Also auch die Gefahr besteht, dass diese Fähigkeiten abnehmen, wenn sie nicht oft genug verwendet werden.

Andererseits zeigt sich jedoch auch, dass Empathie von analytischen Fähigkeiten Profitieren kann. Menschen, die eher bereit sind ihren ersten Eindruck zu hinterfragen, schneiden besser dabei ab, die Emotionen anderer zu erfassen.

Meines Erachtens passen die Ergebnisse dieser Studien gut zu dem Alltagsempfinden. Menschen tendieren sehr stark dazu entweder einen emotionalen oder einen rationalen Zugang zu Welt zu haben. Andererseits gehen Defizite im analytischen Denken oft mit Schwierigkeiten einher sich in andere Menschen hineinversetzten zu können.

Um unser Leben bewältigen zu können benötigen wie sowohl gutes rationales Denken als auch gutes Einfühlungsvermögen. Da sich Rationalität und Empathie gegenseitig behindern können ist es wichtig sich bewusst zu sein, wann welche Fähigkeiten benötigt werden und der Neigungen entgegenzuarbeiten, sich nur auf ein bestimmtes Skill-Set zu verlassen. Menschen mit einem bevorzugt rationalen Zugang zur Welt würden stark davon profitieren sich mehr darum zu bemühen, was in anderen vorgeht und Menschen mit einen bevorzugt emotionalen davon ihre Intuition häufiger zu hinterfragen. Auf diese Weise kann man zu einer vollständigen Sicht auf die Welt kommen.

Entnahmestrategien

April 25, 2017

Was heißt es eigentlich für seine finanzielle Strategie, wenn man nach Jahren des Sparens seine finanziellen Ziele erreicht hat, also über genügend Vermögen zu besitzen um daraus ein passives Einkommen in gewünschter Höhe zu erzielen? Eines ist sicher die Anlageziele ändern sich. War es in der Ansparphase am wichtigsten eine hohe Rendite zu erzielen, steht nun der Kapitalerhalt und regelmäßiges Einkommen im Vordergrund. Das kann nicht ohne Auswirkungen auf den Anlagemix bleiben. Dazu einige Denkanstöße.

In der Ansparphase konnte es einen relativ egal sein, wie sehr der Wert des Vermögens schwankt. In diesem Zeitraum hat man die Mittel um Schwächephasen auszusitzen, was Aktien zum idealen Anlagevehikel macht. Diese haben perspektivisch eine hohe Rendite, aber man weiß nicht über welchen Zeitraum sich diese realisiert. Die Märkte können über Jahre seitwärts verlaufen oder sinken. Da man in der Ansparphase nicht auf das Vermögen angewiesen ist, trifft einen dieser Nachteil weniger.

In der Entnahmephase gilt das nicht mehr. Da man laufend Geld aus seinem Vermögen entnimmt, würde eine Phase ohne Gewinne dieses dezimieren. Andererseits ist man auch nicht mehr auf hohe Renditen angewiesen. In anderen Worten, es ist wichtiger, dass man mit hoher Wahrscheinlichkeit eine bestimmte Mindestrendite erzielt, als dass man die Change auf eine deutlich höhere Rendite behält. Es bietet sich anscheinend an von Aktien in andere Anlagen umzuschichten.

Der klassische Weg wäre in der Entnahmephase von Aktien in festverzinsliche Wertpapiere umzuschichten. Diese haben zwar den Vorteil ein verlässliches Einkommen zu bieten, aber in Zeiten der finanziellen Repression bräuchte man ein gigantisches Vermögen, um mit festverzinslichen Wertpapieren ein ausreichendes Einkommen zu erreichen. Weicht man in Anleihen in Fremdwährungen aus, riskiert man durch eine Aufwertung der Heimatwährung massive Einbußen hinnehmen zu müssen. Hinzu kommt, dass festverzinsliche Wertpapiere stärker von Inflation betroffen sind und daher auf der Sicht von Jahrzehnten ähnlich riskant wie Aktien sind.

Ein ähnlicher Weg, wie festverzinsliche Wertpapiere stellt die Investition in Immobilien dar. Sie bieten etwas höher Renditen als festverzinsliche Anlagen und schützen besser vor Inflation. Stellen sie also das ideale Anlagevehikel in der Entnahmephase dar? Leider nicht, denn Immobilien haben als Anlageobjekt eine unhandliche Größe. Selbst wenn man ein großes Vermögen hat, wird man nicht mehr als eine Hand voll Objekte besitzen. Will man besser diversifizieren ist man gezwungen die Objekte zu beleihen. Aber auch dann wird man in Immobilien in seiner näheren Umgebung investieren, so dass man davon abhängt wie sich in der eigenen Region die Mieten entwickeln. Mit Immobilien ist man unterdiversifizieren, der eigene Anlageerfolg hängt nur wenig mit dem Anlageerfolg des durchschnittlichen Immobileninvestors zusammen.

Sind am Ende Aktien verhältnismäßig doch nicht so schlecht? Zwar ist es schwer vorherzusagen, wie sich die Märkte entwickeln, dennoch gibt es Strategien die darauf abzielen aus einem Aktiendepot ein regelmäßiges Einkommen zu beziehen. Am einfachsten nachzuvollziehen ist die Dividendenstrategie. Hier geht man davon aus, dass die Mittel, die die Unternehmen ausschütten, dem entsprechen was man konservativ geschätzt verkonsumieren darf ohne das Vermögen anzugreifen. So plausibel wie das zunächst klingen mag, der Dividendenstrategie zu folgen, heißt nichts anderes als sein finanzielles Wohlergehen von der Kompetenz und Integrität anderer abhängig zu machen.

In den heutigen Tagen ist Dividendenrendite so hoch begehrt, dass es den Managern möglich ist die Aktienkurse nach oben zu treiben in dem sie einfach höhere Dividenden ausschütten. Mitunter wird daher die Dividende auf ein Niveau gehoben, das nicht nachhaltig ist, wie die Aktionäre Stonemores schmerzhaft erfahren mussten. Gibt man sich nur mit der durchschnittlichen Dividende aller Aktien zufrieden kann man nur mit 2-3% rechnen. Wenn man nicht bevorzugt auf dividendenstarke Aktien setzt, braucht mal also nach mit der Dividendenstrategie deutlich mehr Vermögen als mit einer Strategie, die die gesamte Ertragskraft des Aktienvermögens berücksichtigt.

Eine weiter Strategie, die sich großer Beliebtheit erfreut ist die 4%-Regel. Hier wird am Beginn der Auszahlungsphase der Betrag bestimmt, der 4% des Vermögens entspricht. Dieser Betrag wird dann Jahr für Jahr dem Vermögen entnommen. Der einmal gewählte Betrag ist fix und wird nicht den Schwenkungen des Vermögens angepasst. Die 4%-Regel geht auf eine Studie zurück, die den höchsten Betrag bestimmt hat, den man jährlich einem Depot entnehmen kann ohne in den folgenden 30 Jahren das Depot aufbrauchen. Es wurde von einem Depot ausgegangen, dass hälftig aus Aktien und Anleihen besteht. Untersucht wurden alle 30 Jahresperioden von 1925 und 1995. Die Autoren kamen zu dem Ergebnis, dass eben jene 4% ausreichend niedrig sind.

Das größte Problem der 4%-Regel ist, dass sie sich allein aus den Entwicklungen in der Vergangenheit ableitet. Die Welt von heute unterscheidet sich in einigen Punkten von der die wir zwischen 1925 und 1995 kennengelernt haben. Festverzinsliche Wertpapiere werfen keine Rendite mehr ab und Aktien sind relativ hoch bewertet. Es ist also fraglich ob ein Anteil von 50% festverzinslicher Wertpapiere sonderlich viel Sinn macht und ob man überhaupt noch mit 4% realer Rendite rechnen kann.

Will man auch in der Entnahmephase an Aktien festhalten, ist man also gezwungen die Entnahmerate dynamisch an die zu erwartende Rendite anzupassen. Dazu muss man sich eine Vorstellung bilden welche Ertrag man konservativ von Aktien langfristig erwartet. Diesen Betrag bereinigt um die Inflation und abzüglich eines Sicherheitspuffers entnimmt man nun den Aktiendepot. Jedes Jahr passt man den Betrag erneut an. Der Betrag wird typischerweise schwanken, sodass man gezwungen ist seinen Konsum entsprechend anzupassen. Die Schwankungen werden jedoch weniger heftig ausfallen, als die Schwankungen des Gesamtmarkts. Denn diese sind vor allem darauf zurückzuführen sind, dass sich die Einschätzung ändert wie hoch ein bestimmter Gewinn bewertet werden sollte, wie hoch das angemessene KGV oder eine vergleichbare Kennzahl ist. Andererseits wird der Ertrag in einer Rezession stark einbrechen, sodass man auf eine Reserve in schwankungsarmen Anlagen angewiesen ist, um Schwächephasen zu überstehen.

Eine weitere Möglichkeit den Ertrag von Aktien zu glätten bieten Optionen. Optionen sind dazu gemacht Chancen und Risiken neu zu verteilen. In der Entnahmephase kann man prinzipiell zum großen Teil auf die Chancen verzichten. Hier die Erwartungen um 20% zu schlagen ist zwar angenehm, viel wichtiger ist hingegen dass man nicht zu sehr hinter den Erwartungen zurückliegt. Optionen erlauben es seine Chancen gegen regelmäßige Einkommen zu tauschen, die entsprechende Strategie ist der Verkauf von Call-Optionen. Anderseits ist es auch möglich sich durch den Erwerb von Put-Optionen sich gegen starke Einbrüche Abzusichern. Kombiniert man beide Vorgehensweisen ergeben sich sogenannte „Collar“-Stategien. Die Nachteile, Optionen zur Glättung der Erträge zu verwenden, liegen in dem hohen Zeitaufwand, der damit verbunden ist und die Unsicherheit, ob und wieweit die langfristigen Erträge damit geschmälert werden.

Wie unser kurzer Abriss der unterschiedlichen Instrumente und Strategien gezeigt hat, ist die Aufgabe Vermögen in regelmäßiges Einkommen zu verwandeln alles andere als trivial. In Zeiten der finanziellen Repression ist es nicht mehr möglich eine einfache Regel ohne Nachdenken zu befolgen und damit sicher über die Runden zu kommen. Gerade die Instrumente die am ehesten Erfolg verheißen — Imobilien, Aktien und Optionen — setzten solide Kenntnisse der Materie voraus, die man sich schon beim Aufbau des Vermögens aneignen muss. Wie zehren in der Entnahmephase nicht nur von unserem Kapital, sondern auch von den Wissen, das wir uns in der Aufbauphase angeeignet haben.

Nobel Design Holding — Zu schön um wahr zu sein?

Februar 23, 2017

Wenn etwas zu schön ist um wahr zu sein, dann ist es in der Regel auch nicht wahr. Hobel Design Holding wirkt auf den ersten Blick wie ein Net-Net mit einem ROE von über 10%, und stellt damit ziemlich genau die perfekte Aktie dar. Was genau kommt zum Vorschein wenn man bei Nobel Design Holding etwas tiefer unter die Oberfläche bohrt?

Nobel Design Holding ist ein in Singapur angesiedelter Konzern der überwiegen Mobiliar vertreiben. Darüber hinaus bestehen Beteiligungen an Unternehmen für Immobilienentwicklung. Die Umsätze werden zu 60% in den USA erzielt, an zweiter Stelle folgt Singapur mit 36%, ein geringer Teil der Umsätze stammen aus Malaysia und Brunei. Über die verschiedenen Tochterfirmen werden unterschiedliche Kundenkreise angesprochen. Das bedeutende USA-Geschäft besteht jedoch allein in der Belieferung anderer Ketten (B2B). Eine Börsennotierung besteht seit 1996.

Das Unternehmen in Zahlen:

ISIN SG1D60018406
Aktienanzahl 216 954 000
Marktkapitalisierung 93.290 M SGD
Webseite http://www.nobel.com.sg/index.php
Aktueller Kurs 0.43 SGD
Unternehmensgewinn (letzte 12 Monate) 21.77 M SGD
Eigenkapital 30.09.16 156,158 M SGD

 

Das Geschäftsmodel lässt auf dem ersten Blick nicht erahnen, warum die doch recht ansehnlichen Eigenkapitalrenditen von über 10% erreicht werden können. Das Hauptgeschäft spielt sich in einen stark fragmentierten Markt mit wenigen Differenzierungsmöglichkeiten ab. Sieht man sich den Geschäftsbericht genauer an stellt man dann auch tatsächlich fest, dass das konsolidierte Geschäft kaum profitabel ist. 2015 entfielen zwei Drittel des Gewinns auf nicht kondolierte Joint Ventures, also auf die Immobilienprojekte. Für das eigentliche Kerngeschäft muss man noch weitere Abzüge machen, so dass es sich für 2015 so darstellt:

Unternehmensgewinn (2015) 18.294 M SGD
Anteil an Gewinnen von Joint Ventures 12.268 M SGD
Zinseinkommen 1.343 M SGD
Mieteinkommen 3.729 M SGD
Auflösung Rechnungsabgrenzungen 3.25 M SGD
Gewinn im Kerngeschäft -2.296 M SGD

 

Wie man sieht ist das eigentliche Kerngeschäft defizitär. Dennoch gelang es dem Unternehmen einen großen Berg an Cash anzuhäufen. Dies lag fast ausschließlich an dem sehr profitablen Projektgeschäft, das mittlerweile in den Joint Ventures organisiert ist. Leider ist kaum abzusehen, wie lange der warme Geldregen aus dem Projektgeschäft noch anhalten wird. Im Bericht zum Dritten Quartal 2016 berichtet die Geschäftsleitung davon, dass die meisten Projekte am Ende ihres Zyklus angekommen sind, darüber hinaus hat ein wichtiger Mieter gekündigt, so dass in naher Zukunft der Großteil der oben aufgeführten Miteinkommen ebenfalls wegfallen wird. Die Geschäftsführung rechnet für das vierte Quartal 2016 mit einem Verlust.

Ich gehe davon aus das das Kerngeschäft weiterhin defizitär bleibt, da meines Erachtens die wichtigste Ursache für die niedrigen Erträge, in der komplexen Konzernstruktur mit zahlreichen Tochtergesellschaften besteht. So besteht das bord of directors aus 16 Mitgliedern, von denen elf Mitglieder Managementaufgaben wahrnehmen. (Die anderen üben Aufsichtsfunktionen aus.) Da die schwache Ertragslage durch Erträge aus Nebenaktivitäten ausgeglichen wird, sehe ich hier auch keinen großen Handlungsdruck Verbesserungen zu erreichen. Ein Lichtblick ist das Geschäft in den USA. Hier werden hohe Eigenkapitalrenditen, bei hohen Wachstum erzielt. Da ich jedoch auch hier keine dauerhaften Wettbewerbsvorteile sehe, gehe ich davon aus, dass sich auch hier die Profitabilität langfristig zurückgeht.

Ein weiterer Negativpunkt ist die Entwicklung der Aktienanzahl. Diese ist von 165.101 Millionen 2009 auf 212.722 Millionen 2015 gestiegen. Meine erste Befürchtung, dass sich hier das Management auf Kosten der Aktionäre bereichert hat sich zum Glück nicht bestätigt. Zwar spielt ein Aktienoptionsprogramm auch eine Rolle. Der Großteil der neuen Aktien stammt jedoch aus Optionsscheinen, die 2011 herausgegeben und 2013 und 2014 gewandelt wurden. Das Projektgeschäft war in dieser Zeit so erfolgreich, dass trotz des starken Anstiegs der Aktienzahl, der Buchwert je Aktie von 0.17 SGD 2009 auf 0.69 SGD 2015 angestiegen ist. Der Anteil des Cashbergs an der Bilanz hat sich hierbei stark erhöht.

Die Aktionärsstruktur nehme ich mit gemischten Gefühlen war. Der COO (geschäftsführende Direktor) Wee Ai Quey hält 11.12% der Aktien. Das ist genug, um die Interessen des Managements mit denen der übrigen Aktionäre in Einklang zu bringen, aber zunächst zu wenige als das der Direktor Sonderinteressen durchsetzen könnte. Weitere wichtige Aktionäre sind Chee Peng Choong mit 23.73% einer der Gründer und langjähriger Geschäftsführer, Goon Eu Jin Terence mit 10.8% der CEO (Vorsitzende der Geschäftsleitung) und Kho Chuan Thye der erste Externe mit der höchsten Beteiligung mit 9.58%. Insgesamt können also drei Insider die Gesellschaft kontrollieren, was problematisch sein kann. Die Beteiligung der Geschäftsführer ist an sich angemessen und das einer der Gründer noch einen hohen Anteil hält ist an sich ebenfalls positiv zu bewerten.

Zur Bewertung des Unternehmens wähle ich den Ansatz den Wert der operativ nicht notwendigen Anlagegüter und den Wert des Operativen Geschäfts zusammen zu addieren und die Langfristigen Schulden und ggf. negative Working Capital vom Wert abzuziehen. Die Bewertung bezieht sich auf die Zahlen zum 30. September 2016. Operativ nicht notwendig ist der Cashberg von 103.164 Millionen SGD (nur die Bankanlagen mit Fälligkeit länger 3 Monate) und die Beteiligungen an den Joint Ventures mit 38.936 Millionen SGD. Einen Ertragswert weise ich den Joint Ventures nicht zu, da ich davon ausgehe das die Projekte weitestgehend durch sind und die Erträge bald wegfallen werden. Die langfristigen Schulden betragen gerade einmal 2.252 Millionen SGD und das Working Capital abzüglich Cashberg ist positiv. Das operative Geschäft bewerte ich mit Null, da es defizitär ist und ich nicht erwarte, dass sich das in naher Zukunft ändern wird.

Cashberg 103.164 M SGD
Joint Ventures 38.936 M SGD
Operatives Geschäft 0 SGD
Working Capital (ohne Cashberg und Vorräte) 0 SGD
Schulden -2.252 M SGD
Minderheiten -4.990 M SGD
Bewertung 134.858 781 M SGD
Markkapitalisierung 86.781 M SGD

 

Quellen: http://quicktake.morningstar.com/StockNet/SECDocuments.aspx?Symbol=547&Country=sgp

Läuft der Ausbau der Erneuerbaren Energien vor die Wand?

Januar 19, 2017

Der Anteil der Erneuerbaren Energien der Erzeugung elektrischer Energie hat mittlerweile 32% erreicht. Bis 2020 sollen 35% erreicht werden. Heißt dass das die Energiewende erfolgreich verläuft? Nicht unbedingt. Denn es ist abzusehen, dass der weitere Ausbau auf massive technische Hindernisse stößt.

Die Problematik ergibt sich aus der sehr ungleichmäßigen Energiebereitstellung durch erneuerbare Energien. Erneuerbare Energien wie Windkraft und Photovoltaik liefern bezogen auf ihre Spitzenleistung nur verhältnismäßig wenig Energie. Dieser Sachverhalt wird am besten durch den Nutzungsgrad festgestellt, dem Verhältnis aus Vollaststunden zur Betriebszeit. Vollaststunden sind der Zeitraum in Stunden die eine Anlage unter Volllast laufen müsste, um die gleiche Arbeit umzusetzen die sie im betrachteten Zeitraum tatsächlich umgesetzt hat. Der Nutzungsgrad von Windenergie liegt bei 18,8%, der von Photovoltaikanlagen bei 12,6% zum Vergleich Kernkraftwerke erreichen einen Nutzungsgrad von 88% und selbst Gaskraftwerke einen von 36,2% (Quelle). Der niedrige Nutzungsgrad für zu Problemen, da der Zeitraum in dem die Leistungsabgabe erfolgt nicht kontrolliert werden kann.

Wenn man z.B. 30% des Stromverbrauchs durch Windkraft abdecken will entspricht das im Mittel etwa 20 GW. Bei einem Nutzungsgrad von 20% würde man eine Nennleistung von 100 GW Windkraft benötigen. Da die Leistungsabgabe von Windkraftanlagen untereinander stark korreliert sind, erreicht an windstarken Tagen die gesamte Leistungsabgabe von Windkraftanlagen einen relativ hohen Anteil an der Nennleistung aller Windkraftanlagen. In der Folge übersteigt die Energiebereitstellung aus Windkraft immer öfters die Energienachfrage. Mit wachsendem Anteil erneuerbaren Energien wächst daher der der Anteil an Energie für die kein Abnehmer gefunden wird. Analog gilt das auch für die Photovoltaik.

windkraft

Die überschüssige Energie führt zu negativen Strompreisen, d.h. sie ist nicht nur wertlos, bei ihrer Entsorgung fallen darüber hinaus auch noch zusätzliche Kosten an. Wie wirtschaftlich eine Windkraftanlage ist, hängt also nicht alleine von den Merkmalen der Anlage selbst ab, sondern auch davon wie viele andere Windkraftanlagen am Netz angeschlossen sind.

Ein häufiger Einwand gegen diese Argumentation ist, dass es doch möglich sei die überschüssige Energie zu speichern. Dies scheitert jedoch an den eigenen Schwierigkeiten eines solchen Unterfangens. Die Probleme fangen damit an, dass nicht genügend Speicher zur Verfügung stehen. Die effizienteste Form der Speicherung wären Pumpspeicherkraftwerke mit Kosten von 3 bis 5 Cent/kWh und Tag. In Deutschland bestehen Speicherkapazitäten von 40 GWh und Leistungen von 7 Gw. Für den weiteren Ausbau fehlt es an geeigneten Standorten. Auch Druckluftspeicher werden höchsten regionale Bedeutung erlangen. Es bleibt die Umwandlung der überschüssigen Energie in Wasserstoff und dann zwecks Speicherung in Methan. Diese Alternative wird unter dem Stichwort Power-to-Gas (PtG) diskutiert. PtG hat jedoch einen Gesamtwirkungsgrad von nur 35%, auf die Art gespeicherte Energie wäre also allein schon ohne Berücksichtigung der Abschreibung auf die PtG-Anlagen dreimal so teuer wie die ohnehin schon teure Windenergie.

Hinzu kommt, dass Speicher nicht mehr wirtschaftlich sind. Genau wie Spitzenlastkraftwerke lohnen sie sich nur wenn an den Strombörsen hohe Preise zu erzielen sind. Da die erneuerbaren Energien diese Zeiten reduzieren, lassen sich Pumpspeicherkraftwerke nicht mehr wirtschaftlich betreiben.

Insgesamt zeigt sich das der Ausbau der Erneuerbaren Energien um so teuer wird, je weiter der Ausbau voranschreitet. Wir haben den Punkt erreicht ab dem die Kosten für die Abregelung der Anlagen und der Entsorgung der überschüssigen Energie zunehmend relevant werden. Technologien um diese Probleme zu beheben stehen kurzfristig nicht zur Verfügung und es ist nicht absehbar, dass diese auch nur halbwegs wirtschaftlich angewendet werden können. Ich rechne daher mittelfristig mit weiteren Reformen des Erneuerbare-Energien-Gesetz, die den weiteren Ausbau verlangsamen und schließlich ganz stoppen.