Die Parkuhr Blog von Stefan Thielen

29Jun/110

Facebook: Nicht nur Geblubbere, sondern auch noch eine Blase?

Zunächst laufen die Erwartungen der Relevanz voraus, später ist es umgekehrt.

Zunächst laufen die Erwartungen der Relevanz voraus, später ist es umgekehrt.

Nach den letzten politischen Beiträgen möchte ich mich heute einem aktuellen Wirtschaftsthema zuwenden. So wurde in den letzten Wochen verstärkt über die Bewertung von Internetunternehmen im Zusammenhang mit Ihrem möglichen oder bereits durchgeführten Börsengang diskutiert. Dabei heizt das für die nahe Zukunft erwartete „Going Public“ von Facebook das Interesse der Börsenteilnehmer und der Wirtschaftspresse stark an. Der Börsengang des Internetradioanbieter „Pandora“ wurde daher vor kurzem quasi als Testballon für die Märkte begrüßt und sehr genau beobachtet, und tatsächlich gab es einiges zu sehen: Nachdem das Unternehmen zunächst mit einem Kurs von 16 Dollar an der NASDAQ startete, schoss er dann auf 26 Dollar hoch, machte jedoch bald kehrt und liegt heute bei rund 13,5 Dollar. Dies entspricht zwar immer noch einer Marktkapitalisierung von gut 2 Mrd Dollar, jedoch sehen erste Analysten das Papier nur bei 5,5 Dollar. Auf Grund der Ereignisse hat sich inzwischen scheinbar die Meinung durchgesetzt, dass es sich wieder um eine generelle Überbewertung von Technologieaktien handelt, das Handelsblatt titelte schon „Erstes Opfer der neuen Dotcom-Blase“. Aber stimmt das so?

Wie sich Technologie durchsetzt

Man sollte daher zunächst einen Blick auf die erste Dotcom-Blase werfen. Zum Ende der 90er Jahre zeigten die Börsen global eine Aufwärtsbewegung wie man sie nur selten erlebt hat. Getrieben wurde die Entwicklung dabei vor allem von Technologieunternehmen und dem noch neuen Internet. Scheinbar jede noch so obskure Neuentwicklung wurde an die Börse gebracht und blind von den Anlegern gekauft. Dabei waren selbst Unternehmen die mehr Verluste als Umsatz machten ein Renner. Alles wurde auf die zukünftigen Potentiale abgestellt, welche einige der Unternehmen unzweifelhaft hatten, vor allem wenn man sich heute zum Beispiel die Rolle von amazon oder ebay ansieht.

Oft wird dabei diese Dotcom-Blase als ein einzelnes Ereignis angesehen, was es aber sicher nicht war. Betrachtet man die Industriegeschichte, so war so etwas immer wieder der Fall: Neue Technologien wurden erst mit Skepsis betrachtet, dann euphorisch begrüßt, die Euphorie ebbte dann wieder ab und es trat sogar eine Krise ein, obwohl dann am langen Ende die Technologie doch wie selbstverständlich in den Alltag der Menschen einfloss und den Anbietern und Investoren beachtliche Gewinne bescherte. In der letzten Phase ist es dann auch so, dass von der neuen Technologie alte Methoden verdrängt werden und direkt mit ihr oder über sie Gewinne erzielt werden. Ein schönes Beispiel, mit dem sich die Dotcom-Blase vergleichen lässt, sind etwa Eisenbahnunternehmen, die in der zweiten Hälfte des 19 Jahrhunderts, vor allem in den USA, ähnlich diese Phasen durchgemacht haben. Verdeutlicht schematisch dargestellt wird der darin enthaltene Unterschied zwischen Erwartung und Ertrag bei dem eingefügten Schaubild von Prof. Brenner, Universität St. Gallen.

Nachdem tatsächlich viele der Dotcom-Unternehmen vom Markt und auch von der Börse verschwunden sind, musste man einige Zeit später feststellen, dass eben doch nicht alles eine Blase war. Tatsächlich haben sich viele Unternehmen, alle voran Google, durchgesetzt, sind hoch profitabel und haben unsere Welt dabei völlig verändert. Wer im richtigen Moment dabei auf das Wachstum des Suchmaschinengiganten gesetzt hat konnte darüber hinaus von einen Kursanstieg profitieren, der immer noch anhält, denn auch das Wachstum von google scheint noch nicht am Ende zu sein.

Value vs Wachstum

Anlegern wurde und wird genau so ein Wachstum und die dadurch genutzten Potentiale als eine Methode suggeriert die richtigen Aktien auszuwählen. Die Methode unterscheidet sich dabei nach einfachem Lehrbuchwissen völlig vom sogenannten Value-Ansatz, der zum Beispiel immer mit Warren Buffet in Verbindung gebracht wird. Hierbei lässt man sich eher von klaren Kennzahlen beeindrucken und setzt auf Unternehmen, die offensichtlich hinsichtlich ihres Ertrags für den Aktionär unterbewertet sind, so kann man in der Zukunft von guten stabilen oder gar steigenden Dividenden und ggf. dadurch bedingt steigenden Kursen profitieren.

Man muss sich aber fragen, ob diese simple Unterscheidung dem Anleger hilft und ob sie überhaupt gerechtfertigt ist. Aus meiner Sicht ist sie das nicht, da ein reiner Value-Ansatz genauso wenig hilfreich ist wie ein Wachstumsansatz wenn in der Zukunft die Gewinne ausbleiben, bzw. gar nicht erst eintreten. Daher bleibt dem Analyst oder Anleger nichts anderes übrig als sich im Detail mit dem Geschäftsmodell des zu bewertenden Unternehmens zu beschäftigen. Nur so kann erkannt werden welche Entwicklung zu erwarten ist, reine Rechenmethoden oder Phantasie helfen hier nicht weiter. Wichtig bleibt dabei die Frage, ob das Geschäftsmodell so aufgestellt ist, dass es in Zukunft nachhaltig zu Gewinnen führt. Dabei muss auch betrachtet werden welche Gefahren es etwa durch weitere technische Entwicklungen, neue Marktteilnehmer usw. gibt, genau wie von Porter aufgezeigt. So handelt es sich auch bei vermeintlichen Value-Aktien nur um solche, sofern der Mehrwert von Ertrag über derzeitige Bewertung auch in den nächsten Jahren gegeben, bzw. zu erwarten ist. Ähnliches ist bei vermeintlichen Wachstumsaktien der Fall, hier sollte zumindest bereits eine Möglichkeit der Ertragsgenerierung welche eine entsprechende Bewertung rechtfertigt gegeben sein. Insgesamt muss am Ende entscheidend sein ob das Geschäftsmodell so einzigartig, nicht ersetzbar oder mit einer erfolgreichen Marke verbunden ist, dass der Erfolg auch in Zukunft garantiert ist. Bei ebay, amazon und google war und ist eben dies der Fall, und daher verschafften die Unternehmen ihren Aktionären Gewinne, während andere Internetunternehmen inzwischen verschwunden sind.

Und Facebook?

Auch bei Facebook sollte man daher nicht zuerst über die Höhe der möglichen Marktkapitalisierung diskutieren, sondern das Geschäftsmodell überprüfen. Das Facebook als Marke eine Macht ist und so leicht nicht von einem anderen Angebot verdrängt werden wird, gilt für mich als sicher. Wenn man sieht wie viel Zeit vor allem junge Menschen heute auf Facebook verbringen so scheint das ganze sogar nachhaltig zu sein: Durchschnittlich jede neunte im Netz verbrachte Minute wird bei Facebook, nun ja, verplempert. In der Tat hat Facebook auch das Kommunikationsverhalten vieler Menschen verändert, auch wenn ich die Meinung von Zuckerberg nicht teile, dass Facebook-Nachrichten jemals die E-Mail ersetzen werden. Entschuldigung, aber wer ist schon so blöde und vertraut einem Unternehmen seinen Briefverkehr an, welches es offensichtlich mit dem Schutz und vor allem Gebrauch der Daten seiner Nutzer nicht so genau nimmt? Auch was das Wachstum angeht hat Facebook Potentiale in weiten Teilen der Welt, während China jedoch zum Beispiel die Nutzung nicht gestattet. Aber es gibt auch sonstige Einschränkungen zu beachten. Sollte man sich weiter mit schlechtem Datenschutz und Missbrauch von Nutzerdaten seine Reputation ruinieren, so besteht die Gefahr Nutzer zu verlieren.

Und zum finanziellen? Wie google auch ist Facebook für Nutzer zunächst kostenlos und erwirtschaftet so kaum Umsätze. Diese werden durch die Weiterleitung auf andere Angebote, also durch Werbung, erzielt. Google hat den Vorteil, dass es hier Werbung anbieten kann die mit der Suchanfrage übereinstimmt. Und Facebook? Es macht den Eindruck, dass dies hier noch nicht so ausgereift ist. Aber indem der Nutzer inzwischen Facebook fast alles anvertraut, auch seine Nachrichten, wird sich dies bald ändern. Scheinbar wurde vor kurzem zumindest der einstige Internetgigant Yahoo schon überholt. Man muss auch einfach beachten, dass das Internet heute ein realer Teil der Wirtschaft ist und dass es kaum mehr Schwellen zum Beispiel zu Käufen oder sonstigen Transaktionen gibt, es hat sich hier ein Teil des realen Marktes in anderer Gestalt etabliert, wie es oben als Beispiel vieler neuen Technologien gezeigt wurde.

Für die tatsächliche Bewertung muss daher geprüft werden wie viele der Nutzer sich tatsächlich zu Angeboten weiterleiten lassen. Eine bewährte Faustformel um aktive Kunden die weitergeleitet werden zu bewerten – sogenannte Leads – ist aus meiner bisherigen Erfahrung  zwischen 50 und 100 Euro. Wenn ich von einem Potential von 1 Mrd regelmäßiger Nutzer weltweit ausgehe, dazu noch die Summe etwas abwerte da in Entwicklungs- oder Schwellenländern auch die 50 Euro zu hoch gegriffen wären, dazu noch den Kurs Euro zu Dollar umrechne, so wäre aus meiner Sicht eine Bewertung irgendwo zwischen  50 bis 100 Mrd Dollar für Facebook für mich keine Überraschung, sondern logisch zu belegen. Gerade wenn die Schwelle von 1 Mrd Nutzern als noch zu gering angesehen würde bei dem enormen aktuellen Wachstum kann der Wert eher nach oben tendieren. Der Börsengang selbst wäre vor allem dann wirtschaftlich sinnvoll, wenn danach das eingebrachte Kapital dann für eine Verbesserung des Service und eine Investition in eine nachhaltige Technologieführerschaft investiert wird, etwa eine gute Einbindung in mobile Geräte. Dies muss am Ende auch Teil der Bewertung sein. Alles in allem muss man diesen Preis vor allem auch ansetzen, da Facebook in seinem Bereich der absolute Monopolist ist und somit eine besondere Rendite abschöpfen kann.

Wohl keine wirkliche Blase

Man kann am Ende darüber diskutieren, wie groß der Wert von Facebook im einzelnen Mrd-Bereich wirklich ist, und es mag auch übertriebene Bewertungen jenseits der 100 Mrd geben. Für mich bleibt festzuhalten, dass es nachhaltige Argumente gibt, warum ein hoher zweistelliger Mrd-Wert begründet sein sollte. Wichtig bleiben die Erkenntnisse, die den Unterschied ausmachen: eeine Verdrängung von Facebook ist aktuell kaum zu erwarten, im Gegensatz zu Pandora. Gerade im Medienbereich hat man in der Vergangenheit immer wieder erleben können, wie schnell Nutzer die Plattform wechseln wenn das Angebot eingeschränkt oder kostenpflichtig wird, siehe die Beispiele Napster, Limewire und wie sie alle hießen. Dies kann bei Pandora auch passieren, bei Facebook aktuell nicht. Von daher hinken auch Vergleiche, denn seine Freundeslisten kann man nicht so schnell übertragen wie Playlisten (die es so ja gar nicht bei Pandora gibt).

Eine Gefahr die ich für Facebook sehe ist übrigens eine, die noch mehr für Twitter gilt: je mehr Nutzer jemand in den Portalen hat, desto schwieriger wird es wichtiges von unwichtigem zu unterscheiden. Und wer verbringt schon gerne seine Zeit mit Trivialem? Ok, dem mag das aktuelle Fernsehprogramm mit seinen noch hohen Zuschauerzahlen entgegenstehen. Für mich steht es jedoch im Zweifel, und dies belegen auch neuste Daten, nachdem die Nutzerzahlen in den USA bereits sinken und auch die Verweilzeit zurück geht. Zudem ist wirklich relevantes, etwa der Umzug oder die Hochzeit eines Freundes, nur noch schwer aus einem Mischmasch wie „Gehe heute zu McDonalds essen“ oder „Gerade aufgestanden“ heraus zu filtern, man gewinnt fast den Eindruck die Relevanz nimmt mit der Anzahl der Freunde ab.

Was bleibt ist die Erkenntnis, dass man nicht generell von einer neuen Dotcom-Blase sprechen sollte. Der Begriff ist aus meiner Sicht vor allem auch deswegen unsinnig das das Internet heute ein normaler Teil unserer Geschäftswelt geworden ist, gerade auch weil es viele erfolgreiche Unternehmen in dem Bereich gibt. Also keine Blase, aber sehr viel Geblubbere.

6Jun/113

E10 – Wahnsinn, was dort alles drinsteckt

E10 - Wahnsinn, was dort alles drin steckt

Nachdem fast die Jahresmitte erreicht ist kann Energie - neben den noch laufenden Revolutionsbewegungen in den nordafrikanischen und arabischen Staaten - uneingeschränkt als das die Nachrichtenlage prägende Thema bezeichnet werden. Dabei wird die Medienlandschaft vor allem durch die Zuspitzung der Lage in den japanischen Kernkraftwerken in Folge des Tsunamis wie auch durch die Auswirkungen dieser Situation auf die deutsche Wahrnehmung nuklearer Energieformen dominiert. Dieser Beitrag soll sich jedoch nicht auf diese äußerst heikle und emotionsgeladenen Thematik beziehen, sondern eine Entwicklung thematisieren, die in den letzten Wochen nicht mehr so sehr im Fokus steht, wie dies schon der Fall gewesen ist. Trotzdem halte ich das Ganze immer noch für sehr aktuell und es ist auch zu erwarten, dass es früher oder später wieder auf die Tagesordnung zurückkehrt, nicht zuletzt eben durch die enge Vernetzung des Gesamtthemas Energie. Leider wird dieses aktuell immer nur auf die Frage „Abschalten?“ reduziert. Mit „E10“ ist hier das Thema auch vereinfacht auf den Punkt gebracht, soll aber in erweiterter Form diskutiert werden, nämlich hinsichtlich aller Formen der Energieerzeugung aus Biomasse. Erkennen was drin steckt ist dabei eine Facette, aber eher als Metapher für die wesentliche Frage gedacht: was steckt hinter der ganzen Sache?

 

Energetische Geschichte

Zur Energiegewinnung aus Biomasse hat es in den letzten Jahren immer mehr Neues zu berichten gegeben: Förderung von Biogasanlagen, Biodiesel, E5, Zentralheizungen mit Holzpellets, E10, usw. Dies erweckt den Eindruck, dass es sich hier um eine völlig neue Entwicklung handelt. Diese Wahrnehmung ist auch berechtig, da unser Blick auf die Geschichte – sei es in der Schule, in Literatur oder auch in der Wissenschaft – zumeist ein rein politischer ist. Dabei ist das Thema energetische Geschichte von besonderem Interesse, da es oft die Hintergründe von vielen politischen Entscheidungen oder generellen Entwicklungen zu erklären vermag.

Wenn man sich fragt wie aktuell das Thema „Energie aus Biomasse“ ist würden die meisten auf wenige Jahre tippen. Diese Antwort ist grundfalsch. Das Thema beginnt an dem Punkt, als der Mensch sich das Feuer zu Eigen macht und begleitet uns seither. Es hat die Geschichte wie kaum etwas anderes geprägt und im Zusammenhang mit technischen Entwicklungen mehrere Revolutionen in der menschlichen Geschichte ausgelöst, die ihres Gleichen suchen. Das erste Beispiel dafür ist die Sesshaftwerdung und die Entstehung der Landwirtschaft. Zunächst wird der Hintergrund nicht klar, aber betrachtet man die Sache im Detail, so kann man in einzelnen Kulturen enorme Unterschiede erkennen. Der wesentliche ist dabei die Nutzung von Zug- und Arbeitstieren. Zum ersten Mal gebrauchte der Mensch in diesem Fall nicht nur seine eigene Körperkraft, sondern reinvestiert sozusagen die Ergebnisse seiner Produktion, um die Arbeit effizienter durch Tiere verrichten zu lassen. Hierdurch war in der abendländischen Landwirtschaft, aber auch anderenorts, ein enormer Produktivitätszuwachs zu verzeichnen. Ergebnisse sind beispielsweise die Freisetzung von Arbeitskräften für andere kulturelle Tätigkeiten oder die Ermöglichung von neuen Technologien wie dem Streitwagen. Noch Jahrhunderte später zeigten sich hier Unterschiede in den Kulturen bei der Eroberung Südamerikas. In Hochkulturen der westlichen Hemisphäre war die Nutzung von Arbeitstieren nahezu ausgeblieben. Man kann hier bereits verschiedene Eben der Entwicklung erkennen. Diese ist auch immer mit einer bewussten Entscheidung verbunden: Wer Pferde nutzen möchte, muss die hierfür notwendige Energie an anderer Stelle einsparen, denn ein Pferd ist nun mal nicht so einfach wie eine Kuh oder gar eine Ziege zu ernähren. Das Pferd ist im Gegenteil dem Mensch quasi ein direkterer „Freßfeind“, viele der zur Pferdenahrung notwendigen Anbauprodukte, etwa Getreide, setzten einen konkreten Nahrungsverzicht durch Menschen voraus, bzw. diese „Investitionen“ mussten durch anderweite Effizienzvorteile eingespart werden. In dieser Beziehung zeigt sich auch schon die Krux an der Sache, denn die Anbaufläche und die damit zu tragende Bevölkerung ist begrenzt und es müssen konkrete Verzichtsentscheidungen getroffen werden, wie bereits Malthus im 18. Jahrhundert nachgewiesen hat.

Der nächste bedeutende Schritt in der Entwicklung war dann genau deswegen so revolutionär. Es ist die Nutzung fossiler Rohstoffe erst als Torf, dann als Kohle und zuletzt als Öl oder Gas. Die industrielle Revolution in all ihren Auswirkungen wurde nicht allein durch die Tatsache ausgelöst, dass man nun die höhere gespeicherte Energie direkt nutzen konnte. Darüber hinaus leitete sich ein selbstbeschleunigende Effekt der industriellen Revolution erst dadurch ein, dass nun die Fläche zur Erhaltung der Mobilität/der Wärmeerzeugung nicht mehr vollständig vorgehalten werden musste, da es dem Menschen gelungen war „unterirdische Wälder“ – wie es Sieferle unnachahmlich formuliert - zu roden. Dies begünstige so gleichzeitig einen starken Bevölkerungsschub mit bekannten und bis heute anhaltenden Folgen.

Auch der nächste Schritt muss als genauso revolutionär angesehen werden, nämlich die Kernspaltung, auch wenn heute niemand mehr etwas davon wissen möchte. Die ersten Euphorien sahen auch hier eine Nutzung in allen Teilbereichen vor, selbst bis in die kleinsten Bereiche der Mobilität. Man lese nur die Werke von Asimov aus den 50er oder 60er Jahren und man kann in der Science Fiction die Hintergründe des damals allgegenwärtigen Fortschrittsgedankens spüren. Auch wenn die Kerntechnik inzwischen in Verruf geraten sein mag, so muss man sie uneingeschränkt vor dem Hintergrund der Versorgungssicherheit würdigen. Statt den bisherigen zwei Standbeinen der Energieversorgung war ein drittes hinzugekommen. In diesem Sinne hat – wenn auch nur in geringerem Maße – die Kerntechnik geholfen Hungersnöte und CO2-Ausstoss zu reduzieren.

Es gibt kein Zweifel daran, dass weitere Energieformen, allen voran die Sonnenkraft, in Zukunft auf Dauer das Rückgrat unserer Energieversorgung darstellen müssen. Dieser Schritt ist somit die nächste Revolution, die uns bevorsteht. Diesmal ist es nicht nur ein Chance, sondern die blanke Notwendigkeit, diese Entwicklung herbeizuführen, wollen wir ohne Kernkraft den globalen Treibhauseffekt verhindern. Alle diese weiteren Energieformen formieren unter dem Begriff „regenerative Energie“. Das mag mit Hinweis auf die Regeneration richtig sein, aber wie gezeigt wurde handelt es sich nur in begrenzter Form um neue Entwicklungen. Windkraft ist teilweise älter als die Nutzung von fossilen Rohstoffen selbst, sie wurde beim historischen Rückblick nicht besonders erwähnt, da sie bisher immer nur kleinste örtlich begrenzte Nischen besetzt hat, wie auch die Wasserkraft. Beide sind eben nur begrenzt und vor allem auch nicht uneingeschränkt – zu jeder beliebigen Zeit - verfügbar. Und bei der Biomasse? Wie wir gesehen haben drehen wir uns schon zu Beginn im Kreis. Wir setzen wieder auf eine Energieform die bereits Tausende von Jahren alt ist. Es gab gute Gründe, dass diese in den Hintergrund gerückt ist. Wir sollten daher wirklich prüfen, ob wir diese in jeglicher Form weiter führen wollen.

 

Maßnahmen und Wirkung – Eine Milchmädchenrechnung

Für die Mehrzahl der Wissenschaftler gibt es keinen Zweifel daran, dass die Gefahr eines globalen Treibhauseffektes besteht. Es ist daher unbedingt notwendig hier einzugreifen. Die Möglichkeiten sind leider eingeschränkt, da viele regenerativen Energien, allen voran die Sonnenenergie oder auch die umstrittene Kernfusion, noch nicht die Wirkungsgrade erreichen, die diese wirtschaftlich erscheinen lassen. Windkraft, Wasserkraft und konservative Kerntechnik sind aus anderen Gründen nur eingeschränkt nutzbar, bzw. verpönt. Besonders aus diesen Gründen wurde und wird die Biomasse als neuer Standard angesehen, den es insbesondere durch staatliche Mittel zu fördern gilt. Im Zuge der aktuellen emotionalen Debatte um die Kernkraft treten dabei die Fakten leider in den Hintergrund. Alles was dient die Kernenergie in Deutschland auch nur einen Tag früher zu beseitigen wird als positiv angesehen, koste es was es wolle. Dies ist aus meiner Sicht eine Beleidigung des menschlichen Intellekts weil nur eine Seite der Medaille gesehen und nicht die Konsequenzen in Betracht gezogen werden.

Der Hintergrund der Nutzung der Biomasse ist wie bereits erwähnt die Reduzierung von Treibhausgasen. Oft entsteht in der öffentlichen Wahrnehmung der Eindruck, dass alle so genannten regenerativen Energien ohne Ausstoß von Treibhausgasen auskommen. Dies ist aber nicht der Fall, denn es muss immer der gesamte Lebenszyklus der Energieerzeugung gesehen werden. Hinsichtlich der Energieproduktion betrifft dies etwa auch die Herstellung/Hebung der Rohstoffe, der Transport und die Entsorgung der Abfälle. Ohne Zweifel wird durch Biomasse eine erhebliche Reduzierung im Vergleich zur Nutzung fossiler Energieträger erreicht. Allein beim immer im Fokus gesehenen Kohlendioxid weisen Gas-, Öl-, und Kohlekraftwerke einen Ausstoß von 500 bis 1000 g CO2 pro kWh aus, Biomasse jedoch je nach Herstellung nur 50 bis 100 g pro kWh. Wir erreichen so eine Reduzierung auf ca. 10 bis 20 Prozent der konventionell ausgestoßenen Mengen, ebenso wird eine erhebliche Reduzierung anderer Schadstoffe wie beispielsweise Schwefeldioxid erreicht. Dennoch bleibt festzuhalten, dass dies immer noch Mengen sind die andere regenerative Energien um mehr als das doppelte übertreffen, gerade was die in Deutschland aktuell stark betriebene Verstromung etwa der Gase von Mais-Maische betrifft. Diese sind eindeutig am oberen Ende der Spanne zu finden, Holzpellets etwa stellen die untere Schwelle dar. Verschieben wir also etwa die durch Abschaltung von Kernkraftwerken benötige Energie auf Biomasse schaffen wir so eine Vermehrung des CO2-Ausstosses, der so nicht gewünscht sein kann. Auch die Preise der Herstellung sind natürlich höher als die der konservativen Energieformen, obwohl auf den ersten Blick schon hier eher eine Verschlechterung stattfindet.

Besonders interessant wird die Sache bei den Biokraftstoffen, um auf das Titelthema E10 zu sprechen kommen. Die neuen E10-Kraftstoffe sehen eine Steigerung des bereits zugemischten und aus Biomasse erzeugten Ethanols auf 10 Prozent vor, bisher waren es 5 Prozent. Auch hier geht man nun davon aus, dass zumindest dieser Anteil beim Blick auf den betriebenen Aufwand kaum CO2-Ausstoss mit sich bringt. Aber auch hier ist dies nicht der Fall, die Bilanz ist eklatant: Bio-Ethanol qualifiziert sich dadurch für die Beimischung, dass aktuell in der gesamten Bilanz von Produktion, Transport, usw. nur 35 Prozent weniger CO2 erzeugt werden als durch konventionelle Kraftstoffe, die Reduzierung soll bald auf 40 Prozent gesteigert werden. Betrachtet man die Fakten des stetig steigenden Verkehrsaufkommens in Deutschland oder auch der erhöhte Verbrauch an Kraftstoff für gleiche Nutzung, so ist die Sorge der Fahrzeughalter um die Verträglichkeit mit den Motoren tatsächlich das kleinere Übel. So wurde im Selbsttest wurden bei der Nutzung von E10 ein höherer Verbraucht von 5 – 10 Prozent festgestellt, weit mehr als die proklamierten 1,5 Prozent. Zudem würden mich allein die zusätzlichen Fahrten durch Tank-Tourismus interessieren, welche die Einführung von E10 mit sich bringt, da der Bürger um sein liebstes Spielzeug fürchtet. Man kann in diesem Zusammenhang die Informationspolitik der Mineralölkonzerne kritisieren. Auf der anderen Seite ist es verständlich, dass aus Effizienzgründen nicht deutschlandweit eine weitere zusätzliche E5-Versorgung vorgehalten wird. Im Übrigen würden auch diese Ineffizienzen wiederum höhere Treibhausgase verursachen.

 

Kollateralschäden wohin man schaut

Wie wir gesehen haben sind die Wirkungen der Maßnahmen nur in Teilen von Wirkung. Aber wie sieht es mit den Nebenwirkungen aus? Bereits das Hauptziel, die Vermeidung des Treibhauseffekts, wird nicht wirklich erreicht. Die begrenzte Wirkung wurde bereits gezeigt was die CO2-Reduzierung angeht. Nun ist CO2 nur von der Masse her das Hauptübel des Treibhauseffekts. Inzwischen ist sich die Wissenschaft einig, dass gerade der Gesamt-Cocktail der Treibhausgase die entscheidende Wirkung besitzt. Hier ist zum Beispiel Methan zu nennen, aber auch Lachgas usw., die insbesondere durch die verstärkte Düngung auf den Flächen zur Herstellung von Biomasse freigesetzt werden. Verheerend ist das Ganze in Entwicklungsländern, wo ganze Wälder etwa zum Anbau von Plantagen mit Ölpalmen niedergebrannt wurden. Zwar mag man hier vorhalten dies sei inzwischen durch entsprechende Verordnungen eingeschränkt, aber auf der anderen Seite kann man nicht kontrollieren oder gar regulieren welche Biomasse im Ausland nach deutschem Vorbild zur Energieerzeugung genutzt wird.

In Deutschland soll die Biomassestrom-Nachhaltigkeitsverordnung dies gewährleisten, etwa dürfen keine Wiesen zum Anbau aufgebrochen werden. Dies ist auch verständlich, denn dies setzt Treibhausgase frei zu deren Ausgleich über etwa 80 Jahre der Anbau von Biomasse notwendig wäre. Wer aber kann sicherstellen, dass ein Landwirt zwar direkte Fläche nicht umbricht, aber etwa für die zusätzliche Silage der parallel noch betriebenen Viehwirtschaft dies dann bei anderen Flächen vornimmt, bzw. zukauft? Im Endeffekt ist es immer schwer zu kontrollieren, was wirklich dahinter steckt, denn wenn im Gesamtmarkt die Nachfrage nach eben diesen Erzeugnissen ansteigt wird irgendwo Grünland für Ackerfläche umgenutzt.

Generell bleibt das Problem Biomasse zur Energie- oder zur Nahrungsmittelerzeugung nicht klar trennen zu können. Deutlich wird dies beim E10 zugesetzten Ethanol. Dieser besteht im Schnitt zu 66 Prozent aus Getreide, zu 33 Prozent aus Zuckerrüben und zum Rest aus Zuckerrohr. So wird der fatale weitere Effekt sichtbar: Die historische Errungenschaft Nahrungs- und Energieversorgung voneinander abzukoppeln wird rückgängig gemacht. Wir bringen beides wieder in eine fatale Abhängigkeit, die nicht nur wirtschaftliche sondern auch moralische Fragen aufwirft. Dürfen wir Getreide im Auto verfahren, wenn in anderen Teilen der Welt Menschen hungern? Wie können wir auf vermehrte Nutzung von Flächen für Energieerzeugung setzen, wenn wir schon nicht wissen wie wir auf den vorhandenen Flächen die immer noch steigende Weltbevölkerung ernähren sollen? Lösen wir hierdurch nicht bereits – stärker als alle Spekulanten – eine Steigerung der Nahrungsrohstoffe aus, die bereits heute in Entwicklungsländern den Anteil der für Grundversorgung benötigten Mittel der Bevölkerung am Haushaltsbudget explodieren lassen und die weitere Entwicklung maßgeblich blockieren?

Verheerend wird das Ganze wenn man die selbstbeschleunigenden Treiber anschaut, die wir aktuell in das Gesamtsystem einbauen. So ist der verstärkte Wasserverbrauch für Biomasseproduktion dem bereits grenzwertigen Trinkwasserhaushalt eher abträgig. Die Verstärkung von Monokulturen und damit einhergehende Biodiversität bringt bereits jetzt mögliche Krisenpotentiale mit sich, die man noch nicht im Einzelnen abschätzen kann. Der größte systemische Fehler ist aber darin begründet, dass wir durch Biomasse den Treibhauseffekt nicht vollständig stoppen. Im Gegenteil: Bei der Ablösung der Nukleartechnologie durch Biomasse beschleunigen wir ihn sogar. In wenigen Jahren wird dieser zu gigantischen Dürren und folglich Missernten führen. Tritt dies ein werden auf Grund der höheren Nachfrage nach biologischen Rohstoffen Nahrungsmittel unbezahlbar, mit allen Folgen die dies mit sich bringt. Wer in diesem Zusammenhang weiter an stabile und friedliche Verhältnisse und internationale Beziehungen glaubt kann nur als äußerst naiv bezeichnet werden.

Man kann vorhalten, dass Biomasse nicht per se schlecht ist. Dass ist korrekt, so ist die Nutzung von Abfällen für die Energieerzeugung in jedem Fall zu wünschen. Vor allem die noch in der Entwicklung befindliche Technologie der Kohlenstoffabspaltung kann sogar negative CO2-Ausstösse bewirken, da eingefangener Kohlenstoff aus dem CO2 gebunden wird. Auf der anderen Seite ist aber auch vieles noch weitaus dramatischer als es scheint. So kann selbst scheinbar effektive Biomasse nicht grundsätzlich von den Vorwürfen freigesprochen werden. Bei den mit höchster Effektivität nutzbaren Holzpellets etwa wird Mais als Bindemittel verwendet. Eine Produktion findet zum größten Teil in den USA statt, in wenigen Jahren werden für Deutschland Pellets daher zum Großteil importiert werden. Im Gesamtrückblick bleibt so festzuhalten, dass die Wirkungen er aktuell zentral verfolgen Wege hinsichtlich Biomasse eher begrenzt sind, während sie auf der anderen Seite massive Nebenwirkungen und systemische Risiken mit sich bringen. Ich würde sie daher im wahrsten Wortsinne als Holzwege bezeichnen.

 

Die wahren Hintergründe – und was wirklich zu tun wäre

Wenn dem so ist bleibt die Frage offen, warum die Politik parteiübergreifend die betrachteten Maßnahmen ergriffen hat. Den entscheidenden Hinweis hierfür liefert eine Aussage von Friedensnobelpreisträger Al Gore, dessen Hauptanliegen bekanntermaßen der Kampf gegen den Treibhauseffekt ist. Als Senator hatte er jahrelang Biosprit selbst gefördert, sich nun aber klar dagegen bekannt. „Einer der Gründe, warum ich diesen Fehler gemacht habe, war, dass ich besonderes Augenmerk auf die Landwirte in meinem Heimatstaat Tennessee gerichtet und eine gewisse Vorliebe für die Bauern im Bundesstaat Iowa entwickelt habe, weil ich dabei war, für das Präsidentenamt zu kandidieren“. Es ging um Wählerstimmen, um es einfach auszudrücken. Heute verdammt Gore die Biomasse der ersten Generation aus den oben genannten Gründen auf das Schärfste. Soviel Ehrlichkeit in diesem Sinne kann man wohl von keinem aktiven deutschen oder europäischen Politiker in diesem Zusammenhang erwarten, aber wenn man die gleichen Hintergründe naheliegt, sieht man eine erstaunliche Kongruenz, denn zumindest auf kurze Sicht lösen sich damit für die Politik einige Probleme

Jahrzehntelang und auch noch heute ging ein Großteil des gigantischen EU-Haushalts direkt in die Förderung/Subventionierung der europäischen Landwirtschaft. Es soll an dieser Stelle kein Zweifel aufkommen, welche Bedeutung in vielen Facetten eine gesunde und nachhaltige Landwirtschaft für das Gemeinwohl hat. Deutsche Landwirte sichern mit einem enormen persönlichen Einsatz und wirtschaftlichem Aufwand die Versorgung der Bevölkerung, Pflegen gleichzeitig die Landschaft und sind inzwischen auch auf dem Weg eine Säule unserer Energieversorgung zu werden. Die Kritik muss hier an andere Stelle, nicht bei den Landwirten selbst, angebracht werden. Interessenvertretungen der Landwirtschaft und die Politik haben in den letzten 50 Jahren das Ziel verfolgt einen Status Quo beizubehalten, der viele grundsätzliche Konstruktionsfehler aufweist. Agrarsubventionen, Mindestpreise und Handelshemmnisse haben dabei gerade im Feld der Landwirtschaft und der globalen Nahrungsmittelmärkte Ineffizienzen geschaffen und besonders Entwicklungsländer unfair benachteiligt. Auch bei den Landwirten selbst hat es nur in seltenen Fällen Vorteile gegeben, sondern stattdessen eher eine Verzerrung der Situation. Wenn man sich heute die öffentlich publizierten Direktbeihilfen ansieht, so ist es nicht der Landwirt um die Ecke der diese Förderungen einstreicht, sondern es sind große Nahrungsmittelkonzerne, die hier einfach flexibler handeln können und auch geschickter sind Fördermittel abzuschöpfen. Der einzelne Landwirt hat dagegen bereits seit den 70er Jahren die unwürdige Rolle eines Spielballs in einem für ihn unfairen Spiel. So wurde er oft von einer in die andere Subvention hineingetrieben: Auf Schweine folgte Milchwirtschaft, von Weizen zu Raps und von diesem zum Mais, oder wie auch immer. Die Politik und EU-Verwaltung versucht dabei die Balance im Inneren hinsichtlich des EU-Haushalts wie auch im Äußeren in den WTO-Verhandlungen zu halten und scheitert bei den Resultaten in beiden Fällen. Statt in den letzten Jahrzehnten den europäischen Landwirten über klare Zeitpläne des Abbaus aller Handelshemmnisse die Möglichkeit zu geben ihre Nische im globalen System zu finden hat man diese eher hingehalten als ihnen eine faire Chance zu geben. Es ist aberwitzig zu vermuten dass die deutsche Industrie weltweit führend sein kann, aber die deutsche Landwirtschaft nicht. Wer glaubt, dass bei einer ständig steigenden Bevölkerung und dem zusätzlich wieder aufgenommenen „Energieanbau“ in Europa Agrarflächen brach liegen gelassen würden außer wenn es dafür perverse Subventionen geben würde hat schlicht keine Ahnung von der Funktionsweise effizienter Märkte und den treibenden Kräften und Trends in der Weltwirtschaft.

Mit E10 und Biomasseverstromung hat die Politik das Mittel gefunden, die Verschleierungspolitik auf anderem Weg, nur eleganter fortzuführen. Was bisher die Subventionen und Außenzölle waren - die hoffentlich in den zukünftigen WTO-Verhandlungen reduziert oder gestoppt werden - sind in Zukunft die Pflichtanteile bei der Stromabnahme oder der Biospritbeimischung. Anstatt dem Bürger die Wahrheit zu sagen geht man wieder den feigen Weg und schafft Ineffizienzen und Risiken an allen Ecken und Enden. Der Landwirt ist dabei am Ende wieder nicht der Gewinner, sondern ein weiterer Verlierer neben dem Verbraucher/Steuerzahler/Bürger, teilweise sogar in Personalunion. Wie so oft bei staatlichen Zwangsmaßnahmen gibt es am Ende wenige Profiteure, vor allem die Allgemeinheit und das Gemeinwohl haben das Nachsehen. Für viele Land- und/oder Energiewirte lauern die nächsten Gefahren bereits. Über im Vergleich mit dem bestehenden Rechtsrahmen absurde weitere Richtlinien – Stichwort Natura 2000 – werden Landwirte weitgehend enteignet und dürfen nicht mehr das anbauen, was jedoch für die Befüllung ihrer Biogasanlagen notwendig wäre. Es kann so nicht auf Dauer weiter gehen. Wir brauchen klare und langfristige Maßnahmen und erst recht keine weiteren versteckten Subventionen die letztlich niemandem nützen.

 

Fazit

So absurd es ist lässt sich das ganze vereinfacht auf einen Punkt bringen: Insbesondere in Afrika hungern Menschen, damit wir in Einzelfällen überteuerte Lebensmittel kaufen und teureren Sprit verpulvern können. Und all dies wird noch viel schlimmer werden, wenn wir keine Maßnahmen ergreifen, insbesondere durch bereits in der Gesamtkonstruktion gefährliche sich selbstbeschleunigende Systemeffekte. All dies muss ein Ende haben! Wir brauchen eine gegenüber Erzeuger und Verbraucher nachhaltige und offene Energiepolitik, die dabei aber einen Vertrauensschutz für bisherige Produzenten enthält.

Im zukünftigen Energiemix zur Stromherstellung – ob mit oder ohne Kernenergie – muss Biomasse der zweiten Generation (Klärschlamm, Nahrungsabfälle, Schnittabfälle, etc.) eine feste Säule sein, während Energieerzeugung aus Lebensmitteln (erste Generation) nur im Falle wirklicher Effizienz genutzt werden sollte, d.h. wenn diese sich weitgehend selbst tragen. Entsprechend hat auch die Förderung/Abnahmegarantie auszufallen. Für Landwirte die bereits auf diese Formen gesetzt haben ist ein Vertrauensschutz sicher zu stellen, da alles andere einer weiteren Enteignung gleichkommen würde. In jedem Fall muss die Förderung neuer Anlagen diesen Richtlinien folgen und wäre dem entsprechend anzupassen.

Was den Treibstoff betrifft so hat im Sinne eines sich zuspitzenden weltweiten Nahrungsmittelmangels Weizen nichts im Tank verloren, zumindest nicht solange er nicht durch effiziente und unbeschränkte Märkte dorthin allokiert wurde. Wenn der Bürger schon für die absolut korrekte und notwendige Reduzierung der CO2-Emissionen des Straßenverkehrs direkt oder indirekt zur Kasse gebeten wird, sollten diese Mittel nachhaltig in die Förderung neuer Technologien - sei es Wasserstoff- oder Elektromobilität – investiert werden, nicht aber in Technologien aus der Jungsteinzeit.

Generell – und das ist das wesentliche – ist mit vielen aktuell noch geförderten Formen der Energieerzeugung aus Biomasse eine starke Erhöhung und zunehmende Vernetzung von globalen und lebensbedrohenden Problemen verbunden. Wir dürfen diese Entwicklung nicht weiter fördern und den Konflikt schon gar nicht auf dem Rücken unserer engagierten Landwirte austragen.

6Jun/110

Auf geht’s… noch einmal!

Auf geht’s… noch einmal!

Wie man recht genau erkennen kann hat sich die Arbeit seit den ersten Beiträgen an diesem Blog ein wenig verzögert… um es charmant auszudrücken. Die Gründe dafür waren recht vielseitig, aber im Kern lassen sie sich vor allem auf die Technik zurückführen, die in vielen grundsätzlichen Funktionen nicht so reagiert hat, wie sie dies tun sollte. Für den technisch interessierten liegt der Hintergrund dabei vor allem in der Konfiguration von Strato, welches WordPress nur in Teilen so unterstützt wie man sich das wünscht, zum anderen darin, dass es bisher nicht funktioniert hat den einzelnen Domains verschiedene Inhalte zuzuordnen, was aber nun behoben ist. Dementsprechend erscheinen die Beiträge auch nur noch unter lamonidas.de und lamonidas.com, so wie es im ersten Post bereits angekündigt war.

Natürlich muss ich darüber hinaus zugeben, dass die technischen Probleme ein Punkt sind, hinter dem man sich auch recht einfach verstecken kann. Denn obwohl es mir an Themen sicher nicht gemangelt hat ist mir die Umstellung meiner Arbeit doch schwerer gefallen als erwartet. Aktuell wächst und gedeiht die Promotion so wie es sein soll, und in Zukunft sollte dies genauso bei den Inhalten hier der Fall sein. In Zukunft sollten die Artikel zumindest monatlich, eher aber zweiwöchentlich, erscheinen.

Ich bedanke mich im Übrigen auch für alle Kommentare die mir zum ersten Beitrag zugekommen sind, sowohl für die, welche meine Meinung unterstützt haben, als auch für diejenigen, die sich anderweitig geäußert haben. Entgegen mancher Einschätzung glaube ich nicht, dass die Lösung des Problems entscheidend durch den Beitrag beeinflusst wurde… aber am Ende setzt sich eine große Sache immer auch aus vielen kleinen Teilen zusammen. In diesem Sinne… auf ein neues!

veröffentlicht unter: Allgemein keine Kommentare