2017/12/12

Eine kurze Geschichte der Kohle

Am Beispiels Großbritanniens.

Kohle hat als Energieträger in unseren Tagen nicht den besten Ruf. Das ist verständlich, denn bei der Kohleverbrennung entstehen eine Reihe unerwünschter Dinge, die man eigentlich gar nicht haben möchte. Mittels moderner Filtertechnologie lassen sich etliche dieser Schadstoffe absondern und in einigen Fällen sogar einer nützlichen Verwendung (etwa als Baumaterial) zuführen. Trotz dieser technologischen Fortschritte gilt die Kohle immer noch als problematisch für Mensch und Umwelt.

Infolge dieser Problematik laufen verschiedene Lobbygruppen gegen eine weitere Nutzung der Kohle Sturm und drängen auf einen Ersatz durch andere, in erster Linie regenerative Energieträger.  Inwiefern das gelingen, bleibt abzuwarten und soll hier nicht das Thema sein.

Worum es in diesem Posting geht, ist ein Faktum, das in den gegenwärtigen Diskussionen gerne ausgeblendet, wenn es denn überhaupt zur Kenntnis genommen wird: nämlich der Beitrag der Kohle zu Entstehung moderner Industriegesellschaften.

In Großbritannien entstand erstmals eine Gesellschaft, die ein neues Niveau der Mobilität und der wirtschaftlichen Produktivität erreichte, wie es nie zuvor auf diesem Planeten der Fall gewesen war. Dies lässt sich mit Zahlen untermauern, die im wesentlichen die zweite Hälfte des 19. Jahrhunderts und das erste Jahrzehnt des 20. umfassen.

Beginnen wir mit des Ausbau des britischen Schienennetzes. 1825 fuhr dort erstmals eine Eisenbahn.

1825                       41 km
1840                   2411 km
1850                 10655 km
1860                 16790 km
1885                 30358 km
1912                 37740 km

In entsprechendem Maße erhöhte sich die Mobilität von Menschen und Gütern, die in den Jahrhunderten zuvor fast ausschließlich von Pferden geleistet wurde. Reisen wurde bequemer und schneller. Wollte man von London aus seine Tante in Edinburgh besuchen, so war das nun keine once-in-a-lifetime-Geschichte mehr. Die Züge wurden in diesem Zeitraum ausschließlich von Dampflokomotiven angetrieben, deren Dampfkessel mit Kohle befeuert wurden. 

Um ein derart ausgedehntes Schienennetz in die Welt zu setzen, brauchte man Stahl. Und zwar mehr, viel mehr als je zuvor. Hier sind die Produktionszahlen in Kilotonnen (kt), derer ich habhaft werden konnte: 

1870                3667 kt
1880                3916 kt
1890                6177 kt
1900                6154 kt
1910                7946 kt

Natürlich ging ein Teil dieser Produktion auch in den Bau moderner Dampfschiffe, die selbstredend mit Energie aus der Kohle angetrieben wurden. 

So eindrucksvoll diese Zahlen sind, sowenig sind sie überhaupt denkbar ohne die Nutzung eines Mediums, dessen Energiedichte die bis dahin bekannten Brennstoffe deutlich in den Schatten stellte. Man stelle sich vor, die Dampfkessel in den Lokomotiven und Schiffen wären mit Brennholz anstatt mit Kohle betrieben worden. Brennholz hat einen Heizwert von etwa 4 kWh/kg, Steinkohle kommt auf mehr als das Doppelte (8-9 kWh/kg). Mit anderen Worten: Mit der Kohle kam man doppelt so weit wie mit Holz. 

Nun zu den Förderzahlen auf der Insel (in Millionen Tonnen, Mt). 

1860           72 Mt
1870         106 Mt
1880         140 Mt
1890         173 Mt
1900         207 Mt
1910         258 Mt

Es ist mit Sicherheit davon auszugehen, dass in den Jahrzehnten vor 1860 die Fördermengen deutlich geringer waren. Das legt zumindest ein Vergleich mit dem Kohleabbau in Deutschland nahe. Um das Jahr 1910 wurde das Maximum der Kohleförderung erreicht, peak coal wenn man so will. Die geförderte Kohle wurde fast ausschließlich für die Stahlproduktion, für die Mobilität auf der Schiene und den Weltmeeren sowie für Heizzwecke verwendet. 

Inzwischen hatte sich nämlich auch die Bevölkerung Großbritanniens vermehrt, und zwar wie folgt:

1860          28,8 Mio
1870          31,4 Mio
1880          34,7 Mio
1890          37,6 Mio
1900          41,2 Mio
1910          45,1 Mio  

Das Auto spielte in diesem Zeitraum so gut wie keine Rolle. Abgesehen von den sicherlich noch zahlreichen Pferdefuhrwerken war für den Überlandverkehr ausschließlich die Eisenbahn von Bedeutung. Und dafür gab es nur einen einzigen Treibstoff. 

Inzwischen gibt es Dampflokomotiven nur noch im Museumsbetrieb. Mit Kohle heizen auf den britischen Inseln nicht mehr viele Leute. Hauptsächlicher Verbraucher ist die Energiewirtschaft. 2016 wurden etwa 12 Mio. t Kohle verfeuert, davon der allermeiste Teil unter Einsatz von Filtern Verglichen damit wurden die 258 Mio. t des Jahres 1910 ungefiltert in die Luft geblasen. Man fragt sich, wie die Briten das vor hundert Jahren überlebt haben. 






2017/12/01

Indikatoren

Indikatoren spielen in manchen Bereichen eine große Rolle, gelegentlich vielleicht sogar eine zu große. Letzteres ist dann der Fall, wenn die Benutzer dem Indikator eine allzu gewichtige Bedeutung beilegen und damit die Aussagekraft des Indikators überbewerten. Diese Überbewertung kann in der Folge zu Reaktionen führen, die dem ursprünglichen Signal nicht mehr angemessen sind.

Beispiel Außentemperatur: Ich sehe aus dem Fenster in den Garten und bemerke, dass sich dort Reif gebildet hat. Der Reif als (recht grober) optischer Indikator für Temperaturen unter dem Nullpunkt.  Besser ist es natürlich ein Außenthermometer zu haben, das mir die genaue Temperatur anzeigt.

Genau wie in diesem Beispiel ist es sinnvoll, sich Indikatoren als das vorzustellen, was sie ihrer Natur nach sind (oder zumindest sein sollen): Zahlen, die etwas anzeigen. Also etwa die Temperatur.

Unser Leben ist voll von diesen Anzeigern, auch wenn wir uns darüber zumeist gar nicht im klaren sind. Schulnoten gehören ebenso dazu wie Arbeitszeugnisse, Börsenkurse, Wirtschaftsprognosen und anderes. Schulnoten sind ein besonders schönes Beispiel. Im Zuge der allgemeinen Verflachung des Bildungssystems kam es zu einer zunehmenden Abwertung der Notengebung zugunsten von nichtssagendem Palaver, und zwar in der Weise, dass sich jeder Schüler gebauchpinselt fühlen konnte und sollte. Die tatsächlichen Leistungsunterschiede zwischen den Schülern, die ja unabhängig von der Notengebung existieren, sind aber deswegen nicht verschwunden, auch wenn es für oberflächliche Gemüter den Anschein haben könnte. 

Die Gegner der Notengebung führen unter anderem folgendes Argument ins Feld: Schulnoten hätten keinerlei Aussagekraft über den späteren beruflichen Erfolg eines Schülers. Das wird dann üblicherweise mit dem Verweis auf wissenschaftliche Studien begründet. Welche Studien das genau sein sollen, bleibt aber ebenso oft unklar.

Nun wäre es sicherlich vermessen zu behaupten, wer gut in der Schule war, hätte im späteren Leben stets die Nase vorn. Aber im großen und ganzen halte ich das doch für richtig, auch wenn das Leben die eine oder andere Ausnahme bereithält.

Ein Argument wie das mit der mangelnden Aussagekraft der Noten ist eigentlich nicht anderes als eine Nebelkerze. Denn es wird den Schulnoten eine Bedeutung angedichtet, die sie gar nicht haben. Deren Bedeutung ist vielmehr darin begründet, den Leistungsstand der Schüler zu ermitteln. Also herauszufinden, wie gut sie den Stoff verstanden haben, wie gewandt sie in der Anwendung gewisser Fertigkeiten sind. Es ist also zunächst einmal ein Indikator für den Schüler selbst.

Als Folge davon ist die Note dann auch ein Vergleichsmaßstab der Schüler untereinander. Sie tauschen sich über die Ergebnisse aus und erhalten damit eine Rückmeldung, wo ihre individuelle Leistung in der Klasse angesiedelt ist. Dass Lehrer und Eltern diesen Maßstab in gleicher Weise anwenden, liegt in der Natur der Sache.

Klar ist auch, dass man Noten nicht überbewerten sollte. Es gibt in unseren Tagen eine Tendenz hin zu guten und sehr guten Benotungen, schlechte werden dagegen immer seltener vergeben. Das führt zu einer Inflationierung der oberen Ränge, die ja eigentlich etwas Besonderes sein sollten. Gleichzeitig wird eben dadurch die Aussagekraft dieses Indikators entwertet. Wenn 50% eines Jahrganges sehr gut sind, dann verbietet es sich gleichsam von selbst, die übrigen zu Vollidioten zu stempeln, also bekommen die dann ein gut. Damit hätten wir einen Notenschnitt von 1,5.

Das ist natürlich nur ein hypothetisches und überspitztes Beispiel. Aber die Wirklichkeit ist davon nicht weit entfernt. In einem früheren Leben war ich mit der Evaluierung von Forschungsprojekten beschäftigt. Dabei wurden in meinem Fachbereich etwa 500 Projekte eingereicht, von denen dann etwa 80 finanziell gefördert wurden. Die Bewertungsskala reichte von 1 (unteres Ende) bis 10 (oberes Ende). Es zeigte sich in praktisch jedem Jahrgang, dass die Notenverteilung ihren Schwerpunkt zwischen 8 und 8,5 hatte. In diesem Bereich drängten sich allermeisten Projekte, und dort war es auch, wo sich die Trennlinie (cut-off) zwischen Förderung und Nicht-Förderung etablierte. Wer es dann schaffte, war letztlich eine Glückssache. Denn ist ein Projekt mit 8,2 wirklich so viel schlechter wie ein anderes mit 8,3?

Bemerkenswert war an diesen Evaluierungen noch ein anderer Umstand. Die wissenschaftlichen Gutachter mussten neben der Punktbewertung noch eine schriftliche Begründung dazu liefern. Das führt dann zu fast schon komischen Verrenkungen seitens der Gutachter. Wenn ein Antrag offensichtlich so schlecht war, dass er nur wenige Punkte bekommen konnte, dann bemühten sich die Experten im Wortgutachten möglichst viel Positives herauszustreichen, um gleichsam die geringe Punktezahl zu kaschieren. Hätte man nur den Text gelesen, so hätte man eine höhere Punktezahl erwarten können. Das war aber nicht der Fall. Umgekehrt war es aber auch so, dass Projekte mit hoher Punktezahl dann im Begleittext sehr kritisch angegangen und all nur möglichen Defizite aufgelistet wurden. Das war durch die Bank der Fall und nicht nur eine Besonderheit einzelner Gutachter.

Generell sollte man meinen, dass Forschungsprojekte wie andere Dinge auch einer Gaußverteilung gehorchen, wobei der Schwerpunkt irgendwo um den Wert 5 liegen sollte. In Wirklichkeit war diese Verteilung sehr stark nach oben verschoben, was die Aussagekraft der Bewertung extrem verzerrte, und das schien den Gutachtern (allesamt gestandene Wissenschaftler) irgendwie egal zu sein. Dadurch wird aber die Punktzahl als Indikator schon fast wertlos.

Das ist ein schönes (und zugleich praktisches) Beispiel dafür, wie die Inflationierung guter Noten einerseits den Konkurrenzkampf um die begehrten Förderplätze verschärft und ihn andererseits zur Lotterie werden lässt, weil eben etliche nur um ein paar Dezimalen abgehängt werden, die im Grund genommen nicht soviel zu bedeuten haben, wie es auf den ersten Blick scheint.



2017/11/11

Wie viel Energie für Licht?

Energiesparen ist der Trend. Schon seit Jahrzehnten, mindestens jedoch seit der Ölkrise in den 1970er Jahren. Damals war die Motivation dahingehend, dass unsere Energiereserven begrenzt und politisch verletzlich sind. Inzwischen ist die Begründung etwas abstrakter geworden, indem man den seit Jahrmillionen stattfindenden Klimawandel neuerdings als Menschenwerk verkauft.

Nun ist der Autor dieser Zeilen durchaus ein Anhänger des vernünftigen Umgangs mit Ressourcen. Aber um genau diesen vernünftigen Umgang sicherzustellen, ist es eben angebracht zu wissen, wie hoch der tatsächliche Ressourcenverbrauch ist. Und hier hapert es schon bei den meisten, die das große Verzichten predigen, ohne zu wissen, wieviel sie eigentlich verbrauchen. Und der Verbrauch an Energie, um den es naturgemäß in diesem Blog geht, ist letztlich ein Indikator für den Entwicklungsstand einer Gesellschaft.

Nehmen wir ein Extrembeispiel: Jemand, der nie vor Sonnenaufgang aufsteht und spätestens mit Sonnenuntergang zu Bett geht, braucht theoretisch gar keine Energie für Beleuchtungszwecke. Ich sage theoretisch, weil sich selbiges wohl nur bei einer Trekkingtour in einer wilden Naturlandschaft verwirklichen lässt. Im praktischen Leben eines Europäers oder Nordamerikaners dürfte dieses Szenario kaum jemals Realität sein.

Um nun den Energieverbauch für die Beleuchtung von Räumen abzuschätzen, müssen wir zunächst einmal einige Eckdaten festlegen. Wir nehmen erstens an, das jeder Raum mit 100 W elektrisch beleuchtet wird. Das ist im Zeitalter der Energiesparlampe zwar weit übertrieben, erleichtert aber die folgenden Überlegungen, für die wir uns nicht in Details verlieren und nur eine Abschätzung der Obergrenze liefern wollen.

Die zweite Annahme betrifft den Lebensrhythmus der Bewohner unserer Modellwelt. Sie gehen um Mitternacht zu Bett, stehen um 6:00 Uhr morgens auf und gehen um 8:00 Uhr außer Haus.

Diesen immer wiederkehrenden Ablauf setzen wir nun in Bezug zur Tageslichtdauer. Es versteht sich von selbst, dass man im Sommer weniger Licht benötigt als im Winter. In unseren mitteleuropäischen Breiten geht die Sonne am längsten Tag des Jahres, also am 21. Juni gegen 3:00 Uhr früh auf und gegen 21:00 Uhr unter. Dies ist das sogenannte Sommersolstitium. Der andere Extrempunkt des Jahres ist das Wintersolstitium am 21. Dezember, wo die Sonne erst gegen 8:00 Uhr aufgeht und gegen 16:00 Uhr wieder unter dem Horizont verschwindet.

Was bedeutet das für die Beleuchtungsdauer? Nun, im Juni brauchen morgens überhaupt kein Licht und abends nur 3 Stunden, macht also insgesamt 300 Wh (Wattstunden). Im Dezember müssen wir morgens zwei Stunden das Licht anschalten und abends dann für acht Stunden, wobei wir weiters annehmen, dass wir bereits bei Sonnenuntergang zu Hause sind. Wir kommen dann auf 1000 Wh, also eine Kilowattstunde. Der Mittelwert dieser beiden Extrempunkte beträgt 650 Wh (pro Tag). Wenn wir das mit der Anzahl der Tage eines Jahres (365) multiplizieren, erhalten wir einen Jahresverbrauch von 237,25 kWh pro Raum.

Das ist nun, wie gesagt, ein Maximalwert, der in der Praxis kaum jemals erreicht werden dürfte. Mit den heutigen Energiesparlampen sollte es ein Leichtes sein unter 100 kWh pro Jahr und Raum zu bleiben. Diese Zahl lässt sich leicht merken und kann als Referenzwert dienen, wenn wir uns mit anderen Verbrauchswerten beschäftigen.


2017/11/04

Ist Österreich wirklich atomstromfrei?

In Österreich ist die Ablehnung der nuklearen Stromerzeugung mindestens ebenso groß wie bei unseren deutschen Nachbarn. Hier geht es sogar soweit, dass sich mehr oder weniger prominente Politiker öffentlich gegen Kernkraftwerke im benachbarten Ausland engagieren und damit den Eindruck erwecken, man könnte den Nachbarländern vorschreiben, wie sie ihren Strom zu erzeugen hätten.

Nun trifft es sich, dass Österreich im europäischen Stromverbund große Mengen an Energie von eben jenen Ländern bezieht, die ihrerseits Kernkraftwerke betreiben (Deutschland, Tschechien et.). Es sollte sich ja inzwischen herumgesprochen haben, dass sich der Strom, der durch die Leitungen fließt, nicht nach seiner Herkunft unterscheiden lässt. Dies ist eine physikalische Unmöglichkeit. Aber mit Naturgesetzen tun sich Umweltbewegte mitunter schwer, und so wird tapfer die Illusion aufrechterhalten, die gesamte Elektrizität in Österreichs Netzen sei nuklearfrei.

Um dieses Dilemma anhand eines anschaulicheren Beispiels zu verdeutlichen: Die Donau wird von mehreren Zuflüssen wie Isar, Inn und Traun gespeist. Wenn nun jemand weiter östlich dieser Zuflüsse Wasser aus der Donau entnimmt und behauptet, dieses Wasser sei völlig frei von Traunwasser, so ist das natürlich Unsinn. Es besteht keine Möglichkeit, den Anteil des Traunwassers vom Rest zu separieren.

Und genauso verhält es sich mit dem Strom, der in verschiedenen Kraftwerken erzeugt wird. In der Steckdose des Verbrauchers lässt sich der individuelle Kraftwerksstrom ebenso wenig identifizieren wie in der Überlandleitung.

Nachdem dieser Sachverhalt keinerlei Deutungsspielraum zulässt, versuchen einige bekannte Großbetriebe (Google, Apple, die Deutsche Bundesbahn, um nur einige zu nennen) und Staaten (Österreich) ihr Umweltgewissen mit einem Taschenspielertrick reinzuwaschen: sie kaufen sich Stromzertifikate von "grünen" Produzenten, die mengenmäßig ihrem Verbrauchsprofil entsprechen. Damit ist, rein rechnerisch, die Bilanz unbefleckt, auch wenn sich dies faktisch nicht behaupten lässt. In Österreich ist sogar eine ganze Agentur damit beschäftigt: E-Control.

Auf dem stets lesenswerten Blog Energy Matters hat sich Roger Andrews unter dem Titel The myth of a nuclear-free Austria ausführlich mit der Materie beschäftigt. Sehr erhellend.


2017/10/24

LKW versus Lastenfahrrad - ein Vergleich

Lastenfahrräder werden immer beliebter. In manchen Städten sind sie schon ein durchaus geläufiger Anblick. In Zeiten des allgegenwärtigen Gründenkens haftet ihnen der Nimbus des ökologisch Korrekten an: also weniger Abgase, weniger Feinstaub und alles in allem einfach umweltfreundlicher.

Zeit für einen Vergleich aus energietechnischer Sicht. Entsprechend den Angaben des deutschen Umweltbundesamtes (also gleichsam die Gralshüter des Gründenkens) verbraucht ein Lkw im statistischen Durchschnitt etwa 0,4 kWh pro Tonnenkilometer. Mit anderen Worten: für jede Tonne, die per Lkw einen Kilometer weit bewegt wird, schlagen 0,4 kWh zu Buche.

Wie sieht dem gegenüber die Bilanz des Lastenfahrrads aus? Auf dieser Webseite gibt es Informationen zum Energieverbrauch beim Radfahren. Nehmen wir der Einfachheit halber an, eine Last von 100 kg werde mit so einem Ding transportiert. Der Lastenradfahrer (80 kg schwer) sei mit einer Geschwindigkeit von 20 km/h unterwegs, und zwar eine volle Stunde lang. Das entspricht einem Energieverbrauch von 1,68 kWh.

Wenn wir insgesamt eine Last von einer Tonne (1000 kg) transportieren wollen, dann müssen wir diese auf mehrere Fahrräder verteilen, sagen wir zehn mal 100 kg. Die zehn Lastenradfahrer verbrauchen dann 16,8 kWh auf einer Strecke von 20 km. Wenn wir das nun durch 20 dividieren, bekommen wir den Energieverbrauch pro Tonnenkilometer: also 0,84 kWh.

Wir sehen also, dass der Transport mit dem Lkw deutlich energieeffizienter ist als jener mit dem Lastenrad. Es sei natürlich unbenommen, dass letzteres deutlich flexibler ist, wenn es darum geht, kleinere Lasten auf verstopften Straßen zu bewegen. Aber es ist wohl - nicht nur aus energetischer Sicht - etwas unrealistisch, den gesamten Lkw-Verkehr auf das Lastenrad verlegen zu wollen.

2017/10/10

Die Start-Up-Wette

Start-ups gelten als Hoffnungsträger, um aus der ökonomischen Dauerkrise zu kommen. Man verspricht sich Innovationen, Arbeitsplätze und nicht zuletzt neue Steuereinnahmen. Allerdings sind Start-ups risikobehaftet. Denn man weiß, dass etwa 90% dieser Hoffnungsträger nach zwei bis drei Jahren nicht mehr existieren. Und nur die verbliebenen 10% schaffen es, im Wirtschaftsleben Fuß zu fassen und sich gegen die alte Konkurrenz durchzusetzen. Und noch weniger werden zu echten Geldmaschinen à la Google, Amazon oder Microsoft.

Der Hype um die Start-ups ist manchen politisch Verantwortlichen wohl etwas zu Kopf gestiegen. Deshalb gibt es nun mancherorts Fördergelder (gesponsort aus Steuereinnahmen), in der Erwartung, dass im Teich der gerade geschlüpften Entenbabys der eine oder andere Schwan verborgen sein mag, der alle anderen Entlein prächtig überstrahlt und die Verluste aus den abgesoffenen Küken spielend wieder ausgleicht.

Ist das wirklich ein realistisches Szenario? Machen wir eine kleine Rechnung. Nehmen wir an, wir haben 10 Start-ups, die sich um unseren Geldsegen bewerben. Jedes Jungunternehmen bekommt von uns einen Scheck über eine Million Euro. Nach drei Jahren schauen wir wieder nach, was aus den jungen Küken geworden ist. Im statistischen Mittel sind nach dieser Zeit neun von ihnen verschwunden, und nur eines ist noch im Teich übrig. Mit anderen Worten: Wir haben bei unserer Wette (und um nichts anderes geht es) 9 Millionen versenkt, und nur eine Million ist noch im Rennen, um uns reich zu machen. Es ist vielleicht etwas zuviel verlangt, von einem erfolgreichen Start-up zu erwarten, dass es nach drei Jahren bereits soviel verdient, um unsere gesamten bisher angehäuften Verluste wieder auszugleichen. Aber vielleicht nach 10 Jahren? Um per Saldo ohne Verluste aus diesem Gambling auszusteigen, müssen wir also erwarten, dass sich der Wert des einen erfolgreichen Start-ups irgendwann verzehnfacht hat.

Man muss sich also fragen, wie viele Jungunternehmen es gibt, deren Wert innerhalb eines bestimmten Zeitraums um einen Faktor 10 zulegt. Nehmen wir an, unser Start-up hätte sich innerhalb von zehn Jahren im Wert verdoppelt. Keine schlechte Leistung, wie ich meine. Und dennoch wäre unser anfängliches Investment in diesem Fall immer  noch negativ. Denn alles, was schlechter ist als ein Faktor zehn, macht uns effektiv ärmer. Alles, was besser ist, macht uns dafür reicher.

Was hier abgeht, ist also eine hochriskante Wette. Die Frage ist, ob diese Wette mit Steuergeldern finanziert werden muss.










2017/10/07

Windstromerzeugung in Deutschland: 2016

Die folgende Abbildung zeigt die stündliche Windstromproduktion in Deutschland im Jahre 2016. Die entsprechenden Daten stammen von Paul-Frederik Bach, der in den letzten Jahren eine ganze Reihe von Informationen über regenerative Energieerzeugung in verschiedenen Ländern zusammengetragen hat.


Hierzu noch ein paar statistische Eckdaten:

Die durchschnittliche Stromproduktion pro Stunde betrug in diesem Jahr 8765 MWh mit einer Standardabweichung von 6865 MWh. Die Minimal- bzw. Maximalwerte betrugen 135 bzw. 33626 MWh, d.h. zwischen diesen beiden Extremen schwankte die Einspeisung aus Windkraftanlagen.

Aus der Abbildung wird unmittelbar der schwankende Charakter der Windstromerzeugung klar.