2017/12/01

Indikatoren

Indikatoren spielen in manchen Bereichen eine große Rolle, gelegentlich vielleicht sogar eine zu große. Letzteres ist dann der Fall, wenn die Benutzer dem Indikator eine allzu gewichtige Bedeutung beilegen und damit die Aussagekraft des Indikators überbewerten. Diese Überbewertung kann in der Folge zu Reaktionen führen, die dem ursprünglichen Signal nicht mehr angemessen sind.

Beispiel Außentemperatur: Ich sehe aus dem Fenster in den Garten und bemerke, dass sich dort Reif gebildet hat. Der Reif als (recht grober) optischer Indikator für Temperaturen unter dem Nullpunkt.  Besser ist es natürlich ein Außenthermometer zu haben, das mir die genaue Temperatur anzeigt.

Genau wie in diesem Beispiel ist es sinnvoll, sich Indikatoren als das vorzustellen, was sie ihrer Natur nach sind (oder zumindest sein sollen): Zahlen, die etwas anzeigen. Also etwa die Temperatur.

Unser Leben ist voll von diesen Anzeigern, auch wenn wir uns darüber zumeist gar nicht im klaren sind. Schulnoten gehören ebenso dazu wie Arbeitszeugnisse, Börsenkurse, Wirtschaftsprognosen und anderes. Schulnoten sind ein besonders schönes Beispiel. Im Zuge der allgemeinen Verflachung des Bildungssystems kam es zu einer zunehmenden Abwertung der Notengebung zugunsten von nichtssagendem Palaver, und zwar in der Weise, dass sich jeder Schüler gebauchpinselt fühlen konnte und sollte. Die tatsächlichen Leistungsunterschiede zwischen den Schülern, die ja unabhängig von der Notengebung existieren, sind aber deswegen nicht verschwunden, auch wenn es für oberflächliche Gemüter den Anschein haben könnte. 

Die Gegner der Notengebung führen unter anderem folgendes Argument ins Feld: Schulnoten hätten keinerlei Aussagekraft über den späteren beruflichen Erfolg eines Schülers. Das wird dann üblicherweise mit dem Verweis auf wissenschaftliche Studien begründet. Welche Studien das genau sein sollen, bleibt aber ebenso oft unklar.

Nun wäre es sicherlich vermessen zu behaupten, wer gut in der Schule war, hätte im späteren Leben stets die Nase vorn. Aber im großen und ganzen halte ich das doch für richtig, auch wenn das Leben die eine oder andere Ausnahme bereithält.

Ein Argument wie das mit der mangelnden Aussagekraft der Noten ist eigentlich nicht anderes als eine Nebelkerze. Denn es wird den Schulnoten eine Bedeutung angedichtet, die sie gar nicht haben. Deren Bedeutung ist vielmehr darin begründet, den Leistungsstand der Schüler zu ermitteln. Also herauszufinden, wie gut sie den Stoff verstanden haben, wie gewandt sie in der Anwendung gewisser Fertigkeiten sind. Es ist also zunächst einmal ein Indikator für den Schüler selbst.

Als Folge davon ist die Note dann auch ein Vergleichsmaßstab der Schüler untereinander. Sie tauschen sich über die Ergebnisse aus und erhalten damit eine Rückmeldung, wo ihre individuelle Leistung in der Klasse angesiedelt ist. Dass Lehrer und Eltern diesen Maßstab in gleicher Weise anwenden, liegt in der Natur der Sache.

Klar ist auch, dass man Noten nicht überbewerten sollte. Es gibt in unseren Tagen eine Tendenz hin zu guten und sehr guten Benotungen, schlechte werden dagegen immer seltener vergeben. Das führt zu einer Inflationierung der oberen Ränge, die ja eigentlich etwas Besonderes sein sollten. Gleichzeitig wird eben dadurch die Aussagekraft dieses Indikators entwertet. Wenn 50% eines Jahrganges sehr gut sind, dann verbietet es sich gleichsam von selbst, die übrigen zu Vollidioten zu stempeln, also bekommen die dann ein gut. Damit hätten wir einen Notenschnitt von 1,5.

Das ist natürlich nur ein hypothetisches und überspitztes Beispiel. Aber die Wirklichkeit ist davon nicht weit entfernt. In einem früheren Leben war ich mit der Evaluierung von Forschungsprojekten beschäftigt. Dabei wurden in meinem Fachbereich etwa 500 Projekte eingereicht, von denen dann etwa 80 finanziell gefördert wurden. Die Bewertungsskala reichte von 1 (unteres Ende) bis 10 (oberes Ende). Es zeigte sich in praktisch jedem Jahrgang, dass die Notenverteilung ihren Schwerpunkt zwischen 8 und 8,5 hatte. In diesem Bereich drängten sich allermeisten Projekte, und dort war es auch, wo sich die Trennlinie (cut-off) zwischen Förderung und Nicht-Förderung etablierte. Wer es dann schaffte, war letztlich eine Glückssache. Denn ist ein Projekt mit 8,2 wirklich so viel schlechter wie ein anderes mit 8,3?

Bemerkenswert war an diesen Evaluierungen noch ein anderer Umstand. Die wissenschaftlichen Gutachter mussten neben der Punktbewertung noch eine schriftliche Begründung dazu liefern. Das führt dann zu fast schon komischen Verrenkungen seitens der Gutachter. Wenn ein Antrag offensichtlich so schlecht war, dass er nur wenige Punkte bekommen konnte, dann bemühten sich die Experten im Wortgutachten möglichst viel Positives herauszustreichen, um gleichsam die geringe Punktezahl zu kaschieren. Hätte man nur den Text gelesen, so hätte man eine höhere Punktezahl erwarten können. Das war aber nicht der Fall. Umgekehrt war es aber auch so, dass Projekte mit hoher Punktezahl dann im Begleittext sehr kritisch angegangen und all nur möglichen Defizite aufgelistet wurden. Das war durch die Bank der Fall und nicht nur eine Besonderheit einzelner Gutachter.

Generell sollte man meinen, dass Forschungsprojekte wie andere Dinge auch einer Gaußverteilung gehorchen, wobei der Schwerpunkt irgendwo um den Wert 5 liegen sollte. In Wirklichkeit war diese Verteilung sehr stark nach oben verschoben, was die Aussagekraft der Bewertung extrem verzerrte, und das schien den Gutachtern (allesamt gestandene Wissenschaftler) irgendwie egal zu sein. Dadurch wird aber die Punktzahl als Indikator schon fast wertlos.

Das ist ein schönes (und zugleich praktisches) Beispiel dafür, wie die Inflationierung guter Noten einerseits den Konkurrenzkampf um die begehrten Förderplätze verschärft und ihn andererseits zur Lotterie werden lässt, weil eben etliche nur um ein paar Dezimalen abgehängt werden, die im Grund genommen nicht soviel zu bedeuten haben, wie es auf den ersten Blick scheint.



2017/11/11

Wie viel Energie für Licht?

Energiesparen ist der Trend. Schon seit Jahrzehnten, mindestens jedoch seit der Ölkrise in den 1970er Jahren. Damals war die Motivation dahingehend, dass unsere Energiereserven begrenzt und politisch verletzlich sind. Inzwischen ist die Begründung etwas abstrakter geworden, indem man den seit Jahrmillionen stattfindenden Klimawandel neuerdings als Menschenwerk verkauft.

Nun ist der Autor dieser Zeilen durchaus ein Anhänger des vernünftigen Umgangs mit Ressourcen. Aber um genau diesen vernünftigen Umgang sicherzustellen, ist es eben angebracht zu wissen, wie hoch der tatsächliche Ressourcenverbrauch ist. Und hier hapert es schon bei den meisten, die das große Verzichten predigen, ohne zu wissen, wieviel sie eigentlich verbrauchen. Und der Verbrauch an Energie, um den es naturgemäß in diesem Blog geht, ist letztlich ein Indikator für den Entwicklungsstand einer Gesellschaft.

Nehmen wir ein Extrembeispiel: Jemand, der nie vor Sonnenaufgang aufsteht und spätestens mit Sonnenuntergang zu Bett geht, braucht theoretisch gar keine Energie für Beleuchtungszwecke. Ich sage theoretisch, weil sich selbiges wohl nur bei einer Trekkingtour in einer wilden Naturlandschaft verwirklichen lässt. Im praktischen Leben eines Europäers oder Nordamerikaners dürfte dieses Szenario kaum jemals Realität sein.

Um nun den Energieverbauch für die Beleuchtung von Räumen abzuschätzen, müssen wir zunächst einmal einige Eckdaten festlegen. Wir nehmen erstens an, das jeder Raum mit 100 W elektrisch beleuchtet wird. Das ist im Zeitalter der Energiesparlampe zwar weit übertrieben, erleichtert aber die folgenden Überlegungen, für die wir uns nicht in Details verlieren und nur eine Abschätzung der Obergrenze liefern wollen.

Die zweite Annahme betrifft den Lebensrhythmus der Bewohner unserer Modellwelt. Sie gehen um Mitternacht zu Bett, stehen um 6:00 Uhr morgens auf und gehen um 8:00 Uhr außer Haus.

Diesen immer wiederkehrenden Ablauf setzen wir nun in Bezug zur Tageslichtdauer. Es versteht sich von selbst, dass man im Sommer weniger Licht benötigt als im Winter. In unseren mitteleuropäischen Breiten geht die Sonne am längsten Tag des Jahres, also am 21. Juni gegen 3:00 Uhr früh auf und gegen 21:00 Uhr unter. Dies ist das sogenannte Sommersolstitium. Der andere Extrempunkt des Jahres ist das Wintersolstitium am 21. Dezember, wo die Sonne erst gegen 8:00 Uhr aufgeht und gegen 16:00 Uhr wieder unter dem Horizont verschwindet.

Was bedeutet das für die Beleuchtungsdauer? Nun, im Juni brauchen morgens überhaupt kein Licht und abends nur 3 Stunden, macht also insgesamt 300 Wh (Wattstunden). Im Dezember müssen wir morgens zwei Stunden das Licht anschalten und abends dann für acht Stunden, wobei wir weiters annehmen, dass wir bereits bei Sonnenuntergang zu Hause sind. Wir kommen dann auf 1000 Wh, also eine Kilowattstunde. Der Mittelwert dieser beiden Extrempunkte beträgt 650 Wh (pro Tag). Wenn wir das mit der Anzahl der Tage eines Jahres (365) multiplizieren, erhalten wir einen Jahresverbrauch von 237,25 kWh pro Raum.

Das ist nun, wie gesagt, ein Maximalwert, der in der Praxis kaum jemals erreicht werden dürfte. Mit den heutigen Energiesparlampen sollte es ein Leichtes sein unter 100 kWh pro Jahr und Raum zu bleiben. Diese Zahl lässt sich leicht merken und kann als Referenzwert dienen, wenn wir uns mit anderen Verbrauchswerten beschäftigen.


2017/11/04

Ist Österreich wirklich atomstromfrei?

In Österreich ist die Ablehnung der nuklearen Stromerzeugung mindestens ebenso groß wie bei unseren deutschen Nachbarn. Hier geht es sogar soweit, dass sich mehr oder weniger prominente Politiker öffentlich gegen Kernkraftwerke im benachbarten Ausland engagieren und damit den Eindruck erwecken, man könnte den Nachbarländern vorschreiben, wie sie ihren Strom zu erzeugen hätten.

Nun trifft es sich, dass Österreich im europäischen Stromverbund große Mengen an Energie von eben jenen Ländern bezieht, die ihrerseits Kernkraftwerke betreiben (Deutschland, Tschechien et.). Es sollte sich ja inzwischen herumgesprochen haben, dass sich der Strom, der durch die Leitungen fließt, nicht nach seiner Herkunft unterscheiden lässt. Dies ist eine physikalische Unmöglichkeit. Aber mit Naturgesetzen tun sich Umweltbewegte mitunter schwer, und so wird tapfer die Illusion aufrechterhalten, die gesamte Elektrizität in Österreichs Netzen sei nuklearfrei.

Um dieses Dilemma anhand eines anschaulicheren Beispiels zu verdeutlichen: Die Donau wird von mehreren Zuflüssen wie Isar, Inn und Traun gespeist. Wenn nun jemand weiter östlich dieser Zuflüsse Wasser aus der Donau entnimmt und behauptet, dieses Wasser sei völlig frei von Traunwasser, so ist das natürlich Unsinn. Es besteht keine Möglichkeit, den Anteil des Traunwassers vom Rest zu separieren.

Und genauso verhält es sich mit dem Strom, der in verschiedenen Kraftwerken erzeugt wird. In der Steckdose des Verbrauchers lässt sich der individuelle Kraftwerksstrom ebenso wenig identifizieren wie in der Überlandleitung.

Nachdem dieser Sachverhalt keinerlei Deutungsspielraum zulässt, versuchen einige bekannte Großbetriebe (Google, Apple, die Deutsche Bundesbahn, um nur einige zu nennen) und Staaten (Österreich) ihr Umweltgewissen mit einem Taschenspielertrick reinzuwaschen: sie kaufen sich Stromzertifikate von "grünen" Produzenten, die mengenmäßig ihrem Verbrauchsprofil entsprechen. Damit ist, rein rechnerisch, die Bilanz unbefleckt, auch wenn sich dies faktisch nicht behaupten lässt. In Österreich ist sogar eine ganze Agentur damit beschäftigt: E-Control.

Auf dem stets lesenswerten Blog Energy Matters hat sich Roger Andrews unter dem Titel The myth of a nuclear-free Austria ausführlich mit der Materie beschäftigt. Sehr erhellend.


2017/10/24

LKW versus Lastenfahrrad - ein Vergleich

Lastenfahrräder werden immer beliebter. In manchen Städten sind sie schon ein durchaus geläufiger Anblick. In Zeiten des allgegenwärtigen Gründenkens haftet ihnen der Nimbus des ökologisch Korrekten an: also weniger Abgase, weniger Feinstaub und alles in allem einfach umweltfreundlicher.

Zeit für einen Vergleich aus energietechnischer Sicht. Entsprechend den Angaben des deutschen Umweltbundesamtes (also gleichsam die Gralshüter des Gründenkens) verbraucht ein Lkw im statistischen Durchschnitt etwa 0,4 kWh pro Tonnenkilometer. Mit anderen Worten: für jede Tonne, die per Lkw einen Kilometer weit bewegt wird, schlagen 0,4 kWh zu Buche.

Wie sieht dem gegenüber die Bilanz des Lastenfahrrads aus? Auf dieser Webseite gibt es Informationen zum Energieverbrauch beim Radfahren. Nehmen wir der Einfachheit halber an, eine Last von 100 kg werde mit so einem Ding transportiert. Der Lastenradfahrer (80 kg schwer) sei mit einer Geschwindigkeit von 20 km/h unterwegs, und zwar eine volle Stunde lang. Das entspricht einem Energieverbrauch von 1,68 kWh.

Wenn wir insgesamt eine Last von einer Tonne (1000 kg) transportieren wollen, dann müssen wir diese auf mehrere Fahrräder verteilen, sagen wir zehn mal 100 kg. Die zehn Lastenradfahrer verbrauchen dann 16,8 kWh auf einer Strecke von 20 km. Wenn wir das nun durch 20 dividieren, bekommen wir den Energieverbrauch pro Tonnenkilometer: also 0,84 kWh.

Wir sehen also, dass der Transport mit dem Lkw deutlich energieeffizienter ist als jener mit dem Lastenrad. Es sei natürlich unbenommen, dass letzteres deutlich flexibler ist, wenn es darum geht, kleinere Lasten auf verstopften Straßen zu bewegen. Aber es ist wohl - nicht nur aus energetischer Sicht - etwas unrealistisch, den gesamten Lkw-Verkehr auf das Lastenrad verlegen zu wollen.

2017/10/10

Die Start-Up-Wette

Start-ups gelten als Hoffnungsträger, um aus der ökonomischen Dauerkrise zu kommen. Man verspricht sich Innovationen, Arbeitsplätze und nicht zuletzt neue Steuereinnahmen. Allerdings sind Start-ups risikobehaftet. Denn man weiß, dass etwa 90% dieser Hoffnungsträger nach zwei bis drei Jahren nicht mehr existieren. Und nur die verbliebenen 10% schaffen es, im Wirtschaftsleben Fuß zu fassen und sich gegen die alte Konkurrenz durchzusetzen. Und noch weniger werden zu echten Geldmaschinen à la Google, Amazon oder Microsoft.

Der Hype um die Start-ups ist manchen politisch Verantwortlichen wohl etwas zu Kopf gestiegen. Deshalb gibt es nun mancherorts Fördergelder (gesponsort aus Steuereinnahmen), in der Erwartung, dass im Teich der gerade geschlüpften Entenbabys der eine oder andere Schwan verborgen sein mag, der alle anderen Entlein prächtig überstrahlt und die Verluste aus den abgesoffenen Küken spielend wieder ausgleicht.

Ist das wirklich ein realistisches Szenario? Machen wir eine kleine Rechnung. Nehmen wir an, wir haben 10 Start-ups, die sich um unseren Geldsegen bewerben. Jedes Jungunternehmen bekommt von uns einen Scheck über eine Million Euro. Nach drei Jahren schauen wir wieder nach, was aus den jungen Küken geworden ist. Im statistischen Mittel sind nach dieser Zeit neun von ihnen verschwunden, und nur eines ist noch im Teich übrig. Mit anderen Worten: Wir haben bei unserer Wette (und um nichts anderes geht es) 9 Millionen versenkt, und nur eine Million ist noch im Rennen, um uns reich zu machen. Es ist vielleicht etwas zuviel verlangt, von einem erfolgreichen Start-up zu erwarten, dass es nach drei Jahren bereits soviel verdient, um unsere gesamten bisher angehäuften Verluste wieder auszugleichen. Aber vielleicht nach 10 Jahren? Um per Saldo ohne Verluste aus diesem Gambling auszusteigen, müssen wir also erwarten, dass sich der Wert des einen erfolgreichen Start-ups irgendwann verzehnfacht hat.

Man muss sich also fragen, wie viele Jungunternehmen es gibt, deren Wert innerhalb eines bestimmten Zeitraums um einen Faktor 10 zulegt. Nehmen wir an, unser Start-up hätte sich innerhalb von zehn Jahren im Wert verdoppelt. Keine schlechte Leistung, wie ich meine. Und dennoch wäre unser anfängliches Investment in diesem Fall immer  noch negativ. Denn alles, was schlechter ist als ein Faktor zehn, macht uns effektiv ärmer. Alles, was besser ist, macht uns dafür reicher.

Was hier abgeht, ist also eine hochriskante Wette. Die Frage ist, ob diese Wette mit Steuergeldern finanziert werden muss.










2017/10/07

Windstromerzeugung in Deutschland: 2016

Die folgende Abbildung zeigt die stündliche Windstromproduktion in Deutschland im Jahre 2016. Die entsprechenden Daten stammen von Paul-Frederik Bach, der in den letzten Jahren eine ganze Reihe von Informationen über regenerative Energieerzeugung in verschiedenen Ländern zusammengetragen hat.


Hierzu noch ein paar statistische Eckdaten:

Die durchschnittliche Stromproduktion pro Stunde betrug in diesem Jahr 8765 MWh mit einer Standardabweichung von 6865 MWh. Die Minimal- bzw. Maximalwerte betrugen 135 bzw. 33626 MWh, d.h. zwischen diesen beiden Extremen schwankte die Einspeisung aus Windkraftanlagen.

Aus der Abbildung wird unmittelbar der schwankende Charakter der Windstromerzeugung klar.

2017/09/02

Stromerzeugung im Vergleich

Elektrifizierung ist der Trend unserer Tage. Alles soll wenn möglich elektrisch betrieben werden. Selbst das Automobil, bislang der Inbegriff der Fortbewegung mit fossilen Brennstoffen, soll in Zukunft nur noch mit Elektromotor und Batterie das Auslangen finden.

Welche Konsequenzen das für den Verkehrssektor hat, wurde in meinem letzten Post angedeutet. Die Stromproduktion müsste im Wesentlichen soweit ausgebaut werden, dass der Energiebedarf des Straßenverkehrs ausreichend abgedeckt werden kann.

Wenn heutzutage von (elektrischer) Energieerzeugung die Rede ist, fallen im Allgemeinen die folgenden Begriffe:

  • Windenergie
  • Photovoltaik
  • Wasserkraft
  • Kohle- bzw. Gaskraftwerke, selten auch Dieselgeneratoren
  • Kernkraft 

Elektrische Anlagen werden üblicher Weise durch ihre Leistung charakterisiert. Ein Motor mit 1000 Watt (1 kW) Leistung verbraucht pro Stunde eine Energie von einer Kilowattstunde (1 kWh). Ein Generator ist letztlich nichts anderes als ein quasi umgekehrt laufender Motor, wobei die technischen Charakteristika dieselben bleiben. Somit erzeugt ein Generator von 1 kW Nennleistung pro Stunde eine Energie von 1 kWh. Pro Tag sind das dann 24 kWh und pro Jahr entsprechend 8760 kWh. Das gilt natürlich nur, wenn der Generator das ganze Jahr über mit voller Leistung im Einsatz war. Ist er hingegen nur mit halber Leistung (50%) bei der Arbeit, dann produziert er eben auch nur 4380 kWh.

Dieses Verhältnis von tatsächlich produzierter Energie zu theoretisch möglicher Energieerzeugung nennt man Nutzungsgrad (capacity factor). Der Idealwert ist 100 % und wird in der Realität so gut wie nie erreicht. Die Gründe hierfür sind vielfältig. Doch darüber ein andermal mehr.

Sehen wir uns die Situation in Deutschland an. Die untenstehende Abbildung zeigt die Nutzungsgrade verschiedener Stromerzeugungsquellen. Die Rohdaten für diese Darstellung kommen übrigens von der europäischen Statistikbehörde Eurostat und gelten für das Jahr 2015.



Man sieht sofort, dass der nukleare Sektor gut 90% von dem liefert, was theoretisch möglich ist. Im Bereich der Winderzeugung liegt man bei knapp 20%.

Vergleichen wir das nun mit der Situation in Österreich, so fällt auf, dass es keinen derart dominanten Teil gibt wie in Deutschland. Wasserkraft ist hier an erster Stelle zu nennen mit etwas über 30% Nutzungsgrad. Die Ausbeute der Windräder ist im Alpenland etwas größer als in Deutschland. Das dürfte sich aber spätestens dann zugunsten der nördlichen Nachbarn ändern, wenn mehr und mehr offshore Windkraftanlangen in Dienst gehen. Bemerkenswert ist der niedrige Nutzungsgrad der Stromerzeugung mit fossilen Brennstoffen (etwa 15%). Das deutet meiner Ansicht nach darauf hin, dass diese Kraftwerke einen sehr unwirtschaftlichen Betrieb fahren.




Sehen wir uns schließlich noch die Lage in Großbritannien (UK) an. Auch dort werden regenerative Energien sehr stark gefördert.


Wie schon in Deutschland liegt auch hier die Stromerzeugung aus Kernkraft weit vor allen anderen Quellen mit deutlich über 70%. Solar schneidet mit weniger als 10% noch schlechter ab als in Deutschland und Österreich. Es gibt eben etwas weniger Sonne auf der Insel. Bei der Winderzeugung hat UK allerdings die Nase vor den beiden anderen, was wohl auch mit dem großen offshore Anteil zu tun hat. Auch die fossilen Kraftwerke weisen auf der Insel mit annähernd 40% einen deutlich besseren Nutzungsgrad auf.

Als Fazit halten wir fest, dass die regenerativen Energien längst nicht an die Nutzungsgrade nuklearer Stromerzeugung herankommen. Windenergie kann günstigstenfalls auf etwas über 30% kommen, besitzt aber den Nachteil, dass sie sehr unstetig und damit kaum grundlastfähig ist. Mit der Unstetigkeit des Windstroms werde ich mich in einem anderen Posting beschäftigen. Photovoltaik kommt in unseren Breiten kaum über 10% hinaus und ist ebenfalls unstetig. Abgesehen von ihrer schwachen Ausbeute leiden die regenerativen Energien (außer Geothermie und Biomasse, die auch höhere Nutzungsgrade aufweisen, aber im gesamten Strommix nur eine kleine Rolle spielen) darunter, dass sie starken Schwankungen unterworfen sind. Daran können auch die besten Vorhersagemodelle, die alle Windänderungen bereits im Voraus erfassen sollen, nichts ändern. Denn selbst wenn man genau weiß, dass der Wind in einer halben Stunde stark abflauen wird und man deshalb ein Kraftwerk mit fossilen Brennstoffen hochfahren muss, so ändert das nichts daran, dass letzteres immer in Bereitschaft gehalten werden muss für den Fall der Fälle. Dieser Bereitschaftsmodus ist mit einem sehr schlechten Wirkunsgrad verbunden, was einem ökonomischen Betrieb durchaus abträglich ist.