Dass Photovoltaik eine relativ schwachbrüstige Energiequelle ist, darf als bekannt vorausgesetzt werden. Der Kapazitätsfaktor liegt bei etwas mehr als 10%, d.h. nur ein gutes Zehntel der theoretisch verfügbaren Leistung wird tatsächlich produziert. Fast alle anderen Möglichkeiten der Energiegewinnung schneiden in dieser Hinsicht deutlich besser ab. Insofern ist die Faszination, die dieser Form der Stromgewinnung entgegengebracht wird, kaum zu verstehen.
Von einer Energiequelle sollte man sinnvollerweise annehmen können, dass sie eine positive Energiebilanz aufweist. Was ist damit gemeint? Gemeint ist damit das Verhältnis zwischen der Energie, die zur Herstellung einer solchen Quelle nötig ist, und jener Energie, die diese Quelle dann über ihre Lebensdauer erzeugt. Beispiel: Der Bau eines Gaskraftwerks erfordert eine gewisse Menge Energie (nennen wir sie X) über die Herstellung und den Transport der Baumaterialien und anderer technischer Komponenten sowie die Arbeitsleistung beim Aufbau der Anlage. Sobald das Kraftwerk in Betrieb geht, wird aktiv Energie erzeugt. Irgendwann kommt das Kraftwerk ans Ende seiner Tage und wird stillgelegt. Bis zu diesem Zeitpunkt hat es die Energie Y produziert, die (hoffentlich) deutlich größer ist als der Aufwand X aus der Bauphase. Nur wenn Y immer größer als X ist (also Y/X > 1), rentiert sich das Unternehmen aus physikalischer Sicht. Über die Ökonomie ist damit aber noch nichts gesagt.
Zwei Schweizer Energieexperten haben kürzlich genau dieses Verhältnis Y/X für PV-Anlagen unter die Lupe genommen und kamen zu dem Ergebnis, dass Y/X < 1 ist. Genaueres hierzu findet sich hier und, für Freunde der detaillierten Analyse, hier.
Ich persönlich maße mir kein abschließendes Urteil darüber an, ob in dieser Sache bereits das letzte Wort gesprochen ist. Vielleicht lassen ja zukünftige Entwicklungen (technische Verbesserungen) eine positivere Schlussfolgerung zu. Allein die Tatsache, dass man bei der Photovoltaik keine eindeutig positive Energiebilanz als gegeben voraussetzen kann, lässt dieses Unterfangen in einem sehr zweifelhaften Licht erscheinen. Um nochmals auf das obige Beispiel mit dem Gaskraftwerk zurückzukommen: Eine Anlage, die nicht deutlich mehr Energie liefert als zu ihrer Herstellung nötig ist, ist physikalisch gesehen sinnlos.
2017/12/29
Hat PV eine negative Energiebilanz?
2017/12/16
Kann man vom Energieversorger unabhängig werden?
In zwei Blogposts befasst sich Roger Andrews mit den Möglichkeiten, gleichsam energieautark zu werden, zumindest was die Versorgung mit Elektrizität betrifft. Er analysiert dabei ein zufällig gewähltes Haus in Shrewsbury (Vereinigtes Königreich), das mit einer Photovoltaikanlage ausgestattet ist. 2016 produzierte diese Anlage 3809 kWh (bei einer Kapazität von 4 kWp).
Wenig überraschend stellt der Autor fest, dass hiermit eine völlig autarke Energieversorgung nicht möglich ist. Der Grund ist die über das Jahr schwankende Stromproduktion, die im Winter (wenn man also mehr Energie braucht) zuwenig und im Sommer (wenn man nicht soviel braucht) zuviel liefert. Auch der Einsatz einer Tesla Powerwall schafft keine endgültige Abhilfe. Um sich wirklich völlig von seinem Energieversorger zu trennen, braucht man letztlich immer einen Dieselgenerator.
Mehr dazu hier und hier.
Aus persönlicher Sicht möchte ich hierzu folgendes anmerken: Seit 2013 verfolge ich monatlich die Produktionsdaten einer PV-Anlage im sonnigen Linz. Ein Vergleich dieser Werte mit jenen aus dem angeblich verregneten Vereinigten Königreich ergibt, dass beide Anlagen durchaus vergleichbare Kapazitätsfaktoren (capacity factor) von etwas über 10% haben. 2016 schnitt die Photovoltaik auf der Insel sogar etwas besser ab.
Wenig überraschend stellt der Autor fest, dass hiermit eine völlig autarke Energieversorgung nicht möglich ist. Der Grund ist die über das Jahr schwankende Stromproduktion, die im Winter (wenn man also mehr Energie braucht) zuwenig und im Sommer (wenn man nicht soviel braucht) zuviel liefert. Auch der Einsatz einer Tesla Powerwall schafft keine endgültige Abhilfe. Um sich wirklich völlig von seinem Energieversorger zu trennen, braucht man letztlich immer einen Dieselgenerator.
Mehr dazu hier und hier.
Aus persönlicher Sicht möchte ich hierzu folgendes anmerken: Seit 2013 verfolge ich monatlich die Produktionsdaten einer PV-Anlage im sonnigen Linz. Ein Vergleich dieser Werte mit jenen aus dem angeblich verregneten Vereinigten Königreich ergibt, dass beide Anlagen durchaus vergleichbare Kapazitätsfaktoren (capacity factor) von etwas über 10% haben. 2016 schnitt die Photovoltaik auf der Insel sogar etwas besser ab.
2017/12/12
Eine kurze Geschichte der Kohle
Am Beispiels Großbritanniens.
Kohle hat als Energieträger in unseren Tagen nicht den besten Ruf. Das ist verständlich, denn bei der Kohleverbrennung entstehen eine Reihe unerwünschter Dinge, die man eigentlich gar nicht haben möchte. Mittels moderner Filtertechnologie lassen sich etliche dieser Schadstoffe absondern und in einigen Fällen sogar einer nützlichen Verwendung (etwa als Baumaterial) zuführen. Trotz dieser technologischen Fortschritte gilt die Kohle immer noch als problematisch für Mensch und Umwelt.
Infolge dieser Problematik laufen verschiedene Lobbygruppen gegen eine weitere Nutzung der Kohle Sturm und drängen auf einen Ersatz durch andere, in erster Linie regenerative Energieträger. Inwiefern das gelingen, bleibt abzuwarten und soll hier nicht das Thema sein.
Worum es in diesem Posting geht, ist ein Faktum, das in den gegenwärtigen Diskussionen gerne ausgeblendet, wenn es denn überhaupt zur Kenntnis genommen wird: nämlich der Beitrag der Kohle zu Entstehung moderner Industriegesellschaften.
In Großbritannien entstand erstmals eine Gesellschaft, die ein neues Niveau der Mobilität und der wirtschaftlichen Produktivität erreichte, wie es nie zuvor auf diesem Planeten der Fall gewesen war. Dies lässt sich mit Zahlen untermauern, die im wesentlichen die zweite Hälfte des 19. Jahrhunderts und das erste Jahrzehnt des 20. umfassen.
Beginnen wir mit des Ausbau des britischen Schienennetzes. 1825 fuhr dort erstmals eine Eisenbahn.
Kohle hat als Energieträger in unseren Tagen nicht den besten Ruf. Das ist verständlich, denn bei der Kohleverbrennung entstehen eine Reihe unerwünschter Dinge, die man eigentlich gar nicht haben möchte. Mittels moderner Filtertechnologie lassen sich etliche dieser Schadstoffe absondern und in einigen Fällen sogar einer nützlichen Verwendung (etwa als Baumaterial) zuführen. Trotz dieser technologischen Fortschritte gilt die Kohle immer noch als problematisch für Mensch und Umwelt.
Infolge dieser Problematik laufen verschiedene Lobbygruppen gegen eine weitere Nutzung der Kohle Sturm und drängen auf einen Ersatz durch andere, in erster Linie regenerative Energieträger. Inwiefern das gelingen, bleibt abzuwarten und soll hier nicht das Thema sein.
Worum es in diesem Posting geht, ist ein Faktum, das in den gegenwärtigen Diskussionen gerne ausgeblendet, wenn es denn überhaupt zur Kenntnis genommen wird: nämlich der Beitrag der Kohle zu Entstehung moderner Industriegesellschaften.
In Großbritannien entstand erstmals eine Gesellschaft, die ein neues Niveau der Mobilität und der wirtschaftlichen Produktivität erreichte, wie es nie zuvor auf diesem Planeten der Fall gewesen war. Dies lässt sich mit Zahlen untermauern, die im wesentlichen die zweite Hälfte des 19. Jahrhunderts und das erste Jahrzehnt des 20. umfassen.
Beginnen wir mit des Ausbau des britischen Schienennetzes. 1825 fuhr dort erstmals eine Eisenbahn.
1825 41 km
1840 2411 km
1850 10655 km
1860 16790 km
1885 30358 km
1912 37740 km
In entsprechendem Maße erhöhte sich die Mobilität von Menschen und Gütern, die in den Jahrhunderten zuvor fast ausschließlich von Pferden geleistet wurde. Reisen wurde bequemer und schneller. Wollte man von London aus seine Tante in Edinburgh besuchen, so war das nun keine once-in-a-lifetime-Geschichte mehr. Die Züge wurden in diesem Zeitraum ausschließlich von Dampflokomotiven angetrieben, deren Dampfkessel mit Kohle befeuert wurden.
Um ein derart ausgedehntes Schienennetz in die Welt zu setzen, brauchte man Stahl. Und zwar mehr, viel mehr als je zuvor. Hier sind die Produktionszahlen in Kilotonnen (kt), derer ich habhaft werden konnte:
1870 3667 kt
1880 3916 kt
1890 6177 kt
1900 6154 kt
1910 7946 kt
Natürlich ging ein Teil dieser Produktion auch in den Bau moderner Dampfschiffe, die selbstredend mit Energie aus der Kohle angetrieben wurden.
So eindrucksvoll diese Zahlen sind, sowenig sind sie überhaupt denkbar ohne die Nutzung eines Mediums, dessen Energiedichte die bis dahin bekannten Brennstoffe deutlich in den Schatten stellte. Man stelle sich vor, die Dampfkessel in den Lokomotiven und Schiffen wären mit Brennholz anstatt mit Kohle betrieben worden. Brennholz hat einen Heizwert von etwa 4 kWh/kg, Steinkohle kommt auf mehr als das Doppelte (8-9 kWh/kg). Mit anderen Worten: Mit der Kohle kam man doppelt so weit wie mit Holz.
Nun zu den Förderzahlen auf der Insel (in Millionen Tonnen, Mt).
1860 72 Mt
1870 106 Mt
1880 140 Mt
1890 173 Mt
1900 207 Mt
1910 258 Mt
Es ist mit Sicherheit davon auszugehen, dass in den Jahrzehnten vor 1860 die Fördermengen deutlich geringer waren. Das legt zumindest ein Vergleich mit dem Kohleabbau in Deutschland nahe. Um das Jahr 1910 wurde das Maximum der Kohleförderung erreicht, peak coal wenn man so will. Die geförderte Kohle wurde fast ausschließlich für die Stahlproduktion, für die Mobilität auf der Schiene und den Weltmeeren sowie für Heizzwecke verwendet.
Inzwischen hatte sich nämlich auch die Bevölkerung Großbritanniens vermehrt, und zwar wie folgt:
1860 28,8 Mio
1870 31,4 Mio
1880 34,7 Mio
1890 37,6 Mio
1900 41,2 Mio
1910 45,1 Mio
Das Auto spielte in diesem Zeitraum so gut wie keine Rolle. Abgesehen von den sicherlich noch zahlreichen Pferdefuhrwerken war für den Überlandverkehr ausschließlich die Eisenbahn von Bedeutung. Und dafür gab es nur einen einzigen Treibstoff.
Inzwischen gibt es Dampflokomotiven nur noch im Museumsbetrieb. Mit Kohle heizen auf den britischen Inseln nicht mehr viele Leute. Hauptsächlicher Verbraucher ist die Energiewirtschaft. 2016 wurden etwa 12 Mio. t Kohle verfeuert, davon der allermeiste Teil unter Einsatz von Filtern Verglichen damit wurden die 258 Mio. t des Jahres 1910 ungefiltert in die Luft geblasen. Man fragt sich, wie die Briten das vor hundert Jahren überlebt haben.
2017/12/01
Indikatoren
Indikatoren spielen in manchen Bereichen eine große Rolle, gelegentlich vielleicht sogar eine zu große. Letzteres ist dann der Fall, wenn die Benutzer dem Indikator eine allzu gewichtige Bedeutung beilegen und damit die Aussagekraft des Indikators überbewerten. Diese Überbewertung kann in der Folge zu Reaktionen führen, die dem ursprünglichen Signal nicht mehr angemessen sind.
Beispiel Außentemperatur: Ich sehe aus dem Fenster in den Garten und bemerke, dass sich dort Reif gebildet hat. Der Reif als (recht grober) optischer Indikator für Temperaturen unter dem Nullpunkt. Besser ist es natürlich ein Außenthermometer zu haben, das mir die genaue Temperatur anzeigt.
Genau wie in diesem Beispiel ist es sinnvoll, sich Indikatoren als das vorzustellen, was sie ihrer Natur nach sind (oder zumindest sein sollen): Zahlen, die etwas anzeigen. Also etwa die Temperatur.
Unser Leben ist voll von diesen Anzeigern, auch wenn wir uns darüber zumeist gar nicht im klaren sind. Schulnoten gehören ebenso dazu wie Arbeitszeugnisse, Börsenkurse, Wirtschaftsprognosen und anderes. Schulnoten sind ein besonders schönes Beispiel. Im Zuge der allgemeinen Verflachung des Bildungssystems kam es zu einer zunehmenden Abwertung der Notengebung zugunsten von nichtssagendem Palaver, und zwar in der Weise, dass sich jeder Schüler gebauchpinselt fühlen konnte und sollte. Die tatsächlichen Leistungsunterschiede zwischen den Schülern, die ja unabhängig von der Notengebung existieren, sind aber deswegen nicht verschwunden, auch wenn es für oberflächliche Gemüter den Anschein haben könnte.
Die Gegner der Notengebung führen unter anderem folgendes Argument ins Feld: Schulnoten hätten keinerlei Aussagekraft über den späteren beruflichen Erfolg eines Schülers. Das wird dann üblicherweise mit dem Verweis auf wissenschaftliche Studien begründet. Welche Studien das genau sein sollen, bleibt aber ebenso oft unklar.
Nun wäre es sicherlich vermessen zu behaupten, wer gut in der Schule war, hätte im späteren Leben stets die Nase vorn. Aber im großen und ganzen halte ich das doch für richtig, auch wenn das Leben die eine oder andere Ausnahme bereithält.
Ein Argument wie das mit der mangelnden Aussagekraft der Noten ist eigentlich nicht anderes als eine Nebelkerze. Denn es wird den Schulnoten eine Bedeutung angedichtet, die sie gar nicht haben. Deren Bedeutung ist vielmehr darin begründet, den Leistungsstand der Schüler zu ermitteln. Also herauszufinden, wie gut sie den Stoff verstanden haben, wie gewandt sie in der Anwendung gewisser Fertigkeiten sind. Es ist also zunächst einmal ein Indikator für den Schüler selbst.
Als Folge davon ist die Note dann auch ein Vergleichsmaßstab der Schüler untereinander. Sie tauschen sich über die Ergebnisse aus und erhalten damit eine Rückmeldung, wo ihre individuelle Leistung in der Klasse angesiedelt ist. Dass Lehrer und Eltern diesen Maßstab in gleicher Weise anwenden, liegt in der Natur der Sache.
Klar ist auch, dass man Noten nicht überbewerten sollte. Es gibt in unseren Tagen eine Tendenz hin zu guten und sehr guten Benotungen, schlechte werden dagegen immer seltener vergeben. Das führt zu einer Inflationierung der oberen Ränge, die ja eigentlich etwas Besonderes sein sollten. Gleichzeitig wird eben dadurch die Aussagekraft dieses Indikators entwertet. Wenn 50% eines Jahrganges sehr gut sind, dann verbietet es sich gleichsam von selbst, die übrigen zu Vollidioten zu stempeln, also bekommen die dann ein gut. Damit hätten wir einen Notenschnitt von 1,5.
Das ist natürlich nur ein hypothetisches und überspitztes Beispiel. Aber die Wirklichkeit ist davon nicht weit entfernt. In einem früheren Leben war ich mit der Evaluierung von Forschungsprojekten beschäftigt. Dabei wurden in meinem Fachbereich etwa 500 Projekte eingereicht, von denen dann etwa 80 finanziell gefördert wurden. Die Bewertungsskala reichte von 1 (unteres Ende) bis 10 (oberes Ende). Es zeigte sich in praktisch jedem Jahrgang, dass die Notenverteilung ihren Schwerpunkt zwischen 8 und 8,5 hatte. In diesem Bereich drängten sich allermeisten Projekte, und dort war es auch, wo sich die Trennlinie (cut-off) zwischen Förderung und Nicht-Förderung etablierte. Wer es dann schaffte, war letztlich eine Glückssache. Denn ist ein Projekt mit 8,2 wirklich so viel schlechter wie ein anderes mit 8,3?
Bemerkenswert war an diesen Evaluierungen noch ein anderer Umstand. Die wissenschaftlichen Gutachter mussten neben der Punktbewertung noch eine schriftliche Begründung dazu liefern. Das führt dann zu fast schon komischen Verrenkungen seitens der Gutachter. Wenn ein Antrag offensichtlich so schlecht war, dass er nur wenige Punkte bekommen konnte, dann bemühten sich die Experten im Wortgutachten möglichst viel Positives herauszustreichen, um gleichsam die geringe Punktezahl zu kaschieren. Hätte man nur den Text gelesen, so hätte man eine höhere Punktezahl erwarten können. Das war aber nicht der Fall. Umgekehrt war es aber auch so, dass Projekte mit hoher Punktezahl dann im Begleittext sehr kritisch angegangen und all nur möglichen Defizite aufgelistet wurden. Das war durch die Bank der Fall und nicht nur eine Besonderheit einzelner Gutachter.
Generell sollte man meinen, dass Forschungsprojekte wie andere Dinge auch einer Gaußverteilung gehorchen, wobei der Schwerpunkt irgendwo um den Wert 5 liegen sollte. In Wirklichkeit war diese Verteilung sehr stark nach oben verschoben, was die Aussagekraft der Bewertung extrem verzerrte, und das schien den Gutachtern (allesamt gestandene Wissenschaftler) irgendwie egal zu sein. Dadurch wird aber die Punktzahl als Indikator schon fast wertlos.
Das ist ein schönes (und zugleich praktisches) Beispiel dafür, wie die Inflationierung guter Noten einerseits den Konkurrenzkampf um die begehrten Förderplätze verschärft und ihn andererseits zur Lotterie werden lässt, weil eben etliche nur um ein paar Dezimalen abgehängt werden, die im Grund genommen nicht soviel zu bedeuten haben, wie es auf den ersten Blick scheint.
Beispiel Außentemperatur: Ich sehe aus dem Fenster in den Garten und bemerke, dass sich dort Reif gebildet hat. Der Reif als (recht grober) optischer Indikator für Temperaturen unter dem Nullpunkt. Besser ist es natürlich ein Außenthermometer zu haben, das mir die genaue Temperatur anzeigt.
Genau wie in diesem Beispiel ist es sinnvoll, sich Indikatoren als das vorzustellen, was sie ihrer Natur nach sind (oder zumindest sein sollen): Zahlen, die etwas anzeigen. Also etwa die Temperatur.
Unser Leben ist voll von diesen Anzeigern, auch wenn wir uns darüber zumeist gar nicht im klaren sind. Schulnoten gehören ebenso dazu wie Arbeitszeugnisse, Börsenkurse, Wirtschaftsprognosen und anderes. Schulnoten sind ein besonders schönes Beispiel. Im Zuge der allgemeinen Verflachung des Bildungssystems kam es zu einer zunehmenden Abwertung der Notengebung zugunsten von nichtssagendem Palaver, und zwar in der Weise, dass sich jeder Schüler gebauchpinselt fühlen konnte und sollte. Die tatsächlichen Leistungsunterschiede zwischen den Schülern, die ja unabhängig von der Notengebung existieren, sind aber deswegen nicht verschwunden, auch wenn es für oberflächliche Gemüter den Anschein haben könnte.
Die Gegner der Notengebung führen unter anderem folgendes Argument ins Feld: Schulnoten hätten keinerlei Aussagekraft über den späteren beruflichen Erfolg eines Schülers. Das wird dann üblicherweise mit dem Verweis auf wissenschaftliche Studien begründet. Welche Studien das genau sein sollen, bleibt aber ebenso oft unklar.
Nun wäre es sicherlich vermessen zu behaupten, wer gut in der Schule war, hätte im späteren Leben stets die Nase vorn. Aber im großen und ganzen halte ich das doch für richtig, auch wenn das Leben die eine oder andere Ausnahme bereithält.
Ein Argument wie das mit der mangelnden Aussagekraft der Noten ist eigentlich nicht anderes als eine Nebelkerze. Denn es wird den Schulnoten eine Bedeutung angedichtet, die sie gar nicht haben. Deren Bedeutung ist vielmehr darin begründet, den Leistungsstand der Schüler zu ermitteln. Also herauszufinden, wie gut sie den Stoff verstanden haben, wie gewandt sie in der Anwendung gewisser Fertigkeiten sind. Es ist also zunächst einmal ein Indikator für den Schüler selbst.
Als Folge davon ist die Note dann auch ein Vergleichsmaßstab der Schüler untereinander. Sie tauschen sich über die Ergebnisse aus und erhalten damit eine Rückmeldung, wo ihre individuelle Leistung in der Klasse angesiedelt ist. Dass Lehrer und Eltern diesen Maßstab in gleicher Weise anwenden, liegt in der Natur der Sache.
Klar ist auch, dass man Noten nicht überbewerten sollte. Es gibt in unseren Tagen eine Tendenz hin zu guten und sehr guten Benotungen, schlechte werden dagegen immer seltener vergeben. Das führt zu einer Inflationierung der oberen Ränge, die ja eigentlich etwas Besonderes sein sollten. Gleichzeitig wird eben dadurch die Aussagekraft dieses Indikators entwertet. Wenn 50% eines Jahrganges sehr gut sind, dann verbietet es sich gleichsam von selbst, die übrigen zu Vollidioten zu stempeln, also bekommen die dann ein gut. Damit hätten wir einen Notenschnitt von 1,5.
Das ist natürlich nur ein hypothetisches und überspitztes Beispiel. Aber die Wirklichkeit ist davon nicht weit entfernt. In einem früheren Leben war ich mit der Evaluierung von Forschungsprojekten beschäftigt. Dabei wurden in meinem Fachbereich etwa 500 Projekte eingereicht, von denen dann etwa 80 finanziell gefördert wurden. Die Bewertungsskala reichte von 1 (unteres Ende) bis 10 (oberes Ende). Es zeigte sich in praktisch jedem Jahrgang, dass die Notenverteilung ihren Schwerpunkt zwischen 8 und 8,5 hatte. In diesem Bereich drängten sich allermeisten Projekte, und dort war es auch, wo sich die Trennlinie (cut-off) zwischen Förderung und Nicht-Förderung etablierte. Wer es dann schaffte, war letztlich eine Glückssache. Denn ist ein Projekt mit 8,2 wirklich so viel schlechter wie ein anderes mit 8,3?
Bemerkenswert war an diesen Evaluierungen noch ein anderer Umstand. Die wissenschaftlichen Gutachter mussten neben der Punktbewertung noch eine schriftliche Begründung dazu liefern. Das führt dann zu fast schon komischen Verrenkungen seitens der Gutachter. Wenn ein Antrag offensichtlich so schlecht war, dass er nur wenige Punkte bekommen konnte, dann bemühten sich die Experten im Wortgutachten möglichst viel Positives herauszustreichen, um gleichsam die geringe Punktezahl zu kaschieren. Hätte man nur den Text gelesen, so hätte man eine höhere Punktezahl erwarten können. Das war aber nicht der Fall. Umgekehrt war es aber auch so, dass Projekte mit hoher Punktezahl dann im Begleittext sehr kritisch angegangen und all nur möglichen Defizite aufgelistet wurden. Das war durch die Bank der Fall und nicht nur eine Besonderheit einzelner Gutachter.
Generell sollte man meinen, dass Forschungsprojekte wie andere Dinge auch einer Gaußverteilung gehorchen, wobei der Schwerpunkt irgendwo um den Wert 5 liegen sollte. In Wirklichkeit war diese Verteilung sehr stark nach oben verschoben, was die Aussagekraft der Bewertung extrem verzerrte, und das schien den Gutachtern (allesamt gestandene Wissenschaftler) irgendwie egal zu sein. Dadurch wird aber die Punktzahl als Indikator schon fast wertlos.
Das ist ein schönes (und zugleich praktisches) Beispiel dafür, wie die Inflationierung guter Noten einerseits den Konkurrenzkampf um die begehrten Förderplätze verschärft und ihn andererseits zur Lotterie werden lässt, weil eben etliche nur um ein paar Dezimalen abgehängt werden, die im Grund genommen nicht soviel zu bedeuten haben, wie es auf den ersten Blick scheint.
Subscribe to:
Posts (Atom)