In den Anfangszeiten dieses Blogs habe ich gelegentlich über NIMBY-getriebene Versuche berichtet, den Bau regenerativer Energieanlagen regional zu verhindern. Gerade vor dem Hintergrund der aktuellen Energiewende-Debatte lohnt sich dieser Blick in die kommunale Energiepolitik wieder, weshalb es hier im “Frischen Wind” künftig den “NIMBY der Woche” (dann und wann) geben wird. Den Einstieg macht dabei der Rat der Stadt Südliches Anhalt.

Auf einer Ratssitzung am Mittwoch wurde dort nämlich beschlossen, dass die 14.000-Einwohner-Stadt künftig keine neuen Flächen für Windparks mehr ausweisen wird. Wie die Mitteldeutsche Zeitung berichtet, stimmte einzig die CDU-Fraktion gemeinsam mit einem einsamen Überläufer aus den Reihen der Freien Wähler für die Ansiedlung neuer Windparks, während der Rest der Freien Wähler sowie die Linkspartei sich gegen die Ausweisung neuer Flächen entschieden haben – und das, obwohl bereits drei Windenergie-Investoren Interesse an entsprechenden Ansiedlungen bekundet hatten.

Begründet hat Dieter Marx, der Fraktionsvorsitzende der Linken – die in Sachsen-Anhalt noch im vergangenen Monat mit dem Slogan “Atomausstieg jetzt!” um Wähler geworben hatten – die Verweigerungshaltung seiner Partei mit einem besonders abenteuerlichen Argument: Weil in Sachsen-Anhalt schon so viele Windräder stehen, muss erst mal “der Westen” nachziehen, bevor vor Ort neue Baugenehmigungen erteilt werden könnten:

In Sachsen-Anhalt gebe es Marx zufolge bereits ein dichtes Netz von Windkraftanlagen, mehr sei den Einwohnern nicht zuzumuten. In den alten Bundesländern gebe es weniger Windparks, sie sollen erst einmal nachholen. “Schließlich gibt es im Westen nicht weniger Wind als bei uns.”

Und gegen dieses überzeugende Argument konnte niemand mehr punkten:

Olaf Feuerborn rechnete vor, dass allein durch neue Anlagen bei Quellendorf innerhalb von 20 Jahren 3,5 bis vier Millionen Euro Gewerbesteuer in den städtischen Haushalt fließen würden. Ein gewichtiges Argument in einer Zeit, in der im Südlichen Anhalt jeder Euro zweimal umgedreht werden muss, meinte auch Volker Richter, Fraktionschef Bürgermeister / CDU. Doch weder das noch der Verweis Feuerborns auf eine neue Lage nach dem Atomunfall in Japan konnten die Mehrheit im Stadtrat überzeugen.

Nein, auf die paar Millionen kommt es nun wirklich nicht an – und bevor hier irgendwas getan wird, um vor dem Hintergrund der Fukushima-Havarie einen regionalen Beitrag zum Atomausstieg zu leisten, sollen gefälligst erst mal die Wessis nachziehen. Vielleicht hätte die Gegenseite statt auf die kommunalen Finanzen und den Atomausstieg besser auf das Energiekonzept der Sachsen-Anhaltischen Linken verweisen sollen:

Die Nutzung der Windenergie hat sich in Sachsen-Anhalt rasant entwickelt, wird aber nun zunehmend durch raumordnerische Regelungen begrenzt. Es
ist aber erforderlich, landesplanerisch ausreichend Fläche für die Windkraftnutzung zu sichern
und so auch das Ersetzen alter durch leistungsstärkere Anlagen (Repowering) zu unterstützen.

Aber ach, auch dort findet sich noch ein Hintertürchen für unwillige kommunale Planer:

Wir schlagen deshalb vor, ein Flächenziel für die Windenergienutzung von einem Prozent der Landesfläche (das sind 20.450 ha) festzuschreiben, das nicht unterschritten werden soll. Damit bleibt die Entwicklung der Windkraft im Rahmen der bisher bereits ausgewiesenen Flächen.

Und so bleibt am Ende doch alles beim Alten. Atomausstieg jetzt? Auf jeden Fall…nur gestemmt werden soll er doch bitte woanders…

i-0d6c29efc54ee237fe5bcc4cddb5446d-NIMBY-thumb-512x453.gif

Kommentare (77)

  1. #1 Roland
    29. April 2011

    Kommunalpolitik halt… gerne nah am heimischen Stammtisch.

  2. #2 Lichtecho
    29. April 2011

    “Schließlich gibt es im Westen nicht weniger Wind als bei uns.”
    Diese Aussage ist schlicht falsch. Von den Bundesländern, die nicht an der Küste gelegen sind, hat gerade Sachsen-Anhalt und Sachsen ein gutes Windpotenzial. Bundesländer wie z.B. Ba-Wü haben hier einen geographischen Nachteil. Kurios, dass man diesen Standortvorteil nicht nutzen will.

    Umgekehrt müsste man ja nach dieser Logik Sachsen-Anhalt vom Atomstrom abkoppeln, weil es ja im Westen mehr Atomkraftwerke gibt.

    Ach, warum verwandeln wir Deutschland nicht einfach wieder in einen Flickenstaat aus Herzog- und Fürstentümer und jeder guckt, wie er selber klar kommt (kopfschüttel)

  3. #3 Physiker
    29. April 2011

    Ein wahrer Kern steckt natürlich schon in den Aussagen, denn wenn man Windkarten
    http://www.diercke.de/kartenansicht.xtp?artId=978-3-14-100700-8&seite=53&id=4919&kartennr=4
    mit der Verteilung der Winkraftanlagen
    http://de.academic.ru/pictures/dewiki/119/windkraftanlagen_in_deutschland.png
    vergleicht, erkennt man doch mehrere grosse Diskrepanzen (Ost-West und Nord-Süd). Eine Bewertung spare ich mir jetzt mal, denn da dürften sicherlich viele Faktoren eine Rolle spielen. Offensichtlich ist da aber trotzdem irgendwo ein dicker fetter Wurm drin. Oder warum häufen sich gerade in Ostdeutschland die Winkraftanlagen ausgerechnet an den Windschwachen Standorten?

  4. #4 Wolfgang Flamme
    2. Mai 2011

    @Physiker

    Hmm … mal gucken wann ich Zeit finde, ein Geocoding des aktuellen Anlagenstammverzeichnisses durchzuführen – ich finde die Darstellung nämlich nicht besonders glücklich gewählt.

    Falls sich der Eindruck bestätigt, würde ich zuerst auf schlechtere Netzinfrastruktur als Ursache tippen.

  5. #5 Physiker
    3. Mai 2011

    @ Wolfgang Flamme:
    Es gibt auch sicherlich bessere Windkarten…
    Eine nach Bundesländern aufgeschlüsselte Tabelle findet sich allerdings in Wikipedia:
    http://de.wikipedia.org/wiki/Windenergie#Deutschland
    Und ein Vergleich des relativ windarmen Sachsen-Anhalts mit dem mit Windenergie gesegneten Hessen (das durchaus auch Infrastruktur aufweisen kann) zeigt eindeutig, dass hier irgendetwas gewaltig schief läuft. Denn wenn ich mich richtig erinnere macht es keinen Sinn Winkraftanlagen aufzustellen, wenn die mittlere Windgeschwindigkeit unter 5 m/s beträgt – aber genau in diesem grenzwertigen Bereich scheinen sich die meisten Anlagen in Sachsen-Anhalt zu befinden.

  6. #6 Wolfgang Flamme
    3. Mai 2011

    @Physiker

    Tja, wie gesagt, ich tippe auf handfeste Ursachen wie Netzanbindung – tolerantere Höhen-/Bebauungsregelungen, jüngeres Bestandsalter und höhere Anlagenkonzentration wären auch noch Punkte, der mir einfallen. Zusammen mit den ÜNB-Daten könnte man Nennleistung, IBN-Datum, testierte Produktion (Vollaststunden), Vergütungsstruktur sowie räumliche Konzentration und Windhöffigkeit testen, denke ich mal.

    Aber jetzt mal andersherum gefragt: Was zB soll da so ‘gewaltig schieflaufen’? Mit ist das viel zu vage.

    PS: Der DWD hat einige gute und hochaufgelöste Karten, u.a. EEG-Eignung (Referenzertragsregelung) und 80m-Karten (Klima+Umwelt/Klimadaten/Windenergie/Downloads).

  7. #7 Wolfgang Flamme
    4. Mai 2011

    PPS:
    Sehe gerade, daß sich schon jemand die Mühe gemacht hat, die ÜNB-Datenbestände geografisch (OpenStreetMap) aufzuarbeiten und diese Datenbasis auch als DL anbietet – sehr löblich!

    http://www.energymap.info

  8. #8 Physiker
    5. Mai 2011

    @ Wolfgang Flamme:
    Da haben’s wir ja nochmal schwarz auf weiss auf den Seiten des DWD:
    So gut wie ganz Sachsen-Anhalt eignet sich (bis auf wenige Ausnahmen) nicht zur Windenergienutzung. Gerade dort, wo die meissten Windkraftanlagen stehen, besteht laut Karte des DWD nicht einmal ein gesetzlicher Vergütungsanspruch, weil der Ertrag der Anlagen unter 60% des Referenzertrages liegt.

    “Was zB soll da so ‘gewaltig schieflaufen’?”
    Ganz einfach, Strom aus Windenergie könnte grob geschätzt halb so teuer sein, wenn die Anlagen dort aufgestellt werden, wo sie doppelt so viel Energie liefern. Und wenn ich mir die DWD-Karte ansehe, dann gibt es reichlich Flächen in Westdeutschland, die doppelt so ertragreich sind, wie die Ostdeutschen Flächen, auf denen sich die Winkraftanlagen derzeit konzentrieren.

  9. #9 Wolfgang Flamme
    6. Mai 2011

    Ich habe jetzt erstmal bei 50Hertz-Transmission angefragt, ob – und falls ja in welchem Umfang – in deren Netzgebiet WEA existieren, die keinen Nachweis für die Erfüllung der 60%-Referenzregelung erbringen konnten … und wie die Vergütungsfrage in solchen
    Fällen geregelt wird. Das sollte Aufschluß darüber geben, ob die EEG-Standortberechnungen des DWD auch kleinräumig Gültigkeit besitzen.

    Weiterhin war es ja gerade Sinn der Referenzertrags-Regelung, ‘den Druck von der Küste zu nehmen’ (Trittin). Die Vergütungen und damit die Einnahmen der Betreiber sind nominal festgesetzt, real werden sie also mit der Inflationsrate abgezinst – bei etwa 2%. Inflationsrate sind die letzten Vergütungen also reell nur etwa halb so viel wert wie die anfänglichen. Dies (und die Unwägbarkeiten der dann tatsächlich erzielten Jahreserträge) zwingt die Betreiber, verstärkt auf kurze ROI-Zeiten und damit hohe und sichere Erträge und entsprechend günstige (aber eben rare) Küstenstandorte zu setzen. Bedeutsame und beständig wachsende Windenergiebeiträge an unserer Stromversorgung kann man bei einem solchen Rentabilitätsdruck aber nicht erreichen.

  10. #10 Physiker
    10. Mai 2011

    Ich gehe nicht davon aus, dass in Sachsen-Anhalt massenhaft Anlagen stehen, die unterhalb des 60% Referenzniveaus liegen. Stattdessen gehe ich davon aus, dass die Anlagen wohl dort/in der Höhe laufen, dass sie *knapp* oberhalb des Referenzniveaus liegen – sonst gäbe es wohl kein Interesse seitens der Betreiber. Die DWD-Karte stellt ja nur die 60%, 100%, … Grenzen dar, d.h. genauso wie es in Sachsen-Anhalt lokal Stellen gibt die oberhalb von 60% liegen, wird es in Westdeutschland sehr viele Stellen geben, die deutlich über 100% liegen. Daher der geschätzte Faktor 2.

    “Dies […] zwingt die Betreiber, verstärkt auf kurze ROI-Zeiten und damit hohe und sichere Erträge und entsprechend günstige (aber eben rare) Küstenstandorte zu setzen.”
    Soviel zur Theorie. Tatsächlich häufen sich die Winkraftanlagen aber mindestens genauso in Küstennähe wie im windarmen Ostdeutschland. Man bedenke, dass jeder grüne Punkt in der Abbildung
    http://de.academic.ru/pictures/dewiki/119/windkraftanlagen_in_deutschland.png
    nur für ca. eine einzige Windkraftanlage steht (und jeder grosse rote für maximal 10 leistungsfähige Anlagen). D.h. an der Küste (und dazu zählt übrigens auch die Ostseeküste), wo mit Sicherheit mindestens 3-4 mal soviel Windenergie abgeschöpft werden könnte als in Sachsen-Anhalt, konzentrieren sich weniger/nur fast gleich viele Anlagen.

    Eine Ursache für diese unsinnige verspargelung Ostdeutschlands ist wohl das EEG, denn laut DWD gilt:
    “Die Höhe der Förderung nimmt mit wachsender Eignung des Standortes ab.”
    Offensichtlich liegt ein ökonomisches Optimum bei der momentanen Förderung genau beim 60% Referenzniveau. Und das ist Energie- und Landschaftspolitischer Murks.

    Ich stelle das EEG natürlich nicht generell infrage. Allerdings gehören die Stellschrauben bei der Förderung so nachjustiert, dass ertragreichere Gebiete wirklich bevorzugt werden. Momentan scheinen sich sowohl sehr ertragreiche als auch sehr ertragsarme Gebiete wirtschaftlich zu lohnen.

  11. #11 Wolfgang Flamme
    11. Mai 2011

    Nun, Physiker, das hört sich jetzt aber schon deutlich anders an als vorher: “Gerade dort, wo die meissten Windkraftanlagen stehen, besteht laut Karte des DWD nicht einmal ein gesetzlicher Vergütungsanspruch, weil der Ertrag der Anlagen unter 60% des Referenzertrages liegt.”

    In Ihrer überarbeiteten Schlußfolgerung stimme ich Ihnen im wesentlichen zu und unterstreiche eben, daß die von Ihnen angeführte ‘Schieflage’ durchaus gewollt ist. Ohne Referenzregelung hieße es eben ‘entweder windstark oder gar nicht’.

    Ausschließlich kontraproduktiv ist die Regelung dennoch nicht, denn die weitere Anlagendispersion sorgt auch für eine etwas ausgeglichenere Produktion – zusätzlich auch, weil Binnen-WEA in höherem Maße von kleinräumigen Turbulenzen Gebrauch machen (müssen).

    Davon abgesehen wundere ich mich, wie Sie unverblümt von einer ‘unsinnigen Verspargelung Ostdeutschlands’ sprechen, andererseits das EEG aber ‘natürlich nicht generell infrage stellen’. Wortwahl der Kritik und behauptete Grundüberzeugung passen hier nach meinem Empfinden nicht zusammen.

    Ich betrachte es auch nicht als ‘unnatürlich’, das EEG infrage zu stellen. Nach meinem Dafürhalten gehören Konzepte, die auf der Idee einer vollumfänglichen Aufwandsentschädigung fußen, in den Bereich der (gedeckelten) Forschung und nicht in den der (ungedeckelten) Produktion. Anders ausgedrückt: Die (industrielle) Produktion selbst ist keine Spiel- und Experimentierwiese!
    Was sonst dabei herauskommt, hat IMO etwas skurriles. Man beachte zunächst mal, wie schnell und radikal sich der Schwerpunkt der Betrachtungen gegenüber früher geändert hat – gezieltes Abwürgen von EE -sogar der teuren PV- ist zB jetzt plötzlich ein ganz großer Schwerpunkt. Dann das Lehrgeld offenkundiger Fehlsteuerungen und Überförderungen. Zuletzt die Zuflucht in der wachsenden Tendenz, Vergütungen erst rückwirkend festzulegen und Bestandschutz auszuhebeln, nachdem die Investitionen bereits getätigt wurden (Bsp.: PV, Biomasse), s. http://www.euractiv.de/fileadmin/images/EurActiv_Entwurf_EEG-Erfahrungsbericht.pdf

    Solche Konstruktionen sind einfach prädestiniert für eine Steuerung durch Interessen statt durch Erfolge … die Politik will unbedingt mehr Investitionen aber immer weniger garantieren; siegreich werden also die sein, die die Politik am wirkungsvollsten erpressen können.

  12. #12 Physiker
    11. Mai 2011

    “Nun, Physiker, das hört sich jetzt aber schon deutlich anders an als vorher”
    Meine Beobachtung und meine Schlussfolgerung widersprechen sich überhaupt nicht:
    Wenn es nicht sinnvoll ist eine WKA an eine Stelle zu setzen die knapp unterhalb des 60%-Wertes liegt, dann ist es fast genauso unsinnig eine WKA knapp über 60% zu betreiben.

    “In Ihrer überarbeiteten Schlußfolgerung stimme ich Ihnen im wesentlichen zu und unterstreiche eben, daß die von Ihnen angeführte ‘Schieflage’ durchaus gewollt ist.”
    Dass etwas (von den Grünen) gewollt wird/wurde, macht es nicht unbedingt sinvoll.

    “Ohne Referenzregelung hieße es eben ‘entweder windstark oder gar nicht’.”
    Wie gesagt, die Parameter der Referenzregelung sind falsch gewählt. Übertragen auf die Photovoltaik würde die momentane Situation bedeuten, dass ca. 1/3 der
    Solaranlagen auf Süddächern montiert sind, 2/3 auf Dachseiten die nach Norden zeigen und alles was dazwischen liegt (wie z.B. Flachdächer) überhaupt nicht genutzt wird. Genau diese Situation haben wir momentan bei den Winkraftanlagen – die zahlreichen Flächen, die sich mittelmässig eignen werden momentan gemieden, stattdessen konzentrieren sich die WKA auf Randflächen (mathematisch nennt sich das eine Nullmenge). Und eine dieser Randflächen ist offensichtlich die (willkürliche) 60%-Marke. Die unverhältnismässig vielen Anlagen, die laut Winkkarte genau auf diese Marke gesetzt wurden, werden niemals ohne Förderung auskommen – sie sind eine bizarre Folge einer extremalen Förderung von Standorten, die sich am wenigsten eignen.

    Um zu zeigen, dass es überhaupt nicht viel bedarf um die Förderung in eine richtige/sinnvolle Bahn zu lenken hier ein konstruktiver Vorschlag:
    Die Höhe der Förderung sollte nur bis zum Referenzwert zunehmen um dann bis zur 60%-Marke wieder komplett auf Null abzunehmen (die Gesamtfördersumme sollte bei dieser Umverteilung gleich bleiben).
    Vorteile:
    a) das wirtschaftliche Optimum liegt breit gefächert bei hohen Windausbeuten
    b) auch mittelmässig geeignete Flächen werden genutzt
    c) mit der gleichen Fördersumme würde ein vielfaches mehr an Strom produziert, während gleichzeitig die Anlagenzahl minimiert wird und das Aufstellen ineffizienter Anlagen vermieden wird (Stichwort “Verspargelung”).
    d) die Förderung kann mit der Zeit runtergefahren werden, ohne dass die Mehrheit der Standorte dadurch unrentabel wird.

  13. #13 Physiker
    11. Mai 2011

    “gezieltes Abwürgen von EE -sogar der teuren PV- ist zB jetzt plötzlich ein ganz großer Schwerpunkt.”
    Davon kann keine Rede sein, denn gerade für die “teure” Photovoltaik wird in diesem oder spätestens nächstes Jahr die Netzparität erreicht. Jeder, der sich also kein solches Ding aufs Dach schraubt, verpulvert ab jetzt völlig unnötig Geld (genauso wie bei der weiteren Verwendung von Glühbirnen), und das selbst wenn ab nächstem Jahr die Förderung komplett gestrichen würde.

  14. #14 Wolfgang Flamme
    11. Mai 2011

    @Physiker

    Wenn es nicht sinnvoll ist eine WKA an eine Stelle zu setzen die knapp unterhalb des 60%-Wertes liegt, dann ist es fast genauso unsinnig eine WKA knapp über 60% zu betreiben.

    Das gälte sinngemäß auch für eine 80%-, 120%- oder 20%-Referenzregelung, mithin sind solche kritischen Argumente – Ihren Verbesserungsvorschlag einbezogen – eine Tautologie.

    Aber als EEG-Kritiker bin ich wahrscheinlich ohnehin nicht die geeignete Person, mit der man über verbesserte Inferiorität streiten sollte.

    “gezieltes Abwürgen von EE -sogar der teuren PV- ist zB jetzt plötzlich ein ganz großer Schwerpunkt.”

    Davon kann keine Rede sein, denn gerade für die “teure” Photovoltaik wird in diesem oder spätestens nächstes Jahr die Netzparität erreicht. Jeder, der sich also kein solches Ding aufs Dach schraubt, verpulvert ab jetzt völlig unnötig Geld (genauso wie bei der weiteren Verwendung von Glühbirnen), und das selbst wenn ab nächstem Jahr die Förderung komplett gestrichen würde.

    Ich denke hier liegt ein simples Mißverständnis vor: Nicht das Abwürgen von weiterer installierter Leistung, sondern das Abwürgen der Spitzenproduktion dieser installierten Leistung meinte ich. Und das wird – da die dargebotsabhängigen Schwankungen der PV tatsächlich außerordentlich extrem sind – gerade umso mehr zum Problem, je mehr Leute sich an dieser Produktion aktiv beteiligen.

  15. #15 Wolfgang Flamme
    12. Mai 2011

    PS:
    Weil ich’s oben gerade verlinkt hatte: Wundert sich außer mir niemand, wieso im Jahre 2020 die Photovoltaik angeblich während nahezu aller Stunden des Jahres einen Beitrag liefern soll – auch nachts?

  16. #16 Physiker
    13. Mai 2011

    “Das gälte sinngemäß auch für eine 80%-, 120%- oder 20%-Referenzregelung, mithin sind solche kritischen Argumente – Ihren Verbesserungsvorschlag einbezogen – eine Tautologie.”
    Um diesem Einwurf zuvorzukommen habe ich extra das Wörtchen “fast” verwendet. Es ist schon jammerschade, dass man im 21. Jahrhundert nicht einmal die Auflösung des Pfeil-Paradoxons in Diskussionen voraussetzen kann…
    Deshalb nochmal: Nicht der 60%-Referenzwert selbst ist das Problem, sondern die Unstetigkeit der Förderung bei diesem Grenzwert.

    “Und das wird – […] – gerade umso mehr zum Problem, je mehr Leute sich an dieser Produktion aktiv beteiligen.”
    Wenn das den Strompreis in die Höhe treibt, werden sich Solarzellen für Privatpersonen erst recht lohnen. Ein Selbstläufer. Die damit verbundenen Probleme sind lösbar – und der Markt wird sie von ganz alleine lösen.

  17. #17 Dr. Webbaer
    13. Mai 2011

    Wenn das den Strompreis in die Höhe treibt, werden sich Solarzellen für Privatpersonen erst recht lohnen. Ein Selbstläufer. Die damit verbundenen Probleme sind lösbar – und der Markt wird sie von ganz alleine lösen.

    Aber nur, wenn man Importe bzw. internationale Märkte ausschließt und national denkt.

    HTH
    Dr. Webbaer

  18. #18 Wolfgang Flamme
    13. Mai 2011

    Deshalb nochmal: Nicht der 60%-Referenzwert selbst ist das Problem, sondern die Unstetigkeit der Förderung bei diesem Grenzwert.

    Nein, die Unstetigkeit ist nicht das Problem:
    Wenn man minimalste Gestehungskosten je produzierter Windstrom-kWh als Zielgröße anstrebt, dann gibt’s eigentlich genau eine einzige beste Lösung; vermutlich den windstärksten Standort ausfindig machen und dort die Anlage mit dem besten Preis-Leistungsverhältnis errichten oder etwas ähnliches. Jedenfalls kann jede weitere Anlage gegenüber einem solchen Optimum nur schlechter abschneiden – dh das ganze Kontingent schneidet dann schlechter ab.

    Problematisch wird’s bei Hinzunahme weiterer und weicher Kriterien, wie zB der ‘Vermeidung von Verspargelung’. Da hat die bestehende Referenzlösung einfach nur eine andere Anlagenverteilung zur Folge als der von Ihnen vorgeschlagene weiche Übergang. Aber da ‘Verspargelung’ kein objektiv definierbares Kriterium ist, liegt es im Auge des Betrachters, welche räumliche Dispersion/Konzentration er als ansprechender empfindet und was ihm diese subjektive ‘Verbesserung’ wert ist.

    Wenn das den Strompreis in die Höhe treibt, werden sich Solarzellen für Privatpersonen erst recht lohnen. Ein Selbstläufer. Die damit verbundenen Probleme sind lösbar – und der Markt wird sie von ganz alleine lösen.

    MaW: Augen zu und durch … wird bestimmt irgendwie gutgehen. Es gibt genau drei Personengruppen, die regelmäßig so verfahren: (a) Ideologen, (b) Spekulanten, (c) Idioten.

  19. #19 Physiker
    16. Mai 2011

    @ Wolfgang Flamme:
    “Nein, die Unstetigkeit ist nicht das Problem:”
    Doch. Sonst könnte man an den Karten nicht ablesen, dass windarme Standorte bevorzugt werden.

    “Wenn man minimalste Gestehungskosten je produzierter Windstrom-kWh als Zielgröße anstrebt”
    Das strebt aber niemand an, denn dann würden WKA nur auf Flächen stehen die nulldimensionale Nullmengen bilden. Momentan sind die Förderbedingungen so, dass die meisten WKA nur in der Nähe von eindimensionalen Nullmengen errichtet werden (d.h. dort wo es eine maximale Windausbeute gibt, weil sich dort die Anlagen sowieso lohnen und knapp über dem 60%-Referenzwert, weil dort die Fördersummen maximal sind). Ich plädiere dafür, dass die Förderung im Sinne Ihres obigen Trittin-Zitates so verändert werden, dass zwar Druck von der Küste genommen wird, windstärkere Standorte aber trotzdem noch gegenüber windärmeren bevorzugt werden.

    “Problematisch wird’s bei Hinzunahme weiterer und weicher Kriterien, wie zB der ‘Vermeidung von Verspargelung’.”
    Das ist kein Kriterium, sondern eine Folge meines Vorschlags. Die momentane Anlagendichte in Sachsen-Anhalt zeigt deutlich, dass WKA bei 60%-Referenzwert gebaut werden, während viele doppelt so ergiebige Flächen leer bleiben. Das ist ineffizient und erhöht den Landschaftsverbrauch bei gleicher Leistung (und zwar um einen Faktor 2!). Und der Landschaftsverbrauch (oder salopp die “Verspargelung”) ist sehrwohl messbar und überhaupt kein weiches Kriterium. Ich wundere mich, mit wieviel Einsatz Sie sich darum bemühen, mir in diesem Punkt zu widersprechen, obwohl Sie sowieso eine komplett andere Auffassung zur Förderung von Windenergie haben.
    Also ich bevorzuge es, Inferioritäten zu verbessern, als einfach nur destruktiv rumzunörgeln.

    “MaW: Augen zu und durch … ”
    Warum nicht? Wenn sich energiesparende Notebooks gegenüber stromfressende Desktop-PCs durchsetzen (wenn auch aus anderen Gründen) oder wenn sich plötzlich Gasherde gegenüber Elektroherden durchsetzen würden, dann diskutiert doch auch niemand die Auswirkungen auf das Stromnetz. Was kann schon schlimmes passieren, wenn sich jeder eine Photovoltaikanlage aufs Dach pflanzt weil es sich bald schon alleine für den Eigenbedarf lohnt? Schlimmstenfalls wird einfach die Vergütung gestrichen und die Einspeisung in schwache Netze gedrosselt. Na und? Wo soll da bitteschön ein Problem sein, ausser dass das wohl einen Boom für private Stromspeichertechnologien auslösen wird?

  20. #20 Wolfgang Flamme
    16. Mai 2011

    @Physiker

    Ich wundere mich, mit wieviel Einsatz Sie sich darum bemühen, mir in diesem Punkt zu widersprechen, obwohl Sie sowieso eine komplett andere Auffassung zur Förderung von Windenergie haben.

    Nicht nur zur Förderung von Windenergie …
    Und ich ‘bemühe’ mich auch nicht, Ihnen da zu widersprechen, sondern ich halte Ihre Argumente für unausgereift. Sie überzeugen noch nichtmal mich, einen EEG-Kritiker.

    So finde ich die Vorgehensweise Ihrer Kritik einfach oberflächlich. Sie schauen sich Windkarten an, WEA-Standortverteilungskarten und die Referenzregelungen und Sie wissen sofort, daß Anlagen zB in Sachsen-Anhalt überfördert und fehlplatziert sind und wie man das viel besser machen sollte. Ohne daß Sie diese Behauptung mal repräsentativ anhand ausgeführter Anlagen (Leistung, Standort, Produktionsmengen und Vergütungen gibt’s öffentlich im Standortregister der ÜNB) und beispielhaften Investitionsrechnungen überprüft hätten.

    Die IWES(ISET), die den Anlagenbestand untersucht, kommt schonmal zur Aussage, daß Mittelgebirgsstandorte nach der Küste die ‘zweitbesten’ Windstandorte sind. Ich kann mir gut vorstellen, mit welchen Haken und Ösen diese Darstellung behaftet ist, aber ich stelle sie trotzdem mal zur Diskussion.

    “Wenn man minimalste Gestehungskosten je produzierter Windstrom-kWh als Zielgröße anstrebt”
    Das strebt aber niemand an, denn dann würden WKA nur auf Flächen stehen die nulldimensionale Nullmengen bilden.

    Sie meinen damit wohl das, was ich bereits anführte: Optimale Gestehungskosten böte lediglich die (einzige) perfekte Anlage am perfekten Standort – und darüber hinaus nichts … denn das könnte dann ja nur schlechter werden.

    Ja, genauso habe ich mir das gedacht. Dann haben wir da also drei Hauptkriterien: a) produzierte Windstrommenge b) Kosten dieser Strommenge und c) ‘Verspargelungsaspekte’.
    Und wie kann ich damit nun Ihre Schätzung in etwa nachvollziehen, “Strom aus Windenergie könnte grob geschätzt halb so teuer sein, wenn die Anlagen dort aufgestellt werden, wo sie doppelt so viel Energie liefern”? Und wie kann ich den daraus resultierenden ‘Verspargelungseffekt’ in etwa quantifizieren?
    Rechnen Sie dazu doch endlich mal was überschlägig vor, was ich nachvollziehen oder wenigstens begutachten kann.

    “MaW: Augen zu und durch … ”
    Warum nicht? Wenn sich energiesparende Notebooks gegenüber stromfressende Desktop-PCs durchsetzen (wenn auch aus anderen Gründen) oder wenn sich plötzlich Gasherde gegenüber Elektroherden durchsetzen würden, dann diskutiert doch auch niemand die Auswirkungen auf das Stromnetz.

    Wissen Sie, die Größenordnungen von Veränderungen durcheinanderzuwerfen und zu vernebeln ist eine Argumentationstaktik, aber keine Lösung.
    Sie können die Frage prinzipiell abschmettern oder zulassen: Haben wir bei einer solchen Vorgehensweise ein Problem? Ich meine: Ja. Weil die PV zu Spitzenzeiten ihre mittlere Produktion um fast eine Größenordnung überdeckt. Keine andere Quelle – auch nicht die Windenergie – ist diesbezüglich so extrem. Und das wünschen Sie jetzt ‘als Selbstläufer’ in großem Stil herbei.

    Da würde ich ja nichts sagen, wenn Sie das nachvollziehbar abschätzen und Lösungen anbieten könnten. Aber Ihre erste Reaktion lautet einfach … Ignoranz.

    Was kann schon schlimmes passieren, wenn sich jeder eine Photovoltaikanlage aufs Dach pflanzt weil es sich bald schon alleine für den Eigenbedarf lohnt? Schlimmstenfalls wird einfach die Vergütung gestrichen und die Einspeisung in schwache Netze gedrosselt. Na und? Wo soll da bitteschön ein Problem sein, ausser dass das wohl einen Boom für private Stromspeichertechnologien auslösen wird?

    Was kostet denn dann eine entsprechende ‘private Stromspeichertechnologie’ für PV? Machen Sie mir doch endlich mal ein bischen Hoffnung, daß das nicht nur völlig durchgeknallte Spinnereien sind, die Sie da von sich geben. Nach dem ‘man braucht einfach bloß nicht über Probleme reden, dann gehen sie auch weg’ wär das jetzt mal dringend nötig.

  21. #21 Physiker
    17. Mai 2011

    @ Wolfgang Flamme:
    “So finde ich die Vorgehensweise Ihrer Kritik einfach oberflächlich.”
    Wenn ein Gebiet der Fläche Sachsen-Anhalts, das laut Windkarte nicht für Windkraft geeignet ist, die höchste WKA-Konzentration (nach den Küstenstandorten) aufweist, dann muss sich niemand in Details verlieren um zu sehen, dass da etwas nicht richtig läuft. Selbst Badenwürttemberg und Bayern haben viel grössere Flächen die für Windkraft geeignet sind als Sachsen-Anhalt. Ganz zu schweigen von Hessen, Nordrhein-Westfalen und Rheinland-Pfalz, die im Gegensatz zu Sachsen-Anhalt fast komplett zur WK-Nutzung geeignet sind, aber selbst viel weniger Strom aus Windenergie gewinnen. Bei den Diskrepanzen zwischen den Bundesländern reicht wahrlich eine oberflächliche Betrachtung aus um Kritik zu rechtfertigen.

    “Die IWES(ISET), die den Anlagenbestand untersucht, kommt schonmal zur Aussage, daß Mittelgebirgsstandorte nach der Küste die ‘zweitbesten’ Windstandorte sind.”
    Und warum befindet sich dann im einzigen Mittelgebirge Sachsen-Anhalts so gut wie keine einzige WKA?

    “Rechnen Sie dazu doch endlich mal was überschlägig vor, was ich nachvollziehen oder wenigstens begutachten kann.”
    Also ich brauche keine Rechnung, um zu erkennen ob ein Bundesland überwiegend rot oder überwiegend gelb/grün auf der hochauflösenden DWD-Wind-Karte eingefärft ist. Wenn Sie etwas zum Begutachten wollen, dann sind Sie in einem Forum definitiv fehl am Platz.

    “Wissen Sie, die Größenordnungen von Veränderungen durcheinanderzuwerfen und zu vernebeln ist eine Argumentationstaktik, aber keine Lösung.”
    Die Grössenordung liegt ziemlich genau in dem Bereich des von den Haushaltsgeräten benötigten Stroms – eher noch darunter.

    “Ich meine: Ja. Weil die PV zu Spitzenzeiten ihre mittlere Produktion um fast eine Größenordnung überdeckt. Keine andere Quelle – auch nicht die Windenergie – ist diesbezüglich so extrem.”
    Der Elektroherd & das abendliche Einschalten des Fernsehers (kurz, das Verhalten der Verbraucher) produziert mindestens genauso grosse Leistungsspitzen, ohne dass eine ideologische Diskussion daran entbrennt.

    “Was kostet denn dann eine entsprechende ‘private Stromspeichertechnologie’ für PV?”
    Eine 2kWp Anlage auf dem Dach kann im extremfall 15kWh Strom pro Tag erzeugen. Wenn man 1/3 direkt verbraucht, 1/3 ins Netz speist und 1/3 speichert, dann reichen 6 Autobatterien. Die Batterien selbst würden nur wenige hundert Euro kosten (natürlich würde da noch eine Menge Elektronik dazukommen). Im Jahr ist mit einer 2kWp Anlage etwa mit 2000kWh zu rechnen. Ein Batteriespeichersystem lohnt sich bei den momentan grosszügigen Förderungen natürlich nicht (es lohnt sich ja nicht einmal der Selbstverbrauch), wenn der Strompreis aber in Zukunft steigt, die Preise der Solarpanele und die Vergütungen sinken bzw. ganz gestrichen werden, dann sieht das aber ganz anders aus. Ich sehe also zumindest im Bereich privater Photovoltaik-Anlagen überhaupt keine Probleme.

  22. #22 Wolfgang Flamme
    17. Mai 2011

    @Physiker

    PS:
    Ich habe die Verhältnisse hier mal mit den Daten der Kombikraftwerk-Zeitreihe beispielhaft dargestellt und will sie mal allgemeinverständlich beschreiben:

    Auf der X-Achse ist das Verhältnis von PV-Jahresertrag zum Jahresstrombedarf dargestellt; x=1 bedeutet also, Sie decken den Jahresstrombedarf rechnerisch zu 100% mit PV-Ertrag.

    Die schwarze Kurve zeigt, wieviel dieses PV-Ertrags dann tatsächlich Last deckt; y=1 bedeutet, 100% der PV-Erträge können zur Lastabdeckung herangezogen werden. Ab einer rechnerischen Abdeckung von 15% des Jahresbedarfs durch PV (x=0,15) treten sehr häufig Situationen auf, wo der PV-Leistung keine Last gegenübersteht.

    Die blaue Kurve zeigt den Anteil des Jahresstromverbrauchs an, der dann tatsächlich durch PV gedeckt wird. Werte über 50% (y=0.5) sind auch bei hoher Bedarfsüberdeckung nicht zu erreichen.

    Nehmen wir also den vereinfachten Fall an, daß der durchschnittliche Bundesbürger/Vermieter an die Netzparität (‘Selbstläufer’) glaubt und auf seiner Dachfläche PV mit einer Jahresproduktion errichtet, die seinen Jahresbedarf rechnerisch deckt (x=1). In Wirklichkeit deckt er dann kaum die Hälfte seines Jahresverbrauchs mit PV und muß mehr als die Hälfte seiner Jahresproduktion ungenutzt verwerfen, weil es zu diesen Zeiten keine Lasten gibt, die er damit decken könnte. Wird die PV billiger und der Durchschnittsbürger installiert mehr PV als er eigentlich rechnerisch braucht (x>1) so verbessert das die Lastabdeckung kaum, stattdessen müssen einfach immer größere PV-Erzeugungsmengen als Überschüsse verworfen werden.

    Soweit klar? Also dann … Auftritt der Stromspeichertechnologien. Auch da läßt sich einiges abschätzen/rechnen. Zunächst muß man aber mal sehen, daß diese Speicherung einfach wg. Wirkungsgradverlusten die Produktionskosten erhöht (es wird zusätzliche PV gebraucht, um die Speicherverluste zu decken). Und daß die Speicheranlage und deren Verschleiß zusätzliche Investitions- und Abschreibungskosten verursacht, ohne daß deshalb mehr produziert würde. Das sollte leicht einzusehen sein.

  23. #23 Physiker
    17. Mai 2011

    @ Wolfgang Flamme:
    Ihr letzter Beitrag wäre mindestens einen eigenen Blogbeitrag wert, und ist eigentlich viel zu Schade als dass er hier im Kommentarbereich in der Versenkung verschwindet. Allerdings war mir der Kurvenverlauf bereits bekannt.

    Mein Punkt ist allerdings, dass wir mit privaten PV-Anlagen auf dem Hausdach niemals in diese Grössenordungen kommen können. Die Hausdach- und Fassadenfläche in Deutschland beträgt ungefähr 2000km^2 (erstbester Google-Treffer). Nachdem (aus ökonomischen Gründen) niemand Solarpanele an Fassaden oder an Dach-Nordseiten aufstellt, kommen schätzungsweise nur 10% der Fläche in Frage. Das wären dann 200km^2 – mit 1000 kWh/m^2/Jahr, einem Wirkungsgrad von 20% ergibt sich damit eine maximale Energiemenge von 40 TWh. Nachdem in Deutschland ca. 600 TWh Strom im Jahr erzeugt werden, sind das knapp 7%. Das ist weit davon entfernt irgendwelche Probleme zu machen (oder auch irgendwelche Probleme zu lösen).

    Ganz anders verhält es sich natürlich bei grösseren Solar-/Windkraftwerken die ins Netz speisen sollen. Es ist schon lange bekannt, dass unsere bisherigen Netze sinnvollerweise nicht mehr als ca. 30% fluktuierende Energien aufnehmen können. Aber dieser Wert ist trotz massiven Ausbaus der Erneuerbaren ja immer noch nicht erreicht… und ausserdem war nur von den privaten PV-Anlagen die Rede.

  24. #24 Wolfgang Flamme
    17. Mai 2011

    @Physiker

    (…) dann muss sich niemand in Details verlieren (…)
    Also ich brauche keine Rechnung, um zu erkennen (…)

    Sie verbringen mehr Zeit damit zu begründen, warum es genau richtig ist, die Augen fest zuzukneifen und nicht hinzuschauen, als wenn Sie Ihre Annahmen tatsächlich mal prüfen würden.

    http://www.50hertz-transmission.net/de/166.htm
    2009 Jahresabrechnung Wind
    Mecklenburg-Vorp., 1300 WEA, 1630 VLh/a, Verg. 8,4…8,8ct/kWh (mit/ohne vNNE)
    Sachsen-Anhalt, 2200 WEA, 1460 VLh/a, Verg. 8,4…8,7ct/kWh (mit/ohne vNNE)

    DWD-Windeignungskartentheorie und Nichtguckenmüssenwollen hin oder her, so furchtbar viel schlechter (oder gar völlig ungeeignet) ist Sachsen-Anhalt im Vergleich zu MvP offenbar nicht – und es dauert nur wenige Minuten, das festzustellen. Entsprechend scheint Ihre Behauptung deutlich überzogen, daß die in Sachsen-Anhalt installierten WEA zB in Mecklenburg-Vorpommern den doppelten Ertrag brächten, zumal MVP diesen WEA ja nicht nur Premium-Standorte bieten könnte oder sollte, wegen drohender ‘Verspargelung’.

  25. #25 Physiker
    17. Mai 2011

    @ Wolfgang Flamme:
    “Zunächst muß man aber mal sehen, daß diese Speicherung einfach wg. Wirkungsgradverlusten die Produktionskosten erhöht […]”
    Sobald die Produktionskosten deutlich unterhalb der Stromkosten für Privatkunden liegen (d.h. in wenigen Jahren), gibt es jede Menge Spielraum in Speichertechnologien zu investieren (vorausgesetzt die Rahmenbedingungen werden richtig gesetzt).
    Es ist ja geradezu abzusehen, dass sich die Modulpreise innerhab der nächsten 10 Jahren nochmal halbieren werden (das Potential ist auf jeden Fall da):
    http://www.heise.de/tp/artikel/32/32907/32907_3.jpg
    Und bei einem Verbrauch von 2000 kWh pro Jahr und Einzelpersonhaushalt (entspricht ca. 500€ tendenz steigend) dürfte sich ziemlich bald ein ganz ansehnlicher Spielraum ergeben.

    Wirkungsgradverluste bei Akkus sind nahezu vernachlässigbar. Und die ganzen Probleme, die Akkus bei der Elektromobilität bereiten (Gewicht, Volumen, konstante Temperatur, …), würden beim Speichern von Solarstrom in privaten Haushalten keine Rolle spielen. Würde man zusätzlich die Stromtarife (und warum nicht auch den Einspeisetarif?) dem aktuellen Angebot anpassen, würden sich solche dezentralen Minispeicher gleich in vielerlei Hinsicht für den Beseitzer lohnen und gleichzeitig einen kleinen Beitrag zur Netzstabilität leisten.

    Wie gesagt, einfach den Mark regeln lassen.

  26. #26 Wolfgang Flamme
    17. Mai 2011

    @Physiker

    Die Hausdach- und Fassadenfläche in Deutschland beträgt ungefähr 2000km^2 (erstbester Google-Treffer).

    Wie’s der Zufall halt will, habe ich auch da was gegenzuhalten. Ich habe nämlich vor einigen Monaten eine Untersuchung gemacht, um mal die Angaben zu prüfen, die so zum Thema ‘Flächenversiegelung’ etc offiziell gemacht werden. Dazu habe ich mir mit verschiedenen Verfahren (regelmäßiges Raster + Zufallsverteilung) fast 1500 Koordinaten innerhalb Deutschlands auslosen lassen und mir dazu mit r-project/ RGoogleMaps jeweils 160x160px-Tiles aus GoogleMaps gezogen. Diese Koordinatenpunkte habe ich dann nach groben Kriterien (Dachfläche, Verkehrsweg/Platz) aber eben möglichst exakt (Schattenwurf/Fußpunkt berücksichtigt) klassifiziert. (*)

    Das Ergebnis: ~26 der 1461 Stichproben-Koordinaten zeigen auf eine Dachfläche, der Klassifizierungsfehler dürfte vielleicht +2/-5 betragen. Deshalb wage ich die begründete Schätzung, daß etwa 1,5%…2% resp. ca. 5000km²…7000km² Deutschlands ‘überdacht’ sind. Und das nur in als senkrecht angenommener Aufsicht und Fassadenflächen sind noch gar nicht dabei. Wenn ich dann mit Ihrem 10%-Ansatz weiterrechne, lande ich etwa bei etwa 600 Mio m².

    Hier wird was von 800 Mio m² erwähnt, aber die Übereinstimmung ist wohl mehr Zufall, da niemand genau weiß, ob 80% oder 95% Abschlag der ‘richtige’ Wert ist. Von meinen Koordinaten scheint sogar etwa die Hälfte ‘geeignet’, aber die Stichprobe ist wohl zu klein, um wirklich repräsentativ zu sein.

    Jedenfalls deutet all das darauf hin, daß das geeignete Dachflächen-Potential eher deutlich größer ist als von Ihnen abgeschätzt.


    (*) Hört sich nach mehr Aufwand an, als es ist. Die Klassifizierung ist schnell erledigt – das meiste zeigt klar Wald, Feld + Flur, lediglich ein paar Grenzfälle benötigen besondere Aufmerksamkeit. Wirklich nervig sind die GoogleMaps-Nutzungsbeschränkungen, die einem immer nur den DL von wenigen hundert Bildchen pro Tag gestatten.

  27. #27 Wolfgang Flamme
    18. Mai 2011

    @Physiker

    Sobald die Produktionskosten deutlich unterhalb der Stromkosten für Privatkunden liegen (d.h. in wenigen Jahren), gibt es jede Menge Spielraum in Speichertechnologien zu investieren (vorausgesetzt die Rahmenbedingungen werden richtig gesetzt).

    Das ist wieder so ein Wischiwaschi: Was der Markt nicht leistet, das leisten natürlich die ‘richtigen’ Rahmenbedingungen … und was die Rahmenbedingungen nicht leisten, das leistet dann natürlich der Markt. Mehr muß man ja auch gar nicht wissen, als daß sich auf diese wunderbare Weise automatisch immer alles zum Guten wendet, auch wenn niemand sagen kann, wie.

    Daß in der Praxis dann solche Rahmenbedingungen wie die Referenzstandort-Regelung (die Sie ja heftig kritisieren) auftauchen und die Zukunft für Jahrzehnte fehlformen und zementieren, das haben Sie gerade rechtzeitig wieder vergessen.

    Und nein, es gibt nicht ‘jede Menge Spielraum’.

    Erstens fünktionieren diese Förder- und Umverteilungsspielchen nicht mehr, wenn die breite Masse mitmacht. Dann heißt es nämlich nicht mehr: A fördert das E-Mobil, die PV-Anlage, den Speicher etc von B, sondern A fördert B und B fördert wiederum A. Anders ausgedrückt: Im Schnitt zahlt jeder seinen Kram dann selbst.

    Zweitens – da das anscheinend immer noch nicht angekommen ist – handelt es sich um reine Zusatzkosten und prohibitiv hohe noch dazu. Andernfalls hätten die E-Versorger schon ganze Fabrikhallen voll mit Akkus rumstehen und würden nur noch Grundlastkraftwerke betreiben und die Produktion zu Spitzenstrompreisen (oder kaltstartfähige Minutenreserve) veredeln und vermarkten. Die hätten zusätzlich Skalierungsvorteile, von denen Privatleute nur träumen können – bei Planung, Einkauf, Installation, Überwachung, Betrieb, Wartung und Instandhaltung bis hin zur Entsorgung/Recycling. Und dabei müßten die – wie sie ja selbst sagen – keineswegs auf teure Hochleistungsakkus zurückgreifen, sondern könnten wirklich die preisgünstigsten Ausführungen wählen.

    Was schlagen die E-Versorger aber statdessen vor? ‘Leute, kauft teure Elektromobile und laßt uns einfach damit virtuell spazierenfahren, während das Ding in eurer Garage am Ladestecker hängt. Eigene Akkukapazitäten (selbst die allerpreiswertesten) zu unterhalten wäre uns nämlich immer noch viel zu teuer.’ Das läßt schonmal tief blicken.

    Und bei einem Verbrauch von 2000 kWh pro Jahr und Einzelpersonhaushalt (entspricht ca. 500€ tendenz steigend) dürfte sich ziemlich bald ein ganz ansehnlicher Spielraum ergeben.

    Wirkungsgradverluste bei Akkus sind nahezu vernachlässigbar. Und die ganzen Probleme, die Akkus bei der Elektromobilität bereiten (Gewicht, Volumen, konstante Temperatur, …), würden beim Speichern von Solarstrom in privaten Haushalten keine Rolle spielen. Würde man zusätzlich die Stromtarife (und warum nicht auch den Einspeisetarif?) dem aktuellen Angebot anpassen, würden sich solche dezentralen Minispeicher gleich in vielerlei Hinsicht für den Beseitzer lohnen und gleichzeitig einen kleinen Beitrag zur Netzstabilität leisten.
    Wie gesagt, einfach den Mark regeln lassen.

    Da nehme ich Sie jetzt mal beim Wort. Ich bin ein potentieller Kunde für eine solche Stromspeichertechnologie. Und jetzt rechnen Sie mir das mal vor, wie attraktiv das für mich ist. Wenn da nichts Befriedigendes kommt, dann lasse ich – also der Markt – Sie einfach abblitzen und trete Ihre Behauptungen gleich mit in die Tonne. Sie sind am Zug.

  28. #28 Physiker
    18. Mai 2011

    @ Wolfgang Flamme:
    Kritik zu Ihrer Monte Carlo Methode:
    a) Sehr interessant – mich wundert’s, dass das noch niemand genauer analysiert hat.
    b) Die Aufteilung in Tiles ist unnötig und erhöht nur den Klassifizierungsfehler. Ein genaueres Resultat würde man erziehlen, wenn man einfach nur eine zufällige Koordinate (d.h. einen Punkt) betrachtet und diesen danach klassifiziert ob er Bestandteil eines Daches/eines Waldes/etc. ist.
    c) Sie verwenden viel zu wenig Koordinaten, um eine statistisch signifikante Aussage zu erhalten. Der (2-Sigma) Fehler bei nur 26 Treffern liegt ungefähr bei 10. Der dominierende Fehler bei Ihrer Methode liegt also nicht bei der Klassifizierungsunsicherheit, sondern beim statistischen Fehler (26 ist eben keine “grosse Zahl”). D.h. plausible Werte liegen Ihrer Auswertung zufolge zwischen 16 und 36; das entspricht also einer Dachbedeckungsquote von 1% bis 2,4%. Der Klassifizierungsfehler würde sich nochmal zu diesem (dominierenden) statistischen Fehler dazuaddieren – d.h. der plausible Bereich liegt zwischen 0,7% und 2,7%. Da liegt fast ein Faktor 4 dazwischen. Um einigermassen Aussagefähige Resultate zu erhalten, wird man also wahrscheinlich um eine automatisierte Auswertung nicht drumrumkommen.

    “Jedenfalls deutet all das darauf hin, daß das geeignete Dachflächen-Potential eher deutlich größer ist als von Ihnen abgeschätzt.”
    Mag sein. Aber selbst wenn die nutzbare Dachfläche 3-4 mal so gross sein sollte, ist mein Argument immer noch gültig.

  29. #29 Physik
    18. Mai 2011

    “Erstens fünktionieren diese Förder- und Umverteilungsspielchen nicht mehr, wenn die breite Masse mitmacht.”
    Und wo liegt das Problem? Dann wird die Förderung einfach auf Null heruntergefahren (was eigentlich genau das Ziel jeder Förderung sein sollte).

    “Zweitens – da das anscheinend immer noch nicht angekommen ist – handelt es sich um reine Zusatzkosten und prohibitiv hohe noch dazu. Andernfalls hätten die E-Versorger schon […]”
    Solange es Zusatzkosten sind, lohnt es sich nicht. Und solange es sich nicht lohnt Energie zu speichern, solange haben wir auch kein Problem.

    “Ich bin ein potentieller Kunde für eine solche Stromspeichertechnologie. Und jetzt rechnen Sie mir das mal vor, wie attraktiv das für mich ist.”
    Sie sind kein potentieller Kunde, es sei denn sie machen die Selbstversorgerfantasie zu Ihrem Hobby (wobei es natürlich wesentlich teurere Hobbies gibt…).
    Wie bereits erwähnt, ist das für Sie absolut unattraktiv und wird auch unattraktiv bleiben. Und zwar aus zwei Gründen: 1. Sie haben die Anlage bereits. 2. Offensichtlich stellt die Einspeisung momentan und auch in naher Zukunft kein Problem dar.
    Für die Energieunternehmen ist es noch sehr viel unattraktiver, denn die Stromerzeugungspreise von abgeschriebenen Kraftwerken liegen bei 2-5 Cent/kWh. D.h. wenn die Einspeisung irgendwann die Netze überlasten würde, sobald die kWh über PV für Neuanlagen deutlich billiger wird als der Endverbraucherpreis und falls die Einspeisevergütung radikal geändert wird, dann werden Speichertechnologien für Privatpersonen interessant (und bestimmt nicht für Energieunternehmen). Da Sie anscheinend bereits eine Anlage haben (die sich ohne Förderung niemals lohnen würde), kann das sowieso nicht auf Sie zutreffen.

  30. #30 Wolfgang Flamme
    18. Mai 2011

    @Physiker

    Kritik zu Ihrer Monte Carlo Methode:
    a) Sehr interessant – mich wundert’s, dass das noch niemand genauer analysiert hat.
    b) Die Aufteilung in Tiles ist unnötig und erhöht nur den Klassifizierungsfehler.

    Genauso hatte ich’s gemacht, also nur die ausgeloste Mittelpunktkoordinate klassifiziert (man kann sich den Pin-Zentrumsmarker gleich mit ins Tile einblenden lassen). Um dieses Zentrum aber klassifizieren zu können, braucht man halt noch ein bischen Bild drumherum.
    Daß das außer mir aber bisher noch niemand gemacht haben soll, kann ich aber nicht so recht glauben.

    c) Sie verwenden viel zu wenig Koordinaten, um eine statistisch signifikante Aussage zu erhalten. (…)

    Jepp, das Grundleiden jeder Statistik … ich komme zu denselben Schlußfolgerungen wie Sie, daß das 2sigma- Intervall bei etwa 1,8% +/-0,7% liegt.

    Aber seien Sie auch mal kritisch bzgl. Ihrer Schätzung, die ja überhaupt nicht durch Beobachtungen gestützt wird.

    Lt. Ihrer Annahme, etwa 200km² von 357 000km² Bundesfläche seien PV-geeignete Dachfläche, dürfte ich bei mehreren, jeweils 1500 Stichproben umfassenden Beprobungen im Schnitt kaum einen Treffer je 1500er-Satz landen.

    Ich habe aber in meinem 1500er-Satz etwa ein Dutzend Koordinaten, die auf eine (soweit erkennbar) unverschattete, nicht nach Norden ausgerichtete, also prinzipiell ‘geeignete’ Dachfläche zeigen. Die Wahrscheinlichkeit, daß Ihre Schätzung stimmt und ich in einem 1500er-Stichprobenset ein Dutzend oder mehr geeignete Flächen finde, beträgt etwa 1:200 000 000 000.

  31. #31 Wolfgang Flamme
    18. Mai 2011

    @Physiker

    Eigentlich hatte ich jetzt erwartet, daß Sie Ihre Behauptungen durch eine überschlägige Investitionsrechnung untermauern – Zahlen, die man diskutieren, bewerten, ggfs. einvernehmlich korrigieren könnte. Es gibt stattdessen nur viele Worte und Begründungen, wieso ich sowas eigentlich gar nicht brauche. Alarmstufe Rot – potentieller Interessent droht mit Interesse!

  32. #32 Wolfgang Flamme
    19. Mai 2011

    @Physiker

    Zur Verdeutlichung des PV-Problems habe ich noch zwei Grafiken verlinkt.
    Beide beschreiben die Situation des von Ihnen vorgestellten PV-‘Selbstläufers’ aufgrund Erreichen der Netzparität mit Zeitreihen von http://www.kombikraftwerk.de.

    Die erste zeigt dies in Form einer Vorher-Nachher-Zeitreihe. In schwarz die Lastzeitreihe, skaliert mit y=1=100% als durchschnittlicher Jahresleistung.

    Die privaten Haushalte sind direkt für etwa 1/3 des Stromverbrauchs verantwortlich. Wenn diese sich zur Installation einer PV-Leistung entschließen, die ihren Jahresbedarf rechnerisch deckt, dann ergibt sich die orange dargestellte (Restlast-)Kurve, die aus anderen Quellen gedeckt werden muß. Zusätzliche Freiflächenanlagen sind in dieser Abschätzung noch nicht berücksichtigt. Die Verhältnisse sind hier nochmal in Form einer Leistungsdauerkurve dargestellt.

    Man erkennt, daß sich an der Spitzenlast nichts ändert, dh die zur Deckung der (Rest-)Last benötigten steuerbaren Kapazitäten müssen in unveränderter Höhe zur Verfügung stehen – an dieser Kraftwerkkapazität spart man also trotz zugebauter PV-Kapazität nichts ein.

    Aus Sicht des europäischen Verbundnetzes ergeben sich bisher nicht gekannte Probleme, je nach Sonneneinstrahlung Verschwinden ganze Volkswirtschaften mit Ihrem Bedarf aus dem Verbund, um nur wenige Stunden später wieder mit ihrem vollem Bedarf aufzutauchen. Niemand hat auch nur den kleinsten Schimmer, wie man solche Zustände zuverlässig beherrschen könnte und was das kostet. Die volatile Winderzeugung käme in der Praxis dann nochmal als problemverschärfender Faktor hinzu.

    Also gibt es sehr wohl ein großes Problem mit dem von Ihnen propagierten PV-Selbstläufer, bei dem sich jeder Haushalt aus Netzparitätsgründen PV aufs Dach installieren würde. Weshalb Sie kurioserweise jetzt argumentieren, daß 80% dieser Haushalte das doch nicht machen werden oder machen können, so daß der PV-Beitrag recht marginal und das Problem versorgungstechnisch wohl beherrschbar bliebe. Dann kann die PV aber eben auch nur wenig zu einer erneuerbaren Stromversorgung beitragen.

  33. #33 Physiker
    19. Mai 2011

    “Die Wahrscheinlichkeit, daß Ihre Schätzung stimmt und ich in einem 1500er-Stichprobenset ein Dutzend oder mehr geeignete Flächen finde, beträgt etwa 1:200 000 000 000.”
    Die Schätzung stammte nicht von mir, sondern aus einer enthusiastischen Photovoltaik-Broschüre – weshalb ich eher davon ausgegangen bin, dass ich eine sehr optimistische Schätzung erwischt habe. Tja, war wohl nichts…
    Hier habe ich noch eine Schätzung gefunden:
    http://www.solarserver.de/news/news-7381.html
    Demnach beträgt bereits die geeignete Dachfläche in Deutschland 1760 km^2 und die geeignete Fasadenfläche 584 km^2. (Offensichtlich findet man zu diesem Thema fast jeden Wert, den man sich wünscht…)
    Angenommen diese optimistischen Zahlen (die durchaus mit Ihrer Rechnung in Einklang zu bringen sind) stimmen, dann dürfte die Dachfläche von privaten Haushalten (und um die geht es hier) nur einen Bruchteil von 1760 km^2 ausmachen, denn laut Link entfällt der Grossteil auf Industrie- und öffentliche Bauten. Die Industriestrompreise betragen aber weniger als die Hälfte der Verbraucherstrompreise, d.h. in diesem Bereich spielt die durch die Netzparität ausgelöste Dynamik keine Rolle. Nachdem ich keine Zahlen habe, schätze ich ins Blaue hinein, dass sich die Hälfte der Dachfläche, d.h. 880 km^2 in Privateigentum befindet. Das würde mit der gleichen optimistischen Rechnung (vernachlässigung sämtlicher Verluste, Annahme eines extrem hohen Modulwirkungsgrades) wie vorher zu einem Anteil von 30% an der Gesamtstromerzeugung bedeuten. Laut Ihrer Kurve ist das noch im unproblematischen Bereich.

    “Eigentlich hatte ich jetzt erwartet, daß Sie Ihre Behauptungen durch eine überschlägige Investitionsrechnung untermauern”
    Warum sollte ich das tun, obwohl wir uns einig sind, dass es sich nicht lohnt.

  34. #34 Physiker
    19. Mai 2011

    “Aus Sicht des europäischen Verbundnetzes ergeben sich bisher nicht gekannte Probleme […]”
    Ich sehe immer noch nicht das Problem. Notfalls kann man doch einfach die überschüssigen 10% verwerfen.

    “[…] je nach Sonneneinstrahlung Verschwinden ganze Volkswirtschaften mit Ihrem Bedarf aus dem Verbund, um nur wenige Stunden später wieder mit ihrem vollem Bedarf aufzutauchen.”
    Haben Sie den Lastgang einer einzigen PV-Anlage auf ganz Deutschland hochgerechnet oder haben Sie einen gemittelten Lastgang für einigermassen gleichmässig über Deutschland verteilte Anlagen gewahlt?
    Für mich klingt diese dramatische Hochrechnung eher nach einem Schönwetterwölkchen das gerade die Sonne vor meinem Fenster verdeckt. Selbst auf regionaler/lokaler Ebende dürfte sich da einiges herausmitteln, denn die durchschnittliche Wolkengrösse ist ein wenig kleiner als ganz Deutschland.

  35. #35 Wolfgang Flamme
    19. Mai 2011

    @Physiker

    Danke für den neuen Schätzer … jetzt sieht mein Resultat auch plausibler aus, denn die Schätzung/Hochrechnung (wieso gibt man sowas eigentlich mit drei Stellen Genauigkeit an?) bezieht sich auf Städte. Dort lebt zwar der Großteil der Bevölkerung (~90%), aber eben häufig auch mehrere Haushalte unter einem Dach – und durch die dichte Bebauung kann auch eine größere Verschattung vermutet werden. Werte um/über 2000km² geeigneter Gesamtdachfläche erscheinen also plausibel und sind mit meinem Stichprobenresult ganz gut vereinbar.

    So würde ich auch in meiner Stichprobe geeignet erscheinender Dachflächen etwa die Hälfte aufgrund ihrer Bebauung in eine städtischen/vorstädtische Umgebung verorten, woraus sich mit viel Mut und etwas Mathemagie ein ‘städtischer Schätzer’ von etwa 1000km²-2000km² zurückrechnen läßt – in Übereinstimmung mit den genannten 1760 km².

    Von der Größenordnung her sind wir uns da also etwa einig, und dazu passen jetzt auch die dargestellten Vorher-Nachher-Vergleichskurven (v. 19.05.11 · 11:16 Uhr). Nur wieso bezeichnen Sie die als ‘unproblematisch?

    Die Lage ist doch schon jetzt schwierig. EEG-Erfahrungsbericht 2011 (Entwurf):
    “Maßnahmen zur Netzintegration: Dringende Anpassungen sind unter elektrizitätswirtschaftlichen und Systemintegrationsgesichtspunkten erforderlich. Der rasante Ausbau der Photovoltaik insbesondere in Bayern und Baden-Württemberg stellt auch für die Stromnetze und das Gesamtsystem eine große Herausforderung dar.

    – Photovoltaik-Anlagen wurden bisher technisch so ausgelegt, dass die Anlagen bei einem Netzfehler alle bei der gleichen Netzfrequenz von 50,2 Hz vom Netz gehen. Dies war die Vorgabe in der bisherigen Niederspannungsrichtlinie des Forums Netztechnik und Netzbetrieb des VDE (FNN). Bei rund 17 GW installierter Leistung ist dies relevant für die Sicherheit des Netzbetriebs.

    – Photovoltaikanlagen ab 100 kW installierter Leistung werden ins Einspeisemanagement nach § 6 EEG einbezogen, wie es auch ursprünglich beabsichtigt war. (…) Alle Bestandsanlagen müssen mit einer Übergangsfrist von 6 Monaten nachgerüstet werden.

    – Darüber hinaus ist vorgesehen, neue Anlagen ab 30 kW mit einer Einrichtung zur Abregelung nach § 6 Nr. 1 lit. a EEG verpflichtend auszurüsten, so dass sie in ein neu zu schaffendes, vereinfachtes Einspeisemanagement einbezogen werden können.”

    2009 wurden mit 10GWp etwa 6,6TWh PV-Strom produziert. Die als systemrelevant genannten 17GWp entsprechen etwa 12TWh Jahresproduktion. Der Ärger mit der PV geht also bereits los, wenn diese erst 2% der Jahresstromproduktion stellt. Und Sie behaupten, 30% PV-Anteil sei “noch im unproblematischen Bereich”. Wer soll denn das glauben?

  36. #36 Wolfgang Flamme
    19. Mai 2011

    @Physiker

    Haben Sie den Lastgang einer einzigen PV-Anlage auf ganz Deutschland hochgerechnet oder haben Sie einen gemittelten Lastgang für einigermassen gleichmässig über Deutschland verteilte Anlagen gewahlt?

    Das sind die Zeitreihen von http://www.kombikraftwerk.de – lt. deren Angabe ein räumlich verteilter (ausgeglichener), Querschnitt, den die dort als repräsentativ und hochskalierbar angenommen haben.

    Die ÜNB haben inzwischen auch hochgerechnete, stündliche Stichproben, sogar regional gegliedert, aber erst verfügbar seit letztem Herbst. Da ist also noch kein kpl. Jahr an Daten zusammen.

  37. #37 Physiker
    20. Mai 2011

    “Das sind die Zeitreihen von http://www.kombikraftwerk.de
    Laut Webseite handelt es sich um knapp 20 PV-Grosskraftwerke, die sich vornehmlich in Badenwürttemberg befinden. Bei mehr als einer Millionen privater Kleinstanlagen, die über ganz Deutschland verteilt sind, erwarte ich ein ganz anderes Bild.

    Zur Windenergie:
    a) Ich halte die Winddaten des DWD für seriös.
    b) An den von Ihnen nachgeschlagenen Daten lässt sich meine Behauptung gar nicht testen. Mit den verlinkten Daten müsste das allerdings evtl. möglich sein. Wenn ich Zeit habe, werde ich meine Behauptung mit einem Histogramm überprüfen – allerdings fehlen mir dazu noch die Winddaten in Tabellenform…

  38. #38 Wolfgang Flamme
    20. Mai 2011

    @Physiker

    Bei mehr als einer Millionen privater Kleinstanlagen, die über ganz Deutschland verteilt sind, erwarte ich ein ganz anderes Bild.

    Nun gut, wenn Sie meinen, daß die Ergebnisse des mit Bundesmitteln geförderten Kombikraftwerk-Projekts – anders als dort behauptet – überhaupt nicht repräsentativ und hochskalierbar sind, dann will ich Sie nicht am Meinen hindern.

    Es wäre mir natürlich lieber gewesen, ich hätte eine unabhängige, alternative Datenquelle zur Hand gehabt, um die Repräsentativität auch der PV-Reihe zu prüfen, aber ich hatte halt keine. Und ich stehe auf dem Standpunkt, daß Zweifel begründet werden muß, um berechtigt zu sein. Also habe ich in diesem Fall provisorisch der EE-Lobby Glauben geschenkt. Drehen Sie mir daraus jetzt bitte keinen Strick.

    Zur Windenergie:
    a) Ich halte die Winddaten des DWD für seriös.

    Ich halte sie auch nicht für unseriös. Man tut dort gewiß das Beste, um nach Kräften zutreffend zu modellieren und seriös zu vermuten, ohne tatsächlich auch überall konkret messen zu müssen. Mehr als das war ja auch nicht verlangt.
    Aber ich sehe auch die ÜNB-Bestandslisten und Vergütungen. Und da ich nicht der führende Experte in diesem Gebiet bin, gehe ich zunächst davon aus, daß beides miteinander vereinbar ist und die Erklärung meinem Nichtwissen um zahlreiche praktische Details anzulasten ist. Was glauben Sie?

    b) An den von Ihnen nachgeschlagenen Daten lässt sich meine Behauptung gar nicht testen. Mit den verlinkten Daten müsste das allerdings evtl. möglich sein. Wenn ich Zeit habe, werde ich meine Behauptung mit einem Histogramm überprüfen – allerdings fehlen mir dazu noch die Winddaten in Tabellenform…

    Verzeihung, ich bin anscheinend aus dem Tritt – Ihre Behauptung, meine verlinkten Daten?

    Also mein Primer zu Datenakquisition und Analysekonzept findet sich hier. Das doc ist schon etwas betagt; hilft Ihnen das weiter?

  39. #39 Wolfgang Flamme
    21. Mai 2011

    @Physiker

    Ich will meine Aussage korrigieren, daß die ÜNB noch kein kpl. PV-Einspeisejahr an Daten gesammelt hätten. TenneT TSO (vorm. E.ON) hält – nur für das gesamte Netzgebiet, nicht regional aufgeschlüsselt – 15min-Werte ab 03/2010 zum DL bereit.

    Leider kann man mit der Zeitreihe im Rahmen dieser Untersuchung zunächst wenig anfangen, da die PV-Produktion einer starken, auch sehr saisonal geprägten Wachstumsdynamik unterliegt und die hinter der Einspeisung stehende installierte PV-Leistung nicht mitgeführt wird.

    Hier könnte aber das Stammdatenregister helfen, in dem der Zeitpunkt der Erst-Inbetriebnahme aufgeführt ist. Ich werde also mal schauen, ob ich die Einspeisezeitreihe mithilfe der Stammdaten standardisiert bekomme.

  40. #40 Gunnar
    22. Mai 2011

    @ Wolfgang und Physiker,

    ihr legt ja interessante Argumentationen auf den Tisch,
    auch wenn davon sicher nicht gerade “alles” neu ist.

    Das z.B. die PV-Wechselrichter-Hersteller sich damals, an die vorgegebenen, damaligen
    Netzanschlußparameter halten mussten, ist ja erstmal nicht das verursachte Problem durch PV.
    Sondern es ist ein hausgemachtes, zu lösendes Problem 50,2 Hz Problem, das von gigantisch vielen Leuten, seitens der Netzbetreiber und Wechselrichter Herstellern etc. verschlafen wurde.

    http://www.photovoltaikforum.com/pv-news-f25/das-50-2-hz-problem-t59572-s60.html#p526368

    Und an PV-Daten, da mangelt es doch nun wirklich nicht mehr:

    http://www.sma.de/de/news-infos/pv-leistung-in-deutschland.html

    http://www.photovoltaikforum.com/energiepolitik-f90/arbeitskreis-energiepolitik-t61810-s60.html#p526371
    Sonnenertrag.eu
    http://www.solarlog-home.de/

    http://www.photovoltaikforum.com/in-betrieb-f36/%C3%9Cberblick-ueber-leistungsdaten-ertrag-t49619-s10.html

    Und es wird noch im Arbeitskreis Energiepolitik gearbeitet, die Energiereise will geplant sein.

    http://www.photovoltaikforum.com/energiepolitik-f90/arbeitskreis-energiepolitik-t61810-s60.html#p526371

  41. #41 Gunnar
    22. Mai 2011

    Nachtrag;

    auch Enercon hat noch nicht die “Eierlegende Wollmichsau” erfunden,
    mit der man richtig billig und effizient sonstigen überschüssigen Strom im
    großen Maßstab speichern kann.

    http://www.enercon.de/p/downloads/wb_deutsch_01_2011.pdf

    Es wird geklagt, das u.a. die Windmüller bei übergroßen Stromangebot zeitweise auf zu wenig Stromnachfrage treffen.

    Mir persönlich, ohne es nachgerechnet zu haben, fällt da eine (Teil)-Lösung ein.

    Alle Haushalte, die ihr Warmwasser per Gas, Öl, oder Festbrennstoffkessel erhitzen,
    sollten per elektrischem Heizstab ihr Wasser im Boiler kostengünstig erhitzen.

    Dafür würde im Prinzip nur ein Strompreis/tarifschaltbarer Zähler, und ein el. Heizstab benötigt, um sonst überschüssigen Strom sinnvoll verwerten zu können.

    Gleichzeitig würden D I R E K T wertvolles Gas, Öl bzw. Festbrennstoffe eingespart.

  42. #42 Gunnar
    22. Mai 2011

    Wolfgang und Physiker,

    ihr legt ja interessante Argumentationen auf den Tisch,
    auch wenn davon sicher nicht gerade “alles” neu ist.

    Das z.B. die PV-Wechselrichter-Hersteller sich damals, an die vorgegebenen, damaligen
    Netzanschlußparameter halten mussten, ist ja erst mal nicht das verursachte Problem durch PV.
    Sondern es ist ein hausgemachtes, zu lösendes Problem 50,2 Hz Problem, das von gigantisch vielen Leuten, seitens der Netzbetreiber und Hersteller von Wechselrichter etc. verschlafen wurde.

    http://www.photovoltaikforum.com/pv-news-f25/das-50-2-hz-problem-t59572-s60.html#p526368

    Und an PV-Daten, da mangelt es doch nun wirklich nicht mehr:

    http://www.sma.de/de/news-infos/pv-leistung-in-deutschland.html

    http://www.photovoltaikforum.com/energiepolitik-f90/arbeitskreis-energiepolitik-t61810-s60.html#p526371
    Sonnenertrag.eu
    http://www.solarlog-home.de/

    http://www.photovoltaikforum.com/in-betrieb-f36/%C3%9Cberblick-ueber-leistungsdaten-ertrag-t49619-s10.html

    Und es wird noch im Arbeitskreis Energiepolitik gearbeitet, die Energiereise will geplant sein.

    http://www.photovoltaikforum.com/energiepolitik-f90/arbeitskreis-energiepolitik-t61810-s60.html#p526371

  43. #43 facepalm
    22. Mai 2011

    Neue Woche, neues NIMBY:

    “Ein Endlager wird es in Bayern nicht geben”, sagte Generalsekretär Alexander Dobrindt der Süddeutschen Zeitung.

    http://www.sueddeutsche.de/politik/atomausstieg-stromnetz-betreiber-warnen-vor-blackout-1.1100289

  44. #44 Wolfgang Flamme
    23. Mai 2011

    Alle Haushalte, die ihr Warmwasser per Gas, Öl, oder Festbrennstoffkessel erhitzen, sollten per elektrischem Heizstab ihr Wasser im Boiler kostengünstig erhitzen.
    Dafür würde im Prinzip nur ein Strompreis/tarifschaltbarer Zähler, und ein el. Heizstab benötigt, um sonst überschüssigen Strom sinnvoll verwerten zu können.

    Nein, dafür würde im Prinzip eine Online-Auktionsplattform benötigt, die imstande ist, Dargebotsprognosen und die Bedarfsprognosen von Millionen Verbrauchern in Echtzeit zur Übereinstimmung zu bringen. Denn nur so kann man den resultierenden (und zeitlich veränderlichen) Gleichgewichtspreis ermiteln, bei dem dann auch die ‘richtige’ Verbraucherlast aktiviert wird. Dabei muß das System auch die resultierenden Netz-/Verteilungslasten so einpreisen, daß aus der Vergabe eine verteilnetzverträgliche und n-1-sichere Lastverteilung resultiert. Also ‘im Prinzip’ brauchen wir ‘nur’ eine integrierte Mischung aus EEX mit Millionen Teilnehmern, Congestion Management, Regelenergieausschreibung, Engpaßmanagement, Netzsicherheitsberechnung, Dispatching und Redispatch wie heute, nur alles etwa eine Milliarde mal schneller. Und damit habe ich erst an der Oberfläche der Aufgabe gekratzt.

    Also im Prinzip müssen wir nur die Augen fest zukneifen und behaupten, im Prinzip sei ja alles ganz einfach und man brächte ja ‘nur’… Das gibt uns das gute Gefühl, einen wesentlichen und intelligenten Beitrag zur Problemlösung beigetragen zu haben – das Beste, was man in einer solchen Situation erreichen kann.

  45. #45 Gunnar
    23. Mai 2011

    @ Wolfgang,

    das vorgebrauchte Netz-Hintergrundwissen wirklich in allen Ehren, auf diesem Niveau ist sicherlich noch lange nicht jeder angekommen. Zum Teil mit mich inbegriffen.

    Und wie gesagt, die “Eierlegende Wollmichsau”, die/das nichts kostet und “alles” kann,
    ist offenbar noch nicht erfunden worden.

    Aber das komplexe Thema könnte man vielleicht mit einfachen Mittteln vereinfachen,
    ob mit einer Mischkaulukation, oder mit einem einfachen, einheitlichen, sicheren, z.T. automatisierten, Last/-Tarifmanagment.

    Die großen Versorger lassen sich auch nicht jede Blindleistungs-kWh “einzeln” abrechnen, sondern berechnen die “Netzdienstleistungen” in die normale “Haushalts-kWh” ein.

    Ebenso könnte doch eine Art Mischkalkulation, die am Ende ein Zählertarif schaltet, das zuvor angesprochene

    “…’nur’ eine integrierte Mischung aus EEX mit Millionen Teilnehmern, Congestion Management, Regelenergieausschreibung, Engpaßmanagement, Netzsicherheitsberechnung, Dispatching und Redispatch wie heute, nur alles etwa eine Milliarde mal schneller.”

    ….wohl möglich vereinfachen.

    Die (PV) Wechselrichterhersteller sollen ja auch künftig ihre Geräte bei Netz-überlast auf defenierte x y, z.B. 80 %, 60%, 30%, 0 % Abgabeleistung ferngesteuert gedrosselt werden können.

    Das wäre dann tendenziell weniger nötig, je mehr Gas, Öl und Festbrennstoffkessel (u.a.) ab einer “Überfrequenz” im Stromnetz, bzw. ab einem günstigen Strompreis,
    automatisch den Strom zum (Auf)-heizen verwerten würden.

    Aber auch hier muss es wenigstens etwas intelligent zugehen,
    nicht das man die PV-Wechselrichter komplett alle bei 50,2 Hz abschalten lässt (würden dann bald 20 GW von einer sekunde auf die andere abschalten),

    und gleichzeitig millionen von Heizungen von Gas-auf Strom”befeuerung” umschalten würden….

    Also, gesucht wird doch erstmal “nur” ein sinnvoll/-günstiges Strom-Last-Nachfrage Managment, in den Biogas”regelanlagen”, wie PSKW, wie andere Speicher (Kohle) und
    die Stromverbraucher mit eingebunden werden.

  46. #46 Gunnar
    23. Mai 2011

    hm…ja…die Grammatik…sehe die Fehler fast alle immer nach dem Abschicken.
    Ich hoffe man kann mir *verzeihen* …und den Post verstehen.

  47. #47 Wolfgang Flamme
    24. Mai 2011

    Aber das komplexe Thema könnte man vielleicht mit einfachen Mittteln vereinfachen, ob mit einer Mischkaulukation, oder mit einem einfachen, einheitlichen, sicheren, z.T. automatisierten, Last/-Tarifmanagment.

    Zuerst sollte man den gegenwärtigen Stand und die vermutliche zukünftige Entwicklung des Problems feststellen, bevor man sich auf bestimmte Lösungen/Maßnahmen einschießt.

    Zum gegenwärtigen Stand gibt es eine aktuelle Ecofys-Studie (im Auftrag des BWE erstellt). Demnach ist das Problem derzeit eher punktuell und noch gut verdaulich.

  48. #48 Gunnar
    25. Mai 2011

    Ein Posting ist wohl vom Spamfilter geschluckt worden,
    darum nochmal:

    copy/

    @ Wolfgang und Physiker,

    ihr legt ja interessante Argumentationen auf den Tisch,
    auch wenn davon sicher nicht gerade “alles” neu ist.

    Das z.B. die PV-Wechselrichter-Hersteller sich damals, an die vorgegebenen, damaligen
    Netzanschlußparameter halten mussten, ist ja erst mal nicht das verursachte Problem von, oder durch PV.
    Sondern es ist ein hausgemachtes, zu lösendes 50,2 Hz Problem, das von gigantisch vielen Leuten, seitens der Netzbetreiber und Wechselrichter Herstellern etc. verschlafen wurde.

    http://www.photovoltaikforum.com/pv-news-f25/das-50-2-hz-problem-t59572-s60.html#p526368

    Und an PV-Daten, da mangelt es doch nun wirklich nicht mehr:

    http://www.sma.de/de/news-infos/pv-leistung-in-deutschland.html

    http://www.photovoltaikforum.com/energiepolitik-f90/arbeitskreis-energiepolitik-t61810-s60.html#p526371
    Sonnenertrag.eu
    http://www.solarlog-home.de/

    http://www.photovoltaikforum.com/in-betrieb-f36/%C3%9Cberblick-ueber-leistungsdaten-ertrag-t49619-s10.html

    Und es wird noch im Arbeitskreis Energiepolitik gearbeitet, die Energiereise will geplant sein.

    http://www.photovoltaikforum.com/energiepolitik-f90/arbeitskreis-energiepolitik-t61810-s60.html#p526371

  49. #49 Gunnar
    25. Mai 2011

    Und ggf. Spamfilter von gestern, neuer Versuch;

    Ja nun, in der besagten BWE-Kurzstudie geht ja erst mal um die Energieeinspeisung, insbesondere um die Begutachtung des Einspeisemanagent. Die aktuelle und künftige Energievermarktung ist doch eher eine etwas andere Frage.

    Z.B. könnte ich mir eine gezielte Energieüberschussvermarktung aus PV/Wind vorstellen.

    Die Wind/PV-Betreiber haben aktuell und vor allem in Zukunft wohl nur 2 Möglichkeiten;

    überschüssige Energieproduktion abwürgen (lassen), oder mit billig angebotenen, DIREKT verkauften Strom genügend Stromverbraucher zu aktivieren.
    Eben z.B. Verbraucher als “Vertragspartner” – die per (el.) Heizungsanlagen, Warmwasser im Speicher elektrisch aufheizen, oder die viel zitierten Kühlhäuser, die noch mal ne runde billige Energie zum weiteren herrunterkühlen nutzen.

    E-Autos zum gezielten (Backup)- Laden zu aktivieren…lohnt ja angeblich noch nicht.

    Für die Heizungen müsste dann der Strompreis pro kWh unter dem jeweiligen Gas/Kohle/Pelletspreis liegen, das klingt dann nach Industriestrompreisen von um /-unter 5 Cent/kWh.

    Für den Wind-PV Betreiber muss sich “nur” der Verwaltungs-und Technikaufwand entsprechend lohnen, für den Preis die Anlage auch laufen zu lassen.

    Wenn also z.B. PV-Betreiber in 5 -10 Jahren in Deutschland zwischen 8-15 Cent Einspeisevergütung erhalten, werden bis dato entsprechend auch die Anlagenpreise weiter gesunken sein..

    Aber bis sagen wir 2020 dürften geschätzte 30-50 % der möglichen Stromproduktion in PV-und Wind- Spitzenzeiten, erst recht an Sonn-und Feiertagen abgewürgt werden müssten, oder zu 2 -5 Cent würden neue Stromverbraucher aktiviert.

    Nun im “kleinen Gedacht”:

    die 10 kWp PV Anlage auf einem EFH könnte Energiespitzenzeiten entweder gedrosselt werden, oder der EFH-Besitzer nutzt SELBST den sonst überschüssigen Strom und erhitzt sein EIGENES Wasser im Wasserspeicher seiner (zentral)-Heizung.

    Dafür gäbe es GAR KEIN Verwaltungsaufwand, für den “Stromhandel, Stromverkauf, Gebühr, Verwaltung, Steuer etc….”

    Über den “ungezählten Eigenverbrauch”, “”direkt am Wechselrichter”” , bei nur E I N E M PV-Zweirichtungszähler, ….dazu muss ich mir nochmal in Ruhe Gedanken machen…

  50. #50 Wolfgang Flamme
    26. Mai 2011

    @Gunnar

    Die Wind/PV-Betreiber haben aktuell und vor allem in Zukunft wohl nur 2 Möglichkeiten;
    überschüssige Energieproduktion abwürgen (lassen), oder mit billig angebotenen, DIREKT verkauften Strom genügend Stromverbraucher zu aktivieren.

    Da ‘abgewürgter’ EE-Strom im Zuge der Härtefallregelung genauso vergütet wird wie eingespeister, gibt es derzeit keinen Vermarktungsanreiz.

    Ich sehe auch nicht, wieso das ein Betreiberproblem sein sollte. Die Stromkunden wollen grünen Strom und das erfordert Investitionen. Damit diese in gewünschter Höhe getätigt werden versprechen wir Investoren/Betreibern eine entsprechend attraktive Kapitalrendite. Das alles stottern die Stromkunden dann über eine feste Vergütung 20 Jahre lang ab. Es ist von der Konzeption des EEG her nicht das Problem der Investoren/Betreiber, wenn die Kunden mit dem Produkt nicht immer was anfangen können.

  51. #51 Gunnar
    27. Mai 2011

    @ Wolfgang,

    ich finde es jedenfalls super, nicht immer “hurra rufend freuend” mit dem “EEG-Strom” k r i t i k l o s mit zu schwimmen, sondern u.a. auch eigenen ggf. kritischen Gedanken freien lauf zu lassen.

    Das EEG Prinzip scheint auf eine Art ja zu funktionieren, aber wohl fast niemand sagt es wäre “perfekt”.

    Offenbar bewegt es sich derzeit wirklich zwischen fast perfekt und verbesserungswürdig. Zudem sind einige Passagen sicher als fragwürdig anzusehen.

    Deswegen wird aktuell und fortlaufend an dem EEG-Modell weiter gearbeitet, um es einer fortlaufenden Entwicklung möglichst anzupassen.

    Der Systemdienstleistungsbonus für nachträglich optimierte Anlagen ist ja nur ein Beispiel, wie man (wenigstens) rückwirkend ein verbesserten Anlagenbestand erhalten konnte.

    Anlagen ohne Systemdienstleistungsbonus laufen nun erst mal als Altanlage weiter, bis diese irgendwann, auf kurz o. lang, doch wohl mal gegen eine ganz neue Anlage getauscht wird.

    Wenn heute das EEG nicht perfekt ist, zeigt es doch eine gute, förderungswürdige, aber auch alternativlose Richtung auf.

    Die Frage ist dann doch weniger, ob wir Wind, Wasser, PV/-“Bio”-Energien nutzen möchten, sondern WIE wir diese intelligent, effektiv, sowie auch möglichst naturschonend für uns nutzen können.

    Das “alte” EEG mag “nur” ein Anfang sein….dennoch teile ich auch die Meinung, das an einer sinnvollen, zielführenden Energiepolitik weiter gearbeitet werden muss.

    Um nochmal den Eigenverbrauch ohne gesetzliche Eigenverbrauchsregelung aufzugreifen.

    Wenn an den Wechselrichtern z.B. der Gleichstrom von den Srings gezielt abgegriffen werden könnte, WENN der Wechselrichter bei Netzüberlastung drosseln müsste, dann würde man den Wechselrichter für diese “abgegriffene” DC Energiemenge auch nicht verschleißen.

    Beispeil;

    Wechselrichter “bekäme” eine Signal zur 50%igen Leistungsreduzierung,
    dann müsste man doch nur mit 50% der angeschlossenen Strings thermische Speicher auffüllen können. (Heizstab für DC ?)

    Oder in der Landwirtschaft per DC-Pumpen Äcker bewässern.

    Mein Gedanke jedenfalls bei Bewässerungspumpen und Heizstäben ist, das

    1. bei einer schwankenden Einspeisung die verfügbare Energiemenge gut verwendet werden kann.

    2. der Wechselrichterverschleiß (Verschleiß durch Benutzung) für den “abgezwackten” Teil der Energie umgangen werden könnte
    und die Generatorenergie möglichst komplett genutzt werden kann.

    3.

    ich bemerke gerade, das diese Idee gar nicht mal neu ist:

    http://www.photovoltaikforum.com/sonstiges-f13/schaltung-zur-ausschlieslichen-pv-strom-nutzung-he-t23564.html

  52. #52 Wolfgang Flamme
    28. Mai 2011

    Gunnar, wenn ich auf’s EEG gucke, sehe ich eben diese Entwicklungen hier (Basis 2000, mit 2% p.a. Preisbereinigt):
    http://i171.photobucket.com/albums/u304/wflamme/EEGEntwicklungVerguetungueberStrommenge.png
    10 Jahre EEG haben uns also unterm Strich deutlich steigende Jahresproduktion zu deutlich steigenden EEG-Strompreisen beschert.

    Was Ihre Ideen angeht, mag ich mich gar nicht in Details verzetteln. Der Deal des EEG ist klar, die Stromkunden stottern das bei den Erzeugern pro erzeugter kWh ab. Also darf der Stromkunde die Anlieferung der zu verrechnenden Leistung nicht verweigern, weil es gerade Sinn und Zweck des EEG ist, dieser Anlieferung Vorrang und die vereinbarte Vergütung zu gewähren. Wird die Annahme der Leistung dennoch verweigert, hat der Produzent Anrecht auf Entschädigung. So einfach ist das.

  53. #53 Gunnar
    29. Mai 2011

    “Wird die Annahme der Leistung dennoch verweigert, hat der Produzent Anrecht auf Entschädigung. So einfach ist das”

    Z.B. diesen Punkt könnte man so definieren, das EEG-Strom natürlich weiterhin bevorzugt werden sollte,

    aber in EEG-Überschusszeiten (mehr EEG-Strom als Strombedarf)
    der Endverbraucherstrompreis auf ein Level sinkt, sodass mit
    Strom (Warmwasser) aufbereitet wird oder Äcker kostengünstige
    Zusatzbewässerung erhalten kann.

    Für die Überschusszeiten, den den der EEG- Strom verscherbelt wird, für die wenigen Stunden im Jahr erhalten dann die EEG-Betreiber anteilig z.B. nur 10-50 % der Vergütung.

    Beispiel;

    innerhalb von 356 Tagen MÜSSTE 1 % der EEG-Strommenge abgeregelt werden, ODER der Strompreis aus den EEG-Anlagen würde in DEN Überschusszeiten auf 10-50% fallen.

    Für die Windkraftanlagenbetreiber würde das heißen, das deren Überschüsse anstatt voll mit 8-9 Cent, in besagten Zeiten z.B nur mit 4-5 Cent vergütet würden,

    und PV-Anlagen anstatt 35 Cent nur mit 10-20 Cent Vergütung erhalten, für die paar Jahresstunden, in den EEG-Stromüberangebot herrscht. Anstatt die Anlagen abzuschalten, lohnt es viell. mehr, bei kostengünstiger Energie mehr Stromverbraucher zu aktivieren.

    Flexible Stromtarife….ja nun der Mehraufwand müsste dann lohnenswerter sein,
    als das EEG-Modell wie wir es derzeit haben.

  54. #54 Wolfgang Flamme
    29. Mai 2011

    Z.B. diesen Punkt könnte man so definieren, das EEG-Strom natürlich weiterhin bevorzugt werden sollte,

    Gunnar,

    was immer Sie auch jetzt innovativ zu ändern wünschen, es wird ein NEUES Vertragsverhältnis mit diesen Stromproduzenten sein – ein neues Angebot, das Stromproduzenten annehmen können oder eben nicht. Bestehende Vereinbarungen auf Basis des EEG, die einfach auf der Ablieferung von el. Energie und deren festgelegter Vergütung beruhen, kommen demanach allenfalls hinzu, da alte Vereinbarungen Bestandsschutz genießen.

    Anders ausgedrückt: Die Gesellschaft kann nicht einfach in bestehende Verträge mit Produzenten neue Klauseln hineinschreiben, weil es sonst keinerlei Rechtssicherheit bzgl. überhaupt irgendeines Vertrages zwischen Individuum und Gesellschaft gäbe. Im Grunde bedeutet daher jede EEG-Novelle die Aufkündigung eines Angebots und die Offerte eines neuen. Und das ‘Erfolgsmodell EEG’ ist eigentlich, daß das Ding jedesmal inhaltlich neu ist, aber trotzdem immer wieder unter ‘EEG’ firmiert. Ich fürchte, das hat bei Ihnen den Eindruck hinterlassen, daß man eigentlich alles neu ausgestalten könne, ohne am ‘Wesen des EEG’ zu rühren.
    Und das ist richtig. Änderungswünsche wie Ihrer zeigen einfach, daß buchstäblich jedes grundlegende Konzept beim EEG zur Disposition steht. Weil der Gesetzgeber einfach nie dauerhaft mit dem leben kann, was er da gerade angerichtet hat.

    Und jetzt zeigen Sie mir doch mal die Belege dafür, daß Ihre Phantasien endlich das Gelbe vom Ei sind oder hablbwegs dicht dran … oder wenigstens besser als das, was wir haben. Sie schmeißen hier haufenweise mit Zahlen um sich und liefern doch keine einzige nachvollziehbare, begründete Abschätzung oder Rechnung dazu ab. Kommt da noch irgendwas, was einer Diskusson lohnt?

  55. #55 Gunnar
    2. Juni 2011

    Mal in Kürze,

    ein neues Tarif-Leistungsmodell kann/sollte möglichst für

    1. für neue Anlagen zählen,
    2. für Anlagen, die nach den 20 Jahren aus dem “alten-ursprünglichen EEG” fallen
    3. für lohnenswert, sinnvoll aufzurüstende Anlagen, ähnlich wie beim SDL-Bonus über die EEG-Umlage

    Somit ist das auch Betreiber/Bestandschutzverträglich.

    @ Wolfgang,

    solange wir bis auf die Kohlehalde und großen (Bio)—— Gasbackups keine nennenswert großen Energiespeicher haben, sollte möglichst Wind/Wasser/PV-Energie
    eingespeißt werden solange Wind weht, und die Sonne scheint.

    Der Restlast verbleibt dann erst mal noch bei der Kohle und dem Gas.

    Auch künftig, wohl auch in 10 oder 20 Jahren, wenn wir bis dato keine gigantischen Backups aufgebaut haben die richtig “billig” und sauber arbeiten, ist es wohl sinnvoller
    Wind und PV-Energie möglichst preisgünstig, und nach “Wettterlage” einzuspeisen
    sowie, wie gesagt die Restlast über Gas und Kohle abzuwickeln.

    Wichtig(er) erscheint mir die Frage, wie wir sinnvoll alte PV-Anlagen, die noch nach ihrer 20-jährigen Betriebszeit relativ günstig Strom produzieren können, vergüten lassen wollen.

    Die Betreiber könnten ja auf Eigenstromverbrauch umschalten, und nur den REST einspeisen, der dann für eine vereinbarte preisgünstige Summe X verkauft wird.

    (Auch)-Altanlagen könnten ggf. gereinigt werden, ein bis dato aktuellen Wechselrichter bekommen, wenn die Rahmenbedingungen weiter stimmen.

    Um auf eine andere Frage zurück zu kommen.

    Wenn man ein Energiemodell sucht, in dem Wind-und PV-Energie sich nach dem Strombedarf richten sollen, müsste die Energie gespeichert werden. Fazit, das lohnt derzeit nicht im großen Stil.

    Offenbar ist das EEG-Modell nicht das “schlechteste”, das sich aber doch in den Details wie Vergütung – Speicherbonus, Eigenverbrauch, Netzanforderungen etc.
    http://www.sma.de/de/news-infos/aktuelle-nachrichten/news/news/975.html

    fortlaufend am aktuellen Stand der volkswirtschaftlichen, umweltschonenden Kraftwerkstechnik orientieren sollte.

  56. #56 Wolfgang Flamme
    3. Juni 2011

    Ich hake nochmal nach: Woher kommen diese Zahlen aus Ihrem Beispiel (vom 29.05.11 · 21:20 Uhr)?

    Weiter:

    (…) sollte möglichst Wind/Wasser/PV-Energie eingespeißt werden solange Wind weht, und die Sonne scheint.

    Da man zu Zeiten fehlenden Dargebots sowieso nicht einspeisen kann, bliebe nur noch die Option, zu Zeiten bestehenden Dargebots nicht einzuspeisen. Ich interpretiere die Einlassung also so, daß man die Einspeisung möglichst nicht beschneiden sollte.

    Aber das ist trivial. Es war doch von Anfang an klar, daß eine Beschneidung der EEG-Produktion nicht ohne Not vorgenommen werden würde. Die Umformulierung von Selbstverständlichkeiten bringt die Diskussion nicht voran.

    Der Restlast verbleibt dann erst mal noch bei der Kohle und dem Gas.

    Na sicher, wo auch sonst? Hydro ist zu schwach und die teuren KKW will man ja nicht mehr und würde sie auch nicht mit häufigen Lastwechseln ermüden oder ihre Auslastung reduzieren wollen. Das ist also auch trivial.

    Es gibt allerdings noch einen Punkt, der auch erwähnt werden sollte: Die Netzführung.
    Derzeit ist das klar (Master-Slave); leistungsfähige, steuerbare Großkraftwerke übernehmen diesen dominanten Part und kleinere dezentrale Produzenten synchronisieren sich dann in Frequenz und Phasenwinkel auf und stützen. Je mehr EE-Leistung im Netz ist, umso mehr konventionelle Leistung wird verdrängt … aber eben auch deren dominante Netzführung. Der übergreifende Netz-Sollzustand wird ohne übergreifende Führung aber individell bzw regional verhandelbar, es kommt zu überregionalen Phasenfehlern mit hohen Ausgleichsströmen, Leitungsüberlastungen und -abschaltungen und der Verbund zerfällt. Und es nicht nur so, daß niemand weiß, wie man das verhindern soll, es weiß auch niemand, wie man ein dezentrales Netz ohne starke zentrale Führung überhaupt schwanzstarten kann, wenn der Fall mal eingetreten ist. Wir haben am 04.11.2006 gesehen wie schwierig es war, ein Netz mit dezentralen Erzeugern schwarzzustarten und da war nur ein Bruchteil der dezentralen Erzeugungskapazität involviert, die wir anstreben.

    Auch künftig, wohl auch in 10 oder 20 Jahren, wenn wir bis dato keine gigantischen Backups aufgebaut haben die richtig “billig” und sauber arbeiten, ist es wohl sinnvoller Wind und PV-Energie möglichst preisgünstig, und nach “Wettterlage” einzuspeisen sowie, wie gesagt die Restlast über Gas und Kohle abzuwickeln.

    Jaja, das hatten wir doch schon.

    Wichtig(er) erscheint mir die Frage, wie wir sinnvoll alte PV-Anlagen, die noch nach ihrer 20-jährigen Betriebszeit relativ günstig Strom produzieren können, vergüten lassen wollen.

    Warum ist das schon jetzt wichtig und welche Situation werden wir in 15, 20 Jahren vorfinden, so daß Sie glauben, auf diese Frage schon heute eine richtige Antwort finden zu können?

    Wenn man ein Energiemodell sucht, in dem Wind-und PV-Energie sich nach dem Strombedarf richten sollen, müsste die Energie gespeichert werden. Fazit, das lohnt derzeit nicht im großen Stil.

    Mit der abschließenden Formulierung bin ich zwar nicht ganz einverstanden und würde einfach sagen, daß die Strommenge, die man ökonomisch sinnvoll speichern kann, marginal bleiben wird (wenn nicht wirkliche Wunder geschehen) aber sonst: OK.

    Offenbar ist das EEG-Modell nicht das “schlechteste”, das sich aber doch in den Details wie Vergütung – Speicherbonus, Eigenverbrauch, Netzanforderungen etc. (…) fortlaufend am aktuellen Stand der volkswirtschaftlichen, umweltschonenden Kraftwerkstechnik orientieren sollte.

    Naja, in einer Softwaresteuerung eine Stufe durch eine Rampe zu ersetzen würde ich nicht als proaktiv initiierten Durchbruch in ein neues Zeitalter feiern, aber ich hab ja noch im letzten Jahrtausend studiert und weiß die strategische Relevanz dieser Innovation daher wohl einfach nicht zu würdigen.

  57. #57 Wolfgang Flamme
    3. Juni 2011

    “(…) man ein dezentrales Netz ohne starke zentrale Führung überhaupt schwanzstarten kann”
    Es muß doch was mit Freud zu tun haben … r und n sind auf der Tastatur doch auffällig weit entfernt. 🙂

  58. #58 Gunnar
    4. Juni 2011

    Mal in Kürze Teil 2;

    Wenn ich schreibe,
    “Fazit, das lohnt DERZEIT nicht im großen Stil.”

    dann ist das doch keine abschließende, sondern (noch) offene Bewertung für die Zukunft, richtig?!

    Die Zahlen von meinem besagten Beitrag vom 29.05.11 stehen aber wohl möglich fest, aber nicht, AB WANN es nach derzeitigem Ausbauziel so kommen wird.
    Wenn der Wind/PV Energieanteil größer wird, werden auch die Energiespitzen größer werden, solange es keine besagten Energie-strom-speicher im gigantisch großen (und billigen sowie umweltschonenden) Maßstab gibt.
    Oder wie gesagt Überschusstrom z.B. thermisch-günstig für 1-3 Tage zu speichern
    könnte kosten/nutzbringend sein, da die th. Speicher schon vorhanden sind.

    Dabei macht es auch wohl kaum viel Sinn, wenn wir nur an wenigen Tagen im Jahr wirklich große Wind/PV-Energieüberkapazitäten an Strommengen haben, NUR für genau für DIESE paar spitzen Speichermengen aufzubauen.

    Wenn das gehen würde (“gigantisch viel” Energie, kurzfristig ein zu speichern), dann müssten wir auch mit ein paar Gewitterblitzen im Jahr auch unsere “Speicher” befüllen können.

    Daran glaube ich auch (noch) nicht. Darin liegt auch meine Abschätzung, das wir für ehr seltene Naturereignisse (Starkregen für Wasserkraftwerke, Sturm “für” Windkraftanlagen, oder bei zu viel Sonne auf PV-Anlagen an sommerlichen Feiertagen …. ) nicht unbedingt
    speziell dafür Energiebackups aufbauen soll(ten), um EEG-Überstromproduktion irgendwo “teuer” zu puffern.

    Wenn also jährlich der Wind/PV Anteil gegenüber Kohle/Gasverstromung steigt,
    dann steuern wir (ohne (neue)/billige Backups) irgendwann auf eine jährliche MÖGLICHE EEG-Strommenge von 1-x %, die abgereltet werden muss, oder nutzt den Strom u.a. thermisch.

    Der Technikmehraufwand (el. Heizstab) plus ggf. eine Zählertarifumschaltung etc. sollte dann aber günstiger sein, als Energieüberschüsse abzuregeln.

    So, nun warum ist es so wichtig, sich jetzt schon Gedanken zu machen, was mit der künftig installierten Anlagenleistung 20 oder 60 Gigawatt PV, so wie mit der 30-60 Gigawatt Windkraftanlagenleistung passiert, wenn diese Anlagen jeweils nach 20 Jahren aus ihrem laufenden EEG fallen.

    Man muss sich ja schon heute vorwerfen lassen, warum wir nicht bessere Lösungen schon früher gefunden haben, seih es in politischen oder technischen Fragen.

    Bei der Stromerzeugung bleibt also schon jetzt die Frage, wie ein Stromnetz vorwiegend mit millionen, kleinen Einspeiseanlagen zu starten seih. Die Frage ist berechtigt, und kann doch wohl in “Teil-Netzen” getestet werden.

    Eine Einschaltregel-Lösung sollte ggf. von “oben” erarbeitet werden, damit z.B. die Wechselrichterhersteller aus der PV-und Windenergiebrange, sowie die Biogas/Wasserkraftlanlagenhersteller Vorgaben erhalten können, wenn es nötig ist.

    Mein Vorschlag im Fall der Fälle (Netz weg)

    Eine komplette Lasttrennung über die Umspannwerke/Verteilerstationen,
    ein oder alle PSKW werden synchron geschaltet,
    Verbraucher und (gleichzeitig) PV-Wechselrichter nach und nach hinzugefügt, Wasserkraftanlagen….weitere Verbrauchernetze … Windkraft etc kommt nach und nach hinzu.

    Ich gehe jetzt mal unwissender weise davon aus, das es frequenzabhängige Schaltungen gibt, um “im Betrieb” wieder auf externe, noch laufende Fernleitungen / “Auslandsschnittstellen” schalten zu können.

    Wolfgang, …. welche Probleme soll es denn sonst beim gezielten schwarzstarten geben, oder ist ein gezieltes schwarzstarten dann kein schwarzstarten mehr?

  59. #59 Wolfgang Flamme
    5. Juni 2011

    @Gunnar

    Wenn ich schreibe,
    “Fazit, das lohnt DERZEIT nicht im großen Stil.”
    dann ist das doch keine abschließende, sondern (noch) offene Bewertung für die Zukunft, richtig?!

    Ja richtig. Wenn Sie allerdings damit einen Punkt machen wollen, dann kann sich jede Umweltsau mit diesem Argument einen Freibrief für eine profitable Gegenwart und eine prospektiv ideale Zukunft verschaffen. Da Sie so ein Schema nicht etablieren wollen, argumentieren Sie besser nicht so und machen den Punkt nicht.

    Die Zahlen von meinem besagten Beitrag vom 29.05.11 stehen aber wohl möglich fest, aber nicht, AB WANN es nach derzeitigem Ausbauziel so kommen wird.

    Oh bitte, in diesem Sinn steht jede denkbare Prognose womöglich fest, es ist nur völlig unklar, wann sie eintreffen wird.
    Es lohnt sich nicht, auf solchen Rhabarber Lebenszeit zu verschwenden.

    Darin liegt auch meine Abschätzung, das wir für ehr seltene Naturereignisse (Starkregen für Wasserkraftwerke, Sturm “für” Windkraftanlagen, oder bei zu viel Sonne auf PV-Anlagen an sommerlichen Feiertagen …. ) nicht unbedingt
    speziell dafür Energiebackups aufbauen soll(ten), um EEG-Überstromproduktion irgendwo “teuer” zu puffern.

    Diese Einschätzung teile ich ja, aber wieso sollte sich eine ‘Tauchsieder-Infrastruktur’ und eine ‘Tauchsiederaktivierungs-Infrastruktur’ deshalb für diese wenigen Jahresstunden lohnen? An spinnerten Ideen zum Thema ‘es wird gespart, koste es was es wolle’ herrscht doch nie Mangel.

    Bei der Stromerzeugung bleibt also schon jetzt die Frage, wie ein Stromnetz vorwiegend mit millionen, kleinen Einspeiseanlagen zu starten seih. Die Frage ist berechtigt, und kann doch wohl in “Teil-Netzen” getestet werden.

    Zunächst geht es wohl darum, ein Schwarzstarten-müssen überhaupt zu vermeiden. Also um eine gesicherte Stromversorgung, die etwa so zuverlässig ist wie unsere. Selbstverständlich muß man diese auch wiederaufrichten können, wenn der Fall mal eingetreten ist. Ich habe dazu bisher noch keine Arbeit gefunden, die frei von fundamentalen Fehlern war bzw keine, wo man solche Simulationsdaten zur Reproduktion und Prüfung veröffentlicht hätte. Überspitzt: Es gibt x MB Prospektmaterial zu solchen Simulationen und 0 MB Daten und Datendokumentation.

    Wenn Sie diesbezüglich anderer Meinung sind, müssen Sie mir das schon belegen. Das wäre ja wohl nicht schwer angesichts der herrschenden 100%-EE-Euphorie.

  60. #60 Gunnar
    5. Juni 2011

    Nun,
    natürlich wäre es falsch zu sagen, “Strom zu speichern wird in Zukunft nicht wirtschaftlich gehen.”

    Allein die Aussage ist heute schon widerlegt, z.B. beim Akkuswerkzeug

    Das ständige suchen nach Steckdosen…Verlängerungskabel ziehen etc…ist oftmals in der Praxis teurer, als sofort mit einem Akkugerät, z.B. auf der Baustelle zu arbeiten.

    Die Preis/Leistung – Akkuentwicklung bleibt ja nicht stehen, auch wenn diese im Rahmen des Möglichen extrem schwer weiterkommen zu scheint.

    SMA bietet z.B. Hausstorm-interne “Blackout-Bocker” an, die möglichst so ausgelegt werden, das der Nachtstrom über Akkus, sowie die Tagesleistung möglichst über PV gedeckt werden kann, sowie “überschüssiger” PV-Strom ins Netz gespeist wird.

    http://www.sma.de/de/produkte/backup-systeme.html

    Die Tauchsiederkultur ist wirklich etwas komplex, je länger man darüber nachdenkt.

    Bei möglicher PV-Überstomleistung werden derzeit ehr die Freiflächen/-Großanlagen gedrosselt, und die Kleinanlagen unter 30 kWp laufen erstmal weiter.

    Somit haben gerade die potentiellen Haushalte mit einem Warmwasserboiler, erst mal noch wenig mit drosselung oder abschaltung ihrer Anlagen zu tun.

    Das Thema Stromheiz-tauchsieder Kultur wird aber wohl erst dann interessant werden können, wenn flexible Strompreise bei entsprechend aufgebauter Infrastruktur auch beim Haushalts-Endkunden eingeführt werden.

    Das also NICHT nur um gelegentliches Stromüberangebot besser verwerten lassen zu können, sondern um insgesamt ein besseren Ausgleich zwischen Angebot und Nachfrage aufzubauen. So sollte ein größeres Angebot fallende Preise auslösen, und bei fallenden Preisen laufen Gerätschaften wie Kühlaggregate, el. Heizanlagen etc. automatisiert etwas länger.

    Die Weichenstellungen für ein vernünftiges Energiekonzept müssen halt heute entwickelt und aufgebaut werden, wenn wir uns morgen nicht unnötig beschweren möchten.

    “Überspitzt: Es gibt x MB Prospektmaterial zu solchen Simulationen und 0 MB Daten und Datendokumentation.”

    Daran wird wohl gerade im Arbeitskreis Energiepolitik gearbeitet,
    da sind schon die ersten kb dokumentiert…

    http://www.photovoltaikforum.com/energiepolitik-f90/arbeitskreis-energiepolitik-t61810-s140.html#p535101

    und ein offener Brief wurde vom BSV an unsere Bundeskanzlerin geschickt,
    http://www.solarwirtschaft.de/fileadmin/content_files/110601_Brief.pdf

    Das stehende, mit den Freiflächenanlagen, finde ich aber nicht förderungswürdig,
    solange es sich nicht um “vorbelastete” Konversationsflächen handelt.

  61. #61 Gunnar
    6. Juni 2011

    So,
    ich hatte vor ein paar Tagen ein Thread im Photovoltaikforum im Bezug zur Bundesnetzagentur gestartet, in der Hoffnung etwas mehr Licht in die jeweiligen Aussagen zu bekommen.

    Weder das Schwarzstarten scheint ein Problem zu sein, da es wohl auch nach wie vor GEREGELT funktioniert ein Netz neu zu starten, noch würde es die besagten Phasenfehler bedingt durch Wind/PV-Einspeiser geben.

    Und die Störung 2006 …. ein normaler Ausfall?

    Wer hat nun recht, 2 Meinungen über wohl nur eine korrekte Sachlage.

    Mein Namenskollege hat das hier so wiedergegeben bzw. versucht es richtig zu stellen:

    http://www.photovoltaikforum.com/pv-news-f25/dreht-die-bundesnetzagentur-durch–t63563-s10.html#p535145

  62. #62 Wolfgang Flamme
    7. Juni 2011

    Allein die Aussage ist heute schon widerlegt, z.B. beim Akkuswerkzeug

    Na natürlich, Kfz-Batterien, Elektro-Gabelstapler, Notebooks, Mobiltelefone, Digitalkameras, Elektrorasierer, Tischstaubsauger und Notbeleuchtungen nicht zu vergessen.

    Aber von ‘sich lohnen’ kann man da doch nicht sprechen. Beim Akkuschrauber zB ist der Strombedarf so gering im Verhältnis zu den Arbeitskosten, daß sich die Stromkosten durch die Speicherung ruhig vervielfachen dürfen; ähnliches gilt für Notebooks. Bei der EDV-USV sind die zu schützenden Daten ungleich wertvoller als die Kosten der Stromspeicherung, ähnliches gilt für den Nutzen der Notbeleuchtung usw.

    Die Akkuspeicherung ist eben auf solche Anwendungsfälle beschränkt, wo die Stromspeicherkosten eine marginale Rolle spielen bzw. wo Alternativen unpraktisch oder gar unerschwinglich sind (zB entlegene Berghütten ans Netz bringen oä). Aber für solche Anwendungen werden unsere ~500TWh/a ja auch nicht verbraten. Wäre Stromspeicherung lohnend, dann wären die Anwendungsfälle gerade nicht auf spezialisierte Ausnahmefälle begrenzt.

    Abgesehen davon, daß ich bzgl solcher Kostenangaben und -entwicklungen skeptisch bin (welcher technologische Durchbruch wird denn da zB innerhalb der nächsten 10 Jahre für die sehr ausgereifte Bleiakku-Technologie erwartet?) werden die Kosten gespeicherter Energie mindestens doppelt so hoch sein wie die der originären Produktion.

    Was dieses Tauchsiederkonzept betrifft, so würde das – wenn es sich überhaupt irgendwie lohnte – zuallererst im Bereich BHKW/Fernwärme eingesetzt. Solange sich da in der Richtung rein gar nichts tut, braucht man über aufwendige bürgernahe Mikrosparkonzepte doch nicht ernsthaft nachdenken:
    http://www.scienceblogs.de/frischer-wind/2009/04/windkraft-und-solarhologramme-via-webcam.php#comment30444

    PS:
    Zum Thema Netzstabilität verweise ich hierauf, insbesondere auf Executive Summary sowie Kap. 6+4 aber das ganze Dokument ist lesenswert:
    https://www.entsoe.eu/fileadmin/user_upload/_library/publications/ce/otherreports/Final-Report-20070130.pdf

    Bzgl. der Kritik an meiner Darstellung des Netzführungsproblems in dem verlinkten Forum ist deutlich herauszulesen, daß der dort von meinem Kritiker behauptete Punkt einer weitgehend dezentral organisierten Netzführung und -produktion sich in vielfältiger Weise gerade als unerwartet problematisch gezeigt hat und damit die Notwendigkeit zentraler und koordinierender Führung unterstrichen wird (automatisierungstechnisch ist es natürlich nicht korrekt als Master-Slave-Verhalten zu bezeichnen). Hier wäre seitens der Kritiker mehr Problembewußtsein anzuraten, zumal das Problem durch Bagatellisierung nicht verschwinden und sich mit zunehmender dezentraler Erzeugung deutlich verschärfen wird. Bei Bedarf kann ich ausführlich zitieren, das wird aber dann ein sehr, sehr langes Posting werden.

    Ein interessantes Detail ist dabei die vorgenommene Schuldzuweisung an das E.on-Personal, die einfach unrichtig und unlogisch ist.
    Wenn das Abschalten einer Leitung in Netzzerfall und Blackout mündet, dann war der Netzzustand von dem Abschalten definitionsgemäß nur n-sicher. Ein n-1-sicher betriebenes E.on-Netz hätte ein Abschalten oder den Ausfall dieser Leitung also in jedem Fall – auch im Fall einer Fehlentscheidung – verkraften müssen. Man kann also sagen, daß die Abschaltung der Leitung den bereits vorher unzulässigen Betriebszustand des Netzes lediglich unübersehbar machte.

    Daß sich alle TSOs trotzdem widerspruchslos auf ein personelles Bauernopfer geeinigt haben deutet IMO darauf hin, daß diesbezüglich alle Dreck am Stecken haben, was mir ein wenig Sorge bereitet.

  63. #64 Wolfgang Flamme
    7. Juni 2011

    Und zuletzt noch ein Link zum theoretischen Potential der Akkuspeicher:
    http://www.thebulletin.org/web-edition/columnists/kurt-zenz-house/the-limits-of-energy-storage-technology

  64. #65 Physiker
    8. Juni 2011

    @Wolfgang Flamme:
    “Und zuletzt noch ein Link zum theoretischen Potential der Akkuspeicher:”
    Es macht zwar nur einen Faktor 2-5 aus, aber in diesem Pamphlet wird nicht berücksichtigt, dass Verbrennungsmotoren in Fahrzeugen keinen Wirkungsgrad von 100% erreichen. Ausserdem wiegt der Benzintank auch noch einiges. Wenn man dann noch bedenkt, dass Benzinmotoren und weiteres Zubehör (Katalysator, Auspuff, Lichtmaschine, Kühlsystem, etc.) viel schwerer und voluminöser sind als Elektromotoren, dann bin ich mir gar nicht mehr so sicher, ob das Gesamtsystem “Elektroauto” in Zukunft nicht doch irgendwann einmal viel leistungsfähiger sein wird als unsere heutigen Autos.

  65. #66 Gunnar
    8. Juni 2011

    “zumal das Problem durch Bagatellisierung nicht verschwindet und sich mit zunehmender dezentraler Erzeugung deutlich verschärfen wird. Bei Bedarf kann ich ausführlich zitieren, das wird aber dann ein sehr, sehr langes Posting werden.”

    Danke für das Angebot,

    wenn Du dafür keine Zeit und Arbeit scheust, sage ich, sagen wir User hier, schon mal ein ganz großen Dank dafür.

    Da sich aber auch der Wechselrichterhersteller SMA auch intensiv an einer besseren Netzintegration beteiligt, kann die Entwicklungsabteilung das Thema vielleicht auch mal kommentieren.

    http://www.sma.de/de/news-infos/aktuelle-nachrichten/news/news/975.html
    http://www.photovoltaikforum.com/sma-netzgekoppelte-wechselrichter-f47/neue-niederspannungsrichtlinie-t62009-s10.html

  66. #67 Wolfgang Flamme
    8. Juni 2011

    @Physiker

    Es wird umgekehrt auch nicht berücksichtigt, daß ein nicht unerheblicher Teil der Akkuenergie dazu benötigt wird, den Akku selbst spazierenzufahren, daß auch ein Akku irgendeine solide Umhüllung braucht, daß der Akku die Energie ja nicht beinhaltet, sondern nur zwischenspeichert … erzeugt wird sie – durchaus verlustbehaftet – woanders.

    Aber interessant fand ich die Betrachtung eigentlich, weil sie mal die absoluten physikalischen Grenzen der Akkuentwicklung aufzeigt, statt unbegrenzte Machbarkeitsphantasien zu beflügeln.

  67. #68 Wolfgang Flamme
    8. Juni 2011

    Gunnar,

    besteht denn wirklich Bedarf, alle diesbezüglichen Aussagen der Untersuchung explizit herauszustellen? Hat hier wirklich jemand Schwierigkeiten, die dort zu finden?
    Einen Nachweis – wenn er bereits allgemein akzeptiert wird – muß ich ja nicht unbedingt nochmal führen.

    Das generelle Problem mit Wind und PV ist nunmal, daß sie – auch in Kombination – sehr spitzenbetont (oder halt bis hin zu gar nichts) produzieren, was sich mit den Lastverläufen eben überhaupt nicht zur Deckung bringen läßt. Es sind also entweder absurd große Speicher oder aber absurd große Lastverlagerungen erforderlich.

  68. #69 Physiker
    9. Juni 2011

    @Wolfgang Flamme:
    “Es wird umgekehrt auch nicht berücksichtigt, daß ein nicht unerheblicher Teil der Akkuenergie dazu benötigt wird, den Akku selbst spazierenzufahren,”
    Dazu finden Sie hier eine interessante Grafik:
    http://www.inference.phy.cam.ac.uk/withouthotair/cA/page_261.shtml

    “daß auch ein Akku irgendeine solide Umhüllung braucht,”
    Doch. Das wird im Artikel angesprochen. Gerade dieses Argument muss auch dafür herhalten, dass die Leistung eines Akkus niemals die theoretisch maximale Leistung erreichen kann. Das ist zwar richtig, aber es hinterlässt einen tendenziösen Eindruck wenn man dieses Argument nur bei den Akkus zulässt und auf der anderen Seite nicht einmal erwähnt, dass Treibstoff auch einen Tank braucht und aus thermodynamischen Gründen nicht zu 100% in mechanische Energie umgewandelt werden kann.

    “daß der Akku die Energie ja nicht beinhaltet, sondern nur zwischenspeichert … erzeugt wird sie – durchaus verlustbehaftet – woanders.”
    Wenn man den Nachhaltigkeitsgedanken ernst nimmt, dann gilt ersteres auch für die fossilen Energieträger. Letzteres gilt unabhängig davon insbesondere für Erdöl, für das momentan (wenn ich mich richtig erinnere) ca. 1l aufgewendet wird um 7l zu fördern. Tendenz steigend.

    “Aber interessant fand ich die Betrachtung eigentlich, weil sie mal die absoluten physikalischen Grenzen der Akkuentwicklung aufzeigt, statt unbegrenzte Machbarkeitsphantasien zu beflügeln.”
    Das stimmt, aber die Energiedichte alleine ist eben nicht die alles entscheidende Grösse – es ist mindestens genauso wichtig, wie aufwändig es ist, die darin enthaltene Energie nutzbar zu machen. Die Energiedichte ist für Raketen die entscheidende Grösse, weil dort der Gewichtsanteil des Treibstoffs alles dominiert. Bei Passagierflugzeugen und LKWs und Frachtschiffen spielt die Energiedichte eine wichtige Rolle. Aber bei PKWs kann eine um den Faktor 10 kleinere Energiedichte ausgezeichnet kompensiert werden, wenn andere Komponenten dafür wegfallen.

    Um meinen Standpunkt kurz zusammenzufassen:
    Heutige Elektoautos sind in vielen Bereichen unattraktiv. Das physikalische Potential ist aber absolut ausreichend um Verbrennugsmotoren zu verdrängen oder sogar zu übertrumpfen. Denn wenn es wirklich nur auf die Energiedichte ankommt, dann frag’ ich mich, warum denn inzwischen nicht alle mit nuklearbetriebenen PKWs unterwegs sind.

  69. #70 Gunnar
    9. Juni 2011

    Wolfgang, ich denke die Problemfelder sind erkennbar und nachvollziehbar.

    “Es sind also entweder absurd große Speicher oder aber absurd große Lastverlagerungen erforderlich.”

    Daraus könnte man ein “entweder” – “oder” herauslesen. Vermutlich ist ein “sowohl als auch” besser möglich.

    Also mehr Speicher so wie eine Lastverteilung wenn dies erforderlich ist, SO WIE ein gutes Kohlehalden-Backup.

    Stromsparen wenn wenig Sonne/Wind, und Strom verbraten wenn viel Sonne/Wind.

    Naja, die Themen hatten wir hier und anderswo ja schon öfters, und gibt da noch diverse Problemfelder…

  70. #71 Gunnar Kaestle
    12. Juni 2011

    @Wolfgang Flamme: “Bei Bedarf kann ich ausführlich zitieren, das wird aber dann ein sehr, sehr langes Posting werden.”

    Ich bitte darum. Das mit den “überregionalen Phasenfehler” habe ich nicht verstanden. Power System Stabiliser wirken dem entgegen und so ein Pendeldämpfungsgerät soll kein dezentraler Regler sein?

    Gruß,
    Gunnar

  71. #72 Wolfgang Flamme
    12. Juni 2011

    Ich bitte darum.

    Na gut, dann werde ich wohl wie versprochen den Blindenhund spielen müssen und die Sache in Angriff nehmen. Explizit für einen bis zwei Gunnar, der da partout nichs gesehen haben will.

    Das mit den “überregionalen Phasenfehler” habe ich nicht verstanden.

    Eine elektrische Maschine im Generatorbetrieb (oder ein Wechselrichter, der einen Generator simuliert) leistet seine Arbeit am Netz, daß er sieht. Das ist im Fall dezentraler Erzeugung eben nicht das Verbundnetz, sondern das dezentrale Verteilnetz, an dem er angeschlossen ist. Das ist der Grund, warum Verbundnetze mitunter in Teilnetze zerfallen können, weil eine zentrale Führung fehlt.

    Das ist doch schon intuitiv verständlich, finde ich: Hätten wir ausnahmslos armdicke Kupferquerschnitte verlegt, so könnte der Gesamtzustand des Verbundes an jeder Steckdose verläßlich abgegriffen und abgeschätzt werden. Aber da das aus ökonomischen Gründen nicht praktikabel ist, wird diese Sicht regionaler beschränkt. Und Ereignisse wie am 4.11.2006 markieren einfach einen kritischen Übergang, bei dem die zur Aufrechterhaltung des Verbundnetzes erforderlichen Kommunikationsquerschnitte (=Übertragungsleistungs-Querschnitte) ein kritisches Maß unterschreiten.

  72. #73 Gunnar Kaestle
    13. Juni 2011

    Und was hat der Zerfall des Netzes mit der Phase zu tun? Der “überregionale Phasenfehler” hat für mich den gleichen akademischen Wert wie der wie ein dreiphasiger Fluxkompensator: klingt toll, hat aber keine Aussagekraft.

    Eine Netzauftrennung passiert meist (wie am 4.11.2006 geschehen) durch eine Überlastung (zuviele Amps per Strang), die dann zu einem Abschaltung der Leitung führt und sich der Strom dann gemäß Kirchhoff andere Wege sucht, die dann ggf. in kaskadierender Weise auch überlastet werden. Dass dann jedes Teilnetz eine eigene Frequenz findet und die PMUs fröhlich auseinander laufen, ist ein Symptom, kein Grund für den Schlamassel.

    Eine zentrale Führung hilft dabei überhaupt nicht, genauso wenig wie beim Verlieren der Synchronität nach einem zu langen, generatornahmen Kurzschluss. Das geht alles viel zu schnell und die jeweiligen Funktionen in den Schutzgeräten sind dezentral organisiert, d.h. Leitungs- und Generatorschutz warten bis zum Auslösen nicht auf ein Signal von oben, sondern entscheiden selbst auf Basis lokaler Messwerte.

    Gruß,
    Gunnar

  73. #74 Wolfgang Flamme
    16. Juni 2011

    Gunnar, gucken Sie Sich mal in der UCTE-Analyse auf PDF-Seite 22 die Abb. 5 und 6 an.

    Erstmal sehen Sie, daß vom Folgeausfall Landesbergen-Wehrendorf bis zum endgültigen Netzzerfall immerhin 15s vergangen sind. Berücksichtigt man die Zeit zwischen den ersten Überlastungs-Warnmeldungen und dem endgültigen Auseinanderfall, dann war’s sogar eine knappe halbe Stunde. Die Behauptung, es ginge ja sowieso alles viel zu schnell ist doch wirklich nicht glaubwürdig – in dieser Zeit kann man sehr wohl einiges unternehmen … vorausgesetzt, man hat eben die Kontrolle…

    (…) These are examples of insufficient TSO control over the generation behavior. The TSO control usually applies to generation connected to the transmission grid since traditionally the generation connected to the distribution grids has not had a significant impact on the power system as a whole. However, the recent rapid development of dispersed generation, mainly wind farms, has changed the situation dramatically. The wind generation in some areas significantly influences the operation of the power system due to its high share in the generation and intermittent behavior dependent on weather conditions.
    The negative role of wind generation performance on November 4 was evident. Due to uncontrolled behavior of wind generation it was not possible to maintain a sufficient power exchange balance in some German control areas (VE-T, East part of E.ON Netz) after split. Fortunately, these control areas were connected to control areas of Poland and the Czech Republic where the absorption of the “unintentional” wind generation was possible by decrease of the power output of thermal generation (however creating additional critical network problems).”

    Weiterhin sehen Sie sofort, daß nicht erst ‘dann jedes Teilnetz eine eigene Frequenz findet’, nachdem es gekracht hat – tatsächlich gibt es schon vor dem Zerfall kleine, systematische Frequenzabweichungen zwischen den Teilnetzen.

    “At this time, there was a loss of synchronism between the three areas.”

    Und das bedeutet nichts anderes als daß die Phasenlage der Teilnetze auseinanderdriftet, bis es zum Bruch kommt. Ich habe Ihnen das hier mal aus den digitalisierten Verläufen der Abb 5 zurückgerechnet.

    Und jetzt mal aufrichtig:
    Ich habe nach diesem Kommentar von Ihnen nicht das Gefühl, daß Sie den Report hinreichend aufmerksam studiert haben (um’s mal wahnsinnig freundlich auszudrücken). Deutlicher als im UCTE-Zitat oben kann man ja offiziell kaum noch werden. Und das ist Ihnen trotzdem irgendwie komplett entgangen, so daß Sie ausdrücklich um eine Sammlung von Zitaten bitten, welche ich in dem Report für wesentlich (betreffend dezentrale Erzeugung) halte? Bitte nehmen Sie erstmal vorlieb mit dem, was Sie jetzt schon haben, dann fühle ich mich weniger unnötig beschäftigt und meine Laune hebt sich.

  74. #75 Gunnar
    14. Juli 2011

    Also danke Wolfgang nochmals dafür, thematisch mehr licht ins dunkel zu bringen.

    Aber was war denn nun wieder in Hannover los, als gerade am 13-14 Juli nachts der Strom ausgefallen war. Die Medien haben da Stündlich etwas anderes im Radio berichtet. Mal seih eine Trafo/Umspannstation ein Schalter defekt gewesen, mal ein oder mehre Kraftwerke mit Problemen behaftet, und mal sei ein Über/-Unterspannungsproblem irgendwo gewesen.

    Zuletzt hab ich noch etwas gehört, von einer gewollten verschiebung auf “kapazitive Leistung”, die jedoch nicht ausgereicht hätte…

    Gibt es dazu nun schon offizielleres, anstatt (um)-gedeutete Presseberichte?

  75. #76 Gunnar
    14. Juli 2011

    Also danke Wolfgang nochmals dafür, thematisch mehr Licht ins Dunkel zu bringen.

    Aber was war denn nun wieder in Hannover los, als gerade am 13-14 Juli nachts der Strom ausgefallen war. Die Medien haben da Stündlich etwas anderes im Radio berichtet. Mal seih eine Trafo/Umspannstation ein Schalter defekt gewesen, mal ein oder mehre Kraftwerke mit Problemen behaftet, und mal sei ein Über/-Unterspannungsproblem irgendwo gewesen.

    Zuletzt hab ich noch etwas gehört, von einer gewollten verschiebung auf “kapazitive Leistung”, die jedoch nicht ausgereicht hätte…

    Gibt es dazu nun schon offizielleres, anstatt (um)-gedeutete Presseberichte?

  76. #77 Gunnar Kaestle
    1. Oktober 2011

    “Phasenfehler” ist nach wie vor eine ungebräuchliche bis falsche Vokabel. Phasenverschiebung hat etwas mit Strom und Spannung und Blindleistung und Leistungsfaktor zu tun.

    Im Übertragungsnetz (R/X klein) findet die Leistungsübertragung statt, wenn am Anfang und am Ende einer Leitung zwischen den Phasoren eine Winkeldifferenz, der sogenannte Leitungswinkel auftritt. Die Leistungsübertragung ist proportional zum Sinus des Leistungswinkels. Das ist mit kleinen Winkel noch fast linear, bei größeren Winkeln wird’s stark nichtlinear und mehr als P_max bei 90° geht nicht.

    Die integrierte Frequenzabweichung ist ein Winkel und das zeigt auch den selbstregelnden Effekt. Wenn ein Netzbereich aufgrund einer Inter-Area-Oszillation mit ein paar Milli-Herz langsamer dreht, dann spannen sich die Phasenwinkel auf und es stellt sich ein Leistungsfluss ein, der dem Ganzen entgegen wirkt. Wichtig ist eine ausreichende Dämpfung (z.B. mit den oben angesprochenen Power System Stabilizern) damit das Netz nicht ewig hin und her pendelt. Wenn die eine oder andere Leitung bis zum Anschlag belastet ist, dann sind auch die Pendelungen auf Grund der Nichtlinearitäten nicht mehr ganz so einfach zu beherrschen.

    Das Bild mit dem “Phasenfehler” ist im Prinzip zu gebrauchen, aber es heisst nicht Phasenfehler, sondern Winkeldifferenz zwischen zwei Netzknoten, die mit einer PMU gemessen werden können. http://en.wikipedia.org/wiki/Phasor_measurement_unit
    Diese Winkeldifferenz regelt sich im ungestörten Zustand von alleine aus. Das Netz ist ein großes, schwingendes, elektromechanisches System. Der Ausgleich im Synchronverbund findet automatisch statt – wichtig ist allerdings eine genügend große Dämpfung. Das geschieht aber mit lokalen Messgrößen.