Energie - Deutsche Physikalische Gesellschaft

Energie - Deutsche Physikalische Gesellschaft

Arbeitskreis Energie Energie Herausforderungen der Energiewende Vorträge auf der DPG-Frühjahrstagung Münster 2017 Herausgegeben von Hardo Bruhns Ar...

7MB Sizes 0 Downloads 0 Views

Recommend Documents

pressetipps - Deutsche Physikalische Gesellschaft
20.03.2017 - Anreise / Plan: http://dresden17.dpg-tagungen.de/tagungsort/anreise.html ..... Stuart Kauffman, University

Wissenschaftsmagazin - Deutsche Physikalische Gesellschaft
29.08.2013 - kamura auf Galliumnitrid. Das besaß zwar hoffnungsvolle physikalische Eigenschaf ten, aber fast alle Physi

Φ Österreichische Physikalische Gesellschaft - Arbeitskreis Energie
16.10.2014 - 9020 Klagenfurt. T +43 1 5248611. 1230 Wien. T +43 463 525 1420. M +43 664 5422038. T +43 676 7722 132. E n

DPG-Frühjahrstagung 2011 - Deutsche Physikalische Gesellschaft
01.09.2010 - Universität Halle [email protected] ... Dr. Jörg Schilling (Uni Halle) federführender .

Reise zum Urknall - Deutsche Physikalische Gesellschaft
Die kosmische Strahlung können wir mit einer Funkenkammer sichtbar machen. Jedes Mal, wenn ein geladenes Teilchen durch

Österreichische Physikalische Gesellschaft
28.07.2014 - FAKT. T44. Measurement of the decay B0s -> Ds- pi+ at the Belle experiment. David Bricher, Felicitas Andrea

DPG-PM 25-2009 HdP - Deutsche Physikalische Gesellschaft
dorfer Künstlers Thomas Schönauer bewundern. Öffnungstag ist der 21. September. Schülerwettbewerb, Mitmach-Experimente u

Ausschreibung für das Jahr 2017 - Deutsche Physikalische Gesellschaft
Stern-Gerlach-Medaille. Die Stern-Gerlach-Medaille ist die höchste Auszeichnung ... Der Robert-Wichard-Pohl-Preis wird

österreichische physikalische gesellschaft 42. jahrestagung
für Wissenschaft und Forschung, der Technischen Universität Wien .... Dr. M. HELM (Institut für Halbleiterphysik, Univer

Energie intelligent managen - Fraunhofer-Gesellschaft
Eicke Weber, Sprecher der Fraunhofer-Allianz Energie und ... Energie. Für konstante Spannung im Netz sorgen zwei neue ..

Arbeitskreis Energie

Energie Herausforderungen der Energiewende Vorträge auf der DPG-Frühjahrstagung Münster 2017 Herausgegeben von Hardo Bruhns

Arbeitskreis Energie in der Deutschen Physikalischen Gesellschaft

Vorträge auf der DPG-Tagung 2017 in Münster

Herausgeber: Arbeitskreis Energie (AKE) in der DPG Prof. Dr. Hardo Bruhns Meliesallee 5 40597 Düsseldorf E-Mail: [email protected]

Die Grafik des Einbandes wurde mit freundlicher Genehmigung der Autoren unter Verwendung von Abbildungen aus einigen Beiträgen dieses Bandes gestaltet.

Energie Herausforderungen der Energiewende

Vorträge auf der DPG-Frühjahrstagung in Münster 2017 Arbeitskreis Energie in der Deutschen Physikalischen Gesellschaft Herausgegeben von Hardo Bruhns Bad Honnef, August 2017

Frühjahrstagung des Arbeitskreises Energie in der Deutschen Physikalischen Gesellschaft Münster, 27. bis 29. März 2017

Haupt- und Fachvorträge Invited Talks

Inhaltsverzeichnis / Table of Contents



Sessions and invited talks




A model-based analysis of the opportunities and constraints of enhanced energy sector integration H. Gils


Power to Gas Konzepte für die Energiewende F. Graf, D. Timos


Überschussstrom und Stromspeicherung unter den Bedingungen intermittierender Produktion F. Wagner


Deutschlands Klimapolitik: Höchste Zeit für einen Strategiewechsel M. Frondel


Cation-Alloying as a Pathway to Reproducible Solution-Based Preparation of Efficient Metal Halide Perovskites Solar Cells M. Saliba, E. Unger


Smart Rotors for Cost Efficient Wind Turbines J. Tessmer, Z. Montano


Geological CO2 storage – concepts and state of knowledge S. Lüth, A. Liebscher


Research for the safe management of nuclear wastes: The special case of "problematic" radioactive waste streams N. Shcherbina, L. Klaß, G. Deissmann, D. Bosbach



Energy density, lifetime and safety not only an issue of lithium ion batteries M. Winter, A. Friesen, F. Schappacher


Fusion Research: Recent Progress and Perspectives A. J. H. Donné


Civil Nuclear Power - The Cyber Security Perspective G. Gluschke


Safeguards and Non-Proliferation experience from an IAEA perspective T. Rauf




These proceedings present written versions of invited talks given at the sessions of the Energy Working Group (AKE) during the Spring and Annual Conference 2017 of the German Physical Society held in the premises of the University of Münster (Westphalia). The viewgraphs of presentations can be accessed at the website of the Energy Group http://www.dpg-physik.de/dpg/organisation/fachlich/ake.html (please follow the link to the archive of the Energy Group). My thanks extend to all those who provided contributions to this volume. Der vorliegende Band versammelt schriftliche Ausarbeitungen von Vorträgen des Arbeitskreises Energie auf der Frühjahrs- und Jahrestagung 2017 der Deutschen Physikalischen Gesellschaft in den Räumen der Universität Münster. Leider ist es nicht gelungen, von allen Vortragenden Manuskripte zu erhalten. Die Präsentationsfolien der meisten Hauptvorträge können auf der Webseite des Arbeitskreises über: http://www.dpg-physik.de/dpg/organisation/fachlich/ake.html (von dort gelangt man zum Archiv des AKE) eingesehen werden. Allen, die zu diesem Sammelband beigetragen haben, sei an dieser Stelle sehr herzlich gedankt. Düsseldorf, im August 2017

Hardo Bruhns


Introduction The programme of the Energy Working Group (Arbeitskreis Energie, AKE) at the 2017 Conference of the German Physical Society in Münster encompassed energy technologies in geological, chemical and physical research, of engineering developments, renewable energy and storage systems as well as socioeconomic and (nuclear) safety and security aspects1. The public evening lecture of the conference “Früher war alles besser – aber nicht die Batterien”, presented by M. Winter (Münster), was part of the AKE programme. The major implementation of renewable energy generation is with wind energy (session AKE 6) and photovoltaic systems (session AKE 2). In both areas substantial progress in physics and engineering developments can be reported. In Germany, energy generation from wind and PV has been growing beyond the level of 1/3 of annual electricity consumption. While this is in part a consequence of maturing technologies the key drivers are highly generous German regulatory mechanisms for subventioning the mass market of selected energy technologies. The evident inconsistencies with regard to a balanced European market approach and an effective CO2 mitigation are discussed in session AKE 3. A major problem of wind and PV is their intermittent and strongly fluctuating power generation which imposes a substantial reconsideration of how the entire electricity system could be operated (session AKE 7). Growing concerns regarding imminent trespassing of grid design limits make the development of (electrical) large-scale storage solutions an utmost urgency: main current R&D foci are (Li-Ion) batteries, fuel cells (session AKE 1), furthermore chemical storage concepts and sector coupling (session AKE 8). Politically, there is a strong effort for evolving individual electrical mobility rapidly towards the global mass market. For air traffic, commercial aircrafts will probably for a long time continue to depend on hydrocarbon combustion fuels. Improving their environmental balance is therefore a key driver for research into alternative combustion fuels (session AKE 9). Fuel cells already play a role for alimenting aircraft in-board systems and may soon be seen in propelling smaller aircrafts (session AKE 1). Even with strong incentives for renewable energy systems, and, in parts of the world, fission systems, it is not obvious that the transition of the global energy supply away from fossil fuels will sufficiently fast and complete for curbing the climate change. Options for sequestration and (geological) storage of CO2 (CCS) continue therefore to be under discussion regarding their potential for mitigating the atmospheric green-house effect (session AKE 10). Fusion research is pursued internationally within a future perspective for clean and safe electricity generation (session AKE 4) neither affected by diurnal or seasonal fluctuations nor by weather or adverse climatic impacts. In the long run it may become the essential safe and clean energy option for complementing renewables. Meanwhile, the use of fission energy will continue to be pursued in many parts of the world and for various purposes. R&D and competence in decommissioning and handling of radioactive waste (session AKE 5) is therefore a most relevant issue today and in the future – also for countries which are abstinent to fission energy. The same holds for nuclear safety, security and safeguard aspects (session AKE 11, a joint AKE/AGA session).


The sequence of AKE sessions reflects in part the availability of speakers due to their other commitments.


Sessions and invited talks AKE 1 Electrochemical Storage: Batteries and Fuel Cells 1.1 Energy Density, Lifetime and Safety - Not Only an Issue of Lithium Ion Batteries — ∙Martin Winter, Falko Schappacher, Markus Börner, Alex Friesen 1.2 Fuel Cells - A complement and an Alternative to Batteries on the Path to Application — ∙K. Andreas Friedrich AKE 2 Renewable Energy: Photovoltaics 2.1 Roadmap and roadblocks for multi-junction device technology based on metal halide perovskites — ∙Eva Unger AKE 3 Economics of Energy Supply and Use 3.1 Die Defizite der Energiewende — ∙Manuel Frondel AKE 4 Future Perspectives: Fusion Energy Research 4.1 Fusion Research - recent progress and perspectives — ∙Antonius Donné AKE 5 Nuclear Decomissioning and Storage 5.1 Research for the safe management of nuclear waste — ∙Dirk Bosbach AKE 6 Renewable Energy: Wind Energy 6.1 Smarte Rotoren für kosteneffiziente Windenergieanlagen — ∙Jan Tessmer 6.2 Beiträge der Windphysik zum Ausbau der Windenergienutzung — ∙Martin Kühn AKE 7 Renewable Energy: Aspects of Intermittent Generation 7.2 Surplus electricity and storage under conditions of intermittent supply — ∙Friedrich Wagner AKE 8 Sector Coupling, Chemical Conversion and Storage of Renewable Energy 8.1 Power to Gas Konzepte für die Energiewende — ∙Frank Graf 8.2 Sektorenkopplung als Teil der Energieversorgung von morgen — ∙René Schoof 8.3 Was kann Sektorenkopplung leisten? Eine modellgestützte Analyse von Technologien und ihrer Potenziale — ∙Hans Christian Gils AKE 9 Alternative Fuels for Air Traffic 9.1 Verändern alternative Treibstoffe die Emissionen des Luftverkehrs und seine Klimawirkung? — ∙Christiane Voigt AKE 10 Future Perspectives: CO2-Storage 10.1 Geological CO2 storage - concepts and state of knowledge — ∙Axel Liebscher AKE 11 Nuclear Energy and Security (Joint Session AKE-AGA) 11.1 Nuclear Power and Nuclear Safety Post Fukushima — ∙Christoph Pistner, Matthias Englert 11.2 Safeguards and Non-Proliferation experience from an IAEA perspective — ∙Tariq Rauf 11.3 Civil Nuclear Power - The Cyber Security Perspective — ∙Guido Gluschke


Abstracts1 of all presentations at the sessions of the DPG Energy Working Group AKE 1.1 Invited Talk: Energy Density, Lifetime and Safety - Not Only an Issue of Lithium Ion Batteries

∙Martin Winter1,2, Falko Schappacher1, Markus Börner1, and Alex Friesen1 — 1MEET Battery Research Center, Westfälische Wilhelms-Universität Münster, Corrensstraße 46, 48149 Münster, Germany — 2Helmholtz Institute Münster (HI MS), IEK-12, Forschungszentrum Jülich GmbH, Corrensstraße 46, 48149 Münster, Germany Lithium ion batteries (LIBs) became the most important rechargeable electrochemical energystorage system for portable consumer electronics devices and are presently advancing to a key technology for enabling the broad commercial launch of electric vehicles (EV). For a broad acceptance of this technology and a market breakthrough of EVs several issues have to be addressed to overcome customers’ objections against this technology. The cruising range and hence the energy density (Wh/L) and specific energy (Wh/kg), respectively, is a most crucial parameter. Different cell chemistries are discussed as alternative for LIB to increase the energy density, but the advantages and disadvantages (e.g. energy density, lifetime and safety) of these socalled Post-LIB systems and other alternatives with respect to LIBs and advanced LIBs have to be compared carefully. In this presentation, we will highlight the most recent findings in view of practically realizable specific energies and energy densities of various battery chemistriesas well as the safety and aging characteristics of LIBs and will compare it with state of the art technologies. AKE 1.2 Invited Talk: Fuel Cells - A complement and an Alternative to Batteries on the Path to Application i,ii

∙K. Andreas Friedrich — German Aerospace Center (DLR), Institute of Engineering Thermodynamics, Pfaffenwaldring 38-40, Stuttgart 70569, Germany Fuel cells are acknowledged as essential parts of the necessary transition of the energy system as required by the commitments to climate protection in the frame of COP21 and COP22. Fuel cell development has reached an advanced maturity stage as demonstrated by the first series cars from Asian manufacturers, the approaching commercialization of stationary systems in Europe as well as the successful market penetration of residential fuel cell systems in Japan. With the advancement of fuel cell application in cars a concurrent built-up of a hydrogen refueling infrastructure is needed. The first hydrogen infrastructure areas are located in California, Germany and Japan. In order to achieve a global reach, however, much more efforts worldwide are needed. In this presentation an overview over the state-of-art of fuel cells, with a focus on polymer electrolyte membrane (PEMFC) and solid oxide fuel cells (SOFC) is given accompanied by a critical assessment of achievements and challenges. The advantages and disadvantages in comparison to other technologies, in particular batteries, is discussed. The system design of a hybrid fuel cell with a battery exhibits many beneficial properties that will be described. Finally, some applications are highlighted, e.g. propulsion of aircraft, in which fuel cells are a necessity to achieve the requirements. [i] K.A. Friedrich, J. Mitzel, BWK Bd. 69 (2017), Nr. 5, S. 124ff, [ii]http://www.dlr.de/tt/Portaldata/41/Resources/dokumente/institut/elchemenergietechnik/B WK_05_2016_Wasserstoff.pdf 1

A dot in front of an author’s name denotes the lecturer.


AKE 2.1 Invited Talk: Roadmap and roadblocks for multi-junction device technology based on metal halide perovskites

∙Eva Unger — Department of Chemistry, Lund University, Lund, Sweden — Helmholtz Center Berlin for Materials and Energy, Berlin, Germany Solar cells based on metal-halide perovskite semiconductors inspire high hopes for efficient low-cost solar cell technology. These materials are promising to realize efficient tandem solar cell technology compatible with conventional solar cell technology based on silicon. Multijunction solar cell devices with efficiencies exceeding 30% could be achieved by boosting silicon solar panels with a device based on absorber materials with optical band gaps of about 1.7 eV. In this respect, the ease of tuning the optical properties of metal halide perovskite materials and the possibility to achieve highly efficient devices entirely by solution-based deposition methods make this class of evolving semiconductors an ideal case to develop low-cost and scalable multi-junction device technology. This talk will give an overview over the state of the art and current performance metrics of metal-halide perovskite device technology. Close to the ideal band gap for absorbers for tandem solar cell stacks of 1.7 eV, the onset of photo-induced halide migration becomes limiting to the open circuit voltage indicating an intriguing but potentially hampering intrinsic properties of metal halide perovskites to their application in solar energy conversion devices. AKE 2.2 Highly Stable and Efficient Perovskite Solar Cells Via Multication Engineering

∙Michael Saliba, Anders Hageldt, and Michael Graetzel — EPFL, Lausanne, Switzerland Perovskites have emerged as low-cost, high efficiency photovoltaics with certified efficiencies of 22.1%. The perovskites used for solar cells have an ABX3 structure where the cation A is methylammonium (MA), formamidinium (FA), or Cs; the metal B is Pb; and the halide X is Br or I. Unfortunately, single-cation perovskites often suffer from phase, temperature or humidity instabilities. This is particularly noteworthy for CsPbX3 and FAPbX3 showing a photoinactive yellow phase at room temperature instead of the more desired photoactive black phase. Here, we investigate triple cation (with Cs, MA, FA) perovskites resulting in significantly improved reproducibality and stability. We then use multiple cation engineering as a strategy to integrate the seemingly too small Rb (that never shows a black phase as a single-cation perovskite) to study novel multication perovskites. One composition containing Rb, Cs, MA and FA resulted in a stabilized efficiency of 21.6%. The open-circuit voltage of 1.24 volts at a band gap of 1.63 eV leads to a very small loss-in-potential of 0.39 V, versus 0.4 V for commercial silicon cells. Polymer-coated cells maintained 95% of their initial performance at 85°C for 500 hours under full solar illumination and maximum power point tracking.(1) (1) Saliba et al., Incorporation of rubidium cations into perovskite solar cells improves photovoltaic performance. Science (2016). AKE 2.3 Growth-control of the ordered double-perovskite stucture in (Pr0.5Ba0.5)CoO3−𝛿 thin films

∙Felix Gunkel1, Clemens Hausner2, David N. Müller2, Daniel Bick1, Lei Jin3, Chunlin Jia3, Theo Schneller1, Ilia Valov2, and Regina Dittmann2 — 1Institute of Electronic Materials (IWE2), RWTH Aachen University — 2Peter Grünberg Institut, Forschungszentrum Jülich GmbH — 3Ernst Ruska-Centre for Microscopy and Spectroscopy with Electrons, Jülich The complex oxide compound (Pr0.5Ba0.5)CoO3−𝛿 (PBCO) is considered an efficient catalytic oxide for oxygen evolution half-reaction (OER) taking place during water splitting operation. We discuss structural and electrical properties of epitaxial PBCO thin films serving 10

a model systems for exploring the atomistic processes during OER. PBCO thin films are synthesized in a disordered and in an ordered double-perovskite crystal structure by controlling the growth temperature during pulsed laser deposition. The thin films are fabricated with defined surface morphologies and crystal orientation. During the growth process, the transition from disordered to ordered phase can be monitored directly by means of electron diffraction (RHEED). The epitaxial thin films show catalytic activity comparable to their porous counter parts fabricated by chemical routes, making them ideal model templates for systematic studies. The ability to control the ordered double-perovskite phase of PBCO bears the potential to force the formation of structural oxygen vacancies within the lattice with atomic precision and to tailor active sites for OER on the nanoscale. AKE 2.4 Influence of the pH value of the dye on the electrical properties of dye sensitized solar cells prepared with anthocyans

∙Irén Juhász Junger1, Sarah Vanessa Homburg1, Hubert Meissner1, Thomas Grethe2, Anne Schwarz-Pfeiffer2, Johannes Fiedler1, Andreas Hermann1, Tomasz Blachowicz3, and Andrea Ehrmann1 — 1Bielefeld University of Applied Sciences, Faculty of Engineering and Mathematics, Bielefeld (Germany) — 2Niederrhein University of Applied Sciences, Research Institute for Textile and Clothing (FTB), Mönchengladbach (Germany)—3Silesian University of Technology, Institute of Physics - Center for Science and Education, Gliwice (Poland) In recent years the harvesting of renewable energies became of great importance. This led to a rapid development of dye-sensitized solar cells which can be produced from cheap, low-purity materials. The best electrical properties are provided by cells prepared using synthetical, ruthenium based dyes. Unfortunately, most of them are toxic and expensive. The anthocyans extracted for example from hibiscus flowers yield a cheap and eco-friendly alternative to the toxic dyes, however, with a loss of solar cell efficiency. Our aim is to improve the conversion efficiency and the stability of solar cells prepared with anthocyans by changing the pH value of the dye. In order to find the optimal pH value, its influence on the solar cell properties is investigated. AKE 3.1 Invited Talk: Die Defizite der Energiewende

∙Manuel Frondel — RWI Essen Der Anteil der erneuerbaren Energietechnologien am deutschen Strommix lag Ende 2015 bei rund 30%. Das bedeutet gegenüber dem Anteil von weniger als 7% im Jahr 2000, in dem das Erneuerbaren-Energien-Gesetz (EEG) zur Förderung der Erneuerbaren eingeführt wurde, mehr als eine Vervierfachung. In keinem anderen Land der Welt wurde der Anteil der Erneuerbaren derart vorangetrieben. Doch was weltweit große Beachtung findet, hat einen sehr hohen Preis: Die Kosten für den Ausbau der erneuerbaren Energien in Deutschland nehmen stetig zu und liegen mittlerweile bei deutlich über 20 Mrd. Euro jährlich. Während viele armutsgefährdete Haushalte unter diesen Lasten zu leiden haben, wird immer mehr überschüssiger grüner Strom produziert, der wegen fehlenden Stromnetzen keine Abnehmer mehr findet. Um dies zu vermeiden und den künftigen Kostenanstieg für die Verbraucher zu dämpfen, sollte der weitere Ausbau der Erneuerbaren gedrosselt und mit dem Tempo des Netzausbaus in Deutschland synchronisiert werden. AKE 4.1 Invited Talk: Fusion Research - recent progress and perspectives

∙Antonius Donné — EUROfusion, Garching, Germany The European roadmap to the realisation of fusion electricity to the grid breaks the quest into eight missions. For each mission, it reviews the current status of research, identifies open issues, and proposes a research and development programme. 11

A long-term perspective on fusion is mandatory since Europe has a leading position in this field and major expectations have grown in other ITER parties on fusion as a sustainable and secure energy source. China, for example, is launching an aggressive programme aimed at fusion electricity production well before 2050. Europe can keep the pace only if it focuses its effort and pursues a pragmatic approach to fusion energy. With this objective, the present roadmap has been elaborated. ITER is the key facility of the roadmap as it is expected to achieve most of the important milestones on the path to fusion power. The Fusion Roadmap is tightly connected to the ITER schedule and the vast majority of resources in Horizon 2020 are dedicated to ITER and its accompanying experiments. Parallel to the ITER exploitation in the 2030s, the construction of the demonstration power plant DEMO needs to be prepared. DEMO will for the first time supply fusion electricity to the grid. The design, construction and operation of DEMO require full involvement of industry to ensure that, after a successful DEMO operation, industry can take responsibility for commercial fusion power. AKE 5.1 Invited Talk: Research for the safe management of nuclear waste

∙Dirk Bosbach — Forschungszentrum Jülich, Germany The safe management of radioactive waste arising from electricity production is one of the great challenges of our times. Technologies for the decommissioning of nuclear facilities and for the safe management of the associated waste have been developed in recent decades. Current R&D activities are focusing on optimization regarding e.g. radiation exposure of personal, economic aspects, etc. Some special waste streams arising from the decommissioning of nuclear installations have not been in the focus of R&D activities in the past, e.g. radioactively contaminated toxic metals such as beryllium, cadmium or mercury, spent ion-exchange resins, radioactively contaminated NAPL and decontamination fluids, wastes containing asbestos, PCB, etc. and mixed wastes with elevated concentrations of chemotoxic/hazardous constituents. Although the expected volumes of various of these special waste streams will be comparatively small, there are specific challenges linked to their safe management, for example, due to their associated chemotoxicity, potential releases of radionuclides, their incompatibility to established conventional treatment and conditioning techniques, analytical challenges regarding the adequate determination of radioactive and chemotoxic inventories, etc. The presentation will provide an overview of current R&D activities at Forschungszentrum Jülich on waste treatment and waste form development regarding some special wastes. AKE 6.1 Invited Talk: Smarte Rotoren für kosteneffiziente Windenergieanlagen

∙Jan Tessmer — DLR - Deutsches Zentrum für Luft- und Raumfahrt Weltweit waren Ende 2015 Windenergieanlagen mit ca. 430 GW Gesamtleistung installiert, davon über 43 GW in Deutschland mit einem Anteil von rund 14 % an der Bruttostromerzeugung.Wesentlichen Vorteile von Windenergie sind niedrige Stromerzeugungskosten, globale Einsetzbarkeit und gute Regelbarkeit (Systemdienstleistungen). Eines der wichtigsten Ziele der Forschung und Entwicklung ist eine weitere Kostenreduktion. Hierfür sind weitere Entwicklungen in der Anlagentechnik notwendig. Gewichtsreduktion und längere Lebensdauer durch neue Bauweisen und Werkstoffe unter Berücksichtigung genauerer Kenntnisse der Systemparameter bezüglich Elastizität und Strukturdynamik sind wesentliche Treiber bei der Kostenreduktion. Der Beitrag beleuchtet daher vertieft die Erforschung innovativer Rotorblatttechnologien im Rahmen aktueller Forschungsvorhaben. Neue Methoden vom Designprozess bis zur 12

automatisierten Produktion, das Verhalten neuer Komponenten im System der Gesamtwindenergieanlage und die Auswirkungen auf Akzeptanzkriterien (z.B. Lärm)müssen verifiziert und validiert werden bevor sie im industriellen Betrieb eingesetzt werden können. Der vom BMWi und dem Land Niedersachsen geförderte Aufbau einer Forschungsplattform (DFWind) wird in den kommenden Jahren eine Infrastruktur bereitstellen, die neben der phänomenologischen Untersuchung zwei hintereinander stehender Windturbinen sowie ihres Umfeldes auch die Erprobung und Qualifikation neuer Technologien und Methoden erlauben wird. AKE 6.2 Invited Talk: Beiträge der Windphysik zum Ausbau der Windenergienutzung

∙Martin Kühn — ForWind - CvO Universität Oldenburg In der Weiterentwicklung der Windenergie stellen sich eine Vielzahl spezifischer Fragen auch an die Physik. Diese reichen von den räumlichen und zeitlichen Eigenschaften des Kraftstoffs »Wind«, über die Energiewandlung im Konverter bis zu energiemeteorologischen und systemdynamischen Aspekten der Netzintegration. Kürzlich wurde vor diesem Hintergrund das »Forschungslabor für Turbulenz und Windenergiesysteme« (WindLab) der Universität Oldenburg eröffnet. Es dient der Erforschung turbulenter atmosphärischer Strömungen und deren Zusammenspiel mit Windenergiesystemen, d.h. Windparks, Windenergieanlagen und deren Komponenten. ForscherInnen aus Physik, Meteorologie und Ingenieurwesen untersuchen grundlagenorientiert und angewandt die bisher nur lückenhaft verstandenen Turbulenzeigenschaften und -interaktionen auf unterschiedlichsten räumlichen Skalen vom Rotorblatt über einzelne Windenergieanlagen bis zu großen Windparkverbünden. Die Forschungsprogrammatik gliedert sich in drei Schwerpunkte, in denen methodisch neuartige Lösungsansätze erarbeitet werden: Beschreibung und Modellierung der Windturbulenz, Simulationen und Experimente zur Interaktionen von Turbulenz und Windenergiesystemen und turbulenzkompensierende Regelungsverfahren. Resultierend sind wesentliche Beiträge zur Reduktion der durch Windturbulenz verursachten Kosten für Nutzung und Netzintegration von Windenergie zu erwarten. AKE 7.1 (Der Vortrag wurde zurückgezogen) AKE 8.1 Invited Talk: Power to Gas Konzepte für die Energiewende

∙Frank Graf — DVGW-Forschungsstelle am Engler-Bunte-Institut des Karlsruher Instituts für Technologie (KIT), Engler-Bunte-Ring 1 - 7, 76131 Karlsruhe Ein zukünftig auf Windkraft und Solarenergie basierendes Energiesystem kommt ohne verschiedene Speichermöglichkeiten nicht aus. Power to Gas kann deshalb mittel- und langfristig einen wichtigen Beitrag zum Gelingen der Energiewende leisten. Die Speicherund Verteilstruktur für Erdgas ist in Deutschland hervorragend ausgebaut und sehr gut als Speicherinfrastruktur für elektrische Energie geeignet. Die derzeit betriebenen Poren- und Kavernenspeicher für Erdgas in Deutschland haben ein Arbeitsgasvolumen von 24,1 Mrd. m3, was etwa einer chemischen Speicherleistung von 265 TWh entspricht. Neben Transport und Speicherung von großen Mengen an elektrischer Energie mit Hilfe der bestehenden Erdgasinfrastruktur kann über PtG-Prozesse auch regenerativer Kraftstoff erzeugt werden. Außerdem kann der Wärmemarkt mit einem Gas aus erneuerbaren Quellen versorgen werden. In den letzten Jahren wurden umfangreiche Forschungs- und Entwicklungsarbeiten durchgeführt und erste Praxiserfahrungen an mehreren Demonstrationsanlagen gesammelt. Im Beitrag werden die verschiedenen Aspekte erörtert.


AKE 8.2 Invited Talk: Sektorenkopplung als Teil der Energieversorgung von morgen

∙René Schoof — Energy Storage Technology, Uniper Energy Storage GmbH, Ruhrallee 80, 45136 Essen In einer künftigen Energieversorgung, die zunehmend auf erneuerbaren Energien aus Wind und Sonne basiert, wird es immer wichtiger, diese planbar bereitzustellen und zu transportieren. Neben Netzausbau und Speichertechnologien kann die Kopplung verschiedenster Sektoren wie Wärme, Gas, Mobilität, Industrie usw. einen wesentlichen Beitrag zum Gelingen dieser Systemtransformation beitragen. Darüber hinaus ist die Sektorenkopplung der Garant für das Erreichen einer CO2- neutralen Energienutzung zur Einhaltung der Klimaziele im Sinne von COP21. AKE 8.3 Invited Talk: Was kann Sektorenkopplung leisten? Eine modellgestützte Analyse von Technologien und ihrer Potenziale

∙Hans Christian Gils — Deutsches Zentrum für Luft- und Raumfahrt (DLR), Institut für Technische Thermodynamik, Stuttgart Eine stärkere Verknüpfung von Strom-, Wärme-, Verkehrs- und Gassektor kann einen wesentlichen Beitrag zum Gelingen der Energiewende leisten. So können beispielsweise durch ein gesteuertes Laden von Elektrofahrzeugen, sowie einen optimierten Betrieb von Wärmepumpen und Kraft-Wärme-Kopplungs-Anlagen der Bedarf nach regelbaren Kraftwerken gesenkt, und Erzeugungsspitzen aus Windkraft- und Photovoltaikanlagen in höherem Maße genutzt werden. Im Zentrum des Vortrags steht die Analyse des wirtschaftlichen Potenzials verschiedener Sektorenkopplungstechnologien in einem überwiegend auf fluktuierenden Quellen basierenden Energieversorgungssystem in Deutschland. Die Untersuchungen stützen sich auf die Anwendung des DLREnergiesystemmodells REMix, und behandeln auch die Frage, wie die Sektorenkopplung mit anderen Technologieoptionen, z.B. einem erweiterten Stromnetzausbau und dem Import regelbaren erneuerbaren Stroms, wechselwirkt. AKE 8.4 Direct CO2-Methanation of flue gas emitted by conventional power plants

∙Johannes Israel1, Fabian Rachow1, Carola Schwiertz1, Evgenia Charlafti2, Klaus Mueller1, and Dieter Schmeißer1 — 1BTU Cottbus - Senftenberg, Konrad-Wachsmann- Allee 17, 03046 Cottbus — 2TU Berlin, Ackerstraße 76, 13355 Berlin The catalytic conversion of CO2 with H2 into CH4 is possible by the Sabatier reaction 𝐶𝑂2+4𝐻2 → 𝐶𝐻4+2𝐻2. Using excess energy from renewable electricity generation, this approach offers an opportunity for recycling of CO2 as synthetic natural gas. In a new concept, we investigate the performance of the Sabatier reaction as direct methanation of flue gas, emitted by conventional power plants.We investigate the Sabatier process in an upscaled system, with a maximum input flow rate of 45 Nm3/h Gas. The performance is investigated in a simulated composition of flue gas and under real conditions at a lignite power plant in Schwarze Pumpe, Brandenburg, Germany. We can achieve a CO2-conversion of up to 90%, with approx. 100% selectivity towards CH4. Under flue gas conditions and at a certain limit of gas flow the system is operated at an autothermal running modus, a steady state equilibrium of exothermic heat production and thermal flow that needs neither external annealing nor cooling. AKE 8.5 Synthesis of Methanol from 𝐶𝑂2 for Power-to-Liquid applications

∙Fabian Rachow, Moritz Hagendorf, Klaus Müller, and Dieter Schmeißer — Brandenburgische Technische Universität Cottbus - Senftenberg, Angewandte PhysikSensorik, Konrad-Wachsmann-Allee 17, 03046 Cottbus, Germany


The direct synthesis of methanol [𝐶𝑂2 + 3𝐻2 ↔ 𝐶𝐻3𝑂𝐻 + 𝐻2𝑂] represent a possibility to reduce the global 𝐶𝑂2-emission by recycling the 𝐶𝑂2 and also to store excess energy from renewable energy sources into a common fuel or chemical feedstock (Power-to-Liquid). For an acceptable conversion rate of 𝐶𝑂2 a catalyst is needed, together with high temperatures (>200°C) and high pressure (50-200bar). Methanol is normally produced form synthesis gas, a mixture of 𝐶𝑂 and 𝐻2. By directly using 𝐶𝑂2 for the exothermic reaction, we avoid the conversion of 𝐶𝑂2 to 𝐶𝑂 by the reversed water gas shift reaction. We also present new concepts for the conversion from 𝐶𝑂2-rich flue gases, eliminating the need for a separation of the 𝐶𝑂2. The concept is backed up by measurements in laboratory scale. Here we use a 𝐶𝑢 − 𝑍𝑛𝑂 catalyst on a 𝑍𝑟𝑂2 substrate prepared by impregnation and compare the results with commercially available catalysts. We achieved a conversion of around 7% and a selectivity of 60% at a temperature of 240°C and 45bar. The reaction is thermodynamically limited with a maximum conversion rate of 15% at 250°C and 50bar. The conversion and the selectivity towards methanol is highly influenced by the catalyst used, the temperature, the pressure as well as the flow rate of the reactants. AKE 9.1 Invited Talk: Verändern alternative Treibstoffe die Emissionen des Luftverkehrs und seine Klimawirkung?

∙Christiane Voigt — Deutsches Zentrum für Luft- und Raumfahrt (DLR), Oberpfaffenhofen, Deutschland — Johannes Gutenberg-Universität, Mainz, Deutschland Hohe Wachstumsraten im Luftverkehr erfordern eine umfassende Kenntnis der Wirkung des Luftverkehrs auf die Atmosphäre und das Klima. Aktuelle Prognosen erwarten eine Verdopplung der CO2 Emissionen des Luftverkehrs bis 2050, daher setzten internationale Luftverkehrsorganisationen (IATA, ACARE) ambitionierte Ziele, die Emissionen des Luftverkehrs deutlich zu reduzieren. Nationale Luftfahrtbehörden streben z.B. mit dem ”Biofuel Flightpath” eine Erhöhung des Anteils an alternativen Treibstoffen im Luftverkehr an. Alternative Treibstoffe besitzen einen niedrigeren Aromatengehalt, welcher die Verbrennungsprozesse im Triebwerk modifiziert und somit einen Effekt auf die Emissionen haben kann. Die Emissionen alternativer Treibstoffe im Luftverkehr und ihre Wirkung auf Atmosphäre und Klima sind bislang jedoch wenig untersucht und daher das Ziel aktueller Forschung. Der Vortrag zeigt neue Ergebnisse von Flugzeugmessungen im Abgasstrahl von Jets, die mit Bio- oder synthetischen Treibstoffen betankt wurden. Die Partikel und Spurengas-Emissionen alternativer Treibstoffe wurden im Abstand von 100 m hinter voranfliegenen Test-Flugzeugen gemessen und quantifiziert. Ihre Wirkung auf die Bildung und Lebensdauer von Kondensstreifen wird untersucht und das Klima-Potenzial alternativer Treibstoffe wird diskutiert. AKE 10.1 Invited Talk: Geological CO2 storage - concepts and state of knowledge

∙Axel Liebscher — Deutsches GeoForschungsZentrum, Potsdam, Germany The German national climate targets aim at 80-95% reduction of greenhouse gas emissions by 2050. To reach these targets, additional and intensified measures for greenhouse gas reduction are necessary, which have to cover all emission sources and sectors. To limit global warming to significantly <2°C by end of the century so-called negative emissions are necessary in the second half of the century in all likelihood. Long-term geological storage of CO2, captured at emission sources, is an essential measure within the portfolio of emission reduction technologies. In combination with biomass it is the only currently available technique that allows for negative emissions in climate relevant quantities. Currently, 15 industrial scale projects store 30 Mt of CO2 per year worldwide. The longest operating CO2 stoarge project is "Sleipner" off-shore Norway, which stores 1 Mt of CO2 per year since 1996. In Germany, experiences on geological CO2 storage has been gained at the pilot site Ketzin, where ∼ 67 kt of CO2 have been stored between 2008 and 2013. Storage reservoirs are typically porous 15

rocks (either depleted hydrocarbon reservoirs or saline aquifers) at > 1000 m depth that are overlain by impermeable cap rocks. Crucial to any storage project is a site-specific monitoring concept, based on geochemical and geophysical methods. With such a system, surveilance of the storage system, detection of even small amounts of CO2 and sound prediction of long-term behaviour is possible. AKE 11.1 Invited Talk: Nuclear Power and Nuclear Safety Post Fukushima

∙Christoph Pistner and Matthias Englert — Öko-Institut e.V., Rheinstraße 95, 64295 Darmstadt On March 11, 2011, the second ”major accident” in a civilian nuclear power plant after Chernobyl took place in Fukushima Dai-ichi. A major earthquake and resulting tsunami lead to a core melt in three reactors and a following relocation of more than 100.000 residents. But still, worldwide there are 450 nuclear reactors operational today. Safety checks like the EUStresstest took place after Fukushima and possibilities for optimization have been identified basically everywhere. Fukushima emphasized the importance of taking natural events more thoroughly into account and led to the implementation of additional safety equipment. But still, events from internal and external causes continue to happen frequently. In addition to these ”conventional” safety problems, also other threats gain in importance. Besides the danger of terrorist attacks on nuclear facilities, also the deterioration of the institutional environment due to a military or economic crisis has to be taken into account. Thus, nuclear power remains to be a technology with the inherent potential for catastrophic accidents. AKE 11.2 Invited Talk: Safeguards and Non-Proliferation experience from an IAEA perspective

∙Tariq Rauf — formerly (from 2002 through 2012) Head, Verification and Security Policy Coordination, Office reporting to the Director General, IAEA The International Atomic Energy Agency (IAEA) has been implementing nuclear safeguards for more than half a century covering peaceful nuclear activities. IAEA safeguards are implemented in States pursuant to legal authority from the IAEA Statute and bilateral, regional and international nuclear non-proliferation treaties and agreements; and are set of technical measures that allow the IAEA to independently verify a State’s legal commitment not to divert nuclear material from peaceful nuclear activities to nuclear weapons or other nuclear explosive devices. In 1991, the IAEA safeguards system suffered a massive shock when it was discovered that Iraq was running an heretofore undetected parallel undeclared nuclear (weapon acquisition) programme. As a result, the IAEA safeguards system was strengthened based on a combination of expanded information and technical measures through the Additional Protocol (to safeguards agreements). Further challenges to the IAEA safeguards system came during 1992 through 2015, from the DPRK, Iran, Libya, South Korea and Syria. This presentation describes the structure and technical elements of safeguards, including implementation in high-priority cases. — The views expressed in this paper are solely those of the author. AKE 11.3 Invited Talk: Civil Nuclear Power - The Cyber Security Perspective

∙Guido Gluschke — Institute for Security and Safety at the Brandenburg University of Applied Sciences, Potsdam, Germany The talk will discuss the situation at nuclear facilities in the digital age. It will elaborate on the cyber-related challenges of the safety and security domains. Furthermore, the talk will introduce the concept of design basis threat which represents the IAEA methodology for risk treatment in terms of physical protection and will have a look how cyber fits into this model. Finally, some international initiatives on cyber security will be presented. 16


A model-based analysis of the opportunities and constraints of enhanced energy sector integration Hans Christian Gils, DLR This work addresses the role of an enhanced integration of the power, heat and transport sectors in future energy supply systems with high shares of intermittent renewable power generation. Such integration is realized by technological linkages between the sectors, e.g. through combined heat and power (CHP) generation, electric heat pumps and electric vehicles (Figure 1). The analysis is focused on their application in Germany, and relies on a comprehensive and multi-step modelling approach.1

Figure 1: Overview of possible linkages between energy sectors. Introduction

Wind and solar irradiation are not available to the same extent at any time. Figure 2 shows the power generation in photovoltaic (PV) panels and wind turbines, as it might occur in Germany in the year 2050, when around 65% of the demand is supplied by these technologies. Not only is the power generation highly fluctuating, it also exceeds the demand during some periods. Subtracting the intermittent power generation from the demand, the residual load is obtained. As we see, there are periods of a supply surplus and other with a supply deficit. Load balancing is required to fill the gaps on the one hand, and use the surplus on the other. This includes both the provision of power and energy. Deficits can be filled by dispatchable power plants, electricity storage, an import of electricity, or demand reduction. On the other hand, surpluses can be used for storage charging, electricity export or a demand increase. The latter includes the usage of electricity in other demand sectors. Today, intermittent renewable power generation is mostly balanced by conventional power stations, power transmission, and pumped storage hydro. Given that conventional power generation is 1

This manuscript partial relies on a previous publication of the author [Gils 2015] 18

planned to be reduced in order to cut CO2 emissions, and that potentials for additional hydro storage are limited, new balancing technologies will be required in the future.

Figure 2: Fluctuations in demand, variable renewable energy (VRE) generation (left) and residual load (right) This work assesses whether an enhanced integration of power and heating sector through thermal energy storage (TES) and electric heat production can help in solving this problem. More specifically, it addresses the question to what extent a power-controlled operation of CHP and heat pump (HP) supply systems can contribute to a mostly renewable power supply in Europe. The principle of a power-controlled operation of CHP compared to a heatcontrolled operation is shown exemplarily in Figure 3. Its core element is the adjustment of CHP and HP operation to the residual load. Furthermore, this work analyses, whether the deployment of TES and electric boilers in district heating (DH) systems is competitive with other balancing options and how a more flexible heating interacts with other balancing options such as controlled charging of vehicle batteries or flexible operation of hydrogen electrolysers.

Figure 3: Heat-controlled (left) and power-controlled (right) operation of a CHP system. In the heat-controlled case, only a conventional peak boiler is available, in the powercontrolled case also a TES and electric boiler. 19

Methodology The analysis relies on the application of the DLR energy system model REMix (Figure 4) [Scholz 2012, Gils et al. 2017]. REMix was developed for the evaluation of energy supply scenarios in high spatial and temporal resolution. It provides a simplified representation of the power system, including demand, renewable as well as conventional generation, electricity-toelectricity storage, demand response, and power transmission. The model is not limited to the power sector, but also contains demand and supply of heat as well as hydrogen, and electric mobility. The model input comprises techno-economic parameters, scenario parameters (e.g. installed power plant capacities), and spatially resolved climate and weather data for each hour of the year. The latter input data are used in the energy data analysis tool REMixEnDAT for the calculation of hourly wind and solar power production profiles in each model region [Scholz 2012, Stetter 2014]. Relying on these input data and using linear optimization, REMix-OptiMo assesses the least-cost composition and operation of the energy system during one year. The minimized costs comprise all expenditures arising from the installation of new assets and the operation of all assets, thus capital costs, fuel costs as well as other variable operational costs. Model results comprise the installation of new assets, the hourly operation of all assets, supply costs, and CO2 emissions. Previous model applications range from optimized short-term integration of renewable energies into existing electricity systems or cost-minimum green-field capacity expansion analysis [Scholz 2012, Gils et al. 2017] to development and validation of long-term supply scenarios [Gils and Simon 2017, Stetter 2014] and impact assessment of different storage and balancing options on renewable energy integration [Luca de Tena 2014].

Figure 4: REMix model overview. The regional focus of the case study presented here is on Germany. However, it also includes its neighbouring countries, as well as Northern Europe (see Figure 5). This assures that international power exchange is considered to some extent. A broad range of technologies is considered in the case study, including renewable and conventional power generation, CHP in industry and DH, pumped hydro storage, and high-voltage power transmission. In selected scenarios, a flexible production of hydrogen fuel and a controlled charging of battery electric vehicles (BEV) are considered as well. The case study is designed as scenario analysis. This 20

means that the power plant park is mostly predefined in the model. With this approach, the case study does not aim at the determination of least-cost supply systems, but on evaluation of the least-cost utilization of balancing technologies. This said it is particularly focused on the usage of thermal energy storage and electric heating in DH-CHP systems. In the presentation of results, model runs without and with the enhancement of these systems are compared. In the second case, the model can endogenously invest in thermal energy storage and electric boilers. By undertaking these investments, the model can reduce the overall supply costs. Such reduction can for example result from a decrease in the additionally required gas turbine capacity, a more efficient utilization of the power plant park, fuel savings, or lower curtailment.

Figure 5: Study area (top) and considered technologies (bottom) The installed capacities of power as well as CHP plants are assumed according to [Nitsch et al. 2012] for Germany and [Scholz et al 2014] for the other European countries. To focus on high shares of intermittent wind and solar power generation, only the scenario year 2050 is analysed here. Overall capacities reach 76 GW in Germany and 229 GW in the overall study area for PV, 55 GW and 219 GW for onshore wind, and 35 GW and 115 GW for offshore wind, respectively. In order to avoid supply shortfalls, the model can endogenously add gas turbine and combined cycle gas turbine (CCGT) capacity to the predefined power plant park.


The resulting power supply structure accounts for an 85% share of renewable power generation, three quarters of which is of intermittent nature (wind, PV, run-of-the-river hydro). CHP contributes around 20% of the power supply, with similar shares of biomass and natural gas-fuelled units. The remaining approximately 10% of the supply have to be provided by gas power plants without heat extraction. For details on regional renewable power generation and CHP capacities, see [Gils 2015]. Note that the gas condensing power generation capacities used there are not considered in this case study. The heat supply share is not only predefined for CHP, but also for heat pump (HP) technologies. The heat supply shares in the building sector are assumed with 30% for DH, 5% for building CHP, 21% for electric HP and 44% for others that are not related to the power sector. The industrial heat supply at temperatures below 500°C relies to 62% on CHP, 4% on electric HP, 34% on other heat sources. The Base Scenario is furthermore characterized by a 100% share of electric vehicles in passenger transport. The transmission capacities in the high-voltage power grid are assumed to correspond to today’s state plus the expansion planned in the German and European grid development plans [Feix et al. 2013, ENTSOE 2012]. In order to reduce the model’s complexity, the dimensioning of TES capacities and electric boilers is endogenously optimized only for DH-CHP. For industrial CHP and HP, fixed storage sizes are considered. Relying on previous REMix results presented in [Gils 2015], a dimensioning of four hours of peak demand for industrial CHP and two hours for HP is applied. The usage of electric boilers is not considered in industrial CHP systems.

Figure 6: Scenario overview To assess the interaction of power-controlled heat supply with alternative balancing technologies as well as the composition of variable renewable energy (VRE) supply, a number of scenarios are taken into account (Figure 6). An increasing balancing demand compared to the Base scenario described above is present in two alternative scenarios. In both scenarios it arises from an additional power demand in other sectors. In scenario HP, higher shares of electric HP are considered, whereas scenario H2T assumes that the passenger transport partly relies on hydrogen-fueled vehicles, whose fuel supply is provided by flexibly operated electrolysers. Due to the lower efficiency compared to BEV, the overall power demand, and thus also the intermittent generation capacities are higher in this scenario. All assumptions on the hydrogen infrastructure can be found in [Gils 2015]. A reduced balancing demand is analysed in four additional scenarios. In scenario EV, balancing can also be provided by controlled charging of BEV. Scenario Grid considers a model endogenous grid expansion, -VRE a lower availability of wind and solar generation during the year. This is realized by considering a different historical weather year (2010 instead of 2006) as data input 22

to REMix. Finally, in scenario CSP, the impact of an import of dispatchable renewable energy from Concentrated Solar Power (CSP), which reduces domestic wind and PV capacity and thus the fluctuations, is analysed. The major difference between the scenarios lies in the availability of balancing options on the one hand, and the shape of VRE fluctuations on the other. It can be assumed that these two characteristics have a significant impact on the economic potential of enhanced energy sector integration. Results

The REMix results show that the enhancement of DH-CHP by TES and electric boilers is competitive across all scenarios. In the overall study area, a storage capacity between 0.5 and 0.61 TWh is added to the considered DH systems (Figure 7, left). This is almost twice as high as the 0.38 TWh of pumped hydro storage capacity currently available in Germany. The exogenously defined TES in industrial CHP and HP systems accounts for additional 0.21 and 0.14 TWh (0.26 TWh in scenario HP), respectively. DH-TES capacities are located mostly in Germany (0.17-0.19 TWh), the Eastern Europe region composed of Poland, Czech Republic and Slovakia (0.13-0.17 TWh) and France (0.09-0.13 TWh). The annual energy input to the TES is found to be much more dependent on the scenario assumptions than the capacity (Figure 7, right). It ranges between 48 TWh in scenario H2T and 97 TWh in HP, equivalent to between 6% and 10% of the corresponding annual heat demand. If only TES in DH systems are considered, the annual input ranges between 26 TWh (8%) and 41 TWh (13%). The comparison of scenarios reveals that the flexible operation of hydrogen electrolysers significantly reduces TES operation, whereas controlled charging of BEV, additional grid extension, lower wind and solar generation, and import of dispatchable renewable power have far less impact. The consideration of additional HP with TES does not negatively affect the TES in DH systems.

Figure 7: REMix results on thermal energy storage installation (left) and annual energy input (right) The average dimensioning of the DH-TES shows significant differences between the considered model regions (Figure 8). Related to the annual peak demand, capacities range between four hours in Northern Europe and eleven hours in France. Further analysis reveals that TES capacities tend to be highest in regions that are mostly supplied by wind power, and lowest where the generation mix is dominated by hydro power. The relatively high values also in the German regions Central, East, and West arise from the significant wind power imports from Northern Germany. The technology-specific TES dimensioning is influenced by fuel, electricity-to-heat ratio and operational degrees of freedom of the corresponding CHP units. TES tend to be greater in combination with technologies relying on fossil fuels, having a high electricity-to-heat-ratio and flexible heat extraction, and smaller for renewable CHP, low electricity-to-heat ratios and strict backpressure turbine operation.


Figure 8: Dimensioning of TES in DH systems The installation of electric boilers in CHP supply reaches between 30 and 42 GW (Figure 9, left). Compared to TES, it is to a slightly higher degree influenced by the availability of VRE generation and alternative balancing options. It is particularly reduced by a lower availability of wind and solar power, and by dispatchable CSP power import. Additional grid expansion, flexible hydrogen electrolysis, controlled BEV charging, and additional heat pumps also reduce the electric boiler capacity, but to a much lower extent. As for TES, highest capacities are found in Germany, France and Eastern Europe. The scenario comparison of the heat produced in the electric boilers exhibits a different pattern (Figure 9, right). A lower wind and solar power availability reduce the heat output of the electric boilers almost by half, grid expansion and CSP import by around 20%, all compared to the Base scenario. The electric boiler capacity expansion and utilization are also correlated to the wind power supply share, and are particularly high in the wind power regions.

Figure 9: REMix results on electric boiler installation (left) and annual heat production (right) The availability of supplementary TES and electric boilers significantly increases the flexibility in the operation of DH supply systems and allows for an adjustment of operation to power demand and VRE generation. Increased heat production flexibility proves to be a very effective measure for both the reduction of VRE curtailment and increase in CHP operation times. A down-regulation of the CHP unit in times of favourable weather conditions increases the usage of wind and solar power. In the opposite situation of low wind and solar generation, CHP can step in without heat being wasted, as it can be stored. Additional reductions in VRE 24

curtailment can be achieved by the usage of electric heating in DH supply systems. The amount of wasted electricity is cut by up to 17 TWh or 71% (Figure 10). Furthermore, powercontrolled operation of CHP and HP reduces the demand for additional power generation capacity by up to 29 GW (18%). This reduction mostly arises from the availability of TES in HP systems, which allows for lowering the power demand, as far as heat can be supplied from the storage. Increased CHP flexibility not only contributes to a better VRE integration, but also to an optimized power plant operation. In the considered scenarios, this mostly applies to biomass CHP, for which annual full load hours can significantly increase and ramping cycles and shutdowns reduce. The REMix results indicate that the availability of TES notably increases the CHP and HP supply share at the expense of the corresponding peak boilers. Optimized power plant operation, reduced capacity demand and higher VRE integration achieved by power-controlled heat supply enable a reduction in system costs by up to 4.1 billion euro (4.3%). This is equivalent to specific values of 0.03 to 0.05 €/kWh of stored heat or 0.07 to 0.14 €/kWh of electric boiler heat. An additional benefit arises from the reduction of CO2 emissions by up to 2%. In the systems without TES and electric boilers, VRE curtailments range from 11 to 23 TWh, back-up capacity demands from 96 to 163 GW, and system cost from 86 to 107 billion euro. Both in absolute and relative numbers, highest impacts are found on costs and VRE curtailments in scenario Grid, and on back-up demand in scenario HP. The former indicates that an enhanced grid expansion is favorable for a flexibilisation of DH operation, whereas the latter can be easily explained by the temporal shifting of HP operation reducing backup capacity demand.

Figure 10: Impact of TES and electric boilers on VRE curtailment, required back-up capacity and costs. The consideration of a broad range of load balancing options in REMix allows for a comprehensive comparison of their impact on the residual load. Figure 11 shows how the positive and negative peaks in residual load are reduced by the different technologies. The analysis indicates that the power grid is highly important for the absorption of midday PV generation peaks as well as evening deficits. Flexible CHP can move its generation to the morning and evening hours, further reducing the deficits. Electric boilers in CHP use some of the surpluses, but by far not all of them. TES are mostly used in spring and autumn, which are characterized by particularly high fluctuations in wind power generation on the one hand, and a heat demand close to the applied CHP and HP dimensioning on the other. 25

Figure 11: Impact of different balancing options on the residual load in Germany, based on results of [Gils 2015].Values range from a supply deficit of +75 GW (dark red) to a supply surplus of 45 GW (dark blue). Discussion and conclusions

The scenarios considered in this work reflect a European energy system transformation, in which nuclear power is phased-out, fossil fuel power generation is drastically reduced and VRE become the major pillar of electricity supply. The corresponding heat supply scenario envisions an increased market penetration of public and industrial CHP as well as electric HP. In order to reflect a broad range of interactions between balancing technologies, seven scenarios have been taken into account in this study. They are all consistent with the political goal of a mostly renewable supply for power, heat and transport. The scenario input concerning power and heat demand and supply structure, as well as grid and electricity-toelectricity storage capacities significantly affects the capacity and utilization of the balancing technologies analysed in this REMix application. This limits the significance of the results to the scenario space assessed in this work. The spatial and temporal resolution of REMix limits this assessment to the contribution of TES and electric boilers to hourly and interregional load balancing. Possible benefits on smaller temporal and spatial scales cannot be evaluated with the model in its current configuration. Major model approximations concerning power balancing include the representation of conventional and CHP power plants on the one hand, and alternating current power grids on the other. Both the conventional and CHP power plant model take into account neither restrictions in the ramping velocity nor a minimum load. Consequently, the flexibility of power generation is overestimated, which reduces the demand for other balancing technologies. The case study presented here is based on numerous assumptions and premises concerning the structural development of the energy system, as well as technical and economic technology characteristics. Nonetheless, the results of the scenario assessment allow for a number of first conclusions concerning the potential load balancing by power-controlled heat supply. 26

The REMix results clearly indicate that TES and electric boilers in DH systems are a costeffective measure to increase VRE integration. From this follows that the deployment of these technologies should go hand-in-hand with additional VRE power generation. We find a geographical concentration of the installation and operation of enhanced DH systems to regions with a high share of wind power. TES in both CHP and HP supply are mostly used for short-term and medium-term balancing in the range of some hours to a few days. This implies that they are particularly competing with peak load power plants and electricity-to-electricity storage technologies. The operation of pumped hydro storage is increasingly restricted to peak shaving of residual load, thus the provision of power, not energy. Due to its particular focus on flexible HP and CHP, the consideration of electricity-to-electricity storage is comparatively limited in this work. Future studies will have to gain insight into the potential application of other storage technologies as well as their interaction with competing balancing options. In this work, the assessment of electric heating and TES utilization has been focused on low-temperature heat demands. Given the available potentials, an extension to high temperature process heat appears attractive. As a consequence of higher VRE integration, power-controlled heat supply can contribute to the reduction of CO2 emissions in Germany. Furthermore, the additional balancing options can lead to energy supply cost reductions arising from the substitution of back-up power plant capacity on the one hand, and a more cost-efficient power and heat supply on the other. The latter includes a higher VRE integration into the power and heat sector, as well as a switch to power generation units with lower variable generation costs. The availability of alternative balancing options such as controlled charging of electric vehicles, further grid expansion and dispatchable CSP import has only a very limited impact on the dimensioning of TES and electric boilers. This implies that these options cannot substitute the enhancement of DH systems. Thus, the combination of different sector integration technologies can be beneficial in achieving high VRE shares in power supply. The annual operation times of TES decrease notably if flexible hydrogen electrolysis is available. The highest impact on electric heat production is found for reduced wind and solar availability. Concerning the achievable cost reductions, we find that grid expansion has a particularly positive impact. The least-cost dimensioning of enhanced DH is furthermore influenced by technology, fuel and size of the corresponding CHP unit. The scenario study presented in this work provides a first approximate economic assessment of the potential balancing of VRE power generation by power-controlled DH operation in Germany as well as its interaction with the balancing and sector integration technologies addressed in our analysis. It must be complemented by further and more detailed studies. This includes the development and evaluation of business cases for adjusted DH operation on the one hand, and potential incentive mechanisms on the other. References

[Feix et al. 2013] Feix, O., Obermann, R., Strecker, M., and Bartel, A. (2013) Netzentwicklungsplan Strom 2013: Zweiter Entwurf. [ENTSOE 2012] ENTSO-E (2012) 10-Year Network Development Plan 2012. [Gils 2015] Gils, H.C. (2015) Balancing of Intermittent Renewable Power Generation by Demand Response and Thermal Energy Storage. PhD thesis, University of Stuttgart. [Gils et al. 2017] Gils, H.C, Scholz, Y., Pregger, T., et al. (2017) Integrated modelling of variable renewable energy-based power supply in Europe. Energy, 123: 173-188. [Gils and Simon 2017] Gils, H.C., Simon, S. (2017) Carbon neutral archipelago – 100% renewable energy supply for the Canary Islands, Applied Energy, 188: 342-355.


[Luca de Tena 2014] Luca de Tena, D. (2014) Large Scale Renewable Power Integration with Electric Vehicles. PhD thesis, University of Stuttgart. [Nitsch et al. 2013] Nitsch, J., Pregger, T., Naegler, T., et al. (2012) Langfristszenarien und Strategien für den Ausbau der erneuerbaren Energien in Deutschland bei Berücksichtigung der Entwicklung in Europa und global. [Scholz 2012] Scholz, Y. (2012) Renewable energy based electricity supply at low costs: development of the REMix model and application for Europe. PhD thesis, University of Stuttgart. [Scholz et al. 2014] Scholz, Y., Gils, H. C., Pregger, T., et al. (2014) Möglichkeiten und Grenzen des Lastausgleichs durch Energiespeicher, verschiebbare Lasten und stromgeführte KWK bei hohem Anteil fluktuierender erneuerbarer Stromerzeugung [Stetter 2014] Stetter, D. (2014) Enhancement of the REMix energy system model: Global renewable energy potentials, optimized power plant siting and scenario validation. PhD thesis, University of Stuttgart.

Dr.-Ing. Hans-Christian Gils German Aerospace Center, Institute of Engineering Thermodynamics Deutsches Zentrum für Luft- und Raumfahrt (DLR) Institut für Technische Thermodynamik Systemanalyse & Technikbewertung Pfaffenwaldring 38-40 70569 Stuttgart


Power to Gas Konzepte für die Energiewende Frank Graf, Dimos Trimis Einleitung

Ein zukünftig auf Windkraft und Solarenergie basierendes Energiesystem kommt ohne Speicher nicht aus. Denn nur so kann die notwendige Bedarfsbereitstellung realisiert werden. Nach den derzeitigen Ausbauplänen kann in 2020 mit deutlich mehr als 100 GW installierter regenerativer Kraftwerksleistung, hauptsächlich aus Windkraft und PV, gerechnet werden, zusätzlich zu dem bestehenden Kraftwerkspark. Da der mittlere Bedarf bei etwa 40 bis 70 GW liegt, werden sich die schon heute auftretenden Stromüberschüsse in den nächsten Jahren stark ausweiten (vgl. Abb. 1). Abregeln bei voller Vergütung, Stromexport zu negativen Preisen und späterer Import zu Höchstpreisen stellen kein nachhaltiges Konzept dar. Langfrist- bzw. saisonale Speicher sind die Schlüssel zur Integration der erneuerbaren Energien, und die Schaffung eines sich ergänzenden Energiesystems basierend auf den beiden Säulen Strom und Gas mit der Power-to-Gas-Technologie als Bindeglied. Unter Power-to-Gas wird die Umwandlung von elektrischer Energie in Wasserstoff mittels Elektrolyse sowie gegebenenfalls eine nachfolgende Synthese von Wasserstoff und Kohlenstoffmonoxid oder Kohlenstoffdioxid zu Methan bzw. synthetischem Erdgas (SNG) verstanden [1]. Die Erdgasinfrastruktur in Deutschland ist bestens geeignet, gasförmige Energieträger aus regenerativen Quellen zu speichern, zu transportieren und bedarfsgerecht an den Verbraucher abzugeben. Über die hierfür notwendige Technologie und die Vorzüge Wasserstoff oder Methan als Speichermedium für volatile elektrische Energie aus Windkraft- und Photovoltaikanlagen zu nutzen, wurde bereits an anderer Stelle umfangreich berichtet [2]-[9]. Die direkte Einspeisung von Wasserstoff ist energetisch und anlagentechnisch günstiger, da ein Umwandlungsschritt wegfällt. Die Erzeugung von Methan bietet vor allem den Vorteil, dass die existierende Infrastruktur für Verteilung und Speicherung wie auch die Verbrauchseinrichtungen ohne Änderungen und Umstellungen genutzt werden können. Das Themengebiet Power to Gas ist sehr vielschichtig und wird vom DVGW und seinen Mitgliedsunternehmen im Rahmen von Forschungs- und Entwicklungsprojekten, Strategiediskussionen und nicht zuletzt über die Regelwerkssetzung intensiv bearbeitet. Im vorliegenden Artikel werden die technologischen Grundlagen erläutert und eine Auswahl der bisherigen Erkenntnisse vorgestellt. 1) Überblick Elektrolyse

Bei der Elektrolyse handelt sich um eine Redoxreaktion, die den umgekehrten elektrochemischen Umwandlungsprozess der Brennstoffzellenreaktion darstellt. Üblicherweise wird flüssiges Wasser zu Wasserstoff und Sauerstoff unter Nutzung von elektrischem Strom zersetzt: H 2O( f )  H 2  1 O2  R H 0  286 kJ / mol . Wird Elektrolyse mit Wasser2 dampf betrieben (Hochtemperaturelektrolyse), verringert sich die notwendige Reaktionsenthalpie um die Verdampfungsenthalpie: H 2O( g )  H 2  1 O2  R H 0  242 kJ / mol . 2 Obwohl man unter Elektrolyse meistens die Zersetzung von flüssigem Wasser versteht, ist sie auch mit weiteren Stoffen möglich. In Bezug auf Power-to-Gas Technologien ist CO2 von Interesse, insbesondere wenn eine anschließende Methanisierung zu SNG angestrebt wird: CO2  CO  1 O2  R H 0  283,2 kJ / mol . 2 29

Die alkalische Elektrolyse und wird bereits seit mehr als 80 Jahren zur Zersetzung von flüssigem Wasser betrieben. Es existieren jedoch mehrere Elektrolyseverfahren, die nach der Art des verwendeten Elektrolyten unterschieden werden. Die wichtigsten in Bezug auf Power-to-Gas Technologien sind:   

Alkalische Elektrolyse (AEC) Elektrolyse mit Polymerelektrolytmembran (PEMEC) Hochtemperaturelektrolyse mit Festoxid-Elektrolysezellen (SOEC)

Abb. 1: Der Speicherbedarf wird mit dem geplanten Ausbau der regenerativen Stromerzeugung wachsen: Entwicklung Jahresdauerlinie für die elektrische Residuallast in Deutschland (Bildquelle: DVGW e.V., Daten aus [10]) a) Thermodynamische Grundlagen

Die bei der Brennstoffzellenreaktion umgesetzte Reaktionsenthalpie, unter Bildung eines Produktes, muss bei der Elektrolyse mindestens aufgewendet werden, um den Stoff wieder zu zersetzen. Die Enthalpie kann hierbei in definierten Grenzen in Form von elektrischer Arbeit und Wärmeenergie zugeführt werden. Wird die Elektrolyse von flüssigem Wasser allein durch elektrische Arbeit durchgeführt, gilt:

 R H 0  Wel ; E H0 

 R H 0  2  F  E H0

286 kJ R H 0 mol  1, 48 V  C 2 F 2  96485 mol

F : Faraday-Konstante [9,6485309·104 A·s·mol-1] E H0 :thermoneutrale Spannung

Die Elektrolyse kann theoretisch auch unterhalb von 𝐸𝐻0 betrieben werden, jedoch nicht unterhalb der reversiblen Zellspannung 𝐸𝐺0 = Urev: 237 kJ  G0 mol  1, 23 V  G 0 : freie Standardenthalpie (reversibel) EG0  R  R C 2  F 2  96487 mol Wird die Elektrolyse unterhalb von 𝐸𝐻0 betrieben, muss die Differenz zu 𝐸𝐻0 in Form von thermischer Energie zugeführt werden. Hierbei nimmt die freie Enthalpie der Reaktion ΔRG mit steigender Temperatur stark ab, wobei die Reaktionsenthalpie ΔRH sich nur wenig mit steigender Temperatur ändert (siehe Abb. 2). Es gilt also, dass je höher die Temperatur bei der Elektrolyse, umso geringer die theoretisch aufzuwendende elektrische Mindest30

arbeit ist. Dieser Effekt wird aber erst bei sehr hohen Temperaturen in der Hochtemperatur-Dampfelektrolyse für die Praxis nutzbar. Für die üblichen Wasserelektrolysesysteme, die nur durch elektrische Energie betrieben werden, gilt, dass eine Mindestspannung bzw. Zersetzungsspannung UZ für die Elektrolysereaktion aufgewendet werden muss, die größer ist als die theoretische (thermodynamische) thermoneutrale Spannung. Die Differenz wird als Überspannung UOV bezeichnet. Es gilt: Die Überspannung hat kinetische Ursachen: wie Polarisation, Diffusionsüberspannung durch gehemmten Stofftransport, Adsorptionsüberspannung oder Durchtrittsüberspannung durch gehemmten Ladungsdurchtritt, Der Betrag der Überspannung hängt u.a. von Elektrodenmaterial, Temperatur und Stromdichte ab. Die Zersetzungsspannung UZ beschreibt somit die Mindestspannung, die an zwei Elektroden angelegt werden muss, damit an diesen eine Gasentwicklung stattfindet.

Abb. 2: Temperaturabhängigkeit der thermoneutralen und reversiblen Spannung der Wasserelektrolyse, Quelle: DECHEMA

Im realen Betrieb müssen neben der Überspannung UOV weitere Spannungsverluste an den Elektrodenoberflächen kompensiert werden: Ohmsche Verluste im Elektrolyten UM (z.B. Membran bei PEMEC, KOH bei AEC, YSZ bei SOEC) bzw. zwischen Elektrode und Stromübertrager UE und Verluste durch Gasblasenbildung UG bzw. Transportlimitierung an Phasengrenzen. Somit liegt die reale Spannung bei der Wasserelektrolyse deutlich höher als die thermoneutrale Zellspannung und noch viel höher als die reversible Zellspannung. Der Faradaysche Wirkungsgrad ηF der Elektrolyse wird durch einen Vergleich der theoretischen Gasmenge beim vorliegenden Elektrolysestrom und der tatsächlich erzeugten Gasmenge ermittelt:  F  VPr oduktgas Vth . Unter Nutzung der Zustandsgleichung für ideale Gase: Vth  p  nH 2  R  T und der theoretisch benötigten Ladung Q für die Produktion von nH2 mol Wasserstoff: Q  nH 2  2  F kann man die theoretische Gasmenge und somit den Faradayschen Wirkungsgrad berechnen:

Vth 

Q  R T I  t  R T  2 F  p 2 F  p


F 

VPr oduktgas  2  F  p I  t  R T

Dieser liegt üblicherweise deutlich über 90% bis nahezu 100% und spiegelt Verluste aufgrund von elektrischen Stromflüssen, die nicht über den Elektrolyten geleitet werden, bzw. Diffusionsverluste wider. Der energetische Wirkungsgrad bezogen auf den oberen Heizwert des erzeugten Wasserstoffs im Vergleich zur eingesetzten elektrischer Energie beschreibt den tatsächlichen Wirkungsgrad der Energieumwandlung: 𝜂𝐻𝐻𝑉(𝐻2) =


𝑛̇ 𝐻2 · 𝐻𝑜 (𝐻2 ) 𝑃𝑒𝑙

b) Alkalische Elektrolyse (AEC)

Im Bereich der Elektrolyse gilt die AEC als Standardtechnologie und wird weltweit zur Wasserstofferzeugung vor allem dort angewendet, wo elektrische Energie günstig zur Verfügung steht bzw. wo kleinere Mengen an reinem H2 benötigt werden.

Abb. 3: Schematische Darstellung der Funktionsweise der Alkalielektrolyse. Quelle: ENERTRAG AG Als Elektrolyt dient bei AEC eine Lauge (KOH). Kathode und Anode sind durch ein Diaphragma (Ionendurchlässige Membran) getrennt (Zirfon-Diaphragmen, ChrysotilasbestDiaphragmen, PPS-Polyphenylsulfid-Diaphragmen). Die Elektroden sind meist mit Edelmetallkatalysatoren beschichtet. Die Entwicklung der Elektrodenmaterialien ist auf die Reduzierung der Überspannung fokussiert, wodurch eine energetische Wirkungsgradsteigerung einhergeht. Eine schematische Darstellung der Funktionsweise findet sich in Abb. 3. Das größte Elektrolysekraftwerk (156 MW, maximal 200 MW) befindet sich am AssuanStaudamm in Ägypten (33.000 m³/h (NTP), maximal 40.000 m³/h (NTP)) und wird seit 1960 betrieben. Auf Modulebene sind kommerziell erhältliche AEC-Systeme in einem Leistungsbereich von 5 kW bis zu mehreren MW erhältlich. Übliche energetische Wirkungsgrade liegen bei ca. 70% bezogen auf ΔRH0. Die Elektrolysemodule an sich erreichen zwar Wirkungsgrade von ca. 80% bei Nennlast; bei Berücksichtigung der parasitären Energieverbräuche und des dynamischen Betriebes liegt jedoch der reale Wirkungsgrad der Anlagen im Bereich von 65 ... 70%. AEC Systeme können bei höheren Drücken (derzeit bis zu ca. 30 bar) betrieben werden. Die Teillastfähigkeit liegt bei ca. 20 - 40% je nach Hersteller. Dynamischer sowie Überlastbetrieb sind möglich, wobei die Reaktionszeiten der Peripheriekomponenten den limitierenden Faktor darstellen und nicht der Elektrolyseur selbst. c) PEM-Elektrolyse (PEMEC)

Der prinzipielle Aufbau einer PEM-Elektrolyse ist der gleiche wie bei der PEMBrennstoffzelle (Abb. 4). Kathode und Anode sind durch eine protonendurchlässige Membran getrennt. Als Katalysator wird an den Elektroden üblicherweise Platin verwendet. Auf der Anodenseite können auch Edelmetalloxide (z.B. Iridiumoxid IrO2+Pt, IrxRuyTazO2) verwendet werden. 32

Abb. 4: Schematische Darstellung der Funktionsweise der PEM-Elektrolyse Im Gegensatz zu PEM-Brennstoffzellen können C-haltige Materialien anodenseitig nicht als Gasdiffusionsschicht (GDL) verwendet werden, da das Potenzial der Anode während der Elektrolyse so hoch ist, dass die Materialien korrodieren. Das PEMEC-Anodenmaterial des Stromverteilers basiert i.d.R. auf Ti in Form eines gesinterten porösen Mediums wie Siebgewebe oder Filzstoff. Der Stromverteiler besitzt einen hydrophoben Charakter, wobei Porosität und Porengröße so ausgelegt sind, dass die Gasblasenbildung den Transport an der Phasengrenze nur minimal limitiert (Porengrößen im Bereich von 10 - 20 µm). Besondere Maßnahmen zur Membranbefeuchtung, um die Protonenleitfähigkeit zu erhalten, sind nicht notwendig wie in PEM-Brennstoffzellen, da das anodenseitig vorhandene Wasser dafür ausreichend ist. PEM-Elektrolyseure haben den prinzipiellen Vorteil einer sehr guten Teillastfähigkeit, die in der Praxis nur von den parasitären Verlusten im Bereich von 5% begrenzt wird. Der Aufbau ist kompakter und die realisierbaren Stromdichten pro Membranfläche liegen deutlich höher als bei der AEC (ca. 2 A/cm2 im Vergleich zu ca. 0,5 A /cm2), womit die Leistungsdichte deutlich höher im Vergleich zur AEC-Elektrolyse liegt. Auch das dynamische Verhalten ist schneller gegenüber AEC-Elektrolyseuren, womit Lastschwankungen besser verfolgt werden können. Einerseits ist das Ansprechverhalten der Zellen praktisch verzögerungsfrei und andererseits liegt aufgrund der höheren Leistungsdichte eine geringere thermische Trägheit vor, so dass nur das Ansprechverhalten der Peripheriekomponenten den dynamischen Betrieb begrenzt. Der Zellwirkungsgrad liegt leicht höher als bei AEC und die Elektrolysemodule können Wirkungsgrade von ca. 85% erreichen. Im realen Anlagenbetrieb werden Wirkungsgrade im Bereich von 70 - 75% erreicht. PEM-Elektrolyseure wurden bis vor kurzem nur im kleinen Leistungsbereich angeboten. Aufgrund der klaren Vorteile gegenüber AEC und der großen Bedeutung für Power-to-Gas Technologien wird derzeit eine sehr dynamische Marktentwicklung beobachtet und es werden bereits Module im MW Bereich von mehreren Herstellern angeboten. d) Hochtemperatur-Elektrolyse (SOEC)

Der prinzipielle Aufbau einer Hochtemperatur-Elektrolyse auf Basis von FestoxidElektrolyten ist der gleiche wie bei der SOFC-Brennstoffzelle. Bei Betriebstemperaturen zwischen 750 und 1000 °C resultiert eine thermodynamisch deutlich günstigere Energieumwandlung im Vergleich zur Niedertemperatur-Elektrolyse. Da der FestoxidElektrolyt Sauerstoffionen transportiert, kann neben H2O auch CO2 elektrochemisch umgesetzt werden. 33

Abb. 5: Schematische Darstellung der Funktionsweise der SOEC-Elektrolyse Wie die SOFC, besteht die SOEC aus Anode, Kathode und Elektrolyt Abb. 5). Aufgrund der hohen Betriebstemperaturen besitzt die SOEC eine signifikant höhere Elektrodenkinetik, wodurch keine Edelmetallkatalysatoren notwendig sind. Die Elektrolytmatrix einer SOEC besteht in der Regel aus YSZ (Yttrium dotiertes Zirkoniumoxid) und besitzt bei hohen Temperaturen eine sehr gute thermische Stabilität sowie eine hohe Ionenleitfähigkeit. Abb 6: Verlauf von Reaktionsenthalpie ΔH und freier Energie ΔG für die Spaltung von Wasser als Funktion der Temperatur In Abb. 6 ist die Abhängigkeit der Reaktionsenthalpie ΔRH und der freien Energie ΔRG von der Temperatur für die Elektrolyse von H2O dargestellt. Ein vollständiger Umsatz bedarf der gesamten Reaktionsenthalpie, allerdings muss theoretisch nur der Betrag der freien Energie in Form elektrischer Energie zugeführt werden. Die Differenz (ΔRH - ΔRG) kann in Form von Wärmeenergie dem System zugeführt werden. Bei der NT-Elektrolyse verhindert das niedrige Temperaturniveau die Wärmezufuhr zum System. Parallel hierzu existieren kinetischen Barrieren und weitere Spannungsverluste, die einen exothermen Betrieb der NTElektrolyse deutlich über die thermoneutrale Spannung von 1,48 V erforderlich machen. Bei Betrieb im Hochtemperaturbereich unterliegt das Elektrolyse-System nicht den genannten Restriktionen. Bei den hohen Betriebstemperaturen wird Wasserdampf elektrolysiert, womit die notwendige Reaktionsenthalpie um die Verdampfungsenthalpie reduziert wird. Zusätzlich sinkt die notwendige freie Energie signifikant mit steigender Temperatur, so dass bei einer Temperatur von 800°C die thermodynamisch notwendige Spannung lediglich 0,98 V beträgt. Aus diesen Gründen kommen für die HT-Elektrolyse 3 verschiedene Betriebsarten in Betracht: 34

  

endothermer Betrieb: UB < EH; Differenz zu ΔRH muss als Wärme zugeführt werden autothermer Betrieb: UB = EH; adiabater Betrieb exothermer Betrieb: UB > EH; Differenz zu ΔRH muss als Wärme abgeführt werden.

Die HT-Elektrolyse steckt noch in den Anfängen. In Deutschland begannen die Tätigkeiten im Bereich der HT-Elektrolyse bereits Mitte der 1970er Jahre. Im Rahmen des Projektes HOT ELLY (High Operating Temperature Electrolysis) arbeiteten unter anderem die Firmen Dornier Systems und Lurgi mehr als ein Jahrzehnt auf diesem Gebiet [11,12] und erreichten energetische Wirkungsgrade von nahezu 100% (thermoneutraler Betrieb). Infolge niedriger Brennstoffpreise und mangelnder Perspektiven wurden die Arbeiten damals eingestellt. Erst mit der Etablierung der Hochtemperaturbrennstoffzelle (SOFC) begannen die Aktivitäten Mitte des letzten Jahrzehnts erneut. Neben den prinzipiellen Wirkungsgradvorteilen stellt die Umkehrbarkeit des Prozesses einen weiteren wichtigen Vorteil: eine SOCbasierte Zelle kann als Brennstoff- oder als Elektrolysezelle gleichzeitig verwendet werden. Zusätzlich kann neben H2O auch CO2 elektrochemisch umgesetzt werden. In Deutschland gibt es aktuell einige Entwicklungsaktivitäten, insbesondere durch die Firma Sunfire GmbH [13] unter Beteiligung von mehreren Forschungseinrichtungen und beim Forschungszentrum Jülich [14]. International gibt es weitere Aktivitäten, z.B. bei Topsoe Fuel Cell und am Riso National Laboratory for Sustainable Energy, Technical University of Denmark-DTU [15,16], am Idaho National Laboratory, USA [17] sowie am Central Research Institute of Electric Power Industry, Japan [18], um hier einige zu nennen. SOEC-Elektrolyseure haben den prinzipiellen Vorteil eines sehr hohen Zellwirkungsgrades (bei thermoneutralem Betrieb 100%) bei relativ hohen Stromdichten (derzeit < 1 A/cm2). Das dynamische Verhalten hängt im Wesentlichen von den Peripheriekomponenten ab. Hierbei reagiert die elektrochemische Umwandlung spontan, wobei die hohen Temperaturen eine langsame Annäherung zu einem neuen stationären Betriebspunkt bedingen. Die notwendige Verdampfungsenthalpie kann extern zugefügt werden, womit SOEC Elektrolyseure besonders geeignet für eine thermische Integration mit weiteren Prozessen sind. Insbesondere für Power-to-Gas Anwendungen mit anschließender Methanisierung lässt sich eine optimale wärmetechnische Integration realisieren. SOEC-Systeme können bei hohen Betriebsdrücken (im Labor bis zu 100 bar) betrieben werden, wobei die hohen Betriebstemperaturen eine technische Herausforderung darstellen.

Tab. 1: Vergleich der Elektrolyse-Technologien (angelehnt an [19] und aktualisiert)


e) Vergleich der Elektrolyse-Technologien

Das Interesse an Elektrolyse-Technologien wurde durch die Power-to-Gas Option zur Energiespeicherung in den letzten Jahren befeuert. Dadurch ist aktuell eine dynamische Entwicklung in den verschiedenen Elektrolysetechnologien zu verzeichnen. Die älteste und etablierte Technologie der alkalischen Elektrolyse ist nach wie vor die StandardTechnologie, wobei die technisch vorteilhaftere PEM-Elektrolyse aktuell die Marktreife erreicht hat. Die Hochtemperatur-Elektrolyse befindet sich noch im Entwicklungsstadium, besitzt jedoch die besten Zukunftsaussichten aufgrund der prinzipbedingten technischen Vorteile. Ein Vergleich der Technologien ist in Tab. 1 zusammengefasst. 2) Überblick Methanisierungsverfahren

Der über Elektrolyseprozesse erzeugte Wasserstoff kann durch Reaktion mit Kohlenstoffmonoxid und/oder -dioxid zu Methan umgewandelt und das erzeugte synthetische Erdgas (SNG) ins Erdgasnetz eingespeist werden. Als Kohlenstoffquellen können zum Beispiel Biogasanlagen (BGA), Biomassevergasungsanlagen oder Industrieprozesse (z.B. Zementherstellung) genutzt werden. Es gibt verschiedene Verfahrens- und Reaktorkonzepte für die Methansynthese. Ein Überblick findet sich in Abb. 7. Prinzipiell lässt sich eine Einteilung in katalytische und biologische Verfahren vornehmen. Beide Verfahrenskonzepte können in verschiedenen Reaktortypen realisiert werden, wobei der Festbettreaktor das Standardreaktorkonzept für die katalytische Methanisierung, der Rührkesselreaktor (CSTR) für die biologische Methanisierung darstellt.

Abb 7: Übersicht über die verschiedenen Methanisierungsverfahren und Reaktorkonzepte Die Methanisierung, die erstmals 1902 durch Paul Sabatier beschrieben wurde [20], ist mit einer frei werdenden Reaktionsenthalpie von -206 kJ/mol für die CO-Methanisierung und 165 kJ/mol für die CO2-Methanisierung stark exotherm (Gl. 1 und Gl. 2). Die CO2Methanisierung kann dabei als Kombination der CO-Methanisierung (Gl. 1) und der Wassergas-Shift-Reaktion (Gl. 3) betrachtet werden. Bei den Temperaturen der biologischen Methanisierung (40 - 70 °C) liegt das Wasser flüssig vor. In diesem Fall hat die Methanisierungsreaktion aufgrund der zusätzlich anfallenden Verdampfungsenthalpie des bei der Reaktion gebildeten Wassers eine Reaktionsenthalpie von ΔRH0 = -253 kJ/mol. Während die CO2-Methanisierung sehr selektiv ist, kommt es bei der CO-Methanisierung auch zu Nebenreaktion. Bei der katalytischen CO-Methanisierung können dabei längerkettige Kohlenwasserstoffe über Fischer-Tropsch-Reaktionen Gl. 4 und/oder fester Kohlenstoff über


die Boudouard-Reaktion Gl. 5) gebildet werden. CO kann auch biologisch methanisiert werden. Dabei entstehen sauerstoffhaltige Nebenprodukte wie Acetat oder Ethanol. CO-Methanisierung CO (g) + 3 H2 (g)  CH4 (g) + H2O (g)

ΔRH0 = -206 kJ/mol

Gl. 1

ΔRH0 = -165 kJ/mol

Gl. 2

ΔRH0 = -41 kJ/mol

Gl. 3

RH0 = -159 kJ/mol

Gl. 4

RH0 = -172 kJ/mol

Gl. 5

CO2-Methanisierung CO2 (g) + 4 H2 (g)  CH4 (g) + 2 H2O (g) Wassergas-Shift-Reaktion CO (g) + H2O (g)  H2 (g) + CO2 (g) Fischer-Tropsch Reaktion: n CO (g) + 2n H2 (g) → (-CH2-)n (g) + n H2O (g) Boudouard-Reaktion: 2 CO (g) ⇌ CO2 (g) + C (s)

a) Biologische Methanisierung

Unter biologischer Methanisierung wird die von Mikroorganismen katalysierte Umsetzung von Wasserstoff und Kohlenstoffdioxid zu Methan und Wasser verstanden. Die methanbildenden Mikroorganismen vom Typ Archeen sind in der Lage, auch unter extremen Lebensbedingungen, wie beispielsweise hohen Temperaturen und Drücken, die Stoffwechselprozesse am Laufen zu halten [21]. Die biologische Methanisierung (BM) läuft im technischen Reaktor allerdings meist zwischen 30 - 70 °C ab. Die biologische Umsetzung von Wasserstoff und Kohlenstoffdioxid zu Methan wurde bereits 1906 von Söhngen berichtet [22]. In den 1930er Jahren wurden erste grundlegende Untersuchungen zum Metabolismus der Umsetzung durchgeführt [23],[24],[25]. Wise et al. [26], Barik et al. [27] und Klasson et al. [28] untersuchten Jahrzehnte später die Umsetzung von kohlestämmigem Synthesegas (H2, CO2 und CO) zu Methan. Die Umsetzung einer solchen Gasmischung als Modellgas für biomassestämmiges Synthesegas zeigten Guiot et al. [29]. Neue Arbeiten beschäftigen sich mit der Methananreicherung in Biogas und der Kopplung mit Power to Gas [30][32]. Wie in Abb. 8 gezeigt, sind zwei prinzipielle Verfahrenskonzepte zur Kopplung der biologischen Methanisierung mit PtG-Prozessen möglich. Zum einen kann der produzierte Wasserstoff direkt in bestehende Biogasanlagen eingebracht werden, um die Methanausbeute während des konventionellen Fermentationsprozesses zu erhöhen (In situ Konzept). Zum anderen kann die biologische Methanisierung separat in externen Reaktoren erfolgen. Beide Konzepte werden im Folgenden kurz diskutiert. -

In situ Konzept

Der große Vorteil dieses Konzeptes besteht darin, dass vorhandene Biogasanlagen ohne zusätzliche Reaktoren und je nach Fermentertyp ohne größere Umbaumaßnahmen für Power-to-Gas-Konzepte eingesetzt werden können. In Deutschland existieren ca. 9.000 Biogasanlagen, von denen ein beträchtlicher Anteil für die PtG-Anwendung eingesetzt werden könnte. Da Biogasanlagen üblicherweise im ländlichen Raum betrieben werden, lassen sich die Anlagen sehr gut mit ebenfalls in ländlichen Gebieten befindlichen Windkraftanlagen und großen PV-Freiflächenanlagen koppeln, um dezentral anfallende Strommengen nutzen zu können. Allerdings sind bei den bestehenden Biogasanlagen in Deutschland sicherheitstechnische Aspekte bei zusätzlicher Wasserstoffeinbringung zu klären. Ge37

nerell können Leckagen an Fermenterabdeckungen sowie an den Übergängen zwischen Abdeckung und Wand auftreten. Je nach Abdeckungsmaterialien, beispielsweise Folien aus Kunststoffen, sind Gasdurchlässigkeiten bezüglich Methan definiert. Die Dichtigkeit bei erhöhten H2-Anteilen im Biogas muss allerdings im Einzelfall kritisch geprüft werden. Beim in situ Konzept ist eine vollständige Umsetzung des bei der Fermentation entstehenden Kohlenstoffdioxids im Biogas unrealistisch. Da parallel zur Methanisierung die weiteren Schritte der anaeroben Fermentation ablaufen, sind die Reaktorbedingungen nicht speziell auf die methanisierenden Archeen zugeschnitten. Zudem ist die Methanausbeute von der im Biogasprozess produzierten Menge an CO2 abhängig. Bei der biologischen Methanisierung stellt der H2-Stofftransport von der Gas- in die Flüssigphase den limitierenden Schritt hinsichtlich Reaktionsgeschwindigkeit dar. Der Stofftransport kann durch Erhöhung der Rührerdrehzahl prinzipiell verbessert werden. Da in großtechnischen Reaktoren die Drehzahl des Rührers die Kosten des produzierten Rohbiogases merklich beeinflusst, stellt die Wasserstoffeinbringung in die Flüssigphase eine der größten Herausforderungen bei der biologischen Methanisierung in herkömmlichen Biogasfermentern dar. Abwärme


Fermentation & biologische Methanisierung

Elektr. Energie Elektrolyse

CH4 ,CO2, H2O, H2S




H2O biologische Methanisierung

H2-Speicher (optional)

Substrat z.B. Maissilage

CH4 ,CO2 Fermentation

CH4 , H2O, H2S

CO2, H2O, H2S


Abb. 8: Fließschema der biologischen Methanisierung im Fermenter (dunkelgrün) und im externen Reaktor (hellgrün) -

Externer Reaktor

Die Durchführung der biologischen Methanisierung in separaten Reaktoren weist gegenüber der Umsetzung in konventionellen Biogasanlagen mehrere Vorteile auf, die insbesondere zu höheren spezifischen Umsetzungsraten führen. Die Milieubedingungen können optimal auf die methanisierenden Archeen eingestellt werden. Außerdem kann die Rückvermischung z.B. durch Einbauten verringert und die Wasserstoffeinbringung durch Druckreaktoren verbessert werden. Eine Druckerhöhung wirkt sich positiv auf den Stofftransport in die Flüssigkeit aus und beeinträchtigt den Metabolismus der Archeen nicht. Weiterhin hat diese Anordnung den Vorteil, dass auch andere CO2-Quellen eingesetzt werden können (z.B. aus Industrieanlagen). Als Reaktortyp werden häufig gerührte Reaktoren (CSTR) untersucht. b) Katalytische Methanisierung

Bei der katalytischen Methanisierung erfolgt die Methansynthese mit Hilfe eines Katalysators. Die exotherme Reaktion läuft meist zwischen 300 - 550 °C und bei Drücken von 5 100 bar ab. Stand der Technik in industriellen Anwendungen sind Nickelkatalysatoren, welche durch hohe Aktivitäten und Selektivitäten bei gleichzeitig moderaten Preisen überzeugen. Allerdings stellen sie hohe Anforderungen an die Reinheit des Eduktgases. Schwefel- und Sauerstoffverbindungen können zu einer Desaktivierung des Katalysators führen. In den 1970er-Jahren wurde der Sabatier-Prozess zur Herstellung von CH4 bzw. SNG aus 38

Kohle oder Naphtha zur industriellen Reife entwickelt. Zahlreiche Methanisierungskonzepte resultieren aus dieser Entwicklungsphase [33],[34]. Eine bis vor wenigen Jahren betriebene Anlage für die Erzeugung von SNG durch Braunkohlevergasung mit einer thermischen Leistung von ca. 2 GW entstand in North Dakota (USA) [35]. Um die Jahrtausendwende rückte die Erzeugung von synthetischem Erdgas in Zusammenhang mit der Biomasservergasung erneut in den Fokus. Die katalytische Methanisierung im Festbett (FB) ist das am weitesten verbreitete Methanisierungsverfahren. Allerdings stellt die Temperaturkontrolle eine der größten Herausforderung beim Betrieb von FB-Reaktoren da. Eine verbesserte Wärmeregulierung ist in Wirbelschichtreaktoren möglich. Das ursprünglich am EnglerBunte-Institut in Zusammenarbeit mit Thyssengas GmbH entwickelte Comflux-Konzept [36] wurde vom Paul Scherrer Institut (PSI) weiterentwickelt und in Güssing in Kombination mit einer Biomassevergasungsanlage in einer Anlagengröße von 1 MW demonstriert [37]. Problematisch ist bei Wirbelschichtreaktoren hauptsächlich der im Vergleich zum Festbettreaktor erhöhte Abrieb des Katalysators. Ein Abb. 9: Dreiphasenmethanisierung weiterentwickeltes Reaktorkonzept (Prinzipskizze) stellt die Dreiphasenmethanisierung (3PM) dar, bei der die Reaktion in einer flüssigen Phase abläuft (Abb. 9). Dabei liegt der fein gemahlene Katalysator suspendiert in einer Wärmeträgerflüssigkeit vor, wodurch kaum Abrieb entsteht und zusätzlich durch Temperierung der Flüssigkeit eine effiziente Temperaturkontrolle möglich ist [38],[39]. Weiterhin werden derzeit weitere Reaktorkonzepte wie beispielsweise Waben- [40] und Mikroreaktoren [41],[42] sowie für die adsorptionsunterstützte Methanisierung [43] entwickelt. 3) Vergleich biologische und katalytische Methanisierung

Sowohl die biologische als auch die katalytische Methanisierung weisen Vor- und Nachteile auf. Die Auswahl eines geeigneten Verfahrens hängt entscheidend von den örtlichen Rahmenbedingungen, der Anlagengröße und den Möglichkeiten zur Kopplung mit bereits vorhandenen Anlagen ab. Dennoch können einige generelle Aussagen getroffen werden. Bei Betrachtung des thermodynamischen Gleichgewichts unter den Bedingungen der CO2Methanisierung weist die biologische Methanisierung klare Vorteile gegenüber der katalytischen Methanisierung auf. Wie in Abb. 10 gezeigt, sind im thermodynamischen Gleichgewicht bei atmosphärisch betriebenen Reaktoren und Temperaturen von etwa 300 °C lediglich 80 Vol.-% CH4 im trockenen Produktgas möglich, wodurch mehrere Reaktoren und/oder sehr niedrige Methanisierungstemperaturen um 250 °C zur Erreichung von hohen Umsatzgraden notwendig werden. Im Gegensatz zur biologischen ist bei der katalytischen Methanisierung also mit Gleichgewichtslimitierungen zu rechnen. Höhere Drücke sowie eine effiziente Wärmeabfuhr sind vorteilhaft für die exotherme Reaktion.


30 25

95 20

— UCO2 --- yCH4 - ∙ - yH2


15 10


H2-Anteil in Vol.-%

CO2-Umsatz in %, CH4-Anteil in Vol.-%


5 80

0 0







Temperatur T in °C

Abb. 10: Gleichgewichtsberechnung der CO2-Methanisierung mit H2/CO2-Verhältnis = 4, Gaszusammensetzung trocken Im Folgenden werden die beiden biologischen Verfahrenskonzepte mit dem am weitesten verbreiteten katalytischen Methanisierungskonzept (KM), dem Festbettreaktor (FB) und einem, für den Power-to-Gas-Betrieb innovativen Konzept, der Dreiphasenmethanisierung (3PM) verglichen. Eine Gegenüberstellung der wichtigsten Parameter und Einflussgrößen findet sich in Tab. 2.

Reaktor Typ


BM (in situ)

BM (extern)














T in °C

30 – 60

40 - 70

300 – 350

300 - 550

p in bar


1 - 10


> 10

Pilot- und Demomaßstab

Pilot- und Demomaßstab


Kommerziell verfügbar

< 13

< 100

500 – 1000

2000 - 5000

Gas-Flüssigkeit Stofftransport CO2Verfügbarkeit

Stofftransport Gas-Flüssigkeit, Rückvermischung

Stofftransport Gas-Flüssigkeit




niedrig - mittel


Entwicklungsstand Raumgeschwindigkeit GHSV in h-1 Limitierungen Toleranz gegenüber Verunreinigungen Dynamischer Betrieb

Limitiert durch Regelung und Anlagenperipherie

Strombedarf in kWh/m3 SNG (Einspeisedruck 16 bar)


0,3 - 1,3

< 0,4

< 0,4




gut - sehr gut

sehr gut

Tab. 2: Vergleich zwischen biologischer und katalytischer Methanisierung



Entwicklungsstand und Dynamik

Obwohl katalytische Methanisierungsverfahren bereits kommerziell betrieben werden, stellt sich in Zusammenhang mit PtG-Anwendungen die Frage, ob und gegebenenfalls in welchen Grenzen der Prozess dynamisch betrieben werden kann. Sowohl die an der biologischen Methanisierung beteiligten Mikroorganismen als auch der Katalysator beim katalytischen Verfahren reagieren im Vergleich zur Gesamtanlage schnell auf Laständerungen. Allerdings ist in vielen Fällen eine Mindestlast notwendig. Beispielsweise muss bei der 3PM der Katalysator in Suspension gehalten werden, wozu nach derzeitigem Stand eine Mindestlast von 10 - 20 % der Nennlast notwendig ist. Bei Festbettreaktoren werden bis zu 40 % berichtet, wobei kleinere Mindestlasten bei entsprechender Anlagenregelung erreichbar sein sollten. Für die BM sind bisher noch keine Grenzwerte bezüglich Mindestlast vorhanden. Die Mindestlast wird vermutlich durch den Energiebedarf des Rührers definiert. Bei der katalytischen Methanisierung ist im Stand-by Betrieb zu beachten, dass der Katalysator keiner oxidierenden Atmosphäre ausgesetzt wird und eine Mindesttemperatur von ca. 200 °C nicht unterschritten wird. Eine Temperatur über 200 °C ermöglicht ein schnelles Anfahren und verhindert die Bildung von Nickel-Carbonylen. Bei Versuchen im Labormaßstab zur BM berichtet beispielsweise Krajete GmbH, dass nach 560 h Stand-by ein Wiederanfahren des Prozesses problemlos möglich war [44]. -


Um verschiedene Verfahren vergleichen zu können, bietet sich ein Vergleich der Raumgeschwindigkeit (GHSV) bei vergleichbaren Umsatzraten an. Auf Grund der hohen Reaktionstemperaturen und der geringsten Stofftransportlimitierung werden die größten GHSVWerte bei FB-Reaktoren erreicht. Da die in situ BM bei niedrigen Temperaturen und nur parallel zur Methanogenese abläuft, werden hier GHSV-Werte von weniger als 13 h-1, bei gleichzeitig niedrigen Methanbildungsraten realisiert. Um den gleichen Eingangsvolumenstrom umsetzen zu können, sind daher bei der BM um den Faktor 10 - 100 größere Reaktoren nötig. -

Toleranz gegenüber Spurenkomponenten

Viele Störstoffe wie z.B. H2S, NH3 oder Aromaten können bei der KM bereits in geringen Konzentrationen (> 0,1 ppm) die aktiven Zentren des Katalysators blockieren und dauerhaft schädigen. Die bei der BM beteiligten Mikroorganismen sind weitaus unempfindlicher gegenüber typischen Katalysatorgiften und erfordern damit kaum Anforderungen an die Qualität der Einsatzgase. -

Energiebedarf und Reaktionswärmenutzung

Beim Vergleich fällt auf, dass der Bedarf an elektrischer Energie bei der BM, insbesondere für Rührkesselreaktoren, deutlich über dem für katalytische Verfahren liegt. Nach Herstellerangaben hat beispielsweise eine Zweiphasenpumpe zum Einbringen von H2 und CO2 beim in situ Konzept einen Energiebedarf von 1,6 kWh/m³ SNG [44]. Bei einem unter Druck betriebenen Fermenter und angepasstem Reaktorkonzept für externe BM-Reaktoren, z.B. Rieselbett, kann sich der Strombedarf auf 0,3 kWh/m³ SNG reduzieren und liegt damit im Bereich der KM. In der Regel ist jedoch auch bei der externen BM ein Rührsystem notwendig, das einen Energiebedarf von bis zu 1,3 kWh/m³ SNG aufweist. Während die BM bei moderaten Temperaturen bis maximal 70 °C betrieben wird, beträgt das minimale Temperaturniveau bei der katalytischen Methanisierung etwa 300 °C. Damit ist eine sehr gute Wärmerückgewinnung mit mehr Verwendungsmöglichkeiten gegeben. Die Abwärme der externen BM kann im Winter als Heizwärme genutzt werden, während hingegen im Sommer eine Reaktorkühlung notwendig ist, um die Reaktionswärme abführen zu können. 41

4) DVGW-Forschungsaktivitäten in Bereich Power to Gas

Die Forschungs- und Entwicklungsarbeiten der Gaswirtschaft wurden in den letzten Jahren im Rahmen der DVGW-Innovationsoffensive „Gastechnologie“ gebündelt (www.dvgwinnovation.de). Im Rahmen von mehreren Themenclustern wird untersucht, welche Rolle die Erdgasinfrastruktur bei der Energiewende in Deutschland spielen kann. Eine jüngst abgeschlossene Studie zur Bewertung von Power-to-Gas unter Klimaschutzgesichtspunkten des Potsdam Instituts für Klimafolgenforschungen kommt zum Ergebnis, dass Powerto-Gas bei einem funktionierendem CO2-Zertifikatehandelssystem wegen des systemübergreifenden Ansatzes insgesamt kostendämpfend wirken kann [10]. Hierzu müssen jedoch beträchtliche Elektrolysekapazitäten im Bereich bis zu 50 GW aufgebaut werden (Abb. 11). Im Themengebiet „Power-to-Gas“ begleitet der DVGW aktuelle Demonstrationsvorhaben, arbeitet weiter an der Absicherung der Wasserstoffzumischrate im Erdgas [45] sowie an

Abb. 11: Katalytische Methanisierung von Wasserstoff: Optimierte Systemintegration mit einer Biogasanlage. Entwicklung der notwendigen Elektrolyseleistung für verschiedene Szenarien (Bildquelle: DVGW e.V., Daten aus [10]) Fragen der Messung bzw. Abrechnung von Wasserstoff/Erdgasgemischen [46]. Dazu wurden die bestehenden Bewertungen bzgl. der Wasserstofflimitationen weiter vertieft und abgesichert, mit dem Schwerpunkt auf den Leitungssystemen und den Anwendungstechnologien. Bei Untertagespeichern zeigten die bisherigen Untersuchungen ein differenziertes Bild. Während Kavernenspeicher schon heute zur Speicherung von reinem Wasserstoff genutzt werden, etwa in der chemischen Industrie, sind bei Porenspeichern mikrobiologische Vorgänge im Zusammenhang mit Wasserstoff zu bewerten. Im Rahmen des Demonstrationsprojektes „Sun Storage“ werden die Effekte anhand eines Feldversuchs an einem realen Untergrundspeicher in Österreich untersucht [47]. Ein weiteres Thema in diesem Zusammenhang sind Wasserstofflimitationen im Erdgas bei der Verwendung als Kraft-


stoff. Hier fixieren internationale Vorschriften bei derzeitigen CNG-Tanks einen Grenzwert von zwei Prozent, unter Bezug auf bestimmte Materialcharakteristiken, woraus sich Forschungs- und Anpassungsbedarfe ergeben. Neben der direkten Wasserstoffzumischung wird auch intensiv am Thema „Methanisierung“ gearbeitet. Auch zu den bereits in Kap. 2) diskutierten Methanisierungskonzepten der biologischen und katalytischen Methanisierung wurden umfangreiche technoökonomische Analysen durchgeführt [48, 44]. Neben der notwendigen Flexibilität in der Fahrweise (Teillastverhalten, Kalt-/Warmstartverhalten, Warmhaltebetrieb) ist die Nutzung der freigesetzten Reaktionswärme ein wichtiger Aspekt bei PtG-Anwendungen. Deshalb ist eine intelligente Verschaltung mit anderen Prozessen zwingend erforderlich. In Abb. . 12 ist schematisch die Prozessverschaltung mit einer Biogaseinspeisung dargestellt. Insbesondere in Kombination mit bestehenden Biogasaufbereitungs- und einspeiseanlagen wäre die PtG-Kopplung vielversprechend. Abhängig vom Biogaserzeugungs- und aufbereitungsverfahren kann die bei der Elektrolyse und bei Methanisierung entstehende Abwärme genutzt werden (z.B. für die Fermenterbeheizung, für die Regeneration des Waschmittels der Biogasaufbereitung, für die Bereitstellung des internen Strombedarfs über eine Dampfturbine). Mit einer umfangreichen Prozessintegration und Wärmeauskopplung lassen sich energetische Wirkungsgrade im Abb. 12: Verschaltungskonzept für die Kopplung Bereich von 80 % erreichen. von PtG mit Biometha: frühzeitiger Aufbau von Auch die Verschaltung mit Kläranlagen könnte eine Power-to-Gas Kapazitäten ist sinnvoll interessante PtG-Variante sein. Hierbei kann auch der bei der Elektrolyse erzeugte Sauerstoff genutzt werden. Durch die Kopplung mit Biogasanlagen können Stromlasten von 5 - 20 MW konvertiert werden. Größere Anlagen können durch Kopplung mit anderen Prozessen, insbesondere aus der chemischen Industrie, realisiert werden. Netz- und Asset-orientierte Forschungen bündelt der DVGW in dem Forschungscluster „Smart Grids“. Hier werden Konvergenzen und Verschaltungen zwischen den Strom- und Gasnetzen insbesondere auf der Verteilnetzebene untersucht. In einem gemeinsamen Vorhaben mit Forschungsstellen der Stromseite zum Einsatz der Power-to-Gas-Technologie in Verteilnetzen wurde festgestellt, dass diese Technologie auch unter dem Aspekt vermiedener Netzausbauten auf der Stromseite Vorteile aufweisen kann [49]. Hier ergaben sich neue und interessante Ansätze zu einer weitergehenden Bewertung dieser Technologie als Bestandteil eines Gesamtenergiesystems. Gleiches gilt im Zusammenhang mit dem Transport von Energie über lange Strecken [50]. Das Gasnetz transportiert heute schon mit rd. 1000 Mrd. kWh/a annähernd die doppelte Energiemenge des Stromnetzes (ca. 540 Mrd. kWh/a). Der Stromnetzausbau gestaltet sich nicht nur aus Akzeptanzgründen in der Bevölkerung als schwierig, auch im Hinblick auf die Kosten- bzw. Wirtschaftlichkeitsdiskussion der Energiewende im Allgemeinen von neuen Stromtrassen im Besonderen sollten in diesem Bereich Forschungen vertieft werden.


In diesem Zusammenhang gewinnt die Konvergenzbetrachtung über die Power-to-GasTechnologien auf den verschiedenen Ebenen der Strom- und Gasversorgung zunehmend an Interesse. Insbesondere auf der Ebene der Verteilnetze werden derzeit Forschungsarbeiten konzentriert, die auch an Realnetzen gespiegelt wurden. Die Ergebnisse zeigen, dass Gasnetze zur Bewältigung aktueller und zukünftiger Herausforderungen in Stromverteilungsnetzen entscheidend beitragen. Der erforderliche Ausbaubedarf der Stromnetze kann bei netzdienlicher Fahrweise von Power-to-Gas-Anlagen signifikant reduziert werden. Eine Wirtschaftlichkeit übergreifender Smart-Grid-Konzepte für Strom- und Gasverteilungsnetze wird erreicht durch Deckungsbeiträge aus Markt und Netz, Kopplung der Netze auf möglichst niedriger Spannungsebene, Investitionskosten für dezentrale Power-to-GasAnlagen von ca. 1.000 EUR/kWel (inkl. Einspeisung) sowie ein ausreichendes Zumischungspotenzial für Wasserstoff in den Gasnetzen (vgl. Abb. 13). Weiterhin haben diese Untersuchungen gezeigt, dass mit diesem dezentralen und netzdienlichen Ansatz dem Energiesystem die bei einer hohen Durchdringung mit erneuerbaren Energien langfristig benötigte Langzeitspeichertechnologie zur Verfügung gestellt wird, was in den regulatorischen Rahmenbedingungen derzeit nicht abgebildet ist. Weiterhin haben die Untersuchungen auch die entlastende Wirkung von Strom-zu-Gas-Kopplungstechnologien auf der Verteilnetzebene in das Strom-Hochspannungsnetz hinein gezeigt, was in aktuellen Untersuchungen quantifiziert wird. Die Nutzung von PtGKonzepten für die Mobilität ist ebenfalls ein stark diskutiertes Thema. Neben der Nutzung von Wasserstoff als Kraftstoff werden in diesem Kontext auch CNG, LNG und synthetische Flüssigkraftstoffe sowie die Einbindung von Elektrolyseuren in konventionellen Raffineriebetrieb betrachtet. Die „EU Clean Fuel Strategy“ [51] und die EUDirektive 2014/94/EU Abb. 13: Kosten und Erlöse von konventionellem und ge- zum Aufbau von Infrakoppeltem Ausbau von Verteilnetzen [49] struktur für alternative Kraftstoffe [52] unterstützt diese Gedanken. LNG soll zunehmend im Straßenschwerlastverkehr und bei der Schifffahrt eingesetzt werden. Hierzu wurde im November 2011 die Task Force LNG von Dena, DVGW und Zukunft Erdgas gegründet, um eine LNG-Strategie für den Straßenschwerlastverkehr in Deutschland zu entwickeln. In ersten Demonstrationsprojekten wird derzeit der Einsatz von LNG in der küstennahen Schifffahrt und in der Binnenschifffahrt untersucht. Die großen europäischen Binnenwasserstraßen stehen im Mittelpunkt der Untersuchungen, auch der Rhein. Gegenstand der Untersuchungen sind insbesondere die Motorentechnik und Infrastrukturfragen.


5) Pilot- und Demonstrationsprojekte

In den letzten Jahren wurde das Thema Power to Gas im Rahmen von zahlreihen Forschungs-, Entwicklungs- und Demonstrationsprojekten vorangebracht. Gegenstand der Untersuchungen ist insbesondere die Neu- und Weiterentwicklung von Elektrolyse- und Methanisierungsverfahren, die Demonstration der gesamten Prozesskette von der Erzeugung bis zur Einspeisung sowie die Einspeisung von Wasserstoff ins Erdgasnetz [53]. 2013 wurden die ersten PtG-Anlagen an das Gasnetz angeschlossen. Insgesamt befinden sich derzeit in Deutschland ca. 20 Anlagen in Planung, Bau oder Betrieb. Weitere Projekte, auch im europäischen Ausland, befinden sich in der konkreten Planung. Uniper Energy Storage GmbH betreibt inzwischen zwei PtG-Anlagen mit H2Einspeisung ins Gasnetz. In Falkenhagen wird seit 2013 eine 2 MW Alkali-Ektrolyse betrieben. In einer zweiten PtG-Anlage in Hamburg wird mit einer 1,5 MW PEM-Elektrolyse Wasserstoff erzeugt und in ein Verteilnetz eingespeist [55]. Der Abb. 14: Audi e-gas Anlage in Werlte (Emsland) erzeugte Wasserstoff wird in (Quelle: EWE Netz GmbH) das Transportnetz der ONTRAS Gastransport GmbH eingespeist. In Frankfurt am Main betreibt die Thüga-Gruppe seit Ende 2013 eine PtG-Anlage für die Einspeisung von Wasserstoff in ein städtisches Erdgasverteilnetz [56]. RWE Deutschland betreibt ebenfalls eine Pilotanlage zur Wasserstoffeinspeisung in Ibbenbüren [57]. Die derzeit größte PtG-Anlage wird von Audi im eGas-Projekt in Werlte betrieben. In diesem Projekt wird seit Juni 2013 eine 6 MW Elektrolyse-Anlage betrieben (Abb. 14). Der erzeugte Wasserstoff wird in einer katalytischen Methanisierung gemeinsam mit Kohlenstoffdioxid aus einer nahegelegenen Biogasaufbereitungsanlage zu Methan umgewandelt und in das Gasnetz der EWE AG eingespeist [58], [59]. Aufgrund einer umfangreichen Wärmeintegration liegt der energetische Gesamtwirkungsgrad der Anlage bei ca. 70 %. Durch Kooperation mit Windkraftanlagen kann garantiert werden, dass ausschließlich EEStrom eingesetzt wird. Seit Juli 2015 ist die Anlage auch für den Regelenergiemarkt präqualifiziert. Auch zur biologischen Methanisierung gibt es erste Pilot- und Demonstrationsanlagen. Die Viessmann Gruppe betreibt in Allendorf (Eder) seit Anfang 2015 eine PtG-Anlage, die aus einer PEM-Elektrolyse und einer biologischen Methanisierung besteht und in das lokale Erdgasnetz einspeist [60], [61]. Eine weitere Demonstrationsanlage auf Basis eines Druckrieselstromreaktors wurde in Pirmasens gebaut [62] [63]. Im Rahmen des BioKat-Projektes wird in Hvidovre (Dänemark) seit April 2016 eine biologische Methanisierung im Maßstab von 1 MW betrieben. Das erzeugte Gas wird in das lokale Verteilnetz eingespeist [64]. Neben dem BioKat-Projekt gibt es inzwischen auf europäischer Ebene weitere PtGProjekte, bei denen Pilot- und Demonstrationsanlagen gebaut werden. Über das EUForschungsprogramm Horizon 2020 wurde das von der DVGW-Forschungsstelle am Engler-Bunte-Institut koordinierte Demonstrationsprojekt STORE&GO initiiert [65]. In diesem Projekt werden an drei unterschiedlichen Standorten in Europa 3 vorhandene PtGAnlagen um innovative Methanisierungstechnologien erweitert. Die Anlagen werden in die lokalen Strom- und Gasnetze integriert. 45

6) Mikro- und makroökonomische Bewertung

Essenziell für die mögliche Umsetzung von PtG-Konzepten sind Fragen zur Wirtschaftlichkeit. Hierzu wurden im Rahmen von mehreren DVGW-Forschungsprojekten insbesondere Erzeugungskosten, Vermeidung von Netzausbaukosten und verschiedene Geschäftsmodellen analysiert sowie volkswirtschaftliche Aspekte bewertet. Hierbei wurden unter Berücksichtigung zukünftiger Technologie- und Marktpreisentwicklungen sowie möglicher Skaleneffekte auch Analysen für zukünftige Kostenpotentiale durchgeführt. Die Gestehungskosten für Wasserstoff und synthetisches Methan aus PtG-Prozessen liegen selbst im Vergleich zu Biomethan sehr hoch (Abb. 15). Dies deckt sich auch mit Analysen von anderen Autoren [66]. Die Ergebnisse zeigen deutlich, dass die wichtigste Einflussgröße auf die Gestehungskosten die jährlichen Volllaststunden und der angesetzte Preis für elektrische Energie sind. D.h. PtG-Anlagen, die nur Abb. 15: PtG-Gestehungskosten in Abhängigkeit von wenige hundert Stunden im Jahr betrieben Strombezugskosten und Volllaststunden [22] werden, sind kaum wirtschaftlich darstellbar. Gleiches gilt für Strompreise, bei denen sämtliche Letztverbraucherabgaben enthalten sind. Bei den Berechnungen wurden auch die erwarteten Kostensenkungspotenziale bei den Erzeugungsverfahren sowie verschiedene Anlagengrößen berücksichtigt. In Abb. 16 sind die SNG-Gestehungskosten für verschiedene CO2-Quellen/Anlagengrößen, Volllaststunden und Verfahrens- bzw. Nutzungsvarianten dargestellt. Es wurde die Kopplung mit einer Biomethananlage (5 MW SNG-Leistung), mit einer SNG-Erzeugungsanlage basierend auf einer Holzvergasung (30 MW SNG-Leistung) und mit einer Ammoniakanlage (110 MW SNG-Leistung) betrachtet. Außerdem wurden verschiedene Integrations- und Wärme- bzw. Sauerstoffnutzungskonzepte analysiert: 

Fall 1: reine SNG-Erzeugung

Fall 2: SNG-Erzeugung mit Teilnutzung von Abwärmeströmen für die Koppelprozesse (z.B. Biogasaufbereitung)

Fall 3: wie Fall 2 + zusätzliche Erzeugung von elektrischer Energie aus den Abwärmeströmen

Fall 4: wie Fall 3 + zusätzliche Auskopplung von Wärme in Nahwärmeprozesse

Fall 5: wie Fall 4 + zusätzliche Verwertung des bei der H2-Erzeugung anfallenden Sauerstoffs


Abb. 16: SNGGestehungskosten für die Kopplung von PtG mit verschiedenen CO2-Quellen (Strombezugspreis 5 ct/kWh, Wärmeerlös 4 ct/kWh, Sauerstofferlös 7 ct/m³) [48]

Es wird deutlich, dass die SNG-Erzeugungskosten mit größeren Anlageleistungen und mit höherer Auslastung deutlich sinken. Bei der Kopplung mit einer Biomethananlage sind die Gestehungskosten im Fall 3 und niedriger Auslastung höher als in den Fällen 1 und 2. Der Grund dafür ist die kleine und sehr kostspielige Dampfturbine. Die Kosten für die Methanisierung sind im Vergleich zu den Kosten für die Wasserstofferzeugung als gering einzustufen und machen nur etwa 10 - 15 % der Gesamtkosten aus. Weiterhin wurden verschieden Geschäftsmodelle analysiert. Neben der Speicherung von Überschussstrom wurden die Bereitstellung erneuerbarer Gase als Kraftstoffe, die Teilnahme am Regel- und Ausgleichsenergiemarkt sowie die Nutzung von anfallendem Kohlenstoffdioxid zur Reduktion der benötigten Treibhausgasemissionszertifikate von Industrieunternehmen bewertet. Beispielhaft sind in Abb. 17 die Gestehungskosten der einzelnen Geschäftsmodelle für eine Projektion ins Jahr 2030 dargestellt. Die Grenzkosten (variable Betriebskosten) sind gesondert dargestellt. Der Differenzbetrag zu den absoluten Gestehungskosten beinhaltet die Fixkosten, von denen der Großteil auf die Investition entfällt. Die Berechnungen zeigen, dass die wichtigste Einflussgröße auf die Gestehungskosten die jährlichen Volllaststunden sind. Die Strombezugskosten, die Effizienz der Power-to-GasAnlage und die CO2-Kosten haben im Gegensatz dazu einen geringeren Einfluss auf die Gestehungskosten von Wasserstoff bzw. von synthetischem Methan (SNG). Einen wesentlichen Anteil an den Herstellungskosten nimmt hingegen die aktuell in den meisten Fällen zu entrichtende EEG-Umlage ein. Eine Befreiung von der EEG-Umlage ist derzeit nur für den Fall der Rückverstromung von Speichergas gegeben. Zusätzlich wurde auch die Möglichkeit einer Abwärme- und Sauerstoffnutzung betrachtet. Der Erlös durch den Verkauf dieser anfallenden Nebenprodukte hat allerdings keinen signifikanten Einfluss auf die Gestehungskosten ist aber insbesondere im Hinblick auf die Energieeffizienz wichtig. Insgesamt zeigt die rein quantitative Betrachtung der Herstellungs- und Betriebskosten des Power-to-Gas-Systems (ohne indirekte Effekte) sowie dessen Alternativlösungen, dass die Power-to-Gas-Technologie – bei der Betrachtung eines singulären Geschäftsmodells – mittel- und langfristig im Segment der Energiespeicherung sowie am Kraftstoffsektor eine Wettbewerbsfähigkeit erlangen kann. Die Wettbewerbsfähigkeit am Regel- und Ausgleichsenergiemarkt sowie als Alternative zum Netzausbau und zur Kohlenstoffdioxid-Bindung zur Einsparung von Treibhausgasemissionszertifikaten wird allerdings schwer zu erreichen sein. Es ist daher eine Kombination von Geschäftsmodellen für den Betrieb einer 47

Power-to-Gas-Anlage zu empfehlen. Zum einen, da dadurch eine höhere betriebswirtschaftliche Rentabilität erreicht werden kann, zum anderen, da somit auch für das Energiesystem mehrere positive Faktoren generiert werden können. Die zentrale Fragestellung für die Rahmensetzung zur Implementierung neuer Technologien ist, ob langfristig sowohl im betriebswirtschaftlichen als auch im volkswirtschaftlichen Kontext durch die Markteinführung eines spezifischen Produktes bzw. Systems auch eine Rentabilität gegeben ist. Für die Markteinführung und die Weiterentwicklung ist hierbei nicht zwingend eine betriebswirtschaftliche Rentabilität von Bedeutung. Sofern die volkswirtschaftlich positive Relevanz dieses Systems vorhanden ist, kann die Weiterentwicklung und Implementierung einer Technologie von großer Bedeutung sein.

Gestehungskosten in € / kWhHHV

1,0 10 MWel - Einspeisung in das Erdgasnetz - Gestehungskosten im Jahr 2030


Gestehungskosten max


Gestehungskosten min


Grenzkosten min

0,6 0,5 0,4 0,3 0,2 0,1 0,0 H2


1 - Speicherung Überschussstrom



2 - Alternativer Kraftstoff



3 - Sekundärregelenergie

SNG 4 - Einsparung Emissionszertifikate

Abb. 17: Zukünftige Gestehungskosten von in das Erdgasnetz eingespeistem Wasserstoff bzw. synthetischem Methan aus einer Power-to-Gas Anlage mit 10 MW elektr. Nennleistung in den einzelnen Geschäftsmodellen [54] Anmerkung: Die Gestehungskosten von Wasserstoff und synthetischem Methan beziehen sich auf das Produktgas aus der Power-to-Gas Anlage inklusive der Einspeisung in das Erdgasnetz, jedoch ohne Berücksichtigung weitere Nutzung. Die Nennleistung der Powerto-Gas Anlage beträgt 10 MWel, die Volllaststunden und die Strombezugskosten variieren je nach Geschäftsmodell (1: 1.500 h/a, 2: 5.630 h/a, 3: 2.000 - 3.000 h/a, 4: 5.630 h/a). 7) Zukunftskonzepte auf Basis der Hochtemperaturelektrolyse

Abb. 18 veranschaulicht die Wärmeströme der HT-Elektrolyse bei 800°C sowie der gekoppelten CO2-Methanisierung bei 250°C zur Erzeugung von 1 Mol CH4 bei exothermer Fahrweise (1.4 V). Die Wärmemenge, die durch Abkühlung, Überspannung und Reaktionswärme der Methanisierung entsteht, ist in Summe größer als die benötigte Wärmemenge für Verdampfung und Vorwärmung. Dadurch ergeben sich neue Möglichkeiten bei der Systemverschaltung, die einen deutlich höheren energetischen Wirkungsgrad bei der Energieumwandlung von Strom zu SNG im Vergleich zur konventionellen Route über die Niedertemperaturelektrolyse mit anschließender Methanisierung ermöglicht, wie in Abb. 19 verdeutlicht wird. 48

Dadurch ergeben sich neue Möglichkeiten bei der Systemverschaltung, die einen deutlich höheren energetischen Wirkungsgrad bei der Energieumwandlung von Strom zu SNG im Vergleich zur konventionellen Route über die Niedertemperaturelektrolyse mit anschließender Methanisierung ermöglicht, wie in Abb. 19 verdeutlicht wird.

Abb. 18: Wärmeströme von HT-Elektrolyse (800°C) und gekoppelter CO2Methanisierung (250°C) zur Bildung von 1 Mol CH4 bei exothermer Fahrweise [67] Eine erste Realisierung dieses thermisch integrierten Konzeptes wird aktuell im Rahmen des von der EU geförderten Forschungsprojektes HELMETH (Integrated HighTemperature Electrolysis and Methanation for Effective Power to Gas Conversion) realisiert unter Koordination des Engler-Bunte-Instituts am KIT und Beteiligung der Sunfire GmbH, der DVGW Forschungsstelle am Engler-Bunte-Institut des KIT und weiterer Europäischen Firmen und Forschungseinrichtungen (www.helmeth.eu). Hierbei wird eine erste Pilotanlage für ca. 30 kWel bei Betriebsdrücken von 15-30 bar realisiert. Die thermische Integration zwischen Elektrolyse und Methanisierung erfolgt über die Verdampfung des Wassers im Methanisierungsmodul, wobei die HT-Elektrolyse leicht exotherm betrieben wird. Es werden energetische Wirkungsgrade für die Umwandlung zu SNG durch die thermisch integrierte HT-Elektrolyse/Methanisierung von ca. 85% erwartet.

Abb. 19: Exemplarischer Vergleich der Wirkungsgradkette PtG (SNG) bei Verwendung der NT-Elektrolyse und der thermisch integrierten HT-Elektrolyse (angelehnt an [67]) 49

8) Ausblick

Power to Gas kann einen entscheidenden Beitrag zum Gelingen der Energiewende beitragen. Neben der Speicherung von elektrischer Energie kann auch die Transportfunktion von der bestehende Gasinfrastruktur übernommen werden. Ein weiterer Treiber dürfte die Bereitstellung von Kraftstoffen aus regenerativen Quellen sein. Bisher liegen die spezifischen Erzeugungskosten deutlich über den Preisen für Gase aus fossilen Quellen. Damit PtGTechnologien in die breite Anwendung kommen können, müssen die Kosten deutlich gesenkt und der Gesamtnutzen für das Energiesystem volkswirtschaftlich bewertet werden. Einen wichtigen Beitrag kann hierbei die Steigerung des Wirkungsgrades bei der PtGEnergieumwandlungskette leisten, durch den Einsatz von HT-Elektrolyse. Auch unter betriebswirtschaftlichen Gesichtspunkten werden Power-to-Gas Anlagen kombinierte Geschäftsmodelle bedienen müssen. So ist es beispielsweise denkbar, dass eine Anlage einerseits für die Erzeugung von regenerativen Kraftstoffen eingesetzt wird und Zusatzerlöse über den Regelenergiemarkt erwirtschaftet werden. Letztendlich muss PtG auch auf europäischer Ebene betrachtet werden. Ein richtungsweisendes Projekt ist das EUDemonstrationsvorhaben STORE&GO (www.storeandgo.info), bei dem 3 innovative PtGKonzepte in Deutschland, Italien und der Schweiz demonstriert und eine europäische PtGRoadmap entwickelt werden. Literatur- und Quellennachweis

[1] Götz, M.; Lefebvre, J.; Mörs, F.; McDaniel Koch, A.; Graf, F.; Bajohr, S.; Reimert, R.; Kolb, T.: Renewable Power-to-Gas: A technological and economic review; Renewable Energy 85 (2016); S. 1371 - 1390 [2] M. Götz, F. Ortloff, S. Bajohr, F. Graf, gwf-Gas Erdgas 2011, 152 (4), S. 200 - 210. [3] Müller-Syring, G., Henel, M., Rasmusson, H., Klaker, H., Köppel, W., Höcher, T., Sterner, M.: Power to Gas: Untersuchungen im Rahmen der DVGW-Innovationsoffensive zur Energiespeicherung. energie|wasser-praxis 62 (2011) 4, S. 72 - 77 [4] S. Rieke, energie|wasser-praxis 2010, 61 (9), S. 66 - 72 [5] Müller-Syring, G., Henel, M., Rasmusson, H., Klaker, H., Köppel, W., Höcher, T., Sterner, M.: Power to Gas. BWK Bd 63 (2011) Nr. 7/8, S. 124 - 129 [6] Götz, S. Bajohr, D. Buchholz, energie|wasser-praxis 2011, 62 (5), S. 72 - 76 [7] M. Götz, S. Bajohr, D. Buchholz, R. Reimert, Neuartiges Methanisierungsverfahren für die Erzeugung von SNG aus regenerativen Quellen, DGMK-Konferenzband „Velen X“, ISBN 978-3-941721-24-1, 2012, S. 159 - 168 [8] S. Bajohr, M. Götz, F. Graf, T. Kolb, gwf-Gas Erdgas 2012, 153 (5), S. 328 - 335 [9] Müller-Syring, G., Henel, M., Rasmusson, H., Klaker, H., Köppel, W., Höcher, T., Sterner, M., Trost, T.: Power to Gas: Untersuchungen im Rahmen der DVGWInnovationsoffensive zur Energiespeicherung. bbr 10/2011, S. 14 - 21 [10] Ueckerdt, F.; Luderer, G.; Müller-Hansen, F.: Analyse des Klimaschutzpotenzials der Nutzung von erneuerbarem Wasserstoff und Methan, Abschlussbericht DVGWForschungsvorhaben (2013) [11] Quandt, K.H.; Streicher, R.: Concept and design of a 3.5 MW pilot plant for high temperature electrolysis of water vapor, International of Hydrogen Energy, Vol. 11, No. 5, pages 309-315, 1986 [12] Dönitz, W.,; Erdle, E. :High-temperature electrolysis of water vapor—status of development and perspectives for application International Journal of Hydrogen Energy, Volume 10, Issue 5, 1985, Pages 291-295. [13] Strohbach, T., Mittmann, F., Walter, C., Schimanke, D., Geipel, C.: Sunfire industrial SOC stacks and modules, (2015) ECS Transactions, 68 (1), pp. 125-129


[14] http://www.fz-juelich.de/iek/iek-3/DE/Forschung/SOFC/_node.html (abgerufen am 03.06.2016) [15] Chen, M., Høgh, J.V.T., Nielsen, J.U., Bentzen, J.J., Ebbesen, S.D., Hendriksen, P.V.: High temperature co-electrolysis of steam and CO2 in an SOC stack: Performance and durability, (2013) Fuel Cells, 13 (4), pp. 638-645. [16] Ebbesen, S.D., Høgh, J., Nielsen, K.A., Nielsen, J.U., Mogensen, M.: Durable SOC stacks for production of hydrogen and synthesis gas by high temperature electrolysis, (2011) International Journal of Hydrogen Energy, 36 (13), pp. 7363-7373. [17] O’Brien, J.E.; et al: Parametric study of large-scale production of Syngas via hightemperature co-electrolysis, International of Hydrogen Energy, Vol. 34, pages 42164226, 2009 [18] Wang, Z.; et al: Steam electrolysis performance of intermediate-temperature solide oxide electrolysis cell and efficiency of hydrogen production system at 300 Nm³ h-1, International of Hydrogen Energy, Vol. 35, pages 4451-4458, 2010 [19] Smolinka, T., Günther, M., Garche, J.: Stand und Entwicklungspotenzial der Wasserelektrolyse zur Herstellung von Wasserstoff aus regenerativen Energien, NOWStudie, Kurzfassung Abschlussbericht, 2011 [20] Sabatier, P., Sendersen, J.B.: New methane synthesis, C. R. Acad. Sci. Paris 134 (1902) [21] Angelidaki, Irini; Karakashev, Dimitar; Batstone, Damien J.; Plugge, Caroline M.; Stams, Alfons J.M. (2011): Biomethanation and Its Potential. In: Methods in Methane Metabolism, Part A, Bd. 494: Elsevier (Methods in Enzymology), S. 327 - 351 [22] Söhngen N. L.: Het ontstaan en verdwijnen av waterstof en methan, Dissertation, Universität Delft, 1906 [23] Fischer, F.; Lieske, R.; Winzer, K.: Biologische Gasreaktionen. I. Mitteilung: Die Umsetzung des Kohlenoxyds. Biochem Zeitschr. 236 (1931), S. 247 - 267 [24] Fischer, F.; Lieske, R.; Winzer, K.: Biologische Gasreaktionen. II: Über die Bildung von Essigsäure bei der biologischen Umsetzung von Kohlenoxyd und Kohlensäure mit Wasserstoff zu Methan. Biochem. Zeitschr. 245 (1932), S. 2 - 12 [25] Stephenson, M.: The chemistry of bacteria, Annu. Rev. Biochem (1933). S. 485 502 [26] Wise, D. L.; Cooney, C. L.; Augenstein, D. C.: Biomethanation: Anaerobic Fermentation of CO2, H2, and CO to Methane. Biotechnology and Bioengineering 10 (1978), S. 1153 - 1172 [27] Barik, S., Vega, J. L., Clausen, E. C., Gaddy J. L.: Biological Conversion of Coal Gas to Methane, Scientific Note, Applied Biochemistry and Biotechnology 18 (1988) 1, S. 379 - 392 [28] Klasson, K. T., Elmore, B. B., Vega, J. L., Ackerson, M. D. , Clausen, E. C. and Gaddy, J. L.: Biological Production of Liquid and Gaseous Fuels from Synthesis Gas, Applied Biochemistry and Biotechnology 2 (4/25) (1990), S. 857 - 873 [29] Guiot, Serge R., Cimpoia, R. and Carayon, G.: Potential of Wastewater-Treating Anaerobic Granules for Biomethanation of Synthesis Gas, Environ. Sci. Technol. 45 (2011), S. 2006 - 2012 [30] Luo, G., Johansson, S., Boe, K. Xie, L., Zhou, Q. , Angelidaki, I.: Simultaneous Hydrogen Utilization and In Situ Biogas Upgrading in an Anaerobic Reactor, Biotechnology and Bioengineering 109 (4) (2012), S. 1088 - 1094 [31] Seifert, A.H, .Rittmann, S., Bernacchi, S. and Herwig C.: Method for assessing the impact of emission gasses on physiology and productivity in biological methanogenesis, Bioresource Technology 136 (2013) S.747 - 751


[32] A. Bensmann, R. Hanke-Rauschenbach, R. Heyer, F. Kohrs, D. Benndorf, U. Reichl: Biological methanation of hydrogen within biogas plants: A model-based feasibility study, Applied Energy 134 (2014), S. 413 - 425 [33] J. Kopyscinski, T. J. Schildhauer, S. M.A. Biollaz: Production of synthetic natural gas (SNG) from coal and dry biomass - A technology review from 1950 to 2009, Fuel (2010) 89, S. 1763 - 1783 [34] S. Rönsch, J. Schneider, S. Matthischke, M. Schlüter, M. Götz, J. Lefebvre, P. Prabhakaran, S. Bajohr: Review on methanation – From fundamentals to current projects, Fuel (2016) 166, S. 276 - 296 [35] Gray, D. et al: Technologies for Producing Transportation Fuels, Chemicals, Synthetic Natural Gas and electricity from the Gasification of Kentucky Coal, report in response to House Bill 299, University of Kentucky (2007), Link: http://www.caer.uky.edu/newsroom/news2007/HB299-Report-CTL-SNGTechnologies2007.pdf (abgerufen 04/2016) [36] Hedden, K., Anderlohr, A., Becker, J., Zeeb, H.-P., Cheng, Y.-H.: Forschungsbericht T 86-044 - Gleichzeitige Konvertierung und Methanisierung von CO-reichen Gasen, in: B.f.F.u. Technologie (Ed.), Technologische Forschung und Entwicklung – Nichtnukleare Energietechnik, DVGW-Forschungsstelle am EnglerBunte-Institut der Universität Karlsruhe, 1986. [37] M. C. Seemann, T. J. Schildhauer, S. M. A. Biollaz: Fluidized Bed Methanation of Wood-Derived Producer Gas for the Production of Synthetic Natural Gas, Ind. Eng. Chem. Res., 2010, 49 (15), S. 7034 - 7038 [38] Götz, M., et al., Einsatz eines Blasensäulenreaktors zur Methansynthese. Chemie Ingenieur Technik, 2013. 85(7): S. 1-7 [39] J. Lefebvre, M. Götz, S. Bajohr, R. Reimert, T. Kolb, Improvement of three-phase methanation reactor performance for steady-state and transient operation, Fuel Processing Technology, 132 (2015), S. 83 - 90 [40] Bajohr, S.; Schollenberger, D.; Buchholz, D.; Weinfurtner, T.; Götz, M.: Kopplung der PtG-Technologie mit thermochemischer Biomassevergasung: Das KIC-Projekt "DemoSNG", GWF / Gas, Erdgas, 155 (2014) 7, S. 470 - 475 [41] O. Gorke, P. Pfeifer, K. Schubert: Highly selective methanation by the use of a microchannel reactor, Catal. Today 110 (2005), S. 132 – 139 [42] Z. Liu, B. Chu, X. Zhai, Y. Jin, Y. Cheng, Total methanation of syngas to synthetic natural gas over Ni catalyst in a micro-channel reactor, Fuel 95 (2012), S. 599 - 605 [43] S. Walspurger, G.D. Elzinga, J.W. Dijkstra, M. Saric, W.G. Haije: Sorption enhanced methanation for substitute natural gas production: experimental results and thermodynamic considerations, Chem. Eng. J. 242 (2014), S. 379 - 386 [44] Graf, F.; Krajete, A.; Schmack, U.: Technoökonomische Studie zur biologischen Methanisierung bei Power-to-Gas-Konzepten“, Abschlussbericht DVGWForschungsvorhaben (2014), www.dvgw-innovation.de (abgerufen 04/2016) [45] Müller-Syring, G.; Henel,M.: Wasserstofftoleranz der Erdgasinfrastruktur inklusive aller assoziierten Anlagen, Abschlussbericht DVGW-Forschungsvorhaben (2014), www.dvgw-innovation.de (abgerufen 04/2016) [46] Schley, P.; Wolf, D.; Henel, M.; Fiebig, C.; Span, R.: Einfluss von Wasserstoff auf die Energiemessung und Abrechnung, Abschlussbericht DVGW-Forschungsvorhaben (2014), www.dvgw-innovation.de (abgerufen 04/2016) [47] Bauer, S.: Underground Sun Storage: Erneuerbare Energie untertage speichern, energie ǀ wasser-praxis 9/2014, S. 50 - 54 [48] Schaaf, T.; Götz, M.: Technoökonomische Studie von Power - to-Gas-Konzepten Teilprojekt C „Methanisierung – eine Alternative zur direkten 52

Wasserstoffeinspeisung“, Abschlussbericht DVGW-Forschungsvorhaben (2014), www.dvgw-innovation.de (abgerufen 04/2016) [49] Baumann, C et al.: Nutzen von Smart-Grid-Konzepten unter Berücksichtigung der Power-to-Gas-Technologie, energie ǀ wasser-praxis 4/2014, S. 56 - 63 [50] Fischedick, M.; Merten, F.; Krüger, C.; Nebel, A.: Synergieeffekte Gas- und Stromnetze – Nutzung von Gasnetzen und -speichern für die Integration von Strom aus Erneuerbaren Energien und zur Entlastung der Stromnetze“, Abschlussbericht DVGWForschungsvorhaben (2013), www.dvgw-innovation.de (abgerufen 04/2016) [51] http://ec.europa.eu/transport/themes/urban/cpt/index_en.htm (abgerufen 04/2016) [52] http://eur-lex.europa.eu/legalcontent/EN/TXT/?uri=uriserv:OJ.L_.2014.307.01.0001.01.ENG (abgerufen 04/2016) [53] Müller-Syring, G.; Henel,M.; Köppel, W.; Mlaker, H.; Sterner, M.; Höcher, T.: Entwicklung von modularen Konzepten zur Erzeugung, Speicherung und Einspeisung von Wasserstoff und synthetischem Methan in das Erdgasnetz, Abschlussbericht DVGW-Forschungsvorhaben (2013), www.dvgw-innovation.de (abgerufen 04/2016) [54] Tichler, R.; Steinmüller, H.; Reiter, G.: Technoökonomische Studie von Power - toGas-Konzepten - Teilprojekt D „Wirtschaftlichkeit und Systemanalyse von Power-toGas-Konzepten“, Abschlussbericht DVGW-Forschungsvorhaben (2014), www.dvgwinnovation.de (abgerufen 04/2016) [55] www.windgas-hamburg.com (abgerufen 04/2016) [56] Antoni, J.; Birkner, P.; Fiedler, H.; Walther, G.; Wanke, E.: Praxiserfahrungen – Power-to-Gas-Anlage der Thüga-Gruppe, gwf - Gas+Energie, 155 (2014) 9, S. 608 612 [57] http://www.powertogas.info/power-to-gas/pilotprojekte-im-ueberblick/rwedemonstrationsanlage-ibbenbueren/. [58] Rieke, S.: Erste industrielle Power-to-Gas-Anlage mit 6 Megawatt, gwf Gas+Energie, 154 (2013) 9, S. 660 - 664 [59] Kurt, O.; Götze, T.; Schönrock, J. A.: Erste industrielle Power-to-Gas-Anlage mit 6 Megawatt, gwf - Gas+Energie, 155 (2014) 5, S. 304 - 309 [60] Reuter, M.: Power-to-Gas als Schlüsseltechnologie zum Gelingen der Energiewende, gwf - Gas+Energie, 156 (2015) 10, S. 754 - 758 [61] Krayl, P.: Mit Power-to-Gas regenerative Energie speichern, energie|wasser-praxis, 67 (2016) 3, S. 40 - 43 [62] newsletter.pfi-biotechnology.de/nl_feb_2016/img/S_Dr%C3%B6ge_PFI_P2G.PDF (abgerufen 04/2016) [63] pfi.pfigermany.de/de/news/news/archive/2015/june/eintrag/428.html?tx_ttnews [day]=25&cHash=a18418ae2defa1a2410c36a55a327a86 (abgerufen 04/2016) [64] www.biocat-project.com (abgerufen 04/2016) [65] www.storeandgo.info (abgerufen 04/2016) [66] Brunner, C.; Michaelis, J.: Wirtschaftliche Perspektive für Power-to-Gas im zukünftigen Energiesystem, Energiewirtschaftliche Tagesfragen 66 (2016) 3, S. 52 – 55 [67] Anger, S., Trimis, D.: Potenzial der thermisch integrierten Hochtemperaturelektrolyse und Methanisierung für die Energiespeicherung durch Power-to-Gas (PtG), gwfGas/Erdgas, 1-2, 2014, Seiten 50-59.

Dr.-Ing. Frank Graf, Prof. Dr.-Ing. Dimos Trimis Engler-Bunte-Institut, Karlsruher Institut für Technologie Engler-Bunte-Ring 1 D-76131 Karlsruhe 53

Überschussstrom und Stromspeicherung unter den Bedingungen intermittierender Produktion F. Wagner, Max-Planck-Institut für Plasmaphysik


Diese Arbeit untersucht die Konsequenzen aus dem Umbau der Energieversorgung Deutschlands hin zu Strom vornehmlich aus Windkraft und Photovoltaik. Konsequenzen ergeben sich aus den beiden wichtigsten Eigenschaften dieser Techniken – niedrige Energiedichte und volatile Produktion. Die Analyse erfolgt durch Hochrechnung realer Daten aus dem Zeitraum 2010 bis 2016. Der erste Schritt konzentriert sich auf den Technologiewechsel für die reine Stromproduktion. Schwerpunkte sind die Berechnung der notwendigen Installationen, die Spezifikation von Reservekapazitäten, die Höhe der Überschussproduktion, Möglichkeiten der Lastverschiebung sowie Größe und Funktion von Speichern. Im 2. Teil wird die Abdeckung der gesamten Endenergie im Rahmen der sog. Sektorenkopplung betrachtet. Die wesentlichen Ergebnisse sind, dass Speicher eine geringe Systemrelevanz haben und dass sich mit erneuerbaren Energien alleine selbst ein stark reduzierter Endenergieverbrauch nicht sicherstellen lässt. Deshalb sollte Deutschland zusätzliche CO2-freie Technologien der Energieversorgung entwickeln und realisieren. 1. Einleitung

80.2% des Primärenergieverbrauchs Deutschlands basieren auf den fossilen Brennstoffen Kohle, Öl und Gas. Die Minderung dieser Emissionswerte und die Dekarbonisierung der Wirtschaft verfolgt Deutschland mit der “Energiewende” als nationale Aufgabe mit ambitionierten Zielen1. Deutschland liegt in Europa an der fünften Position bezüglich der CO2-Emissionen pro Kopf 2 und weltweit auf Platz 6 bei der Gesamtemission3, hat damit allerdings „nur“ 2.2% Anteil an den globalen Treibhausgasemissionen. Deutschland kann deshalb das Klimageschick der Erde - ob das 2°-Ziel oder das 1.5° -Ziel oder keines von beiden erreicht wird - durch auf nationale Emissionsminderung gerichtet Maßnahmen nicht wesentlich beeinflussen. Eine CO2-freie Strom- und Wärmeerzeugung ist möglich einerseits mit Kernspaltung und Kernfusion, dann mit fossilen Brennstoffen, wenn das CO2 abgetrennt und verschlossen gelagert wird (CCS-Technik), und mit den unterschiedlichen Formen erneuerbarer Energien (EE). In Deutschland scheidet Kernspaltungstechnik nach dem Ausstiegsbeschluss aus; Kernfusion ist nicht vor der zweiten Hälfte dieses Jahrhunderts zu erwarten; CCS4 ist in mehreren Bundesländern gesetzlich untersagt. Es bleiben also zunächst die erneuerbaren Energien. Diese unterscheiden sich nach skalierbaren Techniken (Windkraft und Photovoltaik (PV)) und solchen, deren Potential in Deutschland beschränkt ist (Biomasse, Wasserkraft sowie Geothermie und Solarthermie). Die Energiewende und das Ziel der Dekarbonisierung müssen somit weitgehend mit dem Ausbau von Windkraft und PV erreicht werden. 1

z.B. Rede der Bundeskanzlerin Angela Merkel auf dem 6. Petersburger Klimadialog am 19.5.2015. Pro Kopf gerechnet liegen vor Deutschland Luxemburg, Estland, Irland und Tschechien. https://www.umweltbundesamt.de/sites/default/files/medien/384/bilder/dateien/3_abb_thg-emi-euvergleich-pro-kopf_2016-10-10.pdf 3 https://de.statista.com/statistik/daten/studie/179260/umfrage/die-zehn-groessten-c02-emittenten-weltweit/ 4 http://www.ipw.rwth-aachen.de/pub/select/select_52.pdf 2


Damit wandelt sich die Versorgungsstruktur erheblich: Bislang waren Primärenergieträger weitgehend fossiler, d.h. chemischer Natur und Elektrizität war eine davon abgeleitete Sekundärform. In Zukunft wird elektrische Energie die Primärenergieform darstellen: andere Bedarfsformen wie Wärme und für Mobilität werden darauf basieren und chemische Stoffe (z.B. Wasserstoff, Methan, Methanol) für Energiespeicherung oder industrielle Nutzung daraus hergestellt werden. Wind- und Solarenergie haben allerdings drei gravierende Nachteile:   

die spezifischen Leistungsdichten sind gering, d.h. Energiegewinnung ist mit großem Flächenbedarf und ggf. entsprechend hohen Kosten verbunden; die Stromproduktion ist intermittierend, d.h. starken Schwankungen unterworfen; die Erzeugung von Strom ist nur eingeschränkt vorhersagbar, d.h. das bisherige Versorgungskonzept – Produktion folgt dem Verbrauch – lässt sich nicht ohne weiteres aufrechterhalten.

Abb. 1. Aufgetragen sind Leistungswerte in der Summe von Onshore und Offshore Wind sowie der Photovoltaik gegen die produzierte Gesamtenergie. Die Werte der installierten Leistung reichen von 1998 bis 2016; die maximale Leistung im Netz Pmax, die mittlere Leistung sowie die minimale Leistung Pmin sind für die Jahre 2010, 2012, 2013, 2015 und 2016 ermittelt. Die gestrichelten Geraden sind lineare Fits an die Daten. Im Folgenden soll zunächst die zukünftige Stromversorgung mit EE für Deutschland analysiert und anschließend die Konsequenzen für die Deckung anderer Verbrauchsformen und -sektoren – Wärme, Mobilität, Industrie und Gewerbe, Handel und Dienstleistungen (GHD) sowie Haushalte - diskutiert werden. Die Analyse basiert auf Daten des Verbrauchs sowie der Produktion aus Wind und PV im Zeitraster von 15 min5. Die Jahre 2010, 2012, 2013, 2015 und 2016 wurden im Detail untersucht; die Ergebnisse wurden in [1, 2, 3] veröffentlicht. Eine entsprechende Studie mit Daten des Jahres 2014 mit Wichtung ökonomischer Gesichtspunkte wird von anderer Seite publiziert werden [4]. Eine detaillierte Analyse speziell der Windproduktion in Deutschland findet sich in [5]. Für andere europäische Länder wurden ähnliche Analysen durchgeführt [6].                                                              5 Diese Daten werden von den vier deutschen Netzbetreibern veröffentlicht: Siehe die Webseiten von Tennet, 50hertz-transmission, amprion und transnet-bw. EU-weite Daten sind mit einer Auflösung von einer Stunde erhältlich bei entsoe. 55

2. Charakterisierung einer Stromversorgung mit intermittierenden Quellen

Ende 2016 verfügte Deutschland über 45.7 GW Windkraft6 und 41.3 GW installierter PVLeistung7. Diese produzierten Strom-Energiemengen EW = 77.4 TWh bzw. EPV = 38,2 TWh8. Das Verhältnis von erzeugter Strommenge und installierter Leistung hat die Dimension der Zeit und wird als Volllaststunden (flh) bezeichnet. flh ist typisch 1600 h für Onshore, 3250 h für Offshore Wind und 960 h für PV. Abb. 1 zeigt den Verlauf der in Deutschland installierten intermittierenden EE-Leistung (iEE-Leistung) Pinst in der Summe der drei Anteile – On- und Offshore Wind sowie PV sowie für fünf ausgewählte Jahre, die in dieser Arbeit näher untersucht werden, die tatsächlich erzielte Spitzenleistung Pmax, die mittlere Leistung und die minimale Leistung Pmin. Pmax erreicht nie den Wert der installierten Leistung Pinst, denn nicht alle Wind- und PV- Anlagen erreichen ihre Nennleistung zum gleichen Zeitpunkt. Die mittlere Leistung entspricht der Energieerzeugung:  flh = EiEE. Pmin bleibt stets nahe Null, d.h. es gibt praktisch unabhängig vom Ausbau der installierten Leistung Perioden, in denen ein Speicheroder Backup-System eingreifen und den aktuellen Strombedarf abdecken muss.

Abb. 2. Für die Periode 1. – 31. Dezember 2016 sind in (a) die Last sowie die Leistungswerte der drei betrachteten iEEVersorgungstechniken aufgetragen. In (b) sind dieselben Werte auf den Fall extrapoliert, dass der Jahresbedarf von 500 TWh Strom durch Wind und PV (iEE) erzeugt wird. Dennoch müssen vielfach Backup-Systeme zur Sicherung der Strombilanz eingreifen 6

Abb. 2a zeigt den Verlauf des Strombedarfs mit seinem typischen Wochenrhythmus. Dabei wurde die tatsächliche Last um den mittleren Beitrag der Wasserkraft von 2.3 GW reduziert. Die Produktion aus Onshore und Offshore Wind sowie PV im Dezember 2016 verdeutlicht die intermittierende Natur dieser Versorgungstechnologien. In diesem Monat mit einem Strombedarf von 42 TWh wechselten sich Flaute- und Starkwindperioden ab. Mit 10 TWh trugen Wind und PV bei. Der Löwenanteil von 28 TWh wurde von thermischen Kraftwerken erbracht. Der Nettostromverbrauch Deutschlands betrug im Mittel der Jahre 1991 bis 2015 etwa 510 TWh9. Davon trägt Wasserkraft im Mittel der Jahre von 1990 bis 2016 mit 20 TWh bei. Da der Stromverbrauch über diese Jahre hinweg anstieg, nehmen wir

https://de.statista.com/statistik/daten/studie/20113/umfrage/installierte-leistung-der-anlagen-fuerwindenergie-in-deutschland-seit-1993/ 7 https://de.statista.com/statistik/daten/studie/13547/umfrage/leistung-durch-solarstrom-in-deutschland-seit1990/ 8 http://www.umweltbundesamt.de/themen/klima-energie/erneuerbare-energien/erneuerbare-energien-inzahlen#strom 9 https://de.statista.com/statistik/daten/studie/164149/umfrage/netto-stromverbrauch-in-deutschland-seit1999/ 56

als zukünftigen Verbrauchswert für die reine Stromversorgung 520 TWh an, wobei Wasserkraft weiterhin mit 20 TWh beitragen soll, wobei bei rein erneuerbarer Stromerzeugung Wind und PV 500 TWh erzeugen müssen. In der Hochrechnung ergeben sich dann beispielsweise für Witterungsbedingungen, wie sie im Dezember 2016 vorlagen, Werte für Verbrauch und Produktion wie in Abb. 2b dargestellt. Der Vergleich der Abb. 2a und 2b verdeutlicht die Vorgehensweise bei dieser Analyse. Ausgehend von den tatsächlichen Gegebenheiten eines Jahres werden Windkraft und PV linear hochskaliert, so dass ihre Jahresproduktion in der Summe den Zielwert von 500 TWh (also den für die Zukunft gewünschten 100%-Fall) ergibt. Dieser Wert entspricht der um den Beitrag der Wasserkraft reduzierten Jahreslast. Folgende Annahmen werden für die Hochrechnungen getroffen: 

    

Das Energieverhältnis von Wind und PV entspricht dem „optimalen Mix“ [1]. In diesem Fall trägt PV etwa 20% der gesamten iEE-Energieerzeugung, also etwa 100 TWh bei. Der Anteil der PV-Leistung an der gesamten iEE-Leistung beträgt in diesem Fall etwa 32%; Offshore-Wind trägt mit 1/3 zur Windproduktion bei. Dieses Verhältnis ist willkürlich gewählt [1]; Kernenergie entfällt; Stromimport und -export werden nicht betrachtet; im ersten Schritt werden keine Verluste angenommen; Energie aus Biomasse entfällt für die Stromerzeugung und dient zukünftig ausschließlich der Mobilität in den Bereichen Schifffahrt, Flug- und Schwerlastverkehr. 2010





























Volllaststunden - flhon






- flhoff






- flhPV






Installierte Leistungen (GW)

Tabelle 1. Dargestellt sind die hochskalierten installierten Leistungen zur Erzeugung von 500 TWh Strom aus Wind und PV (100%-Fall) unter „optimalen Mix“ Bedingungen [1] sowie die Volllaststunden (flh) für Onshore- (Won) und Offshore-Wind (Woff) sowie die PV-Produktion der betrachteten Jahre. Für 2010 liegen keine verlässlichen flhoff Werte vor. Die erste zu beantwortende Frage gilt dem Gesamtausbau von Wind und PV-Leistung bis zur Erzeugung von 500 TWh als Zielwert. Tabelle 1 zeigt die Daten für die untersuchten Jahre. Im Mittel müssen 335 GW an Wind- und PV-Anlagen installiert werden, den Bestand von Ende 2016 gilt es also zu vervierfachen. Da Ende 2016 etwa 28000 Windkraftanlagen in Deutschland aufgestellt waren, bedeutet das für den 100%-Fall unter „optimalen-Mix“ Bedingungen mehr als 100000 Anlagen. Diese hohe Zahl mag sich durch das sog. 57

„repowering“ verringern, andererseits müssen bei zunehmendem Ausbau auch weniger ertragreiche Standorte in Kauf genommen werden. Der Grund für die Schwankungen der Jahresdaten liegt in den unterschiedlichen Witterungsbedingungen, die sich in den Volllaststunden (flh) in Tabelle 1 niederschlagen. Man erkennt u.a. die ungünstigen Witterungsverhältnisse des Jahres 2016. Abb. 2b zeigt, dass die bereits heute eintretende Überschussproduktion im skalierten Fall sehr ausgeprägt werden wird, da das Wind- und PV-Angebot über längere Zeiten erheblich über dem aktuellen Strombedarf liegt. Andererseits gibt es trotz der hohen installierten iEEKapazitäten Mangelperioden, in denen Backup-Systeme einspringen müssen - in dem in Abb. 2b gezeigten Beispiel mit 12 TWh, einem Wert, der nahezu dem Jahresstromverbrauch von Berlin entspricht10. Es zeigt sich, dass bei einer Verbrauchs-Spitzenlast von 80 GW BackupSysteme mit ca. 72 GW erforderlich sind, d.h. nur etwa 10% an installierter Leistung eingespart werden können – dies bei 300 – 370 GW installierter iEE-Leistung. Tabelle 2 listet die Energiebeiträge und die dafür notwendige installierte Leistung des Backup-Systems für die betrachteten Jahre auf. Anforderungen an Backup-Systeme Leistung (GW) Energie (TWh)

2010 72 134

2012 73 131

2013 72 137

2015 73 122

2016 68 120

Tabelle 2. Erforderliche installierte Leistungen für Backup-Systeme und die damit erzeugten Energiemengen zur Abdeckung der Mangelperioden der iEE-Versorgung.

Abb. 3. Das Volumen des Stromexports (2003 bis 2016), aufgetragen gegen die deutsche PV-Produktion im selben Zeitraum. Die Gerade ist ein Fit an die Datenpunkte. 10

Abb. 1 zeigt, dass die Minima der iEEProduktion im Mittel bei 1.2 GW liegen ohne erkennbaren Steigerungstrend mit Zuwachs der installierten Leistung. Der Unterschied zwischen der Einsparung von 10 GW beim Backup-System und der geringsten iEE-Leistung von 1.2 GW ergibt sich aus der Phasenlage zwischen Produktion und Bedarf. Minima in der Versorgung treten in der Nacht bei reduziertem Verbrauch auf. Die Schlussfolgerung dieses Teils der Analyse ist somit, dass selbst bei vollem Ausbau der iEE mit der Jahresproduktion von 500 TWh Strom auf ein zweites Versorgungssystem nicht verzichtet werden kann. Dieses System arbeitet hoch unwirtschaftlich, da es im Mittel nur 130 TWh im Jahr erzeugen muss (s. Tabelle 2). Der entsprechende flh-Wert liegt bei 1800 h. Dieser niedrige Wert ist der Grund für die Diskussion zur die Schaffung eines Kapazitätsmarktes, der bereits die Bereitstellung von BackupLeistung honorieren soll.

https://www.berlin.de/aktuelles/berlin/3755851-958092-berliner-verbrauchen-weniger-strom.html 58

3. Überschussproduktion

Im 100% Fall entspricht die Überschussproduktion über das Jahr hinweg von im Mittel 130 TWh dem Mangel an anderer Stelle, also der Backup-Erzeugung. Das sind 25% der Jahresstrommenge und stellt damit einen beträchtlichen wirtschaftlichen Wert dar. Überschussproduktion ist heute bereits ein Thema der deutschen Stromversorgung, weniger weil Wind und PV bei den derzeit installierten Leistungen direkt Überschuss erzeugen würden, vielmehr, weil das gesamte Versorgungssystem Überschussstrom produziert. Parallel werden thermische Kraftwerke z.B. aus Gründen der Netzstabilität und nach Maßgabe ihrer eigenen Wirtschaftlichkeit betrieben. Diese Situation ist unvermeidlich, wenn intermittierende Stromquellen einen gesetzlich vorgegebenen Einspeisevorrang haben. Abb. 3 zeigt den entsprechenden Anstieg deutscher Stromexporte von 2002 bis 2016 in Relation zur ebenfalls steigenden PV-Stromproduktion. 2016 hat Deutschland mit mehr als 50 TWh Export das klassische Stromexportland Frankreich übertroffen. 4. Nachfragesteuerung

Zu diskutieren ist, inwieweit der Bedarf an Backup-Leistung über Nachfragesteuerung, d.h. über die zeitliche Verschiebung von Verbrauchslasten - typisch innerhalb des Tageslaufes reduziert werden könnte. Wir betrachten zunächst drei Extremfälle für die Produktion von Überschussstrom bzw. Backup-Bedarf anhand von drei Tagen im Jahr 2012 (Abb. 4). Dargestellt sind der Verlauf der Last, des Überschussstroms sowie der Backup-Leistung. Abb. 4a zeigt den Tag mit dem höchsten Transfer von Überschussproduktion in die Mangelphase: in der Nacht (Windstrom) und in geringerem Maße mittags (PV) fallen Überschussstrom an; ab ca. 17 h ist der massive Einsatz von Backup-Leistung notwendig. Der Strombedarf an diesem Tag beträgt 1.45 TWh; der Überschuss beläuft sich auf 0.47 TWh, der Backup-Bedarf auf 0.37 TWh. Abb. 4b zeigt einen wind- und sonnenschwachen Tag im Winter mit dem höchstem Ganztagesbedarf an Backup-Energie (1.47 TWh). Offensichtlich gibt es hier kaum Möglichkeiten, die Nachfrage durch zeitliche Verschiebung zu minimieren. Abb. 4c zeigt den Tag des Jahres mit dem höchsten Stromüberschuss (2.33 TW). An diesem Tag ist eine Anpassung durch Nachfragesteuerung nicht erforderlich.

Abb. 4. Last (Stromnachfrage) und auf 100% iEE skalierte Überschussproduktion sowie Backup-Bedarf für ausgewählte Tage im Jahr 2012 mit (a) der Möglichkeit eines maximalen Übertrags von Überschuss in die Stunden mit Unterdeckung, (b) mit maximalem Backup-Bedarf und (c) mit maximaler Überschussproduktion.


Abb. 5. Tagesverläufe des auf 100% iEE extrapolierten Stromüberschusses für 21 aufeinanderfolgende Tage im April 2012 (schwarz) und über das Jahr gemittelter Lastverlauf (blau) sowie Stromüberschuss (rot, gekennzeichnet durch spl).

Abb. 5 zeigt als blaue Kurve den mittleren Jahresverlauf der Last mit Spitzenwerten in den Mittags- und Abendstunden sowie den mittleren Verlauf der Überschussleistung (rot) mit seiner vom PV-Beitrag verursachten Spitze zur Mittagszeit. Im Sommer ist diese Spitze noch ausgeprägter [1]. Da der Stromüberschuss den zeitlichen Verlauf des Marktpreises bestimmen wird, besteht Anreiz, private und wirtschaftliche Aktivitäten, die mit Stromverbrauch verbunden sind, in den Tag hinein zu verschieben, d.h. die dort bereits existierenden wirtschaftlichen Aktivitäten weiter zu verstärken. Eine Entzerrung und gleichmäßigere Bedarfsverteilung ist somit nicht zu erwarten. Insgesamt ist es unter Zugrundelegung der Daten von 2012 an 171 Tagen möglich, Backup-Energie durch Überschuss zu kompensieren. Im Mittel könnten dies gegenüber einem Tagesstrombedarf von 1.36 TWh rund 0.3 TWh sein.

Die Möglichkeiten einer Nachfragesteuerung werden jedoch beschränkt durch die starke Variabilität des Stromangebots an aufeinanderfolgenden Tagen, wie Abb. 5 zeigt. Die Streuung des möglichen Übertrags ist allerdings sehr hoch; die Standardabweichung ist mit 0.5 TWh wesentlich größer als der Mittelwert. Es ist fraglich, ob sich bei einer solchen Schwankungsbreite täglich wiederholende Verbrauchsprozesse nutzbringend organisieren lassen. Größer könnte die Wirkung einer Nachfragesteuerung sein, die die wirtschaftlichen Aktivitäten auch auf die Wochenenden ausdehnt. In diesem Fall würden sich die maximale nachgefragte Leistung von 83 GW auf 71 GW und der jährliche Stromüberschuss von 131 TWh um 8 TWh reduzieren lassen [2]. 5. Stromspeicherung

Erhebliche Anstrengungen werden unternommen, zukünftig fossile, d.h. CO2-emittierende Backup-Systeme durch Stromspeicher zu ersetzen. Ein Speicher mit der Kapazität des über das Jahr gemittelten täglichen Backup-Bedarfs von 0.36 TWh würde (mit den skalierten Zahlen von 2012) 30.4 TWh umsetzen, also kaum ein Viertel des tatsächlich verfügbaren Überschusses nutzen. Das wäre auch weitaus geringer als die in 2016 exportierte Strommenge. Gleichwohl würde ein solches Speichersystem die derzeitige Speicherkapazität in Deutschland11 um das Neunfache übersteigen und entsprechend der gewählten Technik gewaltige Investitionen erfordern, die wohl kaum wirtschaftlich zu rechtfertigen wären. Wenn mehr von der verfügbaren Überschussenergie genutzt werden sollte, muss das Speichersystem größer und für längere Speicherperioden ausgelegt werden. Zunächst soll die Größe eines solchen Speichers abgeschätzt werden – im ersten Schritt unter Vernachlässigung von Speicherverlusten. 11

Die deutschen Pumpwasserkraftwerke haben etwa 40 GWh nutzbaren Energieinhalt. 60

Abb. 6. Für den Zeitraum vom 9.1. bis 12.2.2012 sind die Last (schwarz) sowie die hochgerechneten Werte für Backup (rot) und die Überschussleistungen (blau, negativ) aufgetragen. Das Zeitfenster ist aufgeteilt in Mangelperioden (rosa) und solche mit Überschussproduktion (hellblau). Die Dauer dieser Perioden (Stunden) und der Energiebedarf bzw. die Überschussproduktion (TWh) sind zahlenmäßig belegt. Abb. 6 zeigt als Beispiel für fünf Wochen des Winters 2012 den Verlauf der Steuerungsgrößen – Strombedarf, Überschuss (hier negativ aufgetragen) und Arbeit des Speichers, die mit dem Backup-Energiebedarf identisch ist. Lade- und Entladungszyklen wechseln sich ab. Im ersten betrachteten Ladezyklus werden 3.7 TWh über 66 h aufgenommen. Davon werden im folgenden Entnahmezyklus über 90 h 3.5 TWh wieder entnommen. Im vorletzten Zyklus werden 0.8 TWh entnommen und der Speicher ist nahezu leer. Es schließt sich danach eine Bedarfsphase von 10.4 TWh an, die nicht abgedeckt werden kann. Bereits dieser kurze Zeitabschnitt verdeutlicht, dass für einen Jahresspeicher eine Kapazität im Umfang von >10 TWh zu erwarten ist.

Speicherkapazität (TWh)

2010 30

2012 33

2013 26

2015 47

2016 32

Tabelle 3. Erforderliche Speicherkapazitäten zur Vermeidung von Backup-Systemen auf Grundlage der skalierten Daten für die analysierten Jahre von 2010 bis 2016. In Abb. 7 sind die fiktiven Füllstände eines Jahresspeichers für die Jahre 2010, 2012, 2013, 2015 und 2016 dargestellt. Die Anfangsfüllung ist so gewählt, dass periodische Randbedingungen entstehen - dass der Speicher mit dem Füllstand des Jahresanfangs das Jahr wieder verlässt. Die Kapazität des Speichers ist so gewählt, dass sich der Speicher mindestens einmal im Jahr vollständig entleert. Tabelle 3 benennt die maximalen Füllwerte, die mit der notwendigen Speicherkapazität gleichgesetzt werden12. Die Kapazitäten streuen sehr stark entsprechend der Witterungsbedingungen - ob etwa ein hoher Füllstand am Jahresanfang notwendig ist, weil die kommende Periode durch wenig 12

Aus [4] ergibt sich für 2014 umgerechnet für die Versorgung mit 500 TWh Strom eine Speicherkapazität von 39.5 TWh. 61

Wind gekennzeichnet ist, wie es in 2015 der Fall war, oder ob der Speicher sich im Sommer durch hohe PV-Beiträge bei reduziertem Verbrauch füllt. Leerstand wird immer in der zweiten Jahreshälfte erreicht, wenn sich saisonbedingt der Strombedarf wieder erhöht und die PV-Beiträge sinken. Die hohe Witterungsvariabilität von Jahr zu Jahr wird eine enge, letztendlich auch gesetzlich geregelte Nutzung des Speichers verlangen, wie es auch bei Speicherkraftwerken z.B. in Norwegen der Fall ist. Die Speicherkapazitäten, wie sie in Tabelle 3 aufgeführt sind, sind klein im Vergleich zum deutschen Gasspeicher mit einem Speicherpotential von 130 TWh Stromäquivalent13. Der Speicherbedarf ist jedoch riesig im Vergleich zu den deutschen Pumpwasserkraftwerken für die kaum Ausbaumöglichkeiten bestehen. Die Speicherkapazität norwegischer Wasserspeicher beläuft sich auf 84 TWh14.

Abb. 7. Zeitlicher Verlauf der Füllstände eines Jahresspeichers, berechnet aus den Daten der Jahre 2010 bis 2016. Das gesamte Speichersystem wird sicherlich aus unterschiedlichen Techniken aufgebaut sein, um Funktionalitäten zu trennen z.B. solche für die Netzstabilität und solche für saisonübergreifende Speicherung. Von den verschiedenen Techniken, die in der allgemeinen Diskussion sind [7], kommen für saisonale Speicher wohl nur chemische Verfahren in Frage15. Das Transformationsprinzip läuft unter dem Schlagwort: power-to-gas-to-power. Strom wird über Elektrolyse in Wasserstoff umgewandelt; um die Speicherung im deutschen Gasnetz zu ermöglichen, könnte in einem weiteren Schritt Wasserstoff in CH4 umgewandelt werden (Methanisierung). Die Rückwandlung in Strom erfolgt in thermischen Kraftwerken (Gasturbinen) oder z.B. über Brennstoffzellen. Der Wandlungsprozess vom Primärstrom über chemische Energieträger zu Sekundärstrom lässt sich jedoch ohne Beachtung der Transformationsverluste nicht realistisch diskutieren. Für die Wirkungsgrade  der einzelnen Schritte nehmen wir an, dass sich Wasserstoff aus Primärstrom mit  = 0.8 bilden lässt. Für den Gesamtwirkungsgrad von Primärstrom über Wasserstoff zu Sekundärstrom nehmen wir  = 0.48 und für den über Wasserstoff und Methan führenden  = 0.32 an [8]16. 13

http://www.stoffstrom.org/fileadmin/userdaten/dokumente/Veranstaltungen/EST/07.pdf s. auch: Fußnote 6. 14 http://www.cedren.no/Projects/HydroBalance; dabei handelt es sich vornehmlich um Speicherseen. 15 Batteriespeicher werden hierfür nicht betrachtet in der Annahme, dass sie, wie es schon heute der Fall ist, Systemleistungen erbringen werden oder individuelle PV-Systeme ergänzen aber für die Massenspeicherung zu teuer sein werden. 16 G. Sapy (http://science-and-energy.org/wp-content/uploads/2016/03/Power-to-gas-to-power-3rd-Scienceand-Energy-Seminar-at-Ecole-de-Physique.pdf) 62

Abb. 8 zeigt die Füllstandskurven auf Basis der Daten von 2012 für die verschiedenen Fälle – den Idealfall mit =1 (schwarze Kurve), - bei Erzeugung von Wasserstoff (blau), – bei Verstromung des Wasserstoffs (rot) und nach Methanisierung und Verstromung (grün). Der Jahresspeicher wird zu einem System mit hohen Verlusten. Als Speicher arbeitet ein solches System diskontinuierlich immer nach Perioden mit hoher Überschussproduktion. Über den Weg Strom → H2 → CH4 → Strom leistet der Speicher nur noch eine Arbeit von 40 TWh. Ein Backup-System bleibt also erforderlich, das 91 TWh (für Bedingungen des Jahres 2012) liefern müsste. Ein weiteres Problem für einen Stromspeicher ist, dass die Aufnahme des Überschussstromes aus dem Netz Spitzenwerte von 130 GW und mehr erfordern würde, was dem Doppelten der mittleren Verbrauchslast im deutschen Stromnetz entspräche – oder etwa der Gesamtleistung aller weltweiten Pumpspeicherkraftwerke mit einer Kapazität von 740 TWh17. Unter Bedingungen und bei den Wirkungsgraden der bekannten chemischen Speichermethoden scheint die Sinnhaftigkeit von Bau und Betrieb von Speichern zum Zweck der Sekundärstromprodukion äußerst fraglich.

Abb. 8. Zeitlicher Verlauf des Füllstands eines angenommenen chemischen Jahresspeichers (Daten des Jahres 2012) bei Berücksichtigung der Wirkungsgrade: Schwarz: ohne Verluste, blau: H2-Produktion mit  = 0.8, rot: Rückverstromung aus Wasserstoff mit einem Gesamtwirkungsgrad  = 0.48; grün: Rückverstromung aus Methan mit einem Gesamtwirkungsgrad  = 0.32. Der Backup-Bedarf lässt sich reduzieren durch Erhöhung der installierten Leistung und damit des Überschussstroms zur Deckung der internen Verluste der Speicherung. Ein solcher Ausbau der Versorgungsleistung ist ohnehin für den Strombedarf anderer Verbrauchssektoren - Wärme und Mobilität - notwendig. Abb. 9 zeigt den Verlauf zunächst der Backup-Energie Ebup mit zunehmender Produktion durch Wind und PV wobei fiEE = EiEE/E100%. Die Abszisse reicht von fiEE = 0 (kein iEE-Beitrag) über den bisherigen Zielwert fiEE = 1 mit E100% = 500 TWh bis zu fiEE = 2. Die Abnahme von Ebup mit fiEE setzt sich jenseits von fiEE = 1 fort. Man erreicht jedoch schnell eine Grenze, bei der sich der Einsatz von Speichern erneut nicht lohnt, weil die intermittierende Produktion den reinen Strombedarf abdeckt bis auf Werte, die man mit dem derzeitigen Stromexport vergleichen und die man als Grenze für die Notwendigkeit einer vollständigen Versorgung betrachten kann (horizontale Linie). In Abb. 9 ist ferner die 17

https://en.wikipedia.org/wiki/Pumped-storage_hydroelectricity 63

erforderliche Speicherkapazität aufgetragen beginnend bei dem bekannten Wert von 33 TWh (2012) für fiEE = 1. Der Speicherbedarf nimmt rasch ab, wenn die iEE-Produktion über den bisherigen Zielwert von 500 TWh erhöht wird.

Abb. 9. Backup-Energie (blau) und Speicherkapazität (rot) in Abhängigkeit vom Anteil fiEE der Wind- und PV-Produktion an der Zielenergie des 100% - Falles (E100%=500 TWh): fiEE = EiEE/E100%. Die horizontale Line stellt das Niveau des Stromexports von 2016 dar. Für einen Jahresspeicher zur Abdeckung des reinen Strombedarfs ergeben sich somit zwei Probleme: Bei einem Ausbau der iEE zur nominellen 100% Erfüllung des durchschnittlichen Strombedarfs sind die Transformationsverluste für einen sinnvollen Speicherbetrieb zu hoch; bei einem weiteren Ausbau der iEE, etwa um mehr Überschussstrom für Stromspeicher bereitzustellen oder um andere Energieverbrauchssektoren zu bedienen, verringert sich die Notwendigkeit für einen Speicher, weil der Strombedarf aus der Primärproduktion der iEE weitgehend abgedeckt werden kann. 6. Sektorkopplung

Wir wenden uns nun der Gesamtversorgung mit Strom als Primärquelle zu, was unter dem Schlagwort Sektorkopplung gehandelt wird mit der Erwartung, dass durch die Einbeziehung von Wärmebedarf und Mobilität Synergismen entstehen, die die Probleme der Versorgung mit iEE abmildern. Abb. 10 zeigt die Energieproduktion und den Verbrauch durch verschiedene Nutzergruppen. Der linke rote Balken in Abb. 10 verdeutlicht den Zielwert von 500 TWh für den reinen Stromverbrauch der bisherigen Betrachtung. Der linke schwarze Balken stellt den Primärenergieverbrauch von typisch 3700 TWh dar; der Endenergieverbrauch liegt bei etwa 2400 TWh und dieser teilt sich auf in die Nutzergruppen Verkehr, GHD (Gewerbe, Handel, Dienstleistungen), Haushalt und Industrie, die blau gekennzeichnet sind. Der Anteil des Stromverbrauchs der Haushalte 2015 ist als roter Balken extra gekennzeichnet. Der Vergleich der Balkenhöhen zeigt, dass die Versorgung der Haushalte mit Strom – entgegen der medialen Schwerpunktsetzung - nur einen geringen Anteil am Gesamtversorgungsproblem darstellt. Die grünen Balken stellen die Produktion von iEE (Windkraft und PV) sowie den Beitrag aller erneuerbarer Energieformen zur Primärenergie


für 2015 dar18. Der Vergleich des Beitrags der skalierbaren Produktionsformen Windkraft und PV mit dem Balken der Endenergie (~Faktor 20 höher) verdeutlicht die gewaltige Aufgabe der Dekarbonisierung einer Industriegesellschaft, insbesondere vor dem Hintergrund der geschilderten Schwierigkeiten, alleine den Stromverbrauch durch iEE vollständig abzudecken. Das legt nahe, dass mit Windkraft und PV (und nur beschränkten Beiträgen von Wasserkraft und Biomasse) der derzeitige Endenergiebedarf kaum gedeckt werden kann. Folglich ist parallel zum Ausbau von EE eine deutliche Reduktion des deutschen Endenergieverbrauchs unvermeidbar.

Abb. 10. Gegenwärtige Energieerzeugungs- und –verbrauchsgrößen. Für den Sektor „Haushalt“ ist der Anteil des Stromverbrauchs in rot dargestellt. Grüne Balken: Stromproduktion von Wind und PV (iEE2015) und gesamte Energieproduktion durch Erneuerbare (EE2015) im Jahr 2015. Das Thema Energieeinsparung stellt ein weites Feld dar, in dem nicht nur technische Argumente ausschlaggebend sind, so dass wir auf eine Diskussion der Einsparmöglichkeiten in den einzelnen Verbrauchsgruppen verzichten. Wir nehmen vielmehr eine Untersuchung von V. Quaschning19 als Basis: Durch Einsparung und Effizienzverbesserung soll der Endenergiebedarf von gegenwärtig 2400 TWh reduziert werden auf einen Wert, der sich summiert aus 1320 TWh Stromproduktion aus EE sowie 73 TWh aus Solar- und Geothermie sowie dem Import von 137 TWh für Mobilität. Ziel von 19 ist zu prüfen, inwieweit der 18

http://www.ag-energiebilanzen.de/ Es gibt eine Reihe von Studien zur Sektorkopplung und Einsparungen von Energie durch Verzicht oder Effizienzverbesserung. Wir wählen hier diejenige von Prof. V. Quaschning als eine der neueren Arbeiten, die insbesondere alle Sektoren einbezieht: V. Quaschning “Sektorkopplung durch die Energiewende”, htw Hochschule für Technik und Wissenschaft Berlin, http://pvspeicher.htw-berlin.de/wp-content/uploads/2016/05/HTW-2016-Sektorkopplungsstudie.pdf . H.-M. Henning und A. Palzer untersuchen in einer ähnlichen Studie den Strom- und Wärmebedarf und behandeln die anderen Verbrauchssektoren nur kursorisch. Für den zukünftigen Gesamtverbrauch werden in dieser Arbeit etwa 1450 TWh erwartet: https://www.ise.fraunhofer.de/content/dam/ise/de/documents/publications/studies/studie-100-erneuerbareenergien-fuer-strom-und-waerme-in-deutschland.pdf. 19


gesamte Energieverbrauch durch erneuerbare Energien abgedeckt werden kann. Die Stromproduktion verteilt sich auf die einzelnen Verbrauchssektoren, wie in Tabelle 4 dargestellt. Wir übernehmen diese Werte ohne weitere Diskussion. In 19 werden Verluste, von 220 TWh in Form von Wärme angenommen, die separat aufgeführt sind mit der Vorstellung einer Nachnutzung dort, wo es möglich ist. Energieverbrauch TWh

Reiner Stromverbrauch 500

Raumwärme, Warmwasser 150

Prozess- Verkehr Speicher und Überwärme tragungsverluste 250 200 220

Tabelle 4. Strombedarf der einzelnen Sektoren nach V. Quaschning 19.

Abb. 11. Zu installierende Leistung und mittlere Leistung von iEE aufgetragen gegen den Endenergiebedarf heute (2400 TWh) und zukünftig (1320 TWh, nach Quaschning 19). Die blauen Linien sind Extrapolationen der Kurven Pmax und der Abb. 1 (wiedergegeben in der linken unteren Ecke) und zeigen die Größenverhältnisse der Umstellung der bisherigen Stromversorgung auf iEE gegenüber derjenigen der gesamten Endenergie. Die farbigen Felder stellen den Energiebedarf in den einzelnen Sektoren heute und zukünftig dar (nach Fußnote 19). Der hellrote Balkenteil der Einsparungen verdeutlicht graphisch die Angaben in 19 über die Beiträge von Solar- und Geothermie sowie dem Treibstoff-Import. Die Stromversorgung erfolgt nach Quaschning 19 durch On- und Offshore Wind, PV, Biomasse und Wasserkraft. Die installierten Leistungen und ihre Beiträge zur Jahresenergieproduktion sind in Tabelle 5 wiedergegeben. Die gesamte Stromproduktion beträgt hier 1320 TWh und deckt den in Tabelle 4 definierten Verbrauch ab. Wind und PV tragen mit 1235 TWh bei. Biomasse und Wasserkraft sind im Ausbau beschränkt. Abb. 11 zeigt eine lineare


Extrapolation der Abb. 1 auf den heutigen Endenergiebedarf von 2400 TWh bzw. auf den mit Einsparungen erwarteten zukünftigen von 1320 TWh. Energiesystem nach Quaschning 19 Gesamt Won





Installierte Leistung (Strom, GW)







Energieerzeugung (TWh)







Tabelle 5: Zieldaten für die zu installierenden Leistungen und die erwartete Energieproduktion nach V. Quaschning 19. Won, Woff: Onshore und Offshore-Windkraft. 6.1. Abdeckung des Strombedarfs

Integrale Betrachtungen wie in 19, welche die starken zeitlichen Variationen des Leistungsangebot der iEE- Stromquellen außer Acht lassen, sind unvollständig, deshalb führen wir auch hier eine zeitaufgelöste Analyse auf Basis der Wind- und PV-Daten20 von 2016 durch. Dieses Jahr war vergleichsweise windarm, so dass sich abweichend vom langjährigen Mittel mit den Installationen von Tabelle 5 lediglich 288 TWh Onshore, 224 TWh Offshore und 360 TWh PV-Strom erzeugen ließen. Der Fehlbetrag zu den Daten von Quaschning19 beträgt 363 TWh, was der Summe dem Strombedarf für Raumwärme und Mobilität entspricht.

Abb. 12. Zukünftige Energieerzeugung mit den installierten Leistungen nach Tabelle 5 für die Bedingungen im Sommer 2016. Die Last von 2016 dient als Referenz. Der Backup-Bedarf ist negativ aufgetragen. Die gestrichelte Linie zeigt die 20 GW-Grenze für das Verstromen von Biomasse (s. Tabelle 5). 20

Die zeitaufgelöste Analyse zeigt ferner, dass trotz der hohen installierten Leistung von insgesamt 717 GW (s. Tabelle 5) bereits die reine Stromversorgung mit dem Zielwert von 500 TWh bei einem Verlauf entsprechend der Last von 2016 nicht vollständig abgedeckt werden kann. Zwar kann im Prozess der Verbrauchsminderung auch eine Veränderung der tages- und wochenzeitlichen Lastkurve erwartet werden, allerdings wird wohl auch in Zukunft während Flauteperioden in der Nacht („Dunkelflaute“) eine Unterdeckung eintreten, so dass ein Backupoder Speichersystem zuliefern muss21. Abb. 12 zeigt beispielhaft die hochgerechnete Produktion von Wind, PV, Biomasse und Wasserkraft, die Stromlast (2016) und den Bedarf an BackupLeistung (negativ aufgetragen) für einen Zeitabschnitt im Sommer. Der Backup bedarf kann reduziert werden

Zeitliche Auflösung: 15 min. Der Ausbau auf 690 GW Wind- und PV Kapazität bringt für das Netz und sein Management bisher ungekannte Herausforderungen. In den in Abb. 12 gezeigten Szenarien wird die kontrollierte Einspeisung in der Nacht von einigen 10 GW durch die solare Einspeisung von typisch 200 GW am Tag abgelöst. Zum Vergleich: Der Leistungshub am 20.3.2015, dem Tag einer Sonnenfinsternis über Deutschland, betrug 18 GW über etwa 1 ½ Stunden.



durch die Verstromung von Biomasse. Dafür sind in 19 58 TWh vorgesehen. Die Leistung der Biomasseproduktion ist jedoch auf 20 GW beschränkt (s. Tabelle 5). Diese Grenze ist ebenfalls in Abb. 12 eingetragen. Alle darunterliegenden Leistungswerte müssen durch ein Drittsystem erbracht werden. Von den 58 TWh an verstromter Biomasse können so zum Ausgleich der Stromdefizite 41 TWh verwendet werden; es fehlen in der Summe 18 TWh. In dem in Abb. 12 herausgegriffenen Zeitabschnitt muss dieses Drittsystem an 14 von 22 Nächten eingreifen.

Abb. 13. Dargestellt sind die hochgerechneten und aufsummierten Beiträge von Wind, PV, Biomasse und Wasserkraft (a, b) und die des Verbrauchs in den verschiedenen Sektoren (c, d) für das gesamte Jahr (a, c) und für einen Wochenabschnitt entsprechend der Periode vom 28.3. bis 3.4.2016 (b, d). (c, d) zeigen für die jeweiligen Zeitabschnitte von oben nach unten die Leitungsverluste, den für chemische Zwischenspeicherung und anschließend für Backup genutzten Strom, den direkt in das Netz eingespeisten Strom, den Ladestrom für die Mobilität, den Prozesswärmeverbrauch sowie den Verbrauch für Raumheizung. In d) erkennt man die Absenkung der Raumheizung von Donnerstag auf Freitag. 6.2. Abdeckung aller Verbrauchssektoren

Zur Deckung des Strombedarfs entsprechend der Last von 2016 mit einem Verbrauchswert von 500 TWh kommen, wie oben dargestellt, 41 TWh aus der Biomasse. Der verbleibende Fehlbetrag von 18 TWh kommt konzeptionell aus einem Speicher, wobei hierfür Primärstrom mit einem Wirkungsgrad von  = 0.32 genutzt werden soll. Der Rest der verstromten Biomasse von 17 TWh wird rechnerisch wie die Wasserkraft gleichmäßig übers Jahr eingespeist. Für die nur noch unvollständig mögliche Deckung des Raumwärme- und Warmwasserbedarfs von 150 TWh nehmen wir ein Jahresverbrauchsprofil an, wie es die Stadtwerke München in Monatsscheiben ermittelt haben22, das ein tiefes Minimum während                                                              22 ähnliche Daten finden sich bei vielen Stromanbietern unter dem Stichwort „Verbrauchsverlauf“ o.ä. 68

der Sommermonate aufweist. Der zukünftige Bedarf an Prozesswärme wird in 19 mit 250 TWh beziffert. Wir nehmen an, dass die Hälfte davon in der Form von Gas, die andere als Strom, gleichmäßig verteilt über den Tag, vorliegen muss und sich der Verbrauch am Wochenende um 1/3 reduziert. Für die Transformation von Primärstrom in Gas (CH4) wird als Wirkungsgrad = 0.67 angesetzt. Damit erhöht sich der Primärstrombedarf für diesen Sektor von 250 auf 312 TWh. Für Mobilität wird in 19 ein Strombedarf von 200 TWh angenommen ergänzt durch 137 TWh Import in der Form von flüssigem Treibstoff, der jedoch nicht weiter diskutiert wird. Als Ladeverluste für die Elektromobilität nehmen wir 16% an (Erfahrungswert). Wie bei der Prozesswärme auch, reduziert sich der angenommene Ladestromverbrauch am Wochenende auf zwei Drittel des Wertes an Arbeitstagen. Wir nehmen ferner an, dass die Aufladung von Elektrofahrzeugen vornehmlich während des Tages (6:00 bis 18:00) erfolgt, also zu den Zeiten mit hoher Überschussproduktion bei erwartet niedrigeren Ladekosten. Pro Tag müssen also im Mittel 0.63 TWh für diesen Zweck zur Verfügung stehen.

Abb. 14 a. Rot: aufsummierte Gesamtproduktion; Schwarz, positiv bzw. negativ: Überschuss bzw. Unterdeckung nach Abzug des Verbrauchs aller Sektoren und der Verluste. b) Gesamtproduktion (rot) und verbleibende Leistung (Überdeckung, Unterdeckung), wenn der Verbrauch der einzelnen Sektoren in Schritten abgezogen wird. Die fluktuierenden Daten (siehe z.B. Abb. 14a, Produktion) sind jeweils durch einen parabolischen Fit stark geglättet. Die Transformationsverluste des Speichers für die reine Stromerzeugung belaufen sich auf 38 TWh, Verluste bei der Prozesswärme auf 62 TWh, Ladeverluste für die Mobilität auf 32 TWh und allgemeinen Leitungsverluste auf 60 TWh23. Insgesamt ergeben sich mit diesen Annahmen Gesamtverluste von 192 TWh (220 TWh in 19). Die Verluste erhöhen sich jedoch deutlich über die hier angenommenen Transformationsverluste sobald Jahresspeicher mit betrachtet werden. Abb. 13 zeigt die Jahres- und Wochenverläufe von Energieerzeugung und –verbrauch hochgerechnet auf der Basis der Daten aus 2016 entsprechend der oben beschriebenen Modellvorstellungen. Wasserkraft und ein Teil der verstromten Biomasse tragen als Grundlast bei; 41 TWh der Biomasse werden in Mangelperioden direkt ins Netz eingespeist. Deutlich sichtbar ist die Abhängigkeit von der Witterung bei der Erzeugung und vom Wochentag beim Verbrauch. 23

Annahme: 5% Verluste 69

Abb. 14 a zeigt nun, ausgehend von der Gesamtproduktion (rot), den positiven oder negativen Saldo, wenn der Bedarf aller Sektoren (einschließlich der Verluste) abgedeckt werden soll (schwarz). Besonders im Winter dominieren negative Werte, die Strommangel kennzeichnen. Im Sommer dagegen gibt es positive Werte, also Überschüsse, die ggf. gespeichert werden können. Die grundlegenden Trends werden sichtbar, wenn die Gesamtproduktion (Jahresdurchschnitt 151 GW entsprechend 1320 TWh) wie auch die einzelnen Verbrauchsanteile über das Jahr mit einem parabolischen Fit geglättet dargestellt werden (Abb. 14 b). Damit wird deutlich, dass sich nach Deckung des Strombedarfs die restlichen Sektoren zunächst nicht mehr im Winter (wenn die PV nur sehr geringe Beiträge leistet) oder gar nicht mehr versorgen lassen. Für eine quantitativ exakte Rechnung müssen jedoch die zeitaufgelösten Daten verwendet werden; es ergibt sich ein Mangel von 454 TWh24, deutlich mehr als die Bilanz der integralen Werte (352 TWh) ergibt. Dieser Unterdeckung – vornehmlich im Winter - steht ein verbliebener Überschuss von 102 TWh gegenüber, der vornehmlich in den Sommermonaten anfällt (s. Abb. 14 a). Als Ergebnis halten wir fest, dass mit den in Fußnote 19 vorgeschlagenen Installationen (Tabelle 5), die einen Ertrag von 1320 TWh erbringen sollen, unter den Witterungsbedingungen von 2016 eine Abdeckung der Gesamtbedarfs trotz der angenommenen massiven Reduzierung des Endenergieverbrauchs von 2400 auf 1320 TWh nicht möglich ist. Es fehlt ca. 1/3 der in 19 angenommenen Produktion. Der Einsatz von Speichern verlangt zunächst, dass der erzeugte Überschuss den Mangel integral abdeckt. Unter den Bedingungen von 2016 und ohne von Speicherverlusten Abb. 15. Jahresdauerkurven (JDK) der Betrachtung verlangt die Produktion von mehr Überschuss- und Backup-Produktion, die identisch ist mit der Leistungsabgabe des Überschuss eine Erhöhung der installierten Speichers im verlustfreien Fall. JDKs mit Leistungen etwa um den Faktor 1.5 über Transformationsverlusten bei der die in der Tabelle 5 genannten iEE Werte, sich die gesamte Umwandlung zu CH4 und im nächsten wobei Erzeugungskapazität auf 1035 GW erhöht. Schritt zu Sekundärstrom. Der Überschussstrom unter 2016er Bedingungen beläuft sich dann auf 351 TWh und deckt den Restbedarf ab. Die Analyse eines möglichen Speichers führen wir jedoch besser auf der Basis des „optimalen Mix“ der iEE Anteile durch. In dieser Konstellation wird der Backup bzw. Speicherbedarf minimiert [1] und die Speicherbedingung ist automatisch erfüllt. Die zu installierende iEE Leistung fällt auf 880 GW aufgeteilt in 415 GW Onshore, 91 GW Offshore und 374 GW PV Leistung25. Überschuss und Backup-Bedarf betragen je 294 TWh; des Speicher benötigt eine Kapaziät von 64 TWh. Synergismen über die sog. Sektorenkopplung lassen sich nicht verifizieren. 24

Das entspricht nahezu dem derzeitigen Jahresstromverbrauch Wiewohl vom Aufwand her minimiert, übersteigt der Onshore-Anteil deutlich die für die Fläche Deutschlands konservativ abgeschätzte 200 GW-Ausbaugrenze (https://www.windenergie.de/sites/default/files/download/publication/studie-zum-potenzial-der-windenergienutzungland/bwe_potenzialstudie_kurzfassung_2012-03.pdf). Der Aufbau der PV Installation würde ~ 45 Jahre dauern bei konstaner Ausbaugeschwindigkeit von 7.5 GW/Jahr, dem Rekordwert von 2012.



Abb. 15 zeigt die Jahresdauerkurven der Leistungen des produzierten Überschusses, der in den Speicher geht, die Backup-Leistung, überlagert von der Speicherleistung im verlustfreien Fall sowie die Kurven mit den Transformationsverlusten. Ein Fall zeigt die Transformation von Strom über Wasserstoff hin zu Methan, der andere mit dem zusätzlichen Schritt hin zu Sekundärstrom. Da zur Abdeckung der Sektorenbedarfe Gas (ggf. auch H2) und Strom benötigt werden, sollte die tatsächliche Füllkurve zwischen diesen beiden Kurven liegen. Die maximale Überschussleistung beträgt 320 GW, die maximale Backup-Leistung 309 GW26. Von den ursprünglich 294 TWh eingespeicherter Energie liefert der Speicher 158 TWh in Form von Methan bzw. 94 TWh in der Form von Sekundärstrom. Wie schon in Abb. 8 gezeigt, erfüllt der Speicher seine Funktion nicht mehr sobald Verluste mitberücksichtigt werden. Er kann nur nach Phasen mit hoher Überschussproduktion Arbeit erbringen. Der Speicherbetrieb ist dadurch verkürzt (s. Abb. 15). Es bestätigt sich auch an diesem Beispiel, dass die Ergänzung und Glättung von intermittierenden Stromquellen durch Speicher eine zweifelhafte Option darstellen [3]. 7. Ausblick

Die erneuerbaren Energien stellen schon heute eine wichtige Stromquelle dar und bei den ausbaufähigen Techniken – Windkraft und Photovoltaik - werden sich die Kapazitäten weiter erhöhen. Die Probleme der niedrigen Leistungsdichte und der zeitlichen Produktionsvariabilität werden sich dadurch jedoch auch weiter verschärfen, bereits heute steigt die Zahl der Eingriffe zur Behebung von Netzengpässen und die damit verbunden Kosten steil an27. Im ersten Teil der Arbeit wurde zunächst die reine Stromproduktion mit einem Zielwert von 500 TWh, der von Windkraft- und PV-Anlagen im „optimalen Mix“ erzeugt wird, betrachtet. Die dafür notwendige iEE Leistung beträgt etwa 330 GW. Bei linearer Betrachtung müssen für den Wind-Anteil ~110000 Windkraftanlagen errichtet werden28. Bei einem jährlichen Verbrauch von 500 TWh können (bei heutigem Lastverlauf) nur etwa 75% der iEE-Produktion direkt verwendet werden. Der Rest taucht als Überschussstrom auf, der zum Zeitpunkt der Erzeugung keine aktuelle Verwendung findet. Bei Gleichheit von Energieproduktion und -verbrauch im Jahr stellt sich zu anderen Zeiten Strommangel ein. Es ist somit ein Speicher- und/oder Backup-System mit einer Leistung vergleichbar zur derzeitigen Spitzenlast notwendig, das imstande ist, Mangelphasen auszugleichen29. Lastmanagement, d.h. Anpassung des Verbrauchs (bzw. der Verbrauchsgewohnheiten) an das zeitliche Leistungsangebot hat nur einen relativ geringen Effekt – insbesondere, da die volatile iEE-Produktion die Gestaltung repetitiver Verbrauchsszenarien grundsätzlich erschwert. Effizienzverbesserungen können die Situation entspannen, sie betreffen aber überwiegend Nutzertechniken und weniger die Kraftwerke. Bereits seit einigen Jahren nimmt das Thema Speicher einen größeren Raum in der Diskussion ein. Da industrielle Technologie noch in den Anfängen steckt, sind weitere F&EArbeiten notwendig. Alleine zur Deckung des Strombedarfs werden Speicherkapazitäten von 26

Von Backup lässt sich bei diesen Bedarfsgrößen nicht mehr sprechen. Es handelt sich vielmehr um ein parallel zu betreibendes Versorgungssystem. 27 https://www.bdew.de/internet.nsf/id/20161103-oe-fakten-und-argumente-redispatch-in-deutschlandde/$file/Fakten%20und%20Argumente%20-%20Redispatch%20in%20Deutschland_oA.pdf. 28 Heute werden für 78 TWh Strom etwa 28.000 Windkraftanlagen betrieben. Soll der gesamte Energiebedarf überwiegend durch Wind und PV abgedeckt werden, geht diese Zahl hin zu einer halben Million Windturbinen: die Fläche von ganz Deutschland müsste dann mit Turbinen im Abstand von 1.2 km bebaut werden. 29 Mangelphase treten typisch in der Nacht auf. Da dann der Verbrauch geringer ist, könnte die Leistung des Backup-Systems um ca. 10% verringert werden, was allerdings mit Risiken verbunden ist. 71

mehreren 10 TWh benötigt, die nur mit chemischer Speicherung zu realisieren sind [9]. Dabei ist die Verringerung der Transformationsverluste essentiell: Ein Speichersystem auf Basis von Stromwandlung durch Elektrolyse zu Wasserstoff (ggf. mit dem Folgeschritt Methanisierung) und Rückverstromung ist untauglich, wenn die Transformationsverluste nicht deutlich verringert werden können, da der Speicher sonst nur nach Perioden starker Überschussproduktion nennenswerte Sekundärstrombeiträge leisten kann. Die (Elektrolyse-) Eingangsstufe dieser Speicher muss an den hohen Leistungspegel des Überschussstroms angepasst sein, was entsprechende Investitionen erfordert. Wie gezeigt, haben die Speicher andererseits nur geringe Arbeit zu leisten; es ist deshalb fraglich, ob ein wirtschaftlicher Betrieb möglich ist. Schon die heutigen Pumpspeicherkraftwerke sind mit dem steigenden iEE-Stromanteil kaum mehr wirtschaftlich betreibbar30. Wenn Windkraft- und PV-Leistung über die Abdeckung des reinen Strombedarfs hinaus den wesentlichen Anteil der gesamten Endenergie liefern soll, entsprechend der Vorgaben der Dekarbonisierung der Volkswirtschaft, werden Speicher für die reine Stromversorgung vollends überflüssig. Die hier vorgestellten Analysen zur Stromversorgung sind mittlerweile für verschiedene Länder durchgeführt worden [6]. Auch unter Einbeziehung eines europäischen Rahmens zeigt sich, dass eine Vollversorgung allein mit EE und dominanten Anteil von iEE schwerlich denkbar ist: Backup-Systeme bleiben weiter notwendig. Auch im europäischen Rahmen wird die Produktion von Überschussstrom mit dem Ausbau der iEE Erzeugungskapazitäten zunehmen. Insofern wird der Aufbau der gegenwärtig diskutierten „Stromautobahnen“ vom Norden in den Süden Deutschlands nicht nur der Versorgung der deutschen industriellen Zentren des Südens dienen, sondern auch dem Export der Überschussproduktion über Österreich in die Länder Südeuropas31. Schon heute produziert das deutsche Gesamtsystem – erneuerbare Energien plus thermische Kraftwerke – so viel Überschussstrom, dass Deutschland vom Stromimport- zum Stromexportland vergleichbar mit Frankreich geworden ist. Es ist offensichtlich, dass die Entwicklung hin zu emissionsfreier Energieproduktion mit einem Verhaltenswechsel einhergehen muss, so dass der Gesamtenergieverbrauch durch Einsparung und Effizienzverbesserung reduziert wird. In dieser Arbeit haben wir nicht versucht, selbst eine Antwort auf das Maß der Einsparung zu finden, sondern haben die recht stringenten Eckwerte von 19 übernommen. Dort wird vorgeschlagen, den Endenergieverbrauch von heute 2400 TWh auf 1320 TWh (plus 73 TWh Solar- und Geothermie sowie 137 TWh Import von Treibstoff) zu reduzieren. Allerdings: Von 1990 bis 2015 hat der Endenergieverbrauch eine leicht ansteigende Tendenz gezeigt32. Die Sektorkopplung und Dekarbonisierung aller energieverbrauchenden Sektoren durch iEE-Strom kann quantitativ korrekt nur unter Berücksichtigung ihrer intermittierenden Natur analysiert werden. Der Installationsausbau von 19 liefert für das windarme Jahr 2016 eine starke Unterdeckung des tatsächlichen Verbrauchs. Erst bei einer Erhöhung der installierten iEE-Leistung auf etwa 900 - 1000 GW - abhängig vom gewählten Mix zwischen Windkraft und PV – wird ausreichend Strom produziert. Im diesem Falle sind Überschuss und Mangel ausgeglichen, eine Voraussetzung für den Einsatz von (verlustlosen) Speichern. Die erforderliche Speicherkapazität beträgt 64 TWh. Mit den unvermeidlichen Verlusten zeigt sich jedoch das bekannte Bild - der Speicher hilft nur sporadisch, er kann nur Arbeit leisten nach Perioden mit großem Überschuss. Neben der fraglichen Wirtschaftlichkeit solcher Speicher stellt sich auch 30

https://www.elektropraktiker.de/nachricht/vattenfall-streicht-250-arbeitsplaetze/ Der bisherige Weg über Polen und Tschechien ist nur noch beschränkt nutzbar, seit diese Länder Phasenschieber an den Grenzkuppelstellen in Betrieb genommen haben. Siehe auch: http://www.pfbach.dk/firma_pfb/references/pfb_system_snap_shot_2017_06_07.pdf 32 http://www.umweltbundesamt.de/sites/default/files/medien/384/bilder/dateien/2_datentabelle-zurabb_entw-eev-sektoren_2017-02-17_0.pdf 31


das generelle Problem, dass aufgrund der Verluste entweder ein weiterer Ausbau der Erzeugung über die bislang betrachteten Erzeugungskapazitäten hinaus notwendig ist, was kaum mehr vorstellbar ist, oder ein paralleles Versorgungssystem vorgehalten werden muss. Ein Speicher von 64 TWh für die Befriedigung aller Verbrauchsektoren, der 294 TWh Überschussstrom aufnehmen sollte, würde aufgrund der Verluste in der Transformationskette von Strom-H2-CH4-Strom parallel den Betrieb eines Backup-Systems verlangen, das selbst wiederum mit 194 TWh beiträgt. Diese Arbeit hat sich darauf beschränkt, die Notwendigkeiten und Konsequenzen aus den getroffenen Entscheidungen der deutschen Energiewende aufzuzeigen, die sich aus den natürlichen Gegebenheiten von Wind- und PV-Stromerzeugung – niedrige Leistungsdichte und starke Schwankungen der Erzeugung - ergeben. Die optimale Konzeption eines Gesamtsystems CO2-freier Energieversorgung hängt zweifellos von politischen Zielvorstellungen ab aber mehr noch von technischen und wirtschaftlichen Gegebenheiten und witterungsbedingten Systemzusammenhängen. Danksagung Von H. Bruhns, Th. Linnemann und G.S. Vallana stammen wichtige und hilfreiche Hinweise. Literaturhinweise [1] F. Wagner “Electricity by intermittent sources: An analysis based on the German situation 2012”, Eur. Phys. J. Plus 129 (2014) 20. [2] F. Wagner “Eigenschaften einer Stromversorgung mit intermittierenden Quellen“ in Energie – Erzeugung, Netze, Nutzung. Hrsg.: H. Bruhns (2015), p. 139. [3] F. Wagner “Surplus from and storage of electricity generated by intermittent sources”, Eur. Phys. J. Plus 131 (2016) 445. [4] H. W. Sinn “BUFFERING VOLATILITY: A STUDY ON THE LIMITS OF GERMANY’S ENERGY REVOLUTION”, accepted for publication in European Economy Review. [5] Th. Linnemann und G.S. Vallana, VGB Power Tech. 6/2017, Seite 63 ff. [6] F. Wagner “Considerations for an EU-Wide use of renewable energies for electricity generation“, Eur. Phys. J. Plus 129 (2014) 219. D. Grand, et al. “Electricity production by intermittent renewable sources: a synthesis of French and German studies” Eur. Phys. J. Plus 131 (2016) 329. D. Grand, et al. “Intermittence des énergies renouvelables et insertion dans le mix électrique: Exemples de la France et de l’Allemagne”, Techniques de l’Ingénieur, in301, 10.7.2015. F. Romanelli “Strategies for the integration of intermittent renewable energy sources in the electrical system“ Eur. Phys. J. Plus 131 (2016) 53. F. Wagner and F. Wertz „Characteristics of electricity generation with intermittent sources depending on the time resolution of the input data” Eur. Phys. J. Plus 131 (2016) 284. F. Wagner and E. Rachlew “Study on a hypothetical replacement of nuclear electricity by wind power in Sweden” Eur. Phys. J. Plus 131 (2016) 173.


R. Gómez-Calvet et al. “Present state and optimal development of the renewable energy generation mix in Spain“ to be published in Renewable and Sustainable Energy. Reviews [7] H. Chen et al. „ Progress in electrical energy storage system: A critical review”, Progress in Natural Science 19 (2009) 291. X. Luo et al. “Overview of current development in electrical energy storage technologies and the application potential in power system operation” Applied Energy 137 (2015) 511. [8] H. Pütter „Die Zukunft der Stromspeicherung“, in Energie: Technologien und Energiewirtschaft, Hrsg.: H. Bruhns (2013), p. 75. [9] Chemical Energy Storage, ed. R. Schlögl, De Gruyter publisher, (2012), ISBN-10: 3110264072, ISBN-13: 978-3110264074.

Prof. em. Dr. Friedrich Wagner Max-Planck-Institut für Plasmaphysik, Garching/Greifswald Wendelsteinstraße 1, D-17491 Greifswald [email protected]


Deutschlands Klimapolitik: Höchste Zeit für einen Strategiewechsel Manuel Frondel, RWI Leibniz-Institut für Wirtschaftsforschung und Ruhr-Universität Bochum. JEL-Klassifikation: Q54; Keywords: Emissionshandel, Klimaabkommen.

Danksagung: Für wissenschaftliche Vorarbeiten bin ich Lukas Tomberg und Stephan Sommer besonderen Dank schuldig. Ich danke der Friedrich-Naumann-Stiftung für die Freiheit für die finanzielle Unterstützung dieses Beitrags. Eine gekürzte Fassung dieses Beitrags erscheint demnächst in der Zeitschrift für Energiewirtschaft. Zusammenfassung:

Deutschlands Klimaschutzbemühungen beruhen vor allem auf der Subventionierung der Verbreitung alternativer Energietechnologien. Eine solche Art von Treibhausgasminderungspolitik ist nahezu wirkungslos, solange es kein globales Abkommen gibt, mit dem der Ausstoß an Treibhausgasemissionen auf internationaler Ebene effektiv gesenkt werden kann. Wie in diesem Beitrag erläutert wird, bestehen die besten Aussichten auf ein wirksames weltweites Abkommen darin, dass man sich dafür auf einen global einheitlichen Preis für Treibhausgasvermeidung einigt. Ohne eine solche Einigung ist zu befürchten, dass das Pariser Abkommen mit seinem wenig überschaubaren System an unkoordinierten Minderungszusagen einzelner Staaten, mit deren Nichteinhaltung keinerlei Sanktionen verbunden sind, scheitert. Deutschland sollte daher einen gravierenden Strategiewechsel in seiner Klimapolitik vornehmen und auf den Abschluss eines effektiven internationalen Klimaschutz-Abkommens drängen, statt weiterhin mit hohen Subventionen den Ausbau der erneuerbaren Energietechnologien als primäre Klimaschutzstrategie zu forcieren. 1. Einleitung

Die Europäische Union (EU) nimmt eine führende Rolle bei den internationalen Klimaschutzbemühungen ein. Dies wird durch die Vorgabe eines ambitionierten Klimaschutzziels untermauert: Bis 2030 sollen die Treibhausgasemissionen in der EU um 40% gegenüber dem Jahr 1990 gesenkt werden. Dieses Ziel soll unabhängig davon verfolgt werden, ob andere bedeutende Emittenten wie China oder die USA ebenfalls Minderungsanstrengungen unternehmen Die Klimaschutzambitionen Deutschlands gehen sogar noch über die der EU hinaus. So strebt Deutschland eine Minderung der Treibhausgasemissionen um 40% gegenüber dem Jahr 1990 bereits bis zum Jahr 2020 an und erhebt damit Anspruch auf die Rolle des klimapolitischen Musterschülers - und dies nicht allein in der EU, sondern weltweit. Die Realität hinkt diesem Anspruch jedoch hinterher: Seit Jahren sinken die Emissionen an Kohlendioxid (CO2) im Mittel deutlich schwächer als es für die Erreichung des nationalen Klimaschutzziels erforderlich wäre. Die Erreichung des Ziels für das Jahr 2020 droht daher zu scheitern (Löschel et al. 2016). Mit allerhand dirigistischen Maßnahmen, wie dem vorzeitigen Abschalten von Kohlekraftwerken, wird daher versucht, das Scheitern zu verhindern.


Neben derartigen diskretionären Maßnahmen beruhen Deutschlands Klimaschutzbemühungen vor allem auf der Subventionierung der Verbreitung selektiver alternativer Energietechnologien, vorwiegend zur Erzeugung von Strom. Eine solche Art von Treibhausgasminderungspolitik ist nahezu wirkungslos, solange es kein globales Abkommen gibt, mit dem der Ausstoß an Treibhausgasemissionen auf internationaler Ebene effektiv gesenkt werden kann. Daher sollte Deutschland auf den Abschluss eines effektiven internationalen KlimaschutzAbkommens drängen, statt weiterhin mit hohen Subventionen den Ausbau der erneuerbaren Energien auf nationaler Ebene zu forcieren. Der Beitrag skizziert einen möglichen Weg dahin und beschäftigt sich mit der Effektivität und Effizienz der deutschen und europäischen Klimaschutzpolitik, welche sich bislang weitgehend auf die Verringerung von Kohlendioxid (CO2) konzentriert. Der folgende Abschnitt 2 vergleicht die bisherigen Treibhausgasreduktionsbemühungen Deutschlands und der EU mit denen führender Industrie- und Schwellenländer. Abschnitt 3 befasst sich mit dem Klimaschutzabkommen von Paris, welches ein Sammelsurium unkoordinierter freiwilliger Selbstverpflichtungen von Nationalstaaten zur Treibhausgasminderung darstellt, sowie mit den Gründen für sein voraussichtliches Scheitern. Abschnitt 4 befasst sich mit Reziprozität bzw. konditionaler Kooperation als wesentlicher Voraussetzung für die Etablierung eines effektiven globalen Klimaschutzregimes. Hierzu wird in Abschnitt 5 als Grundlage für ein effektives internationales Klimaschutzabkommen die Etablierung eines weltweit einheitlichen CO2-Preises diskutiert (MacKay, Cramton, Ockenfels, Stoft 2015). Der abschließende Abschnitt präsentiert ein Fazit zur bisherigen Klimapolitikstrategie Deutschlands und schlägt als Schlussfolgerung einen gravierenden Strategiewechsel vor. 2. Der geringe Effekt einseitiger Treibhausgasminderungspolitik

Mit einer Verringerung der Treibhausgasemissionen um rund 16,8% gegenüber 1990 übertrafen die EU-15-Staaten im Jahr 2012 ihr Kyoto-Ziel der Minderung um 8% deutlich (EEA 2014). Deutschland stellte mit einer Treibhausgasreduktion um 23,7% zwischen 1990 und 2012 den weltweiten Vorreiter dar. Der Treibhausgasausstoß der USA stieg hingegen bis zum Jahr 2005 an; erst seitdem geht er wieder langsam zurück, doch im Jahr 2012 lag er noch immer über dem Niveau von 1990. Jegliche Treibhausgasminderungen Deutschlands und der EU wurden konterkariert durch den massiven Anstieg der Emissionen Chinas (Abbildung 1). Dieser Anstieg fiel kurz nach der Jahrtausendwende besonders prononciert aus: Zwischen 2002 und 2012 haben sich die Treibhausgasemissionen Chinas mehr als verdoppelt und stiegen von 5,2 auf knapp 11 Mrd. Tonnen CO2-Äquivalente. China war in diesem Zeitraum für mehr als die Hälfte des Anstiegs der weltweiten Treibhausgasemissionen von 34,9 auf gut 44,8 Mrd. Tonnen verantwortlich und damit der Haupttreiber des globalen Treibhausgasausstoßes. Im Jahr 2014 war China mit einem Anteil von 28,0% an den weltweiten CO2-Emissionen der größte Emittent dieses als am wichtigsten erachteten Treibhausgases, mit weitem Abstand vor den USA (Cerina (2016). Die weltweit zweit- und drittgrößten CO2-Emittenten, die USA und die EU-15, hatten deutlich geringere Anteile von 17,4% bzw. 8,7%. Dies zeigt: Ohne eine Kehrtwende Chinas wird die nahezu ununterbrochene Zunahme der weltweiten Treibhausgasemissionen aller Voraussicht nach auch in Zukunft nicht gebremst werden können. China spielt daher eine entscheidende Rolle für die internationalen Bemühungen um die weltweite Dämpfung des Treibhausgasausstoßes. Ohne ein Mitwirken Chinas, aber auch anderer großer Emittenten wie den USA und Indien, können die globalen Emissionen in keinem Fall gesenkt werden. Dies verdeutlicht die in Abbildung 1 dargestellte Historie des Treibhausgasausstoßes.


Anders ausgedrückt: Für einen effektiven Klimaschutz ist die dauerhafte Kooperation von China, den USA, der EU und anderen bedeutenden Emittenten unabdingbar. Zur besseren Einschätzung des Klimaschutzehrgeizes Deutschlands und der Europäischen Kommission sollte vor diesem Hintergrund bedacht werden, dass die bisherigen Minderungserfolge weniger einer stringenten Politik zu verdanken sind. Vielmehr sind sie zu erheblichen Teilen einmaligen historischen Ereignissen geschuldet (Böhringer 2010: 63). Dazu zählen der wirtschaftliche Zusammenbruch in den heutigen ostdeutschen Bundesländern und den ehemaligen Ostblockstaaten sowie die tiefgreifende weltweite Rezession nach der Banken- und Finanzmarktkrise am Ende der ersten Dekade dieses Jahrtausends. Tatsächlich führten die Folgen dieser weltweiten Wirtschaftskrise zum einzig merklichen Rückgang der globalen Treibhausgasemissionen seit dem Jahr 1990 (Abbildung 1).

Abbildung 1: Treibhausgasausstoß zwischen 1990 und 2012 in Mio. Tonnen CO2Äquivalenten. Quelle: CAIT (2015) Vor diesem Hintergrund ist das Klimaschutzziel der Kommission, die Treibhausgasemissionen in der EU bis 2030 um 40% gegenüber dem Jahr 1990 zu senken, als überaus ambitioniert zu bezeichnen. Schließlich konnten die Emissionen der EU-28-Staaten in den 23 Jahren zwischen 1990 und 2012 nur mit Hilfe dieser einmaligen historischen Ereignisse um rund 16% verringern werden (CAIT 2015). Die Erreichung des 40%-Ziels erfordert jedoch für den kürzeren Zeitraum von nur 18 Jahren bis 2030 eine deutlich größere Minderungsanstrengung. Noch ambitionierter ist das 40%-Minderungsziel Deutschlands bis zum Jahr 2020: Nach einer Treibhausgasreduktion um 23,7 % zwischen 1990 und 2012 sollen die zur Zielerreichung fehlenden 16,3 Prozentpunkte in lediglich acht Jahren erreicht werden. Die durchschnittliche jährliche Minderungsrate von 1,2% in den Jahren 1990 bis 2012 müsste im Mittel auf knapp 3% steigen, um das nationale Ziel für das Jahr 2020 zu erreichen.


Während man sich bei einem deutschen Anteil an den weltweiten CO2-Emissionen von 2,3% im Jahr 2014 (CAIT 2015) der ohnehin geringen Bedeutung Deutschlands für die globale Emissionsbilanz gewahr werden muss, wird im Folgenden erläutert, warum die einseitigen Klimaschutzbemühungen Deutschlands langfristig betrachtet kaum Wirksamkeit entfalten, wenn kein effektives internationales Klimaschutzabkommen vereinbart wird.1 Nach den vielen Misserfolgen der Vergangenheit werden in die etwas überraschende Einigung auf mehr Klimaschutz eines Großteils der Nationen auf der Weltklimakonferenz in Paris vielfach große Hoffnungen gesetzt. Die folgenden Abschnitte zeigen jedoch, dass die Welt noch weit entfernt ist von einem effektiven Klimaschutzregime. 3. Das internationale Klimaschutzabkommen von Paris

Das Ende 2015 in Paris erzielte Klimaschutzabkommen ist zweifellos ein diplomatischer Erfolg, aber noch lange kein klimapolitischer Durchbruch (Edenhofer, Flachsland, Kornek 2016: 11). Zwar hat man sich auf ein Klimaschutzziel – u.a. das Langfrist-Ziel der TemperaturStabilisierung von 2 Grad Celsius über dem vorindustriellen Niveau – und den Grundriss für ein neues Klimaschutzabkommen einigen können. Anders als im früheren internationalen Abkommen, dem Kyoto-Protokoll, wurden jedoch keine verbindlichen nationalen Emissionsziele vereinbart. Vielmehr hat man sich bislang auf ein System freiwilliger Selbstverpflichtungen verständigt (Tabelle 1), bei dem basierend auf den vor der Paris-Konferenz von den Staaten eingereichten INDCs (Intended Nationally Determined Contributions) bis zum Jahr 2020 selbstbestimmte nationale Klimaschutzpläne (Nationally Determined Contributions, NDCs) vorgelegt werden sollen. Ein wesentlicher Schwachpunkt dieser Art von Klimaschutzabkommen ist, dass unklar bleibt, wer zur Verantwortung gezogen werden wird, wenn das 2Grad-Ziel nicht eingehalten werden sollte (Edenhofer, Flachsland, Kornek 2016:11). Darüber hinaus ist zu konstatieren, dass die Selbstverpflichtungen in Form der INDCs untereinander kaum vergleichbar sind, denn die Basisjahre und die Art der freiwilligen Zusagen sind vielfach unterschiedlich (Tabelle 1). So sind etwa die Ziele von Ländern wie Australien, Kanada und den USA, die sich auf das Basisjahr 2005 beziehen, in dem die Emissionen dieser Länder über denen von 1990 lagen, nicht so ambitioniert wie die deutschen und EU-Klimaschutzziele mit dem Basisjahr 1990. An der tatsächlichen Einhaltung der in Form von INDCs vorgelegten freiwilligen Selbstverpflichtungen kann es erhebliche Zweifel geben. Erstens sind die INDCs Versprechungen auf internationalem Parkett, die bislang nicht durch überzeugende nationale wirtschaftspolitische Strategien untermauert worden sind (Edenhofer, Flachsland, Kornek 2016: 12). Dies wäre jedoch unabdingbar, stellen diese Versprechungen von Emissionsminderungen bis zum Jahr 2030 für die große Mehrheit der Länder doch radikale Veränderungen gegenüber den Emissionstrends der Vergangenheit dar (siehe Abbildung 1 für das Beispiel der USA). So stellt sich insbesondere die Frage, wie Länder wie Australien oder Kanada, deren Emissionen bislang im Mittel immer weiter angestiegen sind (z.B. stiegen die CO2-Emissionen Australiens zwischen 1990 und 2012 um rund 40% ), nun auf einen Emissionspfad umschwenken wollen, mit dem sie bis zum Jahr 2030 ihre Treibhausgasemissionen um 26-28% bzw. um 30% senken können (Tabelle 1).


Besonders kritisch wird die Vorreiterrolle Deutschlands beim Klimaschutz vom Wissenschaftlichen Beirat beim Bundesministerium der Finanzen gesehen: „Wenn sich Deutschland ambitionierte Ziele zur Emissionsminderung setzt, mag man darauf hoffen, damit ein positives Beispiel abzugeben, dem andere Länder folgen. In einer realen Welt, in der die Emissionen aller Länder durch deren individuelles Kosten-NutzenKalkül bestimmt sind, ist dies jedoch eine fromme Hoffnung“ (Beirat BMF 2010:14).


Globaler Anteil an THG-Emissionen 2012

Reduktionszusagen bis 2030 bzw. 2025 gegenüber 2005 bzw. 1990



Senkung der CO2-Intensität (Emissionen pro Einheit BIP) bis 2030 um 60 bis 65% gegenüber 2005.



Reduktion der THG-Emissionen um 26 bis 28% zwischen 2005 und 2025



Reduktion der THG-Emissionen bis 2030 um 40% gegenüber 1990



Senkung der THG-Intensität bis 2030 um 33 bis 35% gegenüber 2005



Reduktion der THG-Emissionen bis 2030 um 25 bis 30% gegenüber 1990 (unter Einbeziehung von Senken)



THG-Emissions-Reduktion bis 2030 um 25% gegenüber 2005



THG-Emissions-Reduktion bis 2030 um mindestens 55% gegenüber 1990



THG-Emissions-Reduktion bis 2030 um 30% gegenüber 2005



THG-Emissions-Reduktion bis 2030 um 26-28% gegenüber 2005

Tabelle 1: Freiwillige Zusagen (INDCs) der größten Emittentenstaaten zur Reduktion der Emissionen laut Pariser Abkommen 2015. Quelle: Farid et al. (2016:14) Zweitens: Für den Fall, dass Länder ihre freiwilligen Selbstverpflichtungen nicht einhalten, wurden keine formalenSanktionen vereinbart. Vielmehr bleibt als einziger informeller Sanktionsmechanismus das internationale „Brandmarken“ jener Länder übrig, die ihre freiwilligen Selbstverpflichtungen nicht einhalten.2 Zu den massiven Zweifeln an der Einhaltung der Zusagen gesellt sich ein gravierender Nachteil dieses Systems von freiwilligen Selbstverpflichtungen: Deren Verkündung erfolgte gänzlich unkoordiniert und ohne jegliche Orientierung am Kriterium der Kosteneffizienz. Denn die individuellen Minderungszusagen beruhen weder auf einer koordinierten Aufteilung des zur Einhaltung des 2-Grad-Ziels zulässigen Emissionsbudgets auf die einzelnen Staaten, noch 2

Selbst wenn es gelänge, den verlautbarten Selbstverpflichtungen (INDCs) bis zum Jahr 2020 transparente und überprüfbare nationale Umsetzungs- bzw. Minderungspläne (NDCs) folgen zu lassen und damit – was weitaus schwieriger ist – die Zusagen bis zum Jahr 2030 einzuhalten, sollte nicht verschwiegen werden, dass mit diesen die Hauptlast der für die Einhaltung des Zwei-Grad-Ziels nötigen Emissionsminderungen auf die Zeit nach dem Jahr 2030 verschoben wurde (Edenhofer, Flachsland, Kornek 2016: 12).


orientieren sich die Selbstverpflichtungen an den Grenzvermeidungskosten der Minderung von Treibhausgasen. Wenn jedoch mit den vorhandenen finanziellen Ressourcen das Maximum an Emissionsminderung erreicht werden soll, ist es zwingend nötig, dass beim Klimaschutz kein Geld verschwendet wird, und dieser vielmehr kosteneffizient erfolgt (Weimann 2016: 3). Somit sollten die Minderungsmaßnahmen mit den geringsten Vermeidungskosten zuerst ergriffen werden. Die niedrigsten Vermeidungskosten haben aber vor allem jene Länder, die aufgrund veralteter Technik mit geringer Energieeffizienz produzieren und die ihren Energiebedarf vorwiegend mit fossilen Brennstoffen decken, allen voran die kostengünstige Kohle. Dazu gehören auch Schwellen- und Entwicklungsländer, die – unter Hinweis auf die Industrieländer als die bisherigen Hauptverantwortlichen für den hohen globalen Treibhausgasausstoß und ihre eigenen beschränkten finanziellen Möglichkeiten – die gebotene drastische Verringerung ihrer Emissionen verweigern und dies voraussichtlich auch in Zukunft tun werden. Vor diesem Hintergrund stellt Weimann (2016) die Hypothese auf, dass globaler Klimaschutz nur dann erfolgreich verwirklicht werden kann, wenn neben der Etablierung eines einheitlichen CO2-Preises die Allokation der Vermeidungsmaßnahmen unabhängig von der Frage erfolgt, wer die Kosten dafür zu tragen hat. Diese beiden Bedingungen werden vom Pariser Abkommen mit seinem System an freiwilligen Selbstverpflichtungen zur Einhaltung nationaler Emissionsminderungsziele gerade nicht erfüllt: Die Vermeidungskosten sind vom jeweiligen Land zu tragen, nicht etwa von einem anderen, reicheren Land, und die großen Unterschiede in den Grenzvermeidungskosten zwischen Entwicklungs-, Schwellen- und Industrieländern werden nicht zur Erhöhung der Kosteneffizienz ausgenutzt, da das Abkommen eine Übertragung der Vermeidungsbemühungen von Ländern mit hohen Grenzvermeidungskosten auf Länder mit geringeren Vermeidungskosten nicht vorsieht. Aus dieser Perspektive ist eine rein national ausgerichtete Klimapolitik, wie beispielsweise Deutschland sie im Alleingang mit dem 40%-Ziel für das Jahr 2020 verfolgt, möglichst zu vermeiden, denn sie ist im globalen Kontext alles andere als kosteneffizient. Umso bedauerlicher ist, dass mit dem massiven Ausbau erneuerbarer Energietechnologien, insbesondere der Photovoltaik, die Verminderung des Treibhausgasausstoßes in Deutschland auf eine besonders teure Art und Weise verfolgt wird (Frondel 2011: 127-128; Frondel, Schmidt, Vance 2014a, b; Frondel, Sommer, Vance 2015); eine größere Senkung der Treibhausgasemissionen wäre anderorts und auf andere Weise wesentlich kostengünstiger erreichbar. Auf diese Weise gerät die deutsche Energiewende zu einer besonders teuren Herausforderung. Selbst wenn es schwierig ist, die Kosten der Energiewende genau zu quantifizieren, unter anderem deshalb, weil auch ohne eine Energiewende Kosten für die Aufrechterhaltung des Energieversorgungssystems angefallen wären, dürfte die Schätzung von Andor, Frondel und Vance (2017) eher konservativ sein: Demnach könnte der Ausbau der erneuerbaren Energien in Deutschland in den kommenden zwanzig Jahren rund 400 Mrd. Euro kosten, zusätzlich zu den knapp 150 Mrd. Euro, die die Subventionierung der Erneuerbaren mittels des EEG in den Jahren zwischen 2000 und 2016 bereits verschlungen hat.3 Nicht in diesen Summen enthalten sind die Kosten für den Netzausbau, der ohne den Ausbau der Erneuerbaren nicht in diesem starken Maße hätte vorangetrieben werden müssen, wie es der Bundesnetzplan vorsieht.


Die eher konservative Schätzung von 400 Mrd. Euro beruht auf der Annahme, dass die jährlichen Subventionen für Erneuerbare von über 20 Mrd. Euro im Jahr 2015 bis zum Jahr 2025 weiter steigen und erst in den darauffolgenden 10 Jahren wieder fallen werden. Es ist daher davon auszugehen, dass die jährlichen Subventionen in den kommenden 20 Jahren im Mittel um die 20 Mrd. Euro betragen könnten.


4. Die Notwendigkeit von Kooperation und eines effektiven internationalen Klimaschutzabkommens

Weimann (2016: 4) kritisiert am Pariser Abkommen besonders, dass die Art von Klimaschutzpolitik, wie sie von Deutschland betrieben wird, „quasi zum Goldstandard erklärt“ wird. Wegen der im Abschnitt 3 dargestellten Kritikpunkte erwartet Weimann ein Scheitern des Pariser Abkommens, ebenso wie viele andere Experten, etwa Edenhofer, Flachsland und Kornek (2016) oder Cramton, Ockenfels und Stoft (2015). So befürchten Edenhofer, Flachsland und Kornek (2016: 13), dass das Pariser Abkommen mit seinem System der freiwilligen nationalen Selbstverpflichtungen an mangelnder internationaler Kooperation aufgrund fehlender gegenseitiger Verpflichtungen und instabiler Anreizstrukturen scheitern könnte, d.h. die beteiligten Länder kaum mehr Klimaschutz betreiben werden, als in ihrem eigenen Interesse liegt, und daher das avisierte 2-Grad-Ziel verfehlt würde. Damit würden die ambitionierten und äußerste kostspieligen Klimaschutzbemühungen Deutschlands, die in der Klimaökonomik häufig als altruistisches Verhalten bezeichnet werden, weitgehend nutzlos verpuffen. Es gibt sogar Stimmen, einseitige Klimaschutzbemühungen würden das Nichtstun anderer Länder fördern und so das Zustandekommen wirksamer internationaler Klimaschutzabkommen erschweren (Beirat BMF 2010: 16). Tatsächlich ist wohl davon auszugehen, dass Staaten im Allgemeinen nur dann ambitionierte Treibhausgasminderungsmaßnahmen ergreifen werden, wenn sie darauf vertrauen können, dass andere Länder ebenfalls akzeptable Anstrengungen unternehmen werden (Aldy, Pizer, Akimoto 2016). Zeigt sich daher im Nachgang zum Pariser Abkommen, dass die eigenen Anstrengungen nicht durch entsprechende Maßnahmen in anderen Ländern erwidert werden, könnte das zu einer Abwärtsspirale in den internationalen Klimaschutzbemühungen führen, anstatt wie erhofft zu gegenseitigem Anstacheln (Edenhofer, Flachsland, Kornek 2016). Einsichten aus der experimentellen Spieltheorie zeigen deutlich, dass dafür verbindliche gegenseitige Verpflichtungen mit wirksamen Sanktionen erforderlich wären (Ostrom, Walker 2005). Tatsächlich ergibt sich sowohl aus zahlreichen Labor- und Feldexperimenten als auch aus theoretischen Studien, dass konditionale Kooperation („I will if you will“) zu höheren Kooperationsniveaus führen kann (Cramton, Ockenfels, Stoft, 2015: 53), welche weit über das von den Ländern im eigenen Interesse Getane hinausgehen. Cramton, Ockenfels und Stoft (2015: 51) sehen daher konditionale Kooperation bzw. reziprokes Verhalten als den entscheidenden Schlüssel für den Abschluss eines Klimaschutzabkommens an, das über ein von reinem Eigeninteresse der Länder geprägtes Maß an Klimaschutz hinausgeht und nicht von vorneherein zum Scheitern verurteilt sein soll. Ein solches internationales Klimaschutzabkommen kann, das zeigt die Geschichte des KyotoProtokolls und der Verhandlungen um einen Nachfolge-Vertrag, insbesondere aber das Scheitern der Weltklimakonferenz von Kopenhagen sowie die Art des Pariser Abkommens, nicht auf Mengenzielen basieren (Cramton, Ockenfels, Stoft 2015: 53). Zu dieser Schlussfolgerung ist auch die USA (US-Regierung 2013) gekommen. Und der Nobelpreisträger Joseph Stiglitz (2015) hat wiederholt erläutert, warum es keinen Grund gibt, an das Zustandekommen eines auf mengenbasierten Emissionsregeln beruhenden internationalen Klimaschutzabkommens zu glauben. Stiglitz (2015) zufolge werden sich reiche und arme Länder niemals auf ein mengenbasiertes Abkommen einigen können. Aus diesem und anderen Gründen kommt Weitzmann (2015) sogar zum Schluss, dass Verhandlungen über eine globale Emissionsobergrenze grundsätzlich zum Scheitern verurteilt sind. Auch der Wissenschaftliche Beirat beim Bundesministerium der Finanzen hält die Aussichten auf den Abschluss eines wirkungsvollen internationalen Klimaabkommens mit völkerrechtlich bindenden Minderungszielen der bedeutendsten Emittenten für wenig erfolgversprechend 81

(Beirat BMF 2010: 7). Dafür müsste es wohl eine Weltregierung geben - und es ist wenig wahrscheinlich ist, dass es diese jemals geben wird (Frondel 2011: 124). Für wesentlich aussichtsreicher als das Zustandekommen einer Mengen-Vereinbarung erachten Cramton, Ockenfels und Stoft (2015) den Abschluss eines Abkommens über einen global einheitlichen CO2-Preis, wie es von Cooper (2004), Nordhaus (2013, 2015), Stiglitz (2015), Weitzmann (2015) sowie Cramton und Stoft (2012) und anderen vorgeschlagen wurde. Tatsächlich ist die Einführung eines global einheitlichen CO2-Preises das fundamentale Prinzip, das ursprünglich auch dem Kyoto-Prozess zugrunde lag (Cramton, Ockenfels, Stoft 2015: 55). Mit ihm würde ein Mechanismus in die Wege geleitet, der die Optimierung von Klimaschutz hinsichtlich Effizienz und Kostenminimierung ermöglichen würde (Cramton, Ockenfels, Stoft 2015: 51). Ein weiterer wesentlicher Grund für die Überlegenheit eines global einheitlichen Preises gegenüber einer weltweiten Emissionsobergrenze als Fokuspunkt eines internationalen Abkommens besteht darin, dass jedes Land unabhängig von allen anderen Ländern den vereinbarten einheitlichen Preis auf nationaler Ebene etablieren kann, etwa mittels einer Steuer. Hingegen ist es praktisch unmöglich, dass ein einzelnes Land dafür sorgen kann, dass die weltweite Emissionsobergrenze eingehalten wird (Cramton, Ockenfels, Stoft 2015: 56). Neben der vergleichsweise leichten Umsetzbarkeit einer solchen Preispolitik in die Praxis kann es sogar im Eigeninteresse eines Landes sein, den in einem globalen Abkommen festgelegten einheitlichen CO2-Preis auf nationaler Ebene einzuführen, wenn die dadurch erzielbaren Einnahmen bei dem Land verbleiben. In diesem Punkt unterscheidet sich ein solches Klimaschutzregime fundamental von einem überregionalen Emissionshandelssystem, bei dem finanzielle Mittel aus Ländern mit hohen Emissionen − und folglich fehlenden Zertifikaten − in Länder mit geringem Treibhausgasausstoß und einem entsprechendem ZertifikateÜberschuss fließen. 5. Einstieg in eine effektive Klimaschutzpolitik: Koordinierte CO2-Preise

Nationale Klimapolitiken zur Senkung von Treibhausgasen sehen sich einem fundamentalen Dilemma ausgesetzt (Beirat BMF 2010: 8)4: Die Bürger eines Landes mit einer einseitigen Minderungspolitik profitieren nur zu einem geringen Teil von ihren eigenen Treibhausgasminderungen, während die Bürger anderer Länder ebenfalls Nutznießer sind. Aus diesem Grund haben einzelne Länder in der Regel nur geringe Anreize, erhebliche Kosten für Treibhausgasminderungen aufzuwenden, zumal diese im weltweiten Maßstab wenig bewirken (Abschnitt 2). Im Gegenteil: Ein einzelnes Land hat vielmehr den Anreiz, sich als Trittbrettfahrer zu verhalten und nichts zu tun (Weimann 1994: 73), um ohne eigenen Kostenaufwand von den Anstrengungen der anderen Länder zu profitieren. Die zentrale Herausforderung in der internationalen Klimaschutzpolitik ist daher, einen Weg zu finden, mit dem es gelingen kann, Staaten vom Trittbrettfahrerverhalten abzubringen und die Chancen für das Zustandekommen eines effektiven Klimaabkommens auf globaler Ebene zu erhöhen. Aufgrund des Fehlens einer Weltregierung, die ein Trittbrettfahrerverhalten wirksam sanktionieren könnte, besteht internationale Klimapolitik allerdings allein aus freiwilligem Engagement (Weimann 1994: 73).


Das Dilemma wurde von Hardin (1968) als Tragedy of Commons bezeichnet. Damit gemeint ist die Tragik der Allmende- bzw. öffentlichen Güter, die allen zur Verfügung stehen, dadurch keinen Preis haben und daher unter Übernutzung leiden.


Im Gegensatz zu einer freiwilligen Festlegung auf Emissionsbeschränkungen, wie dies bei einem Mengenabkommen nötig wäre, erscheint die freiwillige Teilnahme an einem internationalen Preisabkommen sehr viel wahrscheinlicher (Cramton, Ockenfels, Stoft 2015), nicht zuletzt, weil mit der Umsetzung eines solchen Abkommens (neue) Einnahmen erzielt werden können (Edenhofer, Flachsland, Kornek 2016: 13), die im eigenen Land verbleiben. Die jeweiligen Finanzminister sollten daher ein ureigenes Interesse an einer solchen gemeinsamen internationalen Preispolitik haben. Diese Einnahmen könnten für vielerlei Zwecke verwendet werden, um die Zustimmung in der Bevölkerung für eine solche Maßnahme zu erhöhen, etwa zur Reduktion bestehender Steuern oder zur unmittelbaren Entlastung ärmerer Bevölkerungsgruppen, die von einer CO2-Pönale im Verhältnis zum Einkommen gesehen am stärksten betroffen sind (Frondel, Kutzschbauch, Sommer, Traub 2017). Die geeignete Verwendung dieser Mittel ist von ganz wesentlicher Bedeutung für die Wohlfahrtswirkung einer solchen Politik. Beispielsweise würde die Subventionierung des Energieverbrauchs − eine populäre und häufig gestellte Forderung − die Wohlfahrtswirkungen erheblich schmälern. Es ist ein weiterer Vorteil, dass die energiepolitische Umsetzung eines global einheitlichen CO2-Preises jedem Land individuell überlassen bleibt und in der Praxis relativ einfach erfolgen kann, zum Beispiel mittels der Einführung von CO2-Steuern oder der Erhöhung von bestehenden Steuern auf fossile Energieträger. Alternativ kann in bestehenden oder neu zu etablierenden Emissionshandelssystemen ein Mindestpreis für Zertifikate eingeführt werden. Mit Hilfe des durch konditionale Kooperation umsetzbaren Reziprozitäts-Prinzips, bei dem nationale CO2-Preise in Abhängigkeit vom Verhalten anderer Nationen verändert werden, könnte ein höheres globales Preisniveau etabliert werden, als es andernfalls erreichbar wäre. Denn es gäbe so gleichzeitig einen Sanktionsmechanismus, mit dem das Trittbrettfahrerverhalten eingedämmt werden kann: Nur wenn andere Länder mitziehen, würde man selbst die CO2-Preise auf nationaler Ebene erhöhen. Durch die wechselseitige Abstimmung der Höhe der CO2-Preise könnten zugleich Befürchtungen über negative Wettbewerbswirkungen einer CO2-Bepreisung entkräftet werden. Um die Chancen für das Zustandekommen eines weltweiten Preis-Abkommens zu erhöhen, sollten die Hürden für den Eintritt in einen derartigen Klimaschutz-Club, in dem die KlubMitglieder CO2-Preise etablieren bzw. diese erhöhen, zunächst möglichst niedrig gesetzt werden, d.h. der global einheitliche CO2-Preis anfänglich auf einem niedrigen Niveau festgesetzt werden. In Abhängigkeit der Teilnahmebereitschaft an einem solchen Abkommen und der Kooperationswilligkeit der „Klub"-Mitglieder könnte dann der CO2-Preis sukzessive erhöht werden, um so den Treibhausgasausstoß stabilisieren und letztlich reduzieren zu können. Um die Attraktivität einer Klub-Mitgliedschaft zu erhöhen, könnten arme Länder unter der Bedingung, dass sie einen Mindestpreis für CO2-Emissionen einführen, Transferzahlungen von den reichen Industriestaaten erhalten; diese könnten aus dem sogenannten Green Climate Fund stammen (GCF 2016), der bis zum Jahr 2020 von reichen Ländern wie Deutschland mit jährlich bis 100 Mrd. US-Dollar ausgestattet werden soll. Fest zugesagt sind bislang allerdings erst 10 Mrd. US-Dollar (Edenhofer, Flachsland, Kornek 2016: 14).5 Auf diese Weise 5

Der Green Climate Fund (GCF) ist ein Klimafonds der UN, der im Jahr 2010 mit dem Ziel gegründet wurde, finanzielle Mittel sowohl für Projekte zur Minderung von Treibhausgasemissionen als auch zur Anpassung an den Klimawandel in Entwicklungsländern bereitzustellen. Bis zum Jahr 2020 sollen für diesen Zweck jährlich 100 Milliarden US$ bereitgestellt werden, ein Teil davon vom Green Climate Fund. Es wird vom Green Climate Fund erwartet, dass er als Hauptkanal für multilaterale Finanztransfers von den Industrieländern zu den Entwicklungsländern fungiert. Sitz des Green Climate Fund ist die südkoreanische Stadt Incheon.


könnte ein Lastenausgleich zwischen armen und reichen Ländern erfolgen und die Frage der Allokation der Vermeidungsmaßnahmen von der Frage der Kostenverteilung getrennt werden – laut Weimann (2016) eine wesentliche Voraussetzung für kosteneffizienten Klimaschutz. Derzeit wird ein solcher strategischer Einsatz der Klimafinanzierung allerdings kaum diskutiert (Edenhofer, Flachsland, Kornek 2016: 14). 6. Zusammenfassung und Schlussfolgerung

Deutschlands Klimaschutzbemühungen beruhen vor allem auf der Subventionierung der Verbreitung alternativer Energietechnologien. Mit Subventionen für „grüne“ Technologien, wie sie auch in vielen anderen OECD-Ländern gewährt werden, wird jedoch das Gegenteil von kostengünstigem Klimaschutz betrieben, wie zum Beispiel der Nobelpreisträger JeanTirole und sein Koautor Christian Gollier (2015) kritisieren. Diese Autoren haben große Unterschiede in den impliziten CO2-Preisen dieser Subventionen festgestellt und diese auf bis zu 1 000 Euro je Tonne beziffert. Überdies ist eine solche Art von einseitiger Treibhausgasminderungspolitik nahezu wirkungslos, solange es kein globales Abkommen gibt, das den Ausstoß an Treibhausgasemissionen auf internationaler Ebene effektiv zu begrenzen erlaubt. Tatsächlich sind die globalen Emissionen weiter gestiegen, obwohl Deutschland und die EU – wenn auch durch einmalige historische Umstände begünstigt – in der Vergangenheit ihre Kyoto-Ziele eingehalten haben. In Übereistimmung mit den Vorschlägen von Nordhaus (2013), Stiglitz (2015), Weitzmann (2015) sowie Cramton und Stoft (2012), argumentiert dieser Beitrag, dass die besten Aussichten auf ein effektives internationales Abkommen darin bestehen, sich auf einen global einheitlichen Preis für den Ausstoß von Treibhausgasen zu einigen. Ohne eine solche Einigung ist zu befürchten, dass das Pariser Abkommen mit seinem wenig überschaubaren System unkoordinierter Minderungszusagen einzelner Staaten scheitert. Im Falle des Scheiterns würden die ambitionierten Klimaschutzanstrengungen Deutschlands nahezu wirkungslos verpuffen. Anstatt mit seiner Vorreiterrolle weiterhin darauf zu setzen, dass die Mehrheit der übrigen Länder einschließlich China, den USA und Indien dem eigenen Beispiel folgt, sollte Deutschland, z.B. im Rahmen des Forums der G20-Staaten, welche 76% der gegenwärtigen globalen Emissionen repräsentieren, die Verhandlungen über koordinierte CO2-Preise in Verbindung mit einem globalen Klimafinanzausgleich vorantreiben (Edenhofer, Flachsland, Kornek 2016: 14). Kontraproduktiv wäre hingegen, wenn die immer weiter ausufernden Kosten für die deutsche Energiewende zu einer schwindenden Akzeptanz in der Bevölkerung führen und die übrigen Länder das deutsche Experiment als Negativbeispiel ansehen würden, dem auf keinen Fall nachgeeifert werden sollte. Literatur

Aldy, J., W. Pizer, K. Akimoto (2017) Comparing emissions mitigation efforts across countries. Climate Policy, im Erscheinen. Andor, M., Frondel, M, Vance, C (2017) Germany’s Energiewende: A Tale of Increasing Costs and Decreasing Willingness-To-Pay. Energy Journal 38 (SI1), 211-228. Beirat BMF (2010) Klimapolitik zwischen Emissionsvermeidung und Anpassung. Gutachten des Wissenschaftlichen Beirats beim Bundesministerium der Finanzen. Berlin, Januar 2010. Böhringer, C. (2010) 1990 bis 2010: Eine Bestandsaufnahme von zwei Jahrzehnten europäischer Klimapolitik. Perspektiven der Wirtschaftspolitik 11(s1), 56-74. CAIT (2015) Climate Data Explorer. 2015. Washington, DC: World Resources Institute. http://cait.wri.org 84

Cerina (2014) Weltweite CO2-Emissionen: Länderranking 2012. www.cerina.org/co2-2012 Cooper, R. (2004) A Global Carbon Tax? Council on Foreign Relations, Commissioned Briefing Notes for the CIGI/CFGS L20 Project. Cramton, P., Ockenfels, A., Stoft, S. (2015) An International Carbon-Price Commitment Promotes Cooperation, Economics of Energy & Environmental Policy 4(2), 51–64. Cramton, P., Stoft, S. (2012) Global Climate Games: How Pricing and a Green Fund Foster Cooperation, Economics of Energy & Environmental Policy, 1(2), 125-136. Edenhofer, O., Flachsland, C., Kornek, U. (2016) Der Grundriss für ein neues Klimaschutzabkommen. Ifo Schnelldienst 69(3), 11-14. Edenhofer, O. und A. Ockenfels (2015) Ein Ausweg aus der Klima-Sackgasse, Frankfurter Allgemeine Zeitung, 26. Oktober 2015. EEA (2014) Total greenhouse gas (GHG) emission trends and projections (CSI 010/CLIM 050) - Assessment published Jun 2014, European Environmental Agency, Copenhagen. www.eea.europa.eu/data-and-maps/indicators/greenhouse-gas-emission-trends5/assessment Farid, M., Keen, M. Papaioannou, M, Parry, I. Pattillo, C. Ter-Martirosyan, A. and other IMF Staff (2016) After Paris: Fiscal, Macroeconomic, and Financial Implications of Climate Change. IMF Staff Discussion Note SDN 16/01. Frondel, M. (2011) Die EU-Klimapolitik: Teuer und ineffektiv. In: Realitätscheck für den Klimaschutz – Globale Klimapolitik zwischen Anspruch und Wirklichkeit. Hentrich, S., Kramer, H. (Herausgeber), Förster & Borries GmbH & Co. KG. Frondel, M., Kutzschbauch, O., Sommer, S., Traub, S. (2017) Die Gerechtigkeitslücke in der Verteilung der Kosten der Energiewende auf die privaten Haushalte. Perspektiven der Wirtschaftspolitik, im Erscheinen. Frondel, M., Ritter, N., Schmidt, C.M., Vance, C. (2010), Die ökonomischen Wirkungen der Förderung Erneuerbarer Energien: Erfahrungen aus Deutschland. Zeitschrift für Wirtschaftspolitik, 59 (2), 107-133. Frondel, M., Schmidt, C. M., Vance, C. (2014a) Revisiting Germany's Solar Cell Promotion: An Unfolding Disaster. Economic Analysis and Policy 44 (1), 3-13. Frondel, M., Schmidt, C. M., Vance, C. (2014b) „Grüner“ Strom gleich guter Strom? Warum Solarförderung ein teurer Irrtum ist. RWI Position Nr. 57, Essen. Frondel, M., Sommer, S., Vance, C. (2015) The Burden of Germany's Energy Transition - An Empirical Analysis of Distributional Effects. Economic Analysis and Policy 45, 89-99. Gollier, C., Tirole, J. (2015) Negotiating Effective Institutions Against Climate Change. Economics of Energy & Environmental Policy 4(2), 5–28. GCF (2016) Green Climate Fund. https://www.greenclimate.fund/ Hardin, G. (1968) The Tragedy of Commons. Science 162, 1243-1248. Löschel, A., Erdmann, G., Staiß, F., Ziesing, H-J. (2016) Stellungnahme zum fünften Monitoring-Bericht der Bundesregierung für das Berichtsjahr 2015. Expertenkommission zum Monitoring-Prozess ''Energie der Zukunft''. Dezember 2016, Berlin, Münster, Stuttgart. MacKay, D. J. C., Cramton, P., Ockenfels, A., Stoft, S. (2015) Price carbon — I will if you will. Nature 526, 315–316 Nordhaus, W. (2013) The Climate Casino, Yale University Press. Nordhaus, W. (2015) Climate Clubs: Overcoming Free-riding in International Climate Policy, American Economic Review, 105:4.


Ostrom, E., Walker, J. (2005) Trust and Reciprocity: Interdisciplinary Lessons for Experimental Research. In: Ostrom, E., Walker, J. (Hrsg.), Biological Foundations of Reciprocity. Russell Sage Foundation, New York. Stiglitz, J. E. (2015) Overcoming the Copenhagen Failure with Flexible Commitments, Economics of Energy & Environmental Policy, 4(2), 29–36. US-Regierung (2013) ADP Workstream 1: 2015 Agreement Submission of the United States. March 11, 2013. https://unfccc.int/files/documentation/submissions_from_parties/adp/application/pdf/adp_ usa_workstream_1_20130312.pdf Weimann, J. (2016) Anspruch und Wirklichkeit: Kann das Pariser Abkommen funktionieren? Ifo Schnelldienst 69(3), 3-5. Weimann, J. (1994) Umweltökonomik, eine theorieorientierte Einführung. 3. Auflage, Springer. Weitzman, M. (2015) Internalizing the Climate Externality: Can a Uniform Price Commitment Help? Economics of Energy & Environmental Policy 4(2), 37–50. Prof. Dr. Manuel Frondel RWI Leibniz-Institut für Wirtschaftsforschung Hohenzollernstr. 1-3, D-45128 Essen [email protected] Tel. 0201/8149204.


Cation-Alloying as a Pathway to Reproducible Solution-Based Preparation of Efficient Metal Halide Perovskites Solar Cells with Increased Stability Michael Saliba1 and Eva L. Unger2,3 , 1Swiss Federal Institute of Technology (Lausanne), 2 Helmholtz-Zentrum Berlin für Materialien und Energie GmbH, 3Lund University ABSTRACT

With a certain amount of serendipity, research on dye-sensitized solar cells led to the discovery of metal halide perovskite semiconductors as a solar energy conversion material1,2 that has inspired world-wide research activities leading to efficiency increases from about 10% in 20123,4 to now 22%.5–8 Apart from their use as a single junction solar cell technology, metal halide perovskites can be processed as an add-on layer onto other solar cells to realize efficient and low-cost tandem architectures. The perovskite band gap can be tuned continuously from 1.1 to 3.0 eV by chemical engineering which makes them particularly relevant for multi-junction devices.9–12 Experimental demonstrations of efficient tandem devices comprising metal-halide perovskites as one13–15 or both10,16 components in a tandem stack highlight the potential for scalable and low-cost multi-junction devices17 for which efficiencies approaching 30% are considered feasible.12,18–20 To reach this performance in a perovskite/silicon tandem, the ideal band gap of the absorber material in the top device should be about 1.7 eV12,18,21 (sine silicon has a band gap of 1.1 eV).11,22,23 In this review, we dedicate section I to the discussion of the chemical tunability of metal halide perovskite with a particular focus on absorber materials with absorption onsetsi around 1.6 eV. Section II reflects on the benefit and role of including cesium (Cs) highlighting the work by Saliba et al.5,6 as this approach demonstrates a reliable pathway to obtain efficient solution-processed metal halide perovskite absorbers with high reproducibility and extended operational device stability. Section III focuses on the state-of-the art of perovskite photovoltaics with relation to the absorption onset of the absorber layer and emphasizing materials with band gaps between 1.6 eV-1.75 eV as these are of great importance to the development of efficient tandem solar cells.12,18–20 In the concluding section IV, we reflect on more general trends in metal halide alloys partially discussed also elsewhere23 highlighting cation-alloying as an approach to obtain highly efficient devices in the band gap range between 1.6 and 1.7 eV. The data shown and discussed here is dominantly based on three recent publications and the interested reader is kindly referred to Unger et al.23 and Saliba et al.5,6 for more in-depth discussions and experimental details. I. BAND GAP TUNING IN METAL HALIDE PEROVSKITE ALLOYS

Hybrid metal halide perovskites containing methylammonium (MA) molecules as central cations in three-dimensional lead24 or tin-halide25 perovskites were first synthesized and characterized by Weber in 1978. The different colors of crystals synthesized in these first investigations indicated that the optical properties varied with the halide substitution from Cl via Br to I. In 2012, Noh et al.9 confirmed a tuneable band gap by halide substitution in the MAPb(BrxI1-x)3 series. Since then, alloying has become a valuable approach to tune the absorption onset e.g. by substituting iodide with bromide9,26,27, or to lower band gaps towards the infrared in lead-tin alloyed perovskites.10,28–30 The latter is also motivated by the necessity


to find alternatives not containing lead as this might be one main obstacle in the commercialization of perovskite solar cells. Another important aspect driving the investigation of various alloys is the search for more stable perovskite semiconductors because the MA cation is proving to be a volatile component making the material prone to photochemical, thermal, and humidity induced degradation.31,32 Cation-alloys comprising methylammonium (MA)9,26,33,34, formamidinium (FA)11,27,35, cesium (Cs)5,36,37 and also rubidium (Rb)6,38 have led to devices with better reproducibility, morphology, performance, and stability. The data sets compared here stem from a range of different ABX3 compounds where A can be a monovalent organic cations such as MA+9,26,39 or FA+11,40, inorganic cations such as cesium (Cs+), or a mixture of these. The Goldschmidt tolerance factor, although introduced for oxide perovskites,41 has been proven to be a useful tool to empirically estimate form-ability also for halide perovskites.6,35,42 Tolerance factor considerations are also useful in the rationalization of experimental trends in perovskites and aid in engineering of alloys with e.g. higher stability and we here show estimated tolerance factors of lead-based perovskites as a function of the cation as well as anion radii in Figure 1 (left).

Figure 1: (left) Goldschmidt tolerance factor estimation as a function of cation and anion radius for lead-based perovskite materials. (middle) Crystal structure of (pseudo-) cubic metal halide perovskite with Pb2+ depicted as central ion. (right) Correlation of the experimental absorption onset for various metal halide alloys as a function of the metal halide perovskite pseudo-cubic unit cell lattice parameter a0. Data points shown in grey are further discussed in Ref [23]. As an example for the value of tolerance factor considerations, we highlight metal halide perovskites comprising FA as well as the purely inorganic Cs-based metal halide perovskites that have a substantially higher thermal stability compared to methylammonium-based compounds. However, both tend to form non-perovskite crystal phases at room temperature that are “yellow” due to their lack of semiconductor properties.35,43,44 Tolerance factor estimations place FAPbI3 (O in Figure 1) at a value slightly too high to form stable cubic perovskites and experiments prove that a non-perovskite trigonal phase is the thermodynamically more stable phase at room temperature. CsPbI3 (“A” in Figure 1, left) on the other hand is predicted not to form as the Cs-cation is too small to stabilize a perovskite crystal structure. Mixing cations is hence a mean to adjust the effective cation size leading to


perovskite alloys with a more favorable tolerance factor.5,34,43,44 For pure bromide lead perovskites, both the MA and Cs derivate can be obtained (as the tolerance factor is more favorable for CsPbBr3, see Figure 1, left) suggesting that the methylammonium cation does not affect material properties relevant for solar cell device operation.31 Besides determining whether or not a stable perovskite phase can form, the dimensions of constituent ions also directly determine the perovskite lattice dimensions which, in turn, determine the absorption onset of the resulting perovskite alloy, shown in Figure 1 (right). The data depicted with crosses in the background is part of the data set discussed elsewhere 23 and we here chose to specifically highlight trends in cation alloys in the narrow band edge range between 1.5 and 1.8 eV. The plot shows that both the purely inorganic CsPbI3 compounds as well as FAPbI3 fall on a similar general trend-line for Pb-based ABX3 alloys for different cations or cation-alloys as well as bromide/iodide anion alloys. As both these materials only form meta-stable perovskite structures, the data point for the pure FAPb(Br0.18I0.82)3 lies outside the displayed data range of Figure 1. It should be noted that literature values for pure CsPbI3 may vary strongly depending on the degree of material degradation to the non-perovskite phase. Alloys of MA and FA34 and MA/FA alloys incorporating Cs12 (triple cations) are found to follow the trend of absorption onset as a function of the pseudo-cubic lattice constant a0 closely (Figure 1, right).ii For the data sets of (MAyFA1-y)Pb(Br0.18I0.82)3 (with y = 0% (D, not shown in Fig. 1), 18% (E), 33% (F), 50% (G), 67% (H), 82% (I) and 100% (J)), the data points follow roughly the predicted trend line but exhibit some scattering in the experimental data points that could be caused by slight compositional inhomogeneity of cation and halide anion distribution in the ABX3 absorber. Increasing the amount of Cs in Csy(MA0.17FA0.83)1yPb(Br0.17I0.83)3 (with y = 0% (K), 5% (L), 10% (M) and 15% (N) in Figure 1) the lattice dimensions and absorption onset are found to decrease according to the predicted trend (K-N in Figure 1, right). Cs incorporation is hence found to obey the trend-line established for hybrid perovskite semiconductors incorporating MA and FA opposed to the statement made previously.23,ii The amount of Cs that can be included in the structure seems limited as no stable perovskite materials are found to form for Cs concentration exceeding 15%, above which, phase-segregation and formation of “yellow” phases rather than perovskite semiconductor phases seem to be favored.5,44,45 Overall, we find that cation alloying, irrespective of whether organic or inorganic cations are used,ii follow a similar trend-line suggesting that the optical properties at the absorption onset are determined by the lattice dimensions. This insensitivity of the band-to-band electronic transition on the chemical nature of the cation and that the cation merely determines the lattice dimensions is expected from theoretical calculations. These predicted the band-to-band electronic transitions to be dominated by the Pb-6s and I-5p orbitals (valence band maximum) and Pb-6p orbitals (conduction band minimum) with no electronic influence from the central monovalent cation.46,47 Hence, it is mainly the metal-halide cage that determines the optoelectronic properties of perovskites. II. ROLE OF ALKALINE IONS IN CATION-ALLOYS

The addition of alkaline ions such as Cs5,6,43,45 and Rb6,38 to hybrid MA or FA-based lead halide perovskites has advantageous effects on the semiconductor properties due to tolerance factor adjustments as discussed in the previous section. Even the largest alkaline cation, cesium, has an ion radius bordering “too small” to form stable perovskites by itself but can favorably be used to tune the tolerance factor by partial substitution of the larger organic MA and FA cations as discussed in the previous section.


From the relatively linearly blue shifted PL and the decreased lattice parameter a0 found from XRD analysis, it can be concluded that there is full inclusion of Cs. The absolute amount of Cs inclusion into the crystal lattice is currently under investigation. The X-ray diffractograms shown for these materials in Figure 2 (right) clearly indicate the contraction of the cubic lattice upon addition of cesium from a0 = 6.28 Å for (MA0.17FA0.83)Pb(Br0.17I0.83)3 to a0 = 6.26 Å for Cs0.15(MA0.17FA0.83)0.85Pb(Br0.17I0.83)3. Besides the slight change in lattice constants, the qualitative comparison of the experimental diffractograms also shows a relative increase of the 110 and 210 reflections compared to the main 100 and 200 peaks.

Figure 2: (left) Illustration of Cs incorporation in mixed MA/FA lead halide perovskites with the composition Csy(MA0.17FA0.83)1-yPb(Br0.17I0.83)3 with indication of the 110 lattice plane that appears to exhibit enhanced scattering upon Cs inclusion in the X-ray diffraction data for varying amount of Cs (0% - 15%) shown on the right side. Full data set shown in Ref [5]. This could indicate a change in the preferential orientation of crystals during growth but is here more likely due to the substitution of organic cations with Cs as the latter should have a much higher scattering factor due to its elemental mass compared to the organic cations. Interestingly, the ratio between the 100 and 200 peaks seems unchanged whereas reflections from “diagonal” (see illustration in Figure 2, left) lattice planes increase. This suggests that cesium cations are not preferentially incorporated into adjacent unit cells but rather into unit cells diagonal from each other, which can be expected to be entropically favored. More thorough XRD analysis is needed to elucidate structural details of Cs-inclusion into hybrid perovskites such as site occupancy, which is beyond the scope of this manuscript. Alkali-cation additives such as Cs not only affect the optoelectronic properties of metal halide perovskites but also influence the film formation. X-ray diffractograms with increasing amount of Cs (Figure 2, right) provide evidence that fewer impurity phases such as PbI2 (reflection peak at 12.6) are present. Also, UV-Visible absorption data and X-ray diffractograms prove that metal halide perovskite semiconductor can form without any annealing when Cs is present in the wet film. Even highly efficient devices could be made from such films without annealing.5,48 Cross-section scanning electron microscopy images (Figure 4, a and b) suggest a more uniform and monolithic crystal growth for Cs-containing perovskites. Apart from an adjustment of the effective cation radii yielding materials with more favorable tolerance factors, alkaline cations also improve the stability and induce more favorable film formation conditions and furthermore suppress impurity phases.


As an additive, Rb seems to have a similarly beneficial effect on metal halide perovskite layer formation but at present the feasible amount of Rb integration is still under debate. It would appear that Rb only incorporates partially and less effectively than Cs. Interestingly, recent XPS studies by Philippe et al. show that the presence of Cs facilitates more Rb integration into the perovskite grains.49 Potentially, the slightly lower cation radius and hence even less favorable tolerance factor prevent full Rb-inclusion.6 Similar to Cs, Rb induces crystallization of the perovskite layer at lower temperature6,38 and helps to suppress impurity phases. In order to elucidate their precise function in metal halide perovskite solar cells, both for Cs- and Rbcontaining materials, more thorough material analysis is needed for distinguishing their role and their beneficial effects on film formation, crystallinity and stability as well as a detailed analysis of the amount and distribution of potentially incorporated alkaline cations. III. CATION-ALLOYS FOR INCREASED DEVICE EFFICIENCY AND STABILITY

Inclusion of Cs cations in the precursor of solution-processed metal halide perovskite semiconductors has been shown to have a three-fold benefit on the resulting solar cell devices: 1) increased thermal stability, 2) less phase impurities, and 3) higher experimental reproducibility by reducing the impact of processing conditions.5

Figure 3: (a & b) Scanning electron microscopy cross section images of device comprising Csy(MA0.17FA0.83)1-yPb(Br0.17I0.83)3 with 0% (a) and 5% (b) Cs. (c & d) Comparison of the power conversion efficiency (c) and long term stability (d) of devices comprising 0% and 5% Cs. Small amounts of Cs are found to have a beneficial effect on the reproducibility, performance and long term stability of metal halide perovskite solar cells. Data reproduced from Ref [5], published under a CC BY-NC 3.0 creative commons agreement. This was established by comparing large data sets for devices comprising none or 5% Cs hence allowing to draw statistically relevant conclusions. The substantial increase of the


power conversion efficiency from an average of about 16.5% to 19.5% (Figure 3 c) was dominantly caused by a clear increase in the photocurrent as well as a substantially increased fill factor while the open circuit voltage only shows a slight improvement. These findings allude that the intrinsic metal halide perovskite semiconductor properties improve upon inclusion of Cs in Csy(MA0.17FA0.83)1-yPb(Br0.17I0.83)3.

Figure 4: Device performance metrics of metal halide perovskite solar cells as a function of the absorption onset of the perovskite absorber showing data discussed elsewhere in grey23 and highlighting devices based on cation alloys from data reported in 5,6,34,38,43,44 and are further discussed in Ref [23]. Apart from a potentially higher internal quantum yield due to a better crystal quality, the higher short circuit current and fill factor5 indicate an improved charge carrier collection efficiency. A possible reason might be the absorber layers morphology as Cs-incorporating materials appear to grow more monolithically off the meso-porous TiO2 layer on the electron-


selective fluorine-doped tin oxide substrate (SEM image in Figure 3 b) compared to the material incorporating no Cs at all (SEM image in Figure 3 a). Fewer inter-grain boundaries in the direction of current flow are formed which is likely of substantial benefit for charge carrier collection. Cs alkaline cations are interpreted to have a beneficial effect on the crystallization kinetics and film formation of metal halide perovskite layers. Another important aspect is the lack of impurities such as the higher band gap lead iodide, PbI2, as these might lead to non-beneficial energetic offsets at the titanium dioxide, TiO2, interface that would make charge carrier extraction at this interface less favorable. The most important benefit of Cs-containing alloys is their clear increase of the long-term device stability shown in Figure 3 d. This indicates that either Cs improves the intrinsic material stability significantly or that the devices incorporating Cs are less prone to devicerelated efficiency decline due to e.g. the demise of interfacial properties leading to a substantially reduced charge collection efficiency. The data discussed in detail for Cs-containing perovskites also includes the following overview graph where the device performance metrics are compared as a function of the absorber layer absorption onset. The data points in grey scale are further discussed elsewhere23 and referenced therein. These overview plots show that single junction devices are approaching theoretical performance limits and especially for devices with compositions having absorption in the range of 1.6 eV. These plots also clearly hint at currently limited absorption ranges that will be further discussed in section IV. As an upper limit, the maximum photocurrent density was estimated by integration of the AM1.5G spectrum with respect to the absorption onset, assuming that all photons above the band edge are converted with 100% efficiency and no parasitic absorption losses. Reported short-circuit current densities of highly efficient devices are often close to or surpass the theoretically predicted values. Negligence of capacitive effects in current-voltage measurements50,51 or inaccuracies in the determination of the active device area that might be particularly severe for small device areas may lead to overestimation of the device performance. We here wanted to focus on cation alloying. The data sets of the Cs-5 and Rb-incorporating6 metal halide perovskite devices are highlighted in Figure 4 showing that these values are at the forefront of state-of-the art metal halide perovskite device technology. In addition to these triple and quadruple cation compounds, we here also included recent results on Cs/FA43,44 and Rb/FA38 mixed dualcation compounds as also in these cases, the clear benefit of the inclusion of alkine cations is evident but also mixed FA/MA cation alloys34 exhibit their performance maximum at intermediate MA to FA ratios. IV. CONCLUSION

The comparison of power conversion efficiencies as a function of the absorber layer onset for a variety of ABX3 perovskite alloys highlights that there have been tremendous improvements in the obtained device efficiency in the past years due to chemical, compositional, process, and device engineering. As highlighted in this work, cation-alloys and particularly the incorporation of small amount of alkaline cations have a beneficial effect on the device performance and durability. This approach has substantially improved the performance and reproducibility of single junction perovskite devices during this past year. As evident in Figure 4 and further discussed in Unger et al.23, metal halide perovskites can be tuned in a wide range of band gaps and substantial progress has been made both for low band gap devices, single junction devices with band gaps of the order of 1.6 eV and higher bandgap


pure bromide compounds while there is a range between 1.7 eV and below the band gap of pure bromide derivatives of about 2.3 eV that can currently not be covered due to halide segregation.9,26,27 These materials currently exhibit photo-induced phase segregation effects coined the “Hoke effect”26 as halide vacancies are prone to form and have a low activation energy for migration. Apart from materials in the compositional range where photo-induced phase segregation is observed, the migration of halide and other ionic vacancies will be detrimental for the long-term stability of perovskite solar cells.26,52 While perovskite materials can often be tuned continuously, phase segregation seems to be governed by ratios of ion radii. Thus, not every wide band gap material reported can be formed in such a way as to permit continuous device operation without phase segregation as evidenced statistically in previous works.26,52 Only a limited amount of alkaline cations such as Cs can actually be included in predominantly hybrid perovskite materials comprising organic monovalent cations. More work comparing the vast and growing amount of literature data reported for metal halide perovskite semiconductors is needed to discuss generalizable trends of these emerging semiconductors in order to assess their potential and limitations. ADDITIONAL COMMENTS i

The reader should note that experimental data is compared as a function of the absorption onset rather than the band gap as the latter is indeed not directly available from experimental data in materials with excitonic contributions to the spectrum close to the band gap as is the case for metal halide perovskites.53,54 ii

Note that the trend for Cs-incorporating MA/FA alloys (points K-N in Figure 2, right) closely correspond with the predicted trend unlike the statement first made in the original paper as we realized during the work on this manuscript that the estimated values for the lattice parameter a0 were faulty. A correction was send to point out this mistake in the original manuscript.23 ACKNOWLEDGEMENT

The authors would like to thank colleagues at Helmholtz Zentrum Berlin and EPFL for fruitful collaborations during the past years. This contribution is a summary of two oral contributions by the authors at the Annual Meeting of the German Physical Society (DPG) in Muenster, Germany 2017 following an invitation by Prof. Dr. Bernd Rech and Prof. Dr. Hardo Bruhns of the Arbeitskreis Energie whom we cordially thank for this opportunity. E. L. U. acknowledges financial support from the Swedish Research Council (grant no. 201500163) and Marie Sklodowska Curie Actions, Cofund, Project INCA 600398, NanoLund, the Marcus and Amalia Wallenberg foundation and funding from the German Federal Ministry of Education and Research (BMBF – NanoMatFutur: 03XP0091). M.S. acknowledges support from the co-funded Marie Skłodowska Curie fellowship, H2020 Grant agreement no. 665667. REFERENCES

(1) (2) (3)

Kojima, A.; Teshima, K.; Shirai, Y.; Miyasaka, T. J. Am. Chem. Soc. 2009, 131, 6050– 6051. Im, J.-H.; Lee, C.-R.; Lee, J.-W.; Park, S.-W.; Park, N.-G. Nanoscale 2011, 3, 4088– 4093. Lee, M. M.; Teuscher, J.; Miyasaka, T.; Murakami, T. N.; Snaith, H. J. Science 2012, 3, 1–5.


(4) (5) (6) (7) (8) (9) (10)

(11) (12) (13) (14) (15) (16) (17) (18) (19) (20) (21) (22) (23)

Kim, H.-S.; Lee, C.-R.; Im, J.-H.; Lee, K.-B.; Moehl, T.; Marchioro, A.; Moon, S.-J.; Humphry-Baker, R.; Yum, J.-H.; Moser, J. E.; Grätzel, M.; Park, N.-G. Sci. Rep. 2012, 2, 591. Saliba, M.; Matsui, T.; Seo, J.-Y.; Domanski, K.; Correa-Baena, J.-P.; Mohammad K., N.; Zakeeruddin, S. M.; Tress, W.; Abate, A.; Hagfeldt, A.; Grätzel, M. Energy Environ. Sci. 2016, 9, 1989–1997. Saliba, M.; Matsui, T.; Domanski, K.; Seo, J.-Y.; Ummadisingu, A.; Zakeeruddin, S. M.; Correa-Baena, J.-P.; Tress, W. R.; Abate, A.; Hagfeldt, A.; Grätzel, M. Science. 2016, 354, 206-209. Li, X.; Bi, D.; Yi, C.; Decoppet, J.-D.; Luo, J.; Zakeeruddin, S. M.; Hagfeldt, A.; Gratzel, M. Science (80-. ). 2016, 8060, 1–10. Green, M. A.; Emery, K.; Hishikawa, Y.; Warta, W.; Dunlop, E. D.; Levi, D. H.; HoBaillie, A. W. Y. Prog. Photovolt Res. Appl. 2017, 25, 3–13. Noh, J. H.; Im, S. H.; Heo, J. H.; Mandal, T. N.; Seok, S. Il. Nano Lett. 2013, 13, 1764– 1769. Eperon, G. E.; Leijtens, T.; Bush, K. a; Prasanna, R.; Green, T.; Wang, J. T.-W.; McMeekin, D. P.; Volonakis, G.; Milot, R. L.; May, R.; Palmstrom, a.; Slotcavage, D. J.; Belisle, R. a.; Patel, J. B.; Parrott, E. S.; Sutton, R. J.; Ma, W.; Moghadam, F.; Conings, B.; Babayigit, A.; Boyen, H.-G.; Bent, S.; Giustino, F.; Herz, L. M.; Johnston, M. B.; McGehee, M. D.; Snaith, H. J. Science (80-. ). 2016, 354, 861–865. Eperon, G. E.; Stranks, S. D.; Menelaou, C.; Johnston, M. B.; Herz, L.; Snaith, H. Energy Environ. Sci. 2014, 7, 982–988. McMeekin, D. P.; Sadoughi, G.; Rehman, W.; Eperon, G. E.; Saliba, M.; Horantner, M. T.; Haghighirad, a.; Sakai, N.; Korte, L.; Rech, B.; Johnston, M. B.; Herz, L. M.; Snaith, H. J. Science (80-. ). 2016, 351, 151–155. Loper, P.; Niesen, B.; Moon, S.-J.; Martin de Nicolas, S.; Holovsky, J.; Remes, Z.; Ledinsky, M.; Haug, F.-J.; Yum, J.-H.; De Wolf, S.; Ballif, C. IEEE J. Photovoltaics 2014, 4, 1545–1551. Albrecht, S.; Saliba, M.; Correa, P.; Lang, F.; Korte, L.; Schlatmann, R.; Nazeeruddin, M. K.; Hagfeldt, A.; Gra, M. Energy Environ. Sci. 2015, 9, 81–88. Bailie, C. D.; Christoforo, M. G.; Mailoa, J. P.; Bowring, A. R.; Unger, E. L.; Nguyen, W. H.; Burschka, J.; Pellet, N.; Nou, R.; Buonassisi, T.; Salleo, A. Energy Environ. Sci. 2015, 8, 956–963. Forgács, D.; Gil‐Escrig, L.; Pérez‐Del‐Rey, D.; Momblona, C.; Werner, J.; Niesen, B.; Ballif, C.; Sessolo, M.; Bolink, H. J. Adv. Energy Mater. 2017, 1602121. Albrecht, S.; Rech, B. Nat. Energy 2017. Albrecht, S.; Saliba, M.; Correa-Baena, J.-P.; Jäger, K.; Korte, L.; Hagfeldt, A.; Grätzel, M.; Rech, B. J. Opt. 2016, 18, 064012. Bailie, C. D.; McGehee, M. D. MRS Bull. 2015, 40, 681–686. Werner, J.; Barraud, L.; Walter, A.; Bräuninger, M.; Sahli, F.; Sacchetto, D.; Tétreault, N.; Paviet-Salomon, B.; Moon, S.-J.; Allebé, C.; Despeisse, M.; Nicolay, S.; De Wolf, S.; Niesen, B.; Ballif, C. ACS Energy Lett. 2016, 474–480. Beiley, Z. M.; McGehee, M. D. Energy Environ. Sci. 2012, 5, 9173–9178. Noh, J. H.; Im, S. H.; Heo, J. H.; Mandal, T. N.; Seok, S. Il. Nano Lett. 2013, 13, 1764– 1769. Unger, E. L.; Kegelmann, L.; Suchan, K.; Sörell, D.; Korte, L.; Albrecht, A. J. Mater. Chem. A 2017, Advance Ar.


(24) Weber, D. Z. Naturforsch. 1978, 33b, 1443–1445. (25) Weber, D. Z. Naturforsch. 1978, 33b, 862–865. (26) Hoke, E. T.; Slotcavage, D. J.; Dohner, E. R.; Bowring, A. R.; Karunadasa, H. I.; McGehee, M. D. Chem. Sci. 2014, 6, 613–617. (27) Jeon, N. J.; Noh, J. H.; Yang, W. S.; Kim, Y. C.; Ryu, S.; Seo, J.; Seok, S. Il. Nature 2015, 517, 476–480. (28) Zhao, B.; Abdi-Jalebi, M.; Tabachnyk, M.; Glass, H.; Kamboj, V. S.; Nie, W. A.; Pearson, J.; Puttisong, Y.; Gödel, K. C.; Beere, H. E.; Ritchie, D. a.; Mohite, A. D.; Dutton, S. E.; Friend, R. H.; Sadhanala, A. Adv. Mater. 2017, 29, 1604744. (29) Yang, Z.; Rajagopal, A.; Jo, S. B.; Chueh, C.; Williams, S.; Huang, C.; Katahara, J. K.; Hillhouse, H. W.; Jen, A. K. Nano Lett 2016, 16, 7739–7747. (30) Zhao, D.; Yu, Y.; Wang, C.; Liao, W.; Shrestha, N.; Grice, C. R.; Cimaroli, A. J.; Guan, L.; Ellingson, R. J.; Zhu, K.; Zhao, X.; Xiong, R.-G.; Yan, Y. Nat. Energy 2017. (31) Kulbak, M.; Cahen, D.; Hodes, G. J. Phys. Chem. Lett. 2015, 6, 2452–2456. (32) Habisreutinger, S. N.; McMeekin, D. P.; Snaith, H. J.; Nicholas, R. J. APL Mater. 2016, 4. (33) Fedeli, P.; Gazza, F.; Calestani, D.; Ferro, P.; Besagni, T.; Zappettini, A.; Calestani, G.; Marchi, E.; Ceroni, P.; Mosca, R. J. Phys. Chem. C 2015, 119, 21304–21313. (34) Jacobsson, J. T.; Correa Baena, J. P.; Pazoki, M.; Saliba, M.; Schenk, K.; Grätzel, M.; Hagfeldt, A. Energy Environ. Sci. 2016, 41, 1–35. (35) Li, Z.; Yang, M.; Park, J.-S.; Wei, S.-H.; Berry, J.; Zhu, K. Chem. Mater. 2016, 28, 284–292. (36) Sutton, R. J.; Eperon, G. E.; Miranda, L.; Parrott, E. S.; Kamino, B. a.; Patel, J. B.; Hörantner, M. T.; Johnston, M. B.; Haghighirad, A. A.; Moore, D. T.; Snaith, H. J. Adv. Energy Mater. 2016, 6, 1–6. (37) Beal, R. E.; Slotcavage, D. J.; Leijtens, T.; Bowring, A. R.; Belisle, R. A.; Nguyen, W. H.; Burkhard, G.; Hoke, E. T.; McGehee, M. D. J. Phys. Chem. Lett. 2016, 746–751. (38) Zhang, M.; Yun, J. S.; Ma, Q.; Zheng, J.; Fai, C.; Lau, J.; Deng, X.; Kim, J.; Kim, D.; Seidel, J.; Green, M. A.; Huang, S.; Ho-baillie, A. W. Y. 2017. (39) Sadhanala, A.; Deschler, F.; Thomas, T. H.; Dutton, S. E.; Goedel, K. C.; Hanusch, F. C.; Lai, M. L.; Steiner, U.; Bein, T.; Docampo, P.; Cahen, D.; Friend, R. H. J. Phys. Chem. Lett. 2014, 5, 2501–2505. (40) Hao, F.; Stoumpos, C. C.; Cao, D. H.; Chang, R. P. H.; Kanatzidis, M. G. Nat. Photonics 2014, 8, 489–494. (41) Goldschmidt, V. M. Naturwissenschaften 1926, 14, 477–485. (42) Kieslich, G.; Sun, S.; Cheetham, T. Chem. Sci. 2015, 6, 3430–3433. (43) Lee, J.-W.; Kim, D.-H.; Kim, H.-S.; Seo, S.-W.; Cho, S. M.; Park, N.-G. Adv. Energy Mater. 2015, 5, 1501310. (44) Yi, C.; Luo, J.; Meloni, S.; Boziki, A.; Ashari-Astani, N.; Grätzel, C.; Zakeeruddin, S. M.; Röthlisberger, U.; Grätzel, M. Energy Environ. Sci. 2016, 9, 656–662. (45) Choi, H.; Jeong, J.; Kim, H.-B.; Kim, S.; Walker, B.; Kim, G.-H.; Kim, J. Y. Nano Energy 2014, 7, 80–85. (46) Umebayashi, T.; Asai, K.; Kondo, T.; Nakao, A. Phys. Rev. B 2003, 67, 155405. (47) Brivio, F.; Walker, A.; Walsh, A. APL Mater. 2013, 1, 042111. (48) Matsui, T.; Seo, J.; Saliba, M.; Zakeeruddin, S. M.; Grätzel, M. 2017, 2–6. (49) Philippe, B.; Saliba, M.; Correa-Baena, J.-P.; Cappel, U. B.; Turren-Cruz, S.-H.; Gratzel, M.; Hagfeldt, A.; Rensmo, H. Chem. Mater. 2017, 29, 3589–3596.


(50) Christians, J. A.; Manser, J. S.; Kamat, P. V. J. Phys. Chem. Lett. 2015, 6, 852–857. (51) Unger, E. L.; Hoke, E. T.; Bailie, C. D.; Nguyen, W. H.; Bowring, A. R.; Heumuller, T.; Christoforo, M. G.; McGehee, M. D. Energy Environ. Sci. 2014, 7, 3690–3698. (52) Slotcavage, D. J.; Karunadasa, H. I.; McGehee, M. D. ACS Energy Lett. 2016, 1199– 1205. (53) Green, M. a.; Jiang, Y.; Soufiani, A. M.; Ho-Baillie, A. J. Phys. Chem. Lett. 2015, 6, 4774–4785. (54) Saba, M.; Quochi, F.; Mura, A.; Bongiovanni, G. Acc. Chem. Res. 2015, 49, 166–173.

Dr. Michael Saliba1 and Dr. Eva L. Unger2,3 1 Swiss Federal Inst. of Technology Lausanne (EPFL), Route Cantonale, CH-1015 Lausanne, Switzerland 2 Helmholtz-Zentrum Berlin für Materialien und Energie GmbH, Hahn-Meitner-Platz 1, D-14109 Berlin, Germany 3 Lund University, S-22362 Lund, Sweden


Smart Rotors for Cost Efficient Wind Turbines Jan Teßmer, Zhuzhell Montano DLR – Deutsches Zentrum für Luft- und Raumfahrt


By the end of 2015, wind turbine power plants with a total output of 430 GW were installed worldwide, more than 43 GW in Germany accounting for roughly 14% of its national gross electricity generation. Essential advantages of wind energy are low electricity generation costs, global applicability and good controllability (especially concerning system services). One of the most important objectives of research and development is further cost reduction. Further developments in plant engineering are necessary for this. Weight reduction and a longer life, achieved through new construction methods and the use of new materials, and taking into account the system parameters regarding elasticity and structural dynamics, are essential drivers in cost reduction. This contribution explores the research into innovative rotor blade technologies within the scope of current research projects in the framework of the above topics. New methods covering areas from the design process to automated production, the behavior of new components in the overall wind turbine system and the impact on acceptance criteria (such as noise) must be verified and validated before they can be used in industrial operation. For this, the construction of a research platform (DFWind), funded by the German federal ministry BMWi and the state of Lower Saxony, is going to provide an infrastructure in the coming years. This infrastructure shall allow the testing and qualification of new technologies and methods as well as the phenomenological investigation of two wind turbines –consecutively placed in the main wind direction – and their surroundings. 1. Introduction

The production of wind energy comes with several advantages as the ones mentioned above, however there are many challenges that need to be overcome in order to be able to build bigger generators capable of fulfilling international and national demands for energy. Some of these challenges are related to costs and production, such as maintaining low costs compared to other sources of energy while providing with equal amounts of power and capacity, or building larger rotor blades while remaining light enough, feasible and economical; other challenges are related to acceptance by the population, such as producing larger wind turbines that are quiet enough to be installed near urban or rural settings. In order to be able to fulfill these challenges, different types of technologies must be explored and further developed. This contribution explores the research into innovative rotor blade technologies within the scope of current research projects and provides an outlook towards future technologies. 2. Motivation and Goals

Electricity generation from wind energy in Germany and in the world is continuously growing. Both the number of available wind turbines and their size and therefore power generation capabilities are increasing. According to the GEWC Global Wind Report [1] , by the end of 2015, wind turbine power plants with a total cumulated output of 430 GW were installed worldwide, following a growing tendency. As it can be seen in Figure 1, this trend has been also followed in Germany over the last 25 years, where more than 43 GW were installed onshore by the end of 2015 [2], accounting roughly for 14% of the national electricity demand.


Figure 1: Development of the yearly installed, decommissioned and accumulated onshore wind energy output [MW] in Germany (Status 31.12.2016) [2]

Figure 2: Wind turbine size growth in Germany, 1990 - 2013 [18] In addition to these global tendencies, the fact that the production of wind energy provides some essential advantages such as low electricity generation costs, global applicability and in principle good controllability, contributes to the likely continuation of this trend in future years. Furthermore, according to the “Leitstudie 2010” [3] presenting long-term scenarios and strategies 99

for the expansion of renewable energies in Germany, the power generated from wind energy, compared with other energy sources (such as photovoltaic, natural gas, oil, hydraulic, etc.), will significantly increase. For this trend to actually be achieved, with the increase in production and a growing tendency towards larger rotors (Figure 2), new and important challenges need to be overcome, such as the development of new types of structures capable of withstanding the higher loads while remaining lightweight; or, gaining adequate acceptance from the public, e.g. regarding noise production due to larger operational speeds at the blade tips. In addition to the technical challenges, one of the most important aspects to overcome remains however costs. Because of this, one of the main objectives of research and development is further cost reduction and, for this purpose, further development in plant engineering is necessary [4]. Essential drivers for achieving these goals are weight reduction and a longer life achieved thanks to new construction methods and the use of new materials; taking into account the system parameters regarding elasticity and structural dynamics. The following sections present an overview of current research activities aiming to develop a new generation of wind rotor blades, using new materials, new design principles and new technologies for building wind turbines at lower costs and with higher levels of acceptance. 3. Smart Blades

Within the frame of the so called “SmartBlades” project three technologies were studied for enabling the design and the construction of larger rotor blades capable of adapting themselves to variable wind conditions; of withstanding gust loads in diverse environments; and at the same time, of generating more power, while remaining lightweight enough to be feasible, transportable, mountable and keeping lower costs. Figure 3 presents an illustration of some concepts. -

Bend-Twist Coupling

The first technology investigated within SmartBlades relates to the coupling of bending and torsion of the structure, aiming at enabling the blades construction to adjust itself to variable wind conditions in a passive manner. This means that the blades can twist themselves along their span in order to achieve an optimal angle of attack, providing for example with a larger surface for good performance at lower wind speeds; and with a smaller exposed surface when strong winds are raging, preventing damage. The bend-twist coupling can be achieved through a variation of the blade’s geometry through sweep. Figure 4 presents an example of a discretized model of a straight (blue) and of a swept (black) blade.

Figure 3: Scheme of a wind turbine with smart blades technologies [DLR]


Figure 4: Discretised model of the straight and the swept blade [5] The change in geometry achieved through sweep induces a coupling, described by the coefficient  for the structural behavior of the blade. This coefficient can be calculated by dividing the torsional moment, Mt, by the flapwise bending moment, Mb, at the section under consideration [5]: 𝜅=

𝑀𝑡 𝑀𝑏

Studies for introducing a geometrical bend-twist coupling by sweeping the blade demonstrated that the concept is a feasible option for achieving a passive load reduction for the rotor blades from a structural point of view. It was shown that by changing the torsional deflection of sections (i.e. the angle of attack of the airfoil) with regard to the flapwise bending moment the aerodynamic coefficients can be adapted at the blade without additional blade pitching or further active flow control systems. Figure 5 presents some of the results of a parametric design study of bend-twist coupling blades, which show that the use of this technology contributes to the reduction of fatigue loads over the blade’s lifecycle.

Figure 5: Fatigue damage equivalent Loads (DEL) at the blade root [16] Based on these results, questions, however, remain still open whether smart blades manufactured with this technology, at a representable scale, would stand testing under static and dynamic conditions and also under real environmental conditions. Such tests would be needed for examining the behavior and integrity of the new design as well as demonstrating the technology’s efficiency.


The results from such tests could then be used to validate design and simulation methods developed during the SmartBlades project and to improve and further refine them. This would help to determine the economic potential of the bend-twist smart blade concept and to achieve a higher technology readiness level, supporting industry on its path towards manufacturing bigger, more powerful and more efficient wind rotor blades in mass production processes. - Trailing Edge Flaps

Another SmartBlades technology focuses on the use of active elements, capable of modifying the trailing edges of the blades in a controlled manner, a technology inspired from aircraft high-lift devices and control surfaces (Figure 6) [6]. The main advantage of the system is its ability of rapidly changing the airfoil’s shape allowing highly inertial blades to adapt themselves to quickly and strongly varying wind conditions, such as gusts, and thereby improving their performance under diverse circumstances. Design and control strategies for the implementation of this concept were studied within the Figure 6: Trailing Edge Concept Demonstrator [6] SmartBlades project, including several aspects: the conception and realization of a lightweight flexible trailing edge demonstrator for wind energy turbines; a comparison of individual pitch and trailing edge flap control for structural load mitigation under normal operating conditions in a wind turbine; and various possible configurations for effective load reduction. The approach for the design of a flexible trailing edge was based on a glass fiber-reinforced polymer (GFRP) middle plane carrying the trailing edge’s loads. This plain must be flexible enough for achieving the desired trailing edge’s deflection, but simultaneously remain robust enough to stand the aerodynamic loads. The results of a finite element study (Figure 7) were verified with the help of a 0.3 m span Figure 7: 2D finite element based displacement plot of specimen of such a flexible mechanism [6]. In addition larger flexible trailing edge concept [6] test segments were prepared for tests under centrifugal loads. The main objective of such rotating tests is to prove that the concept can reach the desired aerodynamic and mechanical effects while standing loads that would be experienced under real loading conditions, such as centrifugal forces and common weather impact. The measurements resulting from these tests could then be used for the validation of simulation models accounting for fluid structure interaction that were originally used for predicting the behavior of the structure 102

under real conditions. This would enable the implementation of the systems concept in full-scale rotor blades. In addition to the rotating tests, a test of the aerodynamic behavior of the used model should be performed in a wind tunnel, in order to study the influence of the trailing edge deflection on the polars of the blade segment demonstrator, allowing a final validation of the aerodynamic simulation results. Control strategies for the trailing edge system were also studied. Different combinations of individual blade pitch and trailing edge flap control to alleviate the frequency components of the flapwise root bending moment, which occur once-perrevolution (1P) and twice-per-revolution (2P) in the rotating frame of reference were implemented [7]. For this, a H∞ loop shaping design was Figure 8: Power spectral density of the flapwise blade root bending developed based on a moment [7] simplified wind turbine model. This control method allows achieving stabilization with guaranteed performance by solving an optimization problem for the control system. In the case of the flap, lifetime damage equivalent loads were evaluated on several wind turbine components to define best controller combinations. It was shown that the maximum load reduction of the flapwise blade root bending moment can be achieved with the combination of individual pitch and trailing edge flap control. Figure 8 shows an example of results obtained for the flapwise blade root bending moment control for 1P and 2P. The study showed that the most promising control combination is a combination of individual pitch, active only at 1P, and trailing edge flap control, active at 2P labeled “IPC 1P IFC 2P” in Figure 8. With this control setup up to 22% of lifetime damage equivalent load reduction is achieved for the flapwise blade root bending moment [7]. Figure 9: Perceived noise components of a wind rotor blade as a function of frequency (yellow: leading edge; blue: flow separation; pink: the trailing edge; purple: blade tip) [8]

Focusing on the advantages of active blade components, such as flaps, the corresponding problems, such as their acoustic behavior, must be taken into account. Due to the additional moving parts and the associated gaps between the flap and the main blade structure, the flap itself becomes a new source of noise by itself. As it can be seen in Figure 9, one of the main noise sources on a wind turbine blade is its 103

trailing edge. Using a flap mechanism at the trailing edge can therefore have a considerable influence on the perceived noise level produced by the rotor blades. In various activities, e.g. within the frame of the BELARWEA project, approaches are being investigated for reducing eventual annoyance effects, such as increments on noise emission levels, with the help of different trailing edge concepts. Amongst others it was shown that some tested trailing edge modifications could achieve a broadband noise reduction of up to 4 dB (Figure 10), depending on the used configuration [8]. The presented example shows four studied configuration schemes accounting for: a. b. c.


Continuous matching of the edge boundary conditions to free air ('impedance adjustment') Geometric breakup of the solid edge contour Hydrodynamic absorption and/or spectral reorganization of the incoming boundary-layer turbulence/flap side-edge vortex system before it passes the edge Acoustic absorption

Along with the performance regarding the perceived noise level of the trailing edge modifications, it was shown that the noise reduction effect diminishes with growing angle-of attack and that pressure distribution measurements reveal a small or even non-measurable effect of trailing edge modifications on the airfoil's suction peak [9]. These fundamental results for the acoustic behavior of trailing edges without flaps need also to be transferred to the smart blades with flaps concept.

Figure 10: Direct comparison of normalized trailing edge noise spectra for the studied concepts [9]

- Leading Edge Slats

The third technology of the SmartBlades project deals with the impact of leading edge slats on the aerodynamic behavior of 2D profiles and of rotor blades under turbulent inflow conditions. The objectives of the research are to design an integrated leading edge slat concept; to perform wind tunnel tests on airfoils with active slats; and, finally, to study and prove the feasibility of the adaptive slat concept. As a passive device, the slat shifts the angle of attack for reaching a maximum lift at even higher values, thus reducing the possibility of occurrence of flow separation. As an adaptive active device, the slat regulates the gap between the profile and the slat, affecting the flow around the profile and resulting in a different lift and drag behavior, allowing mitigating fluctuations in the acting forces. As an application case, the active as well as the passive slat applied along the span of the rotor blade of a wind turbine can help to achieve an optimized load distribution over the blade. Figure 11 illustrates the working principle of one of the developed concept configurations. The shape-adaptive slat is mounted in front of the main profile and the kinematic system is connected to the slat's trailing edge and borne in the front section [6].


During the SmartBlades project the slat concepts were proved to alleviate forces under turbulent flow conditions and to react to the fluctuating inflow. An example of the compensation that can be achieved with the slat system can be seen in the aerodynamic polars on Figure 12 [10].

Figure 11: Working principle of the shape-adaptive slat with sketched deformed slat shapes [6] In order to systematically characterize the behavior of the different slat concepts, it is necessary to study them in detail in turbulent wind tunnel tests.

Figure 12: Averaged polars for the integrated slat at fixed positions in turbulent conditions (Re ≈ 600,000, sin5Hz, ±6°AoA) [10] It is expected that the active slat will offer more control capabilities than the other slat concepts. Therefore, results from detailed characterization in the wind tunnel could later serve as reference for various configurations.


4. Validation and Verification

In order to be able to qualify the developed technologies, to guarantee a higher technology readiness level (TRL) and guide their entrance for implementation in industrial applications, it is necessary to verify and validate them first. Through analysis and simulation it is nowadays possible to achieve detailed knowledge on the function and characteristics of a system and predict its behavior before even prototypes have been built, all this with high levels of confidence. Furthermore, thanks to current software, the obtaining of data describing the behavior of the system in detail, covering multidisciplinary aspects, such as structural and aerodynamic behavior or control engineering, while providing multi-fidelity results, is also possible. However, independently of the level of confidence regarding the simulation models it is still necessary to perform tests onfield to be able to ensure their efficiency and robustness under real (and possible) operating conditions and to experimentally prove further factors relevant to their acceptance, such as noise emission levels, which can only be proven under real environment testing conditions. For this, it is necessary to have a real-environment testing platFigure 13: Platform for Wind Energy Research concept form capable of measuring the behavior of the system, still at a demonstrator level but under realistic conditions. This would allow to identify real possible reactions of the structure and its components and to obtain real-time accurate data regarding its behavior. Obtaining this information is the only possible way to qualify the structure, achieve a higher Technology Readiness Level (TRL) and take the next step towards an introduction into industrial applications. 5. Wind Energy Research Platform

A step towards creating a wind energy research platform with adequate data collection and testing capabilities is currently undertaken in the project ProWind (Platform for Research on Wind Energy) in Lower Saxony by planning and implementing a basic research infrastructure comprising two ~2,5 MW class research turbines [11]. In addition, the DFWind project (Deutsche Forschungsplattform für Windenergie – German Research Platform for Wind Energy) [12], aims to further develop the research platform by comprehensively instrumenting the research turbines and the surrounding site, in order to be capable of providing a basis for holistic wind energy research. It is planned to obtain basic turbine data with the help of condition monitoring systems (CMS) on the turbine itself. The ensemble shall also provide the capabilities for taking meteorological and acoustics measure¬ments, for evaluating the structure, analyzing the aerodynamics at the rotor blades and for offering the necessary support structure and geotechnical information. As a result, the platform can supply the capacity for understanding the whole turbine system dynamics in a detailed manner. Figure 14 presents a simplified view of the concept.


Fig. 14: DFWind Experimental Turbine Concept [12] The main characteristics of the platform making it unique on its kind are the following [11]:        

Two identical, highly instrumented, modified research turbines of the current multi-MW class (of approximately 2.5 MW) available Experimental plant control on at least one of these turbines possible Measurements of wind fields, gusts and turbulence fields, including the wake trailing behind the turbine Multidisciplinary rotor blade research, structure monitoring, power output and aerodynamics measurements of the wind turbines Instrumentation of blades, drive train and support structure for recording the overall dynamics, development of whole system models for defining the interactions between all turbine components Global monitoring of the support structure and continuous measurements on stress-critical locations and connections in the context of long-term monitoring Integrated view of the wind turbine noise, from the emission to the transport to the immission Interaction of electromagnetic fields with operating parameters of the system, creation of mass, shielding and lightning protection concepts

This research platform will allow the investigation of numerous topics covering the entire functional chain of a wind energy system with high quality and detail, as well as to focus on the interaction between the subsystems and to study their influence not only on the overall wind turbine system, but also on the two separate wind turbines research network.


6. Summary and Conclusions

This paper presented an overview of the status of current research on innovative rotor blade approaches for wind turbines. It was shown that according to current trends, wind turbines are still getting larger to be able to satisfy the market demands. However, building larger rotor blades presents several challenges which are related not only to costs and acceptance but also to technical aspects, such as structural capacity. Projects such as SmartBlades with its three investigated technologies (bending-twist coupling blades, flaps and slats) show a potential for redesigning wind turbine blades to be able to fulfill the technical challenges. However, in order to introduce these new technologies to the industry and reach a sufficient TRL, further research, development and tests are necessary - and finally, full scale validations at testing platforms, such as the planned DFWind platform. Acknowledgements

The project SmartBlades (grant 0325601A) was, and the projects SmartBlades2 (grant 0324032A), BELARWEA (grant 0325726) and DFWIND (grant 0325936A) are, funded by the German Ministry of Economic Affairs and Energy based on a decision of the German Bundestag. The project ProWind is funded by the state of Lower Saxony. References

[1] GWEC, „Global Wind Report - Annual Market Update 2015,“ Brussels, 2015. [2] D. WindGuard, „Status des Windenergieausbaus an Land in Deutschland,“ 2016. [3] J. Nitsch, T. Pregger, Y. Scholz, T. Naegler, M. Sterner, N. Gerhardt, A. v. Oehsen, C. Pape, Y. Saint-Drenan und B. Wenzel, „Langfristszenarien und Strategien für den Ausbau der erneuerbaren Energien in Deutschland bei Berücksichtigung der Entwicklung in Europa und global - "Leitstudie 2010",“ Federal Ministry for the Environment, Nature Conservation, Building and Nuclear Safety, 2010. [4] A. Reuter und J. Teßmer, „Forschung für die Energiewende - Die Gestaltung des Energiesystems: Innovationspotenzial der Windenergie,“ in FVEE-Jahrestagung 2016, Berlin, 2016. [5] A. Sevinc, O. Bleich, C. Balzani und A. Reuter, Parameterized analysis of swept blades regarding bend-twist coupling, 2015. [6] H. Monner, O. Huxdorf, M. Pohl, J. Riemenschneider, T. Homeyer und M. Hölling, „Smart structures for wind energy turbines,“ in AIAA SciTech, 2017. [7] R. Unguran und M. Kühn, „Combined individual pitch and trailing edge flap control for structural load alleviation of wind turbine,“ in ACC16, 2016. [8] M. Herr, „Design Criteria for Low-Noise Trailing Edges,“ in 28th AIAA Aeroacoustics Conference, Rome, 2007. [9] M. Herr und J. Reichenberg, „In Search of Airworthy Trailing-Edge Noise Reduction Means,“ in AIAA 2011, Orlando, 2011. [10] T. Homeyer, J. Peinke, M. Hölling, O. Huxdorf, J. Wild und A. M. Jaume, „Wind tunnel tests on wind turbine airfoils with passive and active slats,“ in SmartBlades Conference, Stade, 2016. [11] ISD, „Website of the Institute for Statics and Dynamics of the Leibniz University in Hannover,“ 17 March 2016. [Online]. Available: https://www.isd.uni-hannover.de/. [Zugriff am 2017].


[12] D. f. R. A. f. W. Energy, „DFWind Projektüberblick,“ DLR, 2016. [Online]. Available: http://www.dlr.de/ft/. [Zugriff am 2017]. [13] S. Oerlemans, P. Sijtsma und B. Mendez-Lopez, Location and Quantification of Noise Sources on a Wind Turbine, NRL, 2007. [14] K. Dykes und R. Meadows, „Applications of Systems Engineering to the Research, Design, and Development of Wind Energy Systems,“ NREL, 2011. [15] J. Teßmer, C. Icpinar, A. Sevinc, E. Daniele, J. Riemenschneider, M. Hölling und C. Balzani, „Schlussbericht Projekt SmartBlades,“ DOI: 10.2314/GBV:871472740, Hannover, 2016. [16] A. Sevinc, C. Balzani, O. Bleich und A. Reuter, Aerodynamic and structural aspects of swept blades in the context of wind turbine load reduction, 2015. [17] B. Petitjean, R. Drobietz und K. Kinzie, „Wind Turbine Blade Noise Mitigation Technologies,“ in Fourth International Meeting on Wind Turbine Noise, Rome, 2011. [18] A. Reuter und P. Elsner, Windkraftanlagen - Technologiesteckbrief zur Analyse "Flexibilitätskonzepte für die Stromversorgung 2050", Hannover & Pfintztal: Nationale Akademie der Wissenschaften Leopoldina; Deutsche Akademie der Technikwissenschaften; Union der deutschen Akademien der Wissenschaften, 2016. Dr.-Ing. Jan Tessmer; Zhuzhell Montano, MSc. in Eng. DLR – Deutsches Zentrum für Luft- und Raumfahrt Lilienthalplatz 7 D-38108 Braunschweig


Geological CO2 storage – concepts and state of knowledge Stefan Lüth und Axel Liebscher, Deutsches GeoForschungsZentrum GFZ Abstract

The geological storage of carbon dioxide (CO2) is the last link in the chain of Carbon Capture and Storage (CCS). CCS is, globally, regarded as one of the measures which need to be taken to reduce greenhouse gas emissions in order to limit global warming below 2°C, as agreed during the 2015 climate conference in Paris (COP21). During the past two decades, various storage projects at different scales were initiated, such as the Sleipner project in the Norwegian North Sea (commercial scale), the Illinois Decatur project (demo scale) or the Ketzin pilot site (pilot scale). As the first European onshore storage project, the Ketzin pilot site provided ideal conditions for demonstrating and testing a wide range of monitoring approaches. One of them was 4D seismic monitoring which was able to visualize the lateral propagation of the stored CO2 in the reservoir successfully. Monitoring data, such as the results of the seismic surveys, and reservoir pressure observations were used for setting up reservoir models as a basis for coupled process simulations at various time scales, enabling to predict long-term reservoir stabilization and to provide quantitative estimations of trapping mechanisms contributing to long-term stability. Introduction

The onset of industrial revolution, recent population growth and continuous increase of livestock farming have resulted in a significant increase of greenhouse gas (GHG) emissions over the past two centuries, commonly discussed as the main reason for the increase of global mean temperature, also termed “global warming” (e.g., Schönwiese, 2016). The most important greenhouse gases in terms of their contribution to the greenhouse effect are water vapour and clouds (H2O), carbon dioxide (CO2), methane (CH4), and ozone (O3) (Kiehl & Trenberth, 1997). Due to its relatively high atmospheric concentration, CO2 is the main contributor to global warming (except for water vapour which, however, is not affected much on the global scale by human activity). The reduction of anthropogenic CO2 emissions is therefore considered to be a crucial measure in order to limit the increase in global mean temperature to two degrees Celsius above pre-industrial levels (IPCC, 2013). This target was re-confirmed by the 2015 Conference of the Parties (COP21) in Paris, which also called for a target well below two degrees Celsius and global greenhouse gas neutrality in the second half of the century. The portfolio of measures to reduce GHG emissions includes enhanced efficiency, fuel switching (from coal to gas and cogeneration of heat and power), nuclear power plants (in some countries), and an enhanced use of renewable energy sources. However, fossil energy sources, such as coal, oil and gas, will be available for the next decades, or even longer, and certain industry processes, e.g., in steel and cement production, inevitably produce significant CO2 emissions, which cannot be easily substituted by alternatives. In addition, the COP21 targets will inevitably require negative CO2 emissions in the second half of the century (Smith et al., 2015). Therefore, the capture and geological storage of carbon dioxide (CCS – Carbon Capture and Storage) is an additional measure which is increasingly considered to be an important contributor to GHG emissions reduction. E.g., economic modelling of mitigation costs related to including or excluding certain mitigation measures showed that excluding CCS from the portfolio of mitigation measures would significantly increase the mitigation costs while maintaining the current target of staying below 2°C global warming (Held, 2016).


The geological storage of carbon dioxide is the last link of the CCS chain. Previously captured carbon dioxide is injected into appropriate geological formations where it is to remain safely stored over hundreds to thousands of years until the reservoir has reached a stable state due to dissolution and mineralization of the free gas phase. Formations suitable for CO2 storage are deep saline formations, depleted oil and gas fields, and unmineable coal seams (ECBM, enhanced coal bed methane), as shown in Figure 1. Furthermore, CO2 storage may be combined with enhanced oil or gas recovery (CO2-EOR, CO2-EGR; IPCC, 2005). Of all available options, saline aquifers have the largest potential storage capacities world-wide. Depleted gas reservoirs are further environments with significant storage capacity. In order to investigate the potential of different geological formations to serve as CO2 storage reservoirs, CO2 was injected at several sites of various characteristics and intensive efforts were made in monitoring the storage related processes at these sites. Existing storage projects can be subdivided into four different classes which can be ranked according to the amount of carbon dioxide stored in the respective project. We distinguish experimental, pilot, demonstration and commercial scale projects (Michael et al., 2010; Fig. 2).

Figure 1: Schematic cross section demonstrating environments suitable for geological CO2 storage. Figure modified from IPCC (2005). The Ketzin and Sleipner projects are representatives for onshore and offshore saline aquifer formations, respectively.

Figure 2: Overview and schematic classification of different, exemplary CO2 storage projects worldwide in terms of scale defined on basis of injection rate and total mass of stored CO2 and qualitative technological readiness levels.


Storage projects at various scales

CO2 storage experimental and pilot sites are field laboratories for implementing and testing established as well as newly developed operation and monitoring technologies. Injection rates range in the order of 10,000 tons per year with injection lasting a few weeks up to several years. The total amount of stored carbon dioxide is less than 100,000 tons. Early pilot projects were the Frio project (United States, 1,600 tons) or the Nagaoka site (Japan, 10,400 tons). A depleted gas reservoir was used for the storage of more than 65,000 tons of naturally occurring CO2 mixed gas within the Australian Otway project at a depth of 2,050 m. At Ketzin (Germany), the first European onshore pilot site has been operated and 67,000 tons of CO2 were injected into a saline aquifer formation at 630 m – 650 m depth (Martens et al., 2014). Demonstration projects are characterized by intermediate injection rates of a few hundred thousand tons of CO2 per year and total capacities of approximately 1 Million tons of CO2. Demonstration projects were initiated, e.g. in the United States (Illinois Decatur and SECARB projects). Full (or commercial) scale storage sites are typically characterized by injection rates in the order of a few hundred thousand to some million tons of CO2 per year. Total capacities reach several tens of million tons. The first commercial scale project of CO2 storage commenced in 1996 at Sleipner in the Norwegian North Sea (Torp & Gale, 2004). The saline Utsira Formation has been used for the injection of CO2 co-produced with natural gas from the Sleipner field since then. The CO2 is separated from the natural gas produced in the Sleipner field and injected into the saline aquifer formation, at a depth of about 1012 m below sea level (Chadwick et al., 2009; see Figure 3). More than 16 million tons of CO2 have been injected since 1996. Further commercial scale projects are related to gas production (In Salah, Algeria), or an LNG plant (Snøhvit, Norway, see Eiken et al., 2011). More large scale projects are currently under development, e.g. Gorgon in Australia (Malek, 2009), Boundary Damm in Canada, or in China (Li et al., 2013).

Figure 3: Schematic diagram of CO2 injection in the Sleipner project in the Norwegian North Sea (from Chadwick et al., 2014). The CO2 is injected via a deviated borehole from the production platform into the bottom of the Utsira Sand Formation. As the CO2 is lighter than the initial pore fluid in the Utsira Sand (brine), it rises upwards, partially accumulating below intercalated mudstone layers with low permeability.


Pilot scale storage – the Ketzin case study

The Ketzin pilot site for geological storage of CO2 is the only German storage site and has been the first European pilot site for on-shore storage. The site is located in the German Federal State of Brandenburg, approximately 25 km west of Berlin. The storage formation is fluvial sandstone layers within the Upper Triassic Stuttgart Formation (~ 220 Million years b.p.) at approximately 630 m – 650 m depth. The injection site is located on the southern flank of an anticlinal structure (see Figure 4), the top of which is about 1.5 km north of the site. The lithology of the Stuttgart Formation is laterally and vertically very heterogeneous, containing both muddy, flood-plain-facies (poor reservoir quality), and sandy channel-facies (good reservoir quality). According to well-log analysis, variable permeability in a range of 0.02 to 5000 mD and porosity in a range of 5 to 35% are found within the Stuttgart Formation (Norden et al., 2010). The upper part of the Stuttgart Formation contains the 9-20 m thick main-reservoir sandstone unit. The measured reservoir pressure and temperature range from 6.21 to 6.47 MPa (Kazemeini et al., 2009) and from 34 to 38 ºC (Förster et al., 2006), respectively. The overlying formation of the reservoir is the Weser Formation composed mainly of mudstone and anhydrite. The top part of the Weser Formation contains a 10-20 m thick anhydrite layer located approximately 80 m above the top of the Stuttgart Formation. This anhydrite layer exhibits good sealing characteristics and peculiar seismic properties, which make it a perfect reference horizon for seismic interpretation. Above the Weser Formation is the Arnstadt Formation which consists mainly of mudstone and carbonates. These two formations are defined as the caprocks above the reservoir due to their low permeability (Norden et al. 2010). Above these caprocks, Jurassic sandstones, in which natural gas was stored between the 1970s and 2000, are found in conjunction with anhydrite, siltstone and mudstone interlayers, constituting a multi-aquifer system. An 80-90 m thick Tertiary clay (“Rupelton”) serving as the final caprock for this aquifer system isolates the saline waters in the underlying aquifers from the overlying fresh water aquifers within the Tertiary and Quaternary sections.

Figure 4: Simplified sketch of the location and the geological structure of the Ketzin pilot site for CO2 storage. The infrastructure of the storage site consists of an injection facility with two intermediate CO2 storage tanks and four large ambient air heaters as well as the injection/observation well CO2 Ktzi 201/2007, and three observation wells CO2 Ktzi 200/2007, CO2 Ktzi 202/2007 and


CO2 Ktzi 203/2012, as well as a shallower monitoring well (P300) reaching into the first aquifer horizon above the sealing caprock formation (Martens et al., 2015). Injection of CO2 at the Ketzin pilot site started on 30 June 2008 and ended on 29 August 2013. The CO2 was delivered by road tankers in a liquid state and stored at about −18°C and 2.1 MPa in two intermediate storage tanks on site. Prior to injection the pressure was raised by plunger pumps to the necessary injection pressure and the CO2 was heated by ambient air heaters and an electrical heater. Then the CO2 was transported via a pipeline of about 100 m length to the injection well Ktzi 201. A total amount of 67 kt of CO2 was safely injected over the 5 years period (Fig. 5). During most of the time food-grade CO2 (purity > 99.9 vol%) was used with monthly injection rates between 1,000 and 2,300 t. From May to June 2011, 1,515 t of CO2 captured from the Vattenfall Schwarze Pumpe oxyfuel pilot plant (purity > 99.7 vol%) were used. CO2 injection was accompanied by a comprehensive operational pressuretemperature monitoring programme (Liebscher et al., 2013). Due to CO2 injection the reservoir pressure increased to about 7.6 – 7.9 MPa after eight months of injection. After this initial increase the reservoir pressure slightly decreased and stabilized between about 7.2 and 7.5 MPa reflecting a stable injection regime. Between March and July 2013, the injection temperature was lowered stepwise down to 10°C to demonstrate the feasibility of a “cold injection” process, i.e. without pre-heating the CO2. Despite high dynamics of the measured pressure within the injection well Ktzi 201 (Fig. 5), the entire injection process ran smoothly and the experiment could be carried out successfully. Longer shut-in phases, e.g. during drilling of the Ktzi 203 well, and the beginning of the post-injection phase at the end of August 2013 are characterized by a continuous decrease of the reservoir pressure. The maximum approved reservoir pressure as defined by the Mining Authority is 8.5 MPa at 630 m depth, which transforms into 8.3 MPa at 550 m depth, i.e. installation depth of the pressure sensor in well Ktzi 201. During the entire storage operation the reservoir pressure was always well below this maximum approved value. The injection facility was dismantled in December 2013 whereas post-injection monitoring continued. The four deep wells at Ketzin were inspected by comprehensive wellbore logging campaigns on an annual basis. Logging included magnetic measurements (Zemke et al., 2017), saturation measurements using pulsed neutron gamma (PNG) logging and borehole inspections with a video camera to enable visual inspection. Based on the results of the logging campaign and the video material the good condition of the wells could be repeatedly confirmed. Fluid samples from the wells were gained during all logging campaigns and used for further investigations on reservoir processes. A wide range of geophysical monitoring methods have been applied at the Ketzin site. Aside from well logging, seismic methods and electrical resistivity tomography (ERT) have been extensively applied (Bergmann et al., 2016). Various studies have demonstrated that 3D seismic time-lapse surveys (also referred to as “4D” seismic surveys) are suitable for tracking CO2 injected into the subsurface (e.g. Arts et al., 2004; White, 2009). Also for the Ketzin pilot site, 4D seismic surveying is a central component of the monitoring program. The first 3D seismic survey was acquired in 2005 (Juhlin et al., 2007), covering a survey area of approximately 12 km2. Main objectives of the 3D survey were to provide (1) detailed subsurface images near the injection borehole for planning the drilling operations, (2) an understanding of the structural geometry relevant to fluid flow pathways within the reservoir, and (3) a baseline for subsequent repeat surveys (Juhlin et al., 2007). The 3D survey imaged a sequence of clear reflections from approximately 150 ms down to 900 ms two-way-time, corresponding to approximately 1 km depth. The first repeat 3D seismic survey was acquired in 2009, after injection of 22–25 kt of CO2 (Ivanova et al., 2012). This survey used the same parameters as the baseline survey, except that the survey area was reduced to a subset of 7 km², which was centered at the CO2 injection 114

site. The corresponding data, characterized by generally good repeatability (normalized-rootmean-square levels of 15–25%), were processed using the same steps as in the processing of the baseline data. This processing showed that, although the repeated 3D seismic data were collected during the same season, using identical equipment and layout, and processed in a consistent manner, time-lapse differences caused by ambient noise and changes in the environmental conditions are prevalent. In order to minimize these differences in the data, the seismic data underwent further cross-calibrations to better image the actual injection-related changes in the subsurface (Ivanova et al., 2012; Bergmann et al., 2014).

Figure 5: Pressure (green curve) and cumulative mass of injected CO2 (blue curve) for the storage and post-injection periods. Also shown are mean injection rates for during differing injection periods and timing of specific field experiments. At the time of the first repeat survey, reservoir-level amplitude changes were observed to be largely concentrated at the injection well, showing a thickness of 5–20 m and an extent of approximately 300–400 m in the W–E direction (Fig. 6). The observed westerly spreading tendency of the plume, as well as the irregularity of the amplitude changes, confirmed the heterogeneity of the reservoir sandstones. At the time of the second repeat survey, acquired in autumn 2012 after the injection of 61 kt of CO2, a similar 4D amplitude signature was observed (Ivandic et al., 2015). However, this signature was larger by ~150 m in N–S direction and ~200 m in W–E direction, showing further increased amplitude changes with the highest values centered near the injection well (Fig. 6). Again, it revealed a clear preference in CO2 migration towards the west and indicated a maximum vertical thickness of 10–30 m. Because no systematic changes in the seismic amplitudes of the overburden were detected, the caprock is interpreted to act as an effective seal. Based on the recorded changes in the seismic signature within the reservoir formation, the petrophysical results obtained from laboratory measurements, and the CO2 logged saturation levels in the boreholes, the CO2 masses were estimated from the 4D seismic data (Ivanova et al., 2012; Ivandic et al., 2015). The mass estimates from the first repeat survey are in the range of approximately 93–95% of the actually injected mass of CO2 (Ivanova et al., 2012). The corresponding shortfall of 5–7% is assumed to be undetectable due to both CO2 115

dissolution into the brine (Kempka and Kühn, 2013) and the limitation of the vertical resolution provided by the seismic data. It is important to note that this interpretation was performed under the assumption that pressure-related effects could be neglected, i.e. that the amplitude changes are only due to fluid saturation changes, which was subsequently supported by seismic modeling (Ivanova et al., 2013). A third seismic repeat survey was acquired in autumn 2015 in order to image the CO2 distribution two years after the end of injection. The amplitude changes reflecting the CO2 plume distribution are shown in Figure 7. The lateral extent of the amplitude anomaly has decreased from 2012 to 2015 although the amount of stored CO2 increased from 2012 until the end of storage operation in late summer 2013 by about 6 kt. This may be interpreted as a clear indication of the CO2 plume stabilizing and slowly dissolving in the formation brine.

Figure 6: Seismic images showing the geological layers around the storage complex, combined with time-lapse amplitude maps indicating the lateral extent of the CO2 plume in the storage formation (colour coded maps). (a) showing the results of the first seismic repeat survey (2009), and (b) showing the results of the second seismic repeat survey (2012) (Bergmann et al., 2016).

Figure 7: Time-lapse amplitude maps showing the lateral extent of the CO2 plume for the three seismic repeat surveys in 2009, 2012, and 2015 (from left to right). The location of the injection well (“Ktzi 201”) is indicated by a white circle.


Long-term behaviour and safety

Long-term assessment of CO2 storage sites requires, besides migration of CO2, displacement of formation fluids and resulting pressure development in the reservoir, verification of geomechanical integrity and quantification of mineralization. For that purpose, we completely depend on the application of numerical simulation tools, because neither laboratory experiments nor field studies are able to answer the questions on the required spatial and temporal scale. Due to the computational effort, a fully coupled model of high spatial resolution covering thousands of years and taking into account hydraulic, thermal, chemical and mechanical processes cannot be conducted to date. Given the fact that the relevant processes in a storage reservoir and its surrounding rocks contribute in a diverse way to the long-term behaviour of CO2 in the subsurface, an integrative workflow was developed, based on simplifications in the process coupling (Kempka et al., 2014). Basis is the static geological model, which serves as input for multi-phase flow simulations. The results are fed into hydromechanical simulations on the one hand and geochemical reactions on the other. This work aimed at the quantification of the hydro-mechanical system integrity and long-term mineralization of the Ketzin pilot site for CO2 storage in Germany. A multi-phase flow reservoir model served as basis for the process model coupling. The relevance of the different processes flow, transport, chemical reactions and deformation strongly depends on the time scale, which we differentiat between site operation (up to 50 years), abandonment (a few years) and post-abandonment (thousands of years). In our approach, process coupling is only carried out, if the related processes show a significant impact on the simulated time scale by means of CO2 migration, dissolution, mineralization and hydro-mechanical effects in terms of potential impacts on reservoir rock, caprock and/or fault integrity.

Figure 8: Quantitative contributions of the four trapping mechanisms acting in a CO2 storage site. The long-term safety of a storage site increases with increasing contribution of the mechanisms shown in the lower part of the diagrams. Left: Trapping mechanisms in a generic model. Right: Contribution of trapping mechanisms derived from coupled reservoir simulations for the Ketzin pilot site (Kempka et al., 2014).


Results of hydro-mechanical simulations are mainly of interest during the period of site operation, since relevant pore pressure changes in the reservoir are expected to occur during this phase only. Vertical displacements at the reservoir top of maximum 6 mm and at the ground surface of maximum 4 mm were determined by simulations. Furthermore, storage formation, caprock and fault integrity were verified by the coupled simulations and are maintained during the entire operational time of the Ketzin pilot site. Hydro-chemical studies were taken to assess long-term CO2 mineralization at the reservoir scale. CO2 dissolution is the main trapping mechanism with a share of 74.4 % and 89.2 % while mineral trapping by carbonate formation contributes in the order of 9.8 % to 24.6 % (Figure 8). Residual as well as structural trapping are negligible after 10,000 years of simulation with a contribution of 0.5 % each for the Ketzin pilot site (Figure 8). The integrated simulation of coupled processes allowed us to carry out a thorough assessment of long-term site stabilization at the Ketzin pilot site involving the investigation of the CO2 trapping mechanism contribution as well as of system integrity, whereby coupling of specific process models was undertaken depending on the process influence at the relevant time scales. The long-term process simulations, matched to monitoring data gathered during the operational and early post-injection phases, demonstrate that the entire system integrity is maintained after abandonment and in the long-term. Summary and conclusions

The geological storage of carbon dioxide (CO2) has been demonstrated successfully in various projects at different scales, ranging from small scale experimental and pilot sites up to full scale commercial projects with several Million tons of CO2 in the storage complex. Considering ambitious plans to reduce greenhouse gas emissions in order to limit global warming below 2°C, the geological CO2 storage can contribute significantly to emissions reduction in the transitional phase of the next few decades during which fossil fuels will continue to be used and process related industry emissions have not been reduced by replacement technologies. For a successful implementation of CCS, with the geological storage as the last link of the chain, successful large scale projects, but particularly also pilot and demo scale storage projects are necessary to demonstrate the feasibility of the technology and to show that the storage related subsurface processes can be monitored and are reasonably well understood in terms of process simulation. The Ketzin pilot site project was initiated in 2004 and since then, almost the entire life cycle of a storage site was demonstrated here, from exploration and development, over storage operation, until site closure and final abandonment which is about to be finished by the end of 2017. Site operations have demonstrated feasibility of onshore saline aquifer storage at a pilot scale and various monitoring technologies applied here have shown that already small amounts of CO2 can be detected and their movement can be characterized in deep saline aquifers. References

Arts, R., Eiken, O., Chadwick, A., Zweigel, P., van der Meer, L., Zinszner, B. (2004). Monitoring of CO2 injected at Sleipner using time-lapse seismic data. Energy 29, 13831392. Bergmann, P., Kashubin, A., Ivandic, M., Lüth, S., Juhlin, C. (2014). Time-lapse difference static correction using prestack crosscorrelations: 4D seismic image enhancement case from Ketzin. Geophysics, 79, 6, B243-B252. Bergmann, P., Diersch, M., Götz, J., Ivandic, M., Ivanova, A., Juhlin, C., Kummerow, J., Liebscher, A., Lüth, S., Meekes, S., Norden, B., Schmidt-Hattenberger, C., Wagner, F.


M., Zhang, F. (2016). Review on geophysical monitoring of CO2 injection at Ketzin, Germany. Journal of Petroleum Science and Engineering, 139, 112- 136. Chadwick, R.A., Noy, D., Arts, R., Eiken, O. (2009). Latest time-lapse seismic data from Sleipner yield new insights into CO plume development, Energy Procedia, Volume 1, Issue 1, 2103-2110. Chadwick, R.A., Marchant, B.P., Williams, G.A. (2014). CO2 storage monitoring: leakage detection and measurement in subsurface volumes from 3D seismic data at Sleipner, Energy Procedia, Volume 63, 4224-4239. Eiken, O., Ringrose, P., Hermanrud, C., Nazarian, B., Torp, T.A., Høier, L. (2011). Lessons learned from 14 years of CCS operations: Sleipner, In Salah and Snøhvit, Energy Procedia, Volume 4, 5541-5548. Förster, A., Norden, B., Zinck-Jørgensen, K., Frykman, P., Kulenkampff, J., Spangenberg, E., Erzinger, J., Zimmer, M., Kopp, J., Borm, G., Juhlin, C., Cosma, C., Hurter, S. (2006). Baseline characterization of the CO2SINK geological storage site at Ketzin, Germany. Environmental Geosciences, V. 13, No. 3, 145-161. Held, H. (2016). The 2°C climate policy goal: Chances & Challenges. Hrsg. Hardo Bruhns, Arbeitskreis Energie in der Deutschen Physikalischen Gesellschaft, Tagungsband zur Frühjahrstagung Regensburg 2016, p. 35-51. IPCC (2005). In: IPCC Special Report on Carbon Dioxide capture and Storage, Prepared by Working Group III of the Intergovernmental Panel on Climate Change (eds. B. Metz, O. Davidson, H.C. de Coninck, M. Loos, & L. Meyer). Cambridge University Press. IPCC (2013). Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change [Stocker, T.F., D. Qin, G.-K. Plattner, M. Tignor, S.K. Allen, J. Boschung, A. Nauels, Y. Xia, V. Bex and P.M. Midgley (eds.)]. Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA, 1535 pp. Ivanova, A., Kashubin, A., Juhojuntti, N., Kummerow, J., Henninges, J., Juhlin, C., Lüth, S., Ivandic, M. (2012). Monitoring and volumetric estimation of injected CO2 using 4D seismic, petrophysical data, core measurements and well logging: a case study at Ketzin, Germany. Geophysical Prospecting 60, pp. 957-973. Ivanova, A., Juhlin, C., Lengler, U., Bergmann, P., Lüth, S., Kempka, T. (2013). Impact of temperature on CO2 storage at the Ketzin site based on fluid flow simulations and seismic data. International Journal of Greenhouse Gas Control 40, Pages 490-498. Ivandic, M., Juhlin, C., Lüth, S., Bergmann, P., Kashubin, A., Sopher, D., Ivanova, A., Baumann, G., Henninges, J. (2015). Geophysical monitoring at the Ketzin pilot site for CO2 storage: New insights into the plume evolution. International Journal of Greenhouse Gas Control 32, Pages 90-105. Juhlin, Ch., Giese, R., Zinck-Jørgensen, K., Cosma, C., Kazemeini, H., Juhojuntti, N., Lüth, S., Norden, B., Förster, A. (2007). 3D baseline seismics at Ketzin, Germany: the CO2SINK project. Geophysics, Vol. 72, No.5, B121-B132. Kazemeini, S.H., Juhlin, C., Zinck-Jorgensen, K., Norden, B. (2009). Application of the continuous wavelet transform on seismic data for mapping of channel deposits and gas detection at the CO2SINK site, Ketzin, Germany. Geophysical Prospecting 57, 111-123. Kempka, T., Kühn, M. (2013). Numerical simulations of CO2 arrival times and reservoir pressure coincide with observations from the Ketzin pilot site, Germany. Environmental Earth Sciences, Special Issue, 1-11. Kempka, T., De Lucia, M., Kühn, M. (2014). Geomechanical integrity verification and mineral trapping quantification for the Ketzin CO2 storage pilot site by coupled numerical simulations. Energy Procedia, Vol. 63, 3330-3338.


Kiehl, J.T., Trenberth, K.E. (1997). Earth's annual global mean energy budget. Bulletin of the American Meteorological Society, 78 (2), p. 197–208. Li, L., Zhao, N., Wei, W., Sun, Y. (2013). A review of research progress on CO2 capture, storage, and utilization in Chinese Academy of Sciences. Fuel 108, 112-130. Liebscher, A., Möller, F., Bannach, A., Köhler, C., Wiebach, J., Schmidt-Hattenberger, C., Weiner, M., Pretschner, C., Ebert, K., Zemke, J. (2013). Injection operation and operational pressure-temperature monitoring at the CO2 storage pilot site Ketzin, Germany-Design, results, recommendations. International Journal of Greenhouse Gas Control, Volume 15, 163-173. Malek, R. (2009). Results of Due Diligence Study Phase 3.5 on Feasibility of Gorgon CO2 Sequestration. Petroleum in Western Australia, September 2009, Western Australian Department of Mines and Petroleum (2009), 13–17. Martens, S., Möller, F., Streibel, M., Liebscher, A., Ketzin Group (2014). Completion of five years of safe CO2 injection and transition to the post-closure phase at the Ketzin pilot site. Energy Procedia, 59, 190-197. Martens, S., Conze, R., De Lucia, M., Henninges, J., Kempka, T., Liebscher, A., Lüth, L., Möller, F., Norden, B., Prevedel, B., Schmidt-Hattenberger, C., Szizybalski, ViethHillebrand, A., Würdemann, H., Zemke, K., Zimmer, M. (2015). Joint Research Project CO2MAN (CO2 Reservoir Management): Continuation of Research and Development Work for CO2 Storage at the Ketzin Pilot Site. In: A. Liebscher and U. Münch (eds.), Geological Storage of CO2 - Long Term Security Aspects, Advanced Technologies in Earth Sciences, Springer International Publishing Switzerland, p. 1-32. Michael, K., Golab, A., Shulakova, V., Ennis-King, J., Allinson, G., Sharma, S., Aiken, T. (2010). Geological storage in saline aquifers – a review of the experience from existing storage operations. International Journal of Greenhouse Gas Control, 4, 659-667. Norden, B., Förster, A., Vu-Hoang, D., Marcelis, F., Springer, N., Le Nir, I. (2010). Lithological and petrophysical core-log interpretation in CO2SINK, the European onshore research storage and verification project. SPE Reservoir Evaluation & Engineering, 179 – 192. Schönwiese, C.D. (2016). Globale Klimavariabilität im Industriezeitalter – Phänomene und Ursachen. Hrsg. Hardo Bruhns, Arbeitskreis Energie in der Deutschen Physikalischen Gesellschaft, Tagungsband zur Frühjahrstagung Regensburg 2016, 23-34. Smith, P., Davis, S.J., Creutzig, F., Fuss, S., Minx, J., Gabrielle, B., Kato, E., Jackson, R.B., Cowie, A., Kriegler, E., van Vuuren, D.P., Rogelj, J., Ciais, P., Milne, J., Canadell, J.G., McCollum, D., Peters, G., Andrew, R., Krey, V., Shrestha, G., Friedlingstein, P., Gasser, T., Grübler, A., Heidug, W.K., Jonas, M., Jones, C.D., Kraxner, F., Littleton, E., Lowe, J., Moreira, J.R., Nakicenovic, N., Obersteiner, M., Patwardhan, A., Rogner, M., Rubin, E., Sharifi, A., Torvanger, A., Yamagata, Y., Edmonts, J., Yongsung, C. (2015). Biophysical and economic limits to negative CO2 emissions. Nature Climate Change, 6, 42-50. Torp, T., Gale, J. (2004). Demonstrating storage of CO2 in geological reservoirs: The Sleipner and SACS projects. Energy. Volume 29, Issues 9–10, July–August 2004, 1361–1369. White, D. (2009). Monitoring CO2 storage during EOR at the Weyburn - Midale Field. Leading Edge 28(7), 838–842. Zemke, K., Liebscher, A., Möller, F. (2017) Monitoring of well integrity by magnetic imaging defectoscopy (MID) at the Ketzin pilot site, Germany. Energy Procedia, in press. Dr. Stefan Lüth, Dr. Axel Liebscher Deutsches GeoForschungsZentrum GFZ, Sektion für Geologische Speicherung Telegraphenberg, D-14473 Potsdam


Research for the safe management of nuclear wastes: The special case of "problematic" radioactive waste streams Natalia Shcherbina, Larissa Klaß, Guido Deissmann, Dirk Bosbach, Forschungszentrum Jülich GmbH


During the operational phase of nuclear facilities as well as during decommissioning and dismantling various types of radioactive wastes are generated, including special so-called "problematic" nuclear wastes associated with specific challenges and requiring integrated and optimised waste management strategies to ensure safe treatment and disposal. This paper provides an overview on the specific issues related to the development of safe and sustainable waste management solutions for irradiated nuclear graphite, spent ion exchange resins from nuclear applications, and irradiated and/or radioactively contaminated metals. These are nuclear waste streams for which established treatment and disposal solutions are lacking to date. It is demonstrated that in many cases a mechanistic process understanding of the materials behaviour on a molecular level is essential to understand the radionuclide behaviour during treatment or under disposal conditions, whereas phenomenological descriptions of the waste behaviour are generally not sufficient. Based on recent research activities it is shown that this in-depth understanding of the materials properties and behaviour is an imperative prerequisite for the development of safe and sustainable management solutions for these problematic waste streams that requires further R&D work in the future. 1. Introduction

The safe management of radioactive wastes arising from electricity production from nuclear energy including its ultimate disposal in a deep geological disposal facility is one of the grand challenges of our times, especially for countries with large nuclear programmes. To date, worldwide about 150 civilian nuclear power reactors, including about 45 prototype and experimental reactors, have retired from operation and are under various stages of decommissioning (cf. IAEA 2015; OECD-NEA 2016). Moreover, roughly 200 operating nuclear power plants will reach their envisaged end of life by 2040 and need to be decommissioned (GRS 2015). Technologies for the decommissioning of nuclear facilities and for the safe management of the associated wastes have been successfully developed over the last decades. Current R&D activities with respect to decommissioning and dismantling of nuclear installations are focusing on optimisations, for example, with respect to the minimisation of radiation exposure of personnel, improved in-situ measurement techniques, and economic aspects, etc. (cf. BMBF 2017). Based on several decades of R&D, deep geological disposal of high-level radioactive wastes, such as spent nuclear fuels (if declared as waste) or reprocessing wastes (e.g. nuclear waste glasses, compacted wastes, etc.), has emerged as the safest and most sustainable option for the management of these materials (e.g. IAEA 2004; Ahn and Apted 2011; CEU 2011) and appropriate conditioning, packaging and disposal concepts have been established. For various low- and intermediate level wastes incurring during operation (e.g. ion exchange resins, wiping tissues, etc.) and/or facility dismantling (e.g. building rubble, metallic structural components) disposal either in near surface and/or deep disposal facilities is envisaged in some countries. However, certain special waste streams arising from the decommissioning and dismantling of nuclear installations have not been in the focus of past R&D activities. These special wastes, some of them termed "problematic radioactive wastes" by the IAEA, 121

comprise, for example, radioactively contaminated toxic metals such as beryllium, cadmium or mercury, irradiated nuclear graphite, spent ion-exchange resins, radioactively contaminated non-aqueous phase liquids (NAPL) and decontamination fluids as well as wastes containing asbestos, PCB, etc. and mixed wastes with elevated concentrations of chemotoxic/hazardous constituents (e.g. IAEA 2006a, 2007; Laraia 2011). Although the expected volumes of various of these special waste streams will be comparatively small, there are specific challenges linked to their safe management, for example, due to their associated chemotoxicity, a potential release of radionuclides (during temporary storage and/or under disposal conditions), their incompatibility to established conventional treatment and conditioning techniques, analytical challenges regarding the adequate determination of radioactive and chemotoxic inventories, etc. Treatment and disposal of special waste streams require integrated and optimised waste management strategies to ensure safe, environmentally acceptable, and costeffective solutions that reflect the nature of the wastes concerned. This may include processing steps to decontaminate materials for reuse (inside/outside nuclear applications) or extraction of valuable components for further usage. This paper provides an overview on specific special nuclear waste streams and the challenges associated with the development of corresponding safe and sustainable waste management concepts. Selected examples of current R&D activities concerning "special nuclear waste streams" at the Forschungszentrum Jülich (FZJ) comprising waste treatment and conditioning, waste form development, as well as approaches for optimized waste management strategies including waste minimisation, material recycling/reuse, and safe disposal of wastes are outlined and discussed, using as examples irradiated nuclear graphite, spent ion exchange resins (SIER) and irradiated and/or radioactively contaminated metals. 2. Problematic nuclear wastes and R&D approaches to waste management solutions 2.1 Nuclear graphite

Graphite and other carbonaceous materials (e.g. carbon bricks) have been extensively used in nuclear technology, since they are well suited for sustaining nuclear fission due to their ability of moderating neutrons. Graphite has been used as structural material (cf. Figure 1A), as moderator, reflector, and/or as fuel matrix, for example in various research reactors, in gascooled nuclear reactors (e.g. UNGG, Magnox, AGR, HTR, PMBR) and in graphitemoderated, water-cooled Russian RBMK reactors (e.g. IAEA 2010; Fachinger 2012). At present, more than 250,000 tons of irradiated nuclear graphite have accumulated worldwide, in particular in France, Russia, and the UK and are awaiting further management due to the lack of established waste management routes (EPRI 2006; IAEA 2006b, 2010). In Germany, about 1,000 tons of irradiated graphite and carbon bricks will have to be disposed of as nonheat generating radioactive waste (Kuhne et al. 2015). Nuclear graphite is a complex composite material manufactured from petroleum coke or natural pitch coke as filler using pitch tar as a binder material. The coke is baked, blended, mixed with the binder and pressed or moulded into bricks or blocks (Burchell 2012a). Subsequently, the blocks are graphitised at about 2800 °C, additionally impregnated with tar for improving the graphite density, and graphitised again. The radionuclide inventory of irradiated nuclear graphite is dominated by activation products formed from impurities present in the fresh graphite (e.g. Li, Fe, Co), or from gases (e.g. N2 or O2) trapped in closed pores or adsorbed to the internal and external graphite surfaces, and include 14C, 60Co, and 3H (e.g. Burchell 2012b). 36Cl can be formed via an (n,) reaction from traces of stable 35Cl that remains in the graphite after purification processes using gaseous chlorine or freons to remove metallic impurities (EPRI 2006). Some of these activation products like 60Co (half-life 5.27 a; 122

Chadwick et al. 2011) are in particular relevant during reactor decommissioning and dismantling, whereas some long-lived activation products such 14C (half-life 5700 a) or 36Cl (half-life 3.01E+05 a) can be specifically important with respect to interim storage and also to the operational and long-term safety of disposal facilities. The dominant activation product in irradiated nuclear graphite is 14C which is produced predominantly from (adsorbed) nitrogen by the nuclear reaction 14N(n,p)14C and also to a significantly lesser extent by activation of stable 13C (13C(n,)14C) or from oxygen (17O(n,)14C). The activation products (similarly to their precursors) are distributed rather heterogeneously within the irradiated graphite forming so called hot-spots (cf. Figure 1B). Besides on the purity of the original graphite, the activity inventories of irradiated graphite material depend on its function and position in the reactor and the neutron flux incurred. For example, reflectors and moderators are produced of higher graphite grades (i.e. containing less impurities) than carbon bricks, and reflectors usually see a much lower neutron flux compared to the moderator. Additional (surface) contamination of nuclear graphite may arise from activation products in the cooling gas (e.g. in CO2 cooled reactors) or due to fuel failure.

Figure 1: A) Nuclear graphite assemblies in a RBMK reactor; B) autoradiography of nuclear graphite showing hot spots of /-emitting activation products; C) structure of nuclear graphite; D) Molecular Dynamics simulation of the structure of nuclear graphite. Other issues of irradiated graphite are related to changes in its complex microstructure (cf. Figure 1C) and of physical and chemical properties due to neutron and gamma-irradiation, including the accumulation of stored energy (Wigner-Energy) related to radiation damage of the crystalline graphite lattice. The extreme conditions in nuclear reactors (especially in HTR) can induce various structural changes in the graphite composites (e.g. expansion, shrinkage, 123

formation of defect structures) as well as radiolytical oxidation (cf. Wareing et al. 2017), resulting in deformation and embrittlement of graphite components and thereby causing problems during reactor decommissioning and dismantling (i.e. for graphite retrieval and handling). Throughout the last decades, extensive international R&D work has been undertaken, for example in the collaborative European project CARBOWASTE launched within the EURATOM 7th Framework Programme, aiming at developing safe management routes for treatment and disposal of irradiated nuclear graphite, considering either its direct disposal or the application of treatment and conditioning steps prior to (geological) disposal (e.g. Banford et al. 2008; El-Genk and Tournier 2011; Wareing et al. 2017). However, up to now, none of these approaches is deemed mature for industrial processing of nuclear graphite from reactors during decommissioning, due to insufficient understanding and therefore remaining uncertainties with regard to the properties of irradiated graphite and its long-term behaviour under disposal conditions. This comprises for example the structural evolution and corrosion in the reactor core, the formation and binding of activation products, as well as the mechanisms governing radionuclide release (incl. radionuclide speciation, i.e. distribution within the system) that are not fully understood so far. Thus a fundamental understanding of the relevant properties of irradiated nuclear graphite is a prerequisite for the development of safe and sustainable management options. Research on irradiated nuclear graphite at FZJ is focussed on fundamental materials properties to obtain a comprehensive understanding of its structure, the inventory and localisation of activation products, and to provide a tool box for the safe management of irradiated graphite. The insight into the structure and properties of irradiated graphite on the molecular level is considered to be a prerequisite for an understanding of the mechanisms controlling the radionuclide release from irradiated nuclear graphite under different conditions, for example during high temperature treatment applied for graphite waste minimisation and/or decontamination or under the environmental conditions in deep geological repositories. An important issue addressed by researchers of FZJ in the frame of the German "CarboDisp" project are methods for the reliable estimation of the radionuclide inventory and its distribution in graphite components during dismantling, which is necessary for the planning of graphite packaging for interim storage or for meeting waste acceptance criteria (WAC) for final disposal (cf. Kuhne et al. 2015). Here, two complementary approaches were pursued by (i) sampling and analysis of nuclear graphite from different positions in the reactors and (ii) theoretical modelling of the distribution of activation products (cf. Figure 1D) using Molecular Dynamics simulations (Kuhne, et al. 2015). These simulations require detailed input data about the concentration and distribution of impurities (i.e. the precursors of the activation products) in the graphite and about its irradiation history such as the neutron spectrum and flux in the reactor or temperature and type of coolant. It was found that the heterogeneous distribution of the radionuclides in the irradiated graphite might hamper the upscaling of sampling data leading to uncertainties in the inventories of activation products (Kuhne, et al., 2015). Molecular Dynamics simulations were shown to be an interesting alternative for the determination of the distribution and inventory of activation products and their structural location in the graphite lattice (Kuhne et al. 2015). However, for reliable results these simulations require rather extensive input data, which might not always be available in sufficient detail, especially for older nuclear installations. Based on the experimental results and complementary simulations it could be shown that 14C occurs in particular in amorphised and porous regions of irradiated graphite, which are more brittle than the crystalline filler particles and reveal higher reactivity with respect to oxidation (Vulpius et al. 2013a). These findings have important practical application since they indicate 124

that 14C could be selectively removed from irradiated graphite by applying methods based on surface desorption such as mild oxidation (cf. EPRI, 2006), onmechanical grinding and fractionation (Girke et al. 2012), or on thermal treatment. A selective separation of 14C by high temperature treatment was extensively investigated in the frame CARBOWASTE, where a decontamination factor of about 20 was achieved (Vulpius et al. 2013b). During mechanical grinding of irradiated graphite 14C is enriched in the fine fraction. A systematic investigation and evaluation of the treatment of irradiated graphite by mechanical grinding and fractionation is the topic of a new collaborative research initiative of FZJ and HelmholtzZentrum Dresden Rossendorf named NUgraphRED (Treatment of NUclear GRAPHite for REDuction of waste volume for final disposal) aiming at a minimising the amount of radioactive graphitic wastes for final disposal thus contributing to the development of safe and cost-effective management solutions for irradiated nuclear graphite. This includes systematic and fundamental investigations (e.g. irradiation experiments) of model materials for nuclear graphite in order to better understand the microstructure and the speciation of activation products in irradiated nuclear graphite. Moreover, this project includes also the development and optimisation of the treatment process, the determination of the radionuclide inventory and leaching behaviour of the separated graphite fractions, and the evaluation of conditioning concepts for the higher-active graphite fractions requiring disposal as radioactive waste. 2.2 Spent ion-exchange resins

Ion exchange resins (IER) are widely used in nuclear facilities, especially in water-cooled nuclear power plants (NPP), for the purification of liquid process and waste streams. In particular, significant amounts of IER are used in NPP in the water clean-up systems for the reactor coolant. During the purification process IER accumulate various radionuclides present in particular due to the activation of impurities in the coolant water or originating from corroding steel pipes. These include radionuclides such as 14C (half-life 5,700 a), 60Co (halflife 5.27∙a), traces of 93Mo (half-life 4,000 a) and other short-lived radionuclides, which will decay during interim storage, but also 137Cs (half-life 30.07 a). Moreover, IER are also used in boron recovery systems of nuclear reactors for the retention of 11B and 10B. Spent IER (SIER) from special applications, like cleaning operations after environmental contamination, may vary widely in their specific radionuclide inventories. Although there is the possibility to regenerate SIER, the preferred option is the conditioning into a solid waste form and its disposal (IAEA 1993). The amount of SIER generated depends generally on reactor type and specification and may vary from a few cubic meters to some hundreds cubic meters per year (IAEA 1985). Typical IER used in NPP are cross-linked polystyrene-divinylbenzene polymers with different functional groups, for example sulfonic groups for retention of cations and trimethylammonium groups for retention of anionic species (Traboulsi et al. 2012). IER are available in bead-form (0.3-1.2 mm in diameter) (cf. Figure 2A) or in powder form (30-150 m in diameter). The type of IER utilised (i.e. powder/beads; cation or/and anion exchanger) depends entirely on the needs of the respective NPP. Rather often IER are used in a mixed form, in order to provide for an effective separation of both cationic and anionic radionuclide species. The inventories of 14C and 60Co in SIER are of high concern due to potential releases of long-lived 14C from disposed SIER into the geo-/biosphere and the high accumulation of 60 Co (up to some tens of MBq/g, depending on the specific reactor and boundary conditions), providing for an extensive self-irradiation, respectively. This self-irradiation may significantly damage the structure of the resins, facilitating the degradation of SIER and contributing to the release of other retained activation products (Traboulsi et al. 2012; Rébufa et al. 2015). Moreover, polymeric SIER tend to slowly degrade when exposed to oxidising atmospheres (e.g. air), UV-light, or elevated temperatures, which leads to the production of gases and low125

molecular weight degradation products (Traboulsi et al. 2012). The latter may interfere with SIER for interaction with radionuclides, substantially affecting the radionuclide retention properties and facilitating radionuclide release. Besides, it may have a potential impact on the integrity of the waste packages. These issues require a relatively quick conditioning of discharged SIER in order to prevent radionuclide releases. Thus understanding the stability/degradation and radionuclide retention behaviour of SIER under (interim) storage and disposal conditions is essential for the development of a safe disposal concept for this waste type.

Figure 2: A) Ion-exchange resin (IER) in bead-form (bead diameter 1 mm); B) IER sample used in irradiation experiments before (left) and after -irradiation (right). Recently the radionuclide retention in SIER was addressed in the collaborative European project CAST (CArbon-14 Source Term) within the EURATOM 7th Framework Programme (Rizzato et al. 2015). In particular, the mechanisms of 14C retention and release were investigated using real SIER retrieved from various NPP, supported by experiments with model materials exposed to the conditions relevant for purification processes and interim storage. It was found that the major fraction of 14C on SIER is present in anionic form, i.e. as 14 CO32- or H14CO3-, in agreement with the results of other recent studies (cf. Magnusson and Stenström 2005; Park et al. 2008). Only a minor fraction of 14C is bound to cation-exchange resins, probably in form of insoluble metal carbonates (cf. Moir et al. 1994; Park et al. 2008). Besides that some 14C-containing organic species (up to few wt.%) were detected. Since 14C on SIER is present mainly in form of inorganic anionic carbonate species, its retention during storage and disposal is rather sensitive to changes in the environmental conditions. Important environmental factors promoting the 14C release from SIER are exposure to the atmosphere (isotopic exchange effects), pH-changes to acidic conditions, elevated temperatures (e.g. during drying processes) associated with an enhanced degradation of anionic SIER, and microbial degradation processes (cf. Moir et al. 1994; Yim and Caron 2006). Moreover, radiolysis of SIER induced by (internal) -radiation represents an important variable affecting the release of 14C and even its speciation (Yim and Caron 2006). Thus within the CAST project, we conducted γ-irradiation experiments using a 60Co-source in order to understand the mechanisms of -induced SIER degradation. Irradiation experiments with fresh IER as model system (cf. Figure 2B) were performed at low dose rates to address the radiolytic degradation of the resins during their service life in purification processes and during storage as consequence of the self-irradiation by strong γ- and -emitters (e.g. 137Cs or 60 Co) retained in the cation exchange fraction. It was found that the radiation-induced damage 126

affects mostly the functionality of SIER while the sulfonic groups and the polystyrenedivinylbenzene backbone are relatively robust and can withstand the irradiation. In contrast, the anion exchanging functional groups (e.g. trimethylammonium) can easily be cut off under -irradiation already at low doses (0.1 MGy), leading to the formation of low molecular weight organic species like trimethylamines and formic acid. When SIER are exposed to higher doses in the presence of oxygen and water, radiolytic products may severely damage their structure (Traboulsi et al. 2012) and accelerate the release of 14C and other radionuclides. Moreover, the generation of significant amounts of H2 was observed in the irradiation experiments, posing additional risks during (interim) storage or in a repository. The conditioning of SIER is generally required for meeting the WAC of disposal facilities for radioactive wastes. However, due to their complex behaviour under storage/disposal conditions, standardised and industrially implemented conditioning technologies for SIER are lacking to date. Three options are considered for SIER immobilisation, namely encapsulation in cement, bitumen or organic polymers (e.g. epoxy resins) (IAEA 1985). A pretreatment of SIER by centrifugation, pressing, drying or incineration may be undertaken to reduce the water content and the waste volume. In case of encapsulation using highly-alkaline cementitious matrices, it has to be taken into account that SIER may interact with the immobilisation matrix (e.g. by exchanging anions) causing problems during solidification, and that cementitious materials cannot retain some 14C-containing species formed due to radiolytic and/or hydrolytic SIER degradation, for example 14CO or 14C-containing small organic fragments. Since the radionuclide inventory and the properties of SIER can differ from one NPP to another, in general individual approaches are required in the development of conditioning processes for SIER. 2.3 Radioactively contaminated and activated metals


Radioactively contaminated and activated mercury

Liquid metallic mercury has been used in a number of (historic) nuclear applications, for example as coolant for early experimental fast reactors, as shielding material in prototype fast reactors (e.g. the Dounreay Fast Reactor (DFR) and the Prototype Fast Reactor (PFR) at Dounreay, UK), as sealant material in hot cell facilities, and as catalyst in isotope separation and uranium metal fuel dissolution (e.g. Compere et al. 1998; IAEA 2006a; Kettler et al. 2017). Moreover, liquid mercury has been and is employed as target material in spallation sources in research accelerator facilities, such as the Spallation Neutron Source (SNS) in Oak Ridge, Tennessee, United States or the JESSICA facility in Jülich, Germany. Throughout these applications, mercury can become radioactively contaminated and/or activated and is classified as radioactive waste accordingly during facility decommissioning. Specific issues regarding the management of mercury from nuclear facilities comprise:    

challenges regarding the -spectrometric radiological characterisation and the determination of the activity inventory due to self-shielding of the high-z material; chemotoxic hazards associated with handling and disposal of mercury and mercurycontaminated materials and incompatibility to the WAC of disposal facilities for radioactive waste with respect to the chemotoxic inventory; development of treatment and decontamination methods (e.g. distillation, extraction) and clearance procedures for re-use of mercury and/or conventional disposal of mercury containing waste streams; design and development of immobilisation matrices/procedures leading to waste forms for radioactively contaminated/activated and mercury-bearing waste streams that are compatible with requirements arising from occupational and radiological safety as well as environmental protection. 127

At present, an overall disposal concept for mercury and mercury containing waste streams from nuclear facilities is developed in the framework of PROMETEUS (PROcess of radioactive MErcury Treatment under EU Safety-Standards), a joint research project between the Aachen Institute for Nuclear Training GmbH (AINT) and FZJ, funded by the German Federal Ministry of Education and Research (BMBF). The project is mainly addressing issues related to treatment and disposal of about 500 kg of radioactively contaminated mercury that originates from the decommissioning of hot cells in Jülich in which mercury had been used as sealing material. Due to this usage, the mercury exhibits elevated concentrations of various radionuclides, including in particular fission products such as 137Cs and 90Sr as well as actinides like 239Pu, 241Am and 244Cm. A potential disposal concept includes the decontamination of mercury aiming at either its reuse (inside or outside of nuclear applications) or its disposal as conventional waste, while the residues from the decontamination process (including the majority of the radionuclide inventory) would be disposed of as radioactive waste. Thus, a large amount of the mercury waste could be either recycled or handled as conventional hazardous waste, resulting in a significant reduction in the amount of radioactive waste. Present research activities in this area include the evaluation of various decontamination processes like vacuum distillation and (acidic) washing procedures. First examinations indicate that a significant purification of the mercury can already be achieved by a single vacuum distillation (cf. Figure 3). A clearance procedure is currently under development for the release of mercury into conventional disposal or into reuse outside nuclear applications by proving its (sufficient) decontamination from radionuclides. For this purpose, a new gamma detector system is designed that allows the gamma-spectrometric measurement of mercury samples despite their high density and thus their high intrinsic shielding of radiation. This set-up enables a determination of the gamma-emitting radionuclide inventory in mercury samples and is important not only for potential clearance procedures but also for simplifying the challenging radiological characterisation of radioactive mercury wastes. The waste quotas are further analysed and characterised by liquid scintillation counting (LSC), alpha-spectrometry, and inductively coupled plasma mass spectrometry (ICP-MS) after dissolution of the mercury samples.

Figure 3: Left: Hot cell facility at FZJ, middle: laboratory distillation equipment for mercury purification, right: purified mercury after distillation. In addition, a conditioning concept is developed for treating residues from the decontamination procedures as well as mercury wastes that cannot (easily) be decontaminated, i.e. that cannot be separated from the (radioactive) residues. One possible approach under investigation is the conversion of elemental mercury into mercury sulphide, a highly insoluble solid mercury compound, and the consecutive immobilisation in a solid 128

matrix (e.g. a geopolymer cement). The encapsulation/immobilisation of mercury compounds and radioactive process residues should provide a sufficiently leaching-resistant solid waste matrix that limits potential releases from a future nuclear waste repository into the geo-/ biosphere. b) Irradiated beryllium Beryllium plays an important role in nuclear technology, due to its radiation stability over a wide temperature range, its low neutron capture cross-section and high neutron scattering properties. Thus metallic beryllium or beryllium oxide (BeO) have been and are being used in many (research) reactors as moderators and reflectors for enhancing the neutron flux density in the reactor cores (IAEA 2006a). Moreover, beryllium has been used as an important metal component in nuclear weapons production and has been employed in fuel rods of special nuclear reactors (e.g. Federici et al. 2012). Natural (unirradiated) beryllium is essentially pure 9Be which is not radioactive but highly chemotoxic, with metallic beryllium and several of its compounds being classified as carcinogens (ATSDR 2002; Daunderer 2006). After extensive irradiation with neutrons in the reactor core, beryllium often contains significant quantities of radioactive tritium (3H), which is formed by two consecutive (n,) reactions from the stable beryllium isotope 9Be: 9


Be(n,)6He; 6He → 6Li (half-life 6He: 806.7 ms); 6Li(n,)3H

In addition, the long-lived -decaying radionuclide 10Be (half-life 1.51E+06 a) is produced as activation product from 9Be by an (n,)-reaction. The activation of impurities (e.g. 59Co, 14N) contained within the beryllium material can result in significant levels of other radionuclides, in particular 14C, 63Ni and 60Co (e.g. Lierse von Gostomski et al. 2003, 2004; IAEA 2006a). Moreover, transuranides (e.g. 239Pu, due to activation of 238U) and fission products (e.g. 137Cs and 90Sr, due to fission of 235U) can be present in irradiated beryllium, due to natural uranium present as trace impurity in beryllium compounds (e.g. Cambi et al. 2010; Lierse von Gostomski et al. 2010). This radionuclide inventory needs to be taken into account in the handling, processing and disposal of irradiated beryllium-bearing materials, besides its high chemotoxicity. At present, irradiated metallic beryllium and beryllium oxide components generated during decommissioning and dismantling are kept in interim storage, for example in Germany, Switzerland, and Belgium (e.g. IAEA 2006a), since no safe waste management solutions for irradiated beryllium components have been established to date., In Germany alone nearly 3 tons of irradiated beryllium are awaiting further management according to recent studies (Lierse von Gostomski et al. 2010; cf. Table 1). Institution GKSS Geesthacht HMI Berlin*) HZDR Rossendorf TU Munich Total

Research reactor FRG-1 BER-II RFR FRM-1

Amount of Be [kg] 681.2 1,582.6 329.0 168.0 2,760.8

Table 1: Inventory of irradiated beryllium from German research reactors (Lierse von Gostomski et al. 2010) *) now Helmholtz-Zentrum Berlin (HZB)


Generally, two pathways for the management of irradiated beryllium are under consideration, i.e. reprocessing with the option of further reuse or disposal. The rather high demand of beryllium on the international market as well as its chemotoxicity hampering disposal make it appear reasonable to reprocess irradiated beryllium, for example for usage in fusion reactors or in Molten Salt Reactors (e.g. Ishitsuka and Kawamura 1998; Druyts et al. 2001; Matyasova et al. 2013a; Vladimirov et al. 2013). Potential treatment methods for irradiated beryllium under consideration comprise thermal treatment methods as well as chemical treatment using for example fluoridation or chlorination processes (cf. Ishitsuka and Kawamura 1998; Druyts et al. 2001; Dylst et al. 2008; Lierse von Gostomski et al. 2010; Matyasova et al. 2013a,b). However, it has to be kept in mind that only high purity beryllium materials can be (re)used in the aforementioned nuclear applications and that thermal treatment methods are only capable of removing volatile activation products such as 3H and can thus be adopted only as (pre)treatment method prior to beryllium disposal. In some European countries the (geological) disposal of irradiated beryllium is under consideration, for example, in Germany and Sweden (cf. Lierse von Gostomski 2010; Ene 2012). However, metallic beryllium is incompatible with cementitious materials often used for conditioning of low- and intermediate level wastes or as repository backfill, leading to corrosion, hydrogen gas generation and volume expansion under highly alkaline conditions (e.g. Laraia 2011). Moreover, the WAC of the disposal facilities may restrict the amount of irradiated beryllium to be disposed because of its chemotoxicity. Due to the chemical properties and reactivity of beryllium, according to IAEA extensive R&D-work is still required for the development of waste management solutions for irradiated beryllium, for example, with respect to conditioning and the compatibility with encapsulation materials or to identify suitable conditions for storage and disposal (cf. IAEA 2006a). In general, it has to be noted that at present the knowledgebase is not sufficient to support the development of integrated solutions for the safe and sustainable management for irradiated beryllium from nuclear facilities. Recently, FZJ and Helmholtz-Zentrum Berlin (HZB), which is the operator of the BER-II research reactor, established a collaborative research activity with respect to the development of management strategies for irradiated beryllium. This activity focusses in particular on solutions for beryllium decontamination and reuse (e.g. for nuclear applications or, after clearance, for non-nuclear technologies), in order to reduce the amount of beryllium for disposal, besides addressing suitable conditioning routes for the disposal of remaining irradiated beryllium materials that could not be sufficiently decontaminated and/or purified. In a first step a concept study will be performed to analyse in a systematic way the state of knowledge regarding the material behaviour/properties of irradiated beryllium (e.g. radionuclide inventory, distribution and speciation; expected material behaviour under representative storage and disposal conditions, as well as behaviour in technological processes). Building on this, technological approaches for recycling of irradiated beryllium materials will be identified and potential methods for conditioning of residual materials will be pointed out. The identification and analyses of knowledge gaps and uncertainties will result in the compilation of a "roadmap" supporting the planning of further focused R&D in support of the implementation of innovative management solutions for irradiated beryllium from research establishments. 3. Concluding remarks

For the major waste streams arising during operation, decommissioning and/or dismantling of nuclear installations appropriate and safe management solutions have been established during the last decades. However, some "problematic" nuclear waste streams remain, posing specific challenges regarding characterization, treatment/conditioning, and/or disposal, such as irradiated nuclear graphite, SIER, or irradiated toxic metals. For these waste streams, further 130

R&D is still required to support the development of integrated safe and sustainable management solutions considering both radiological and non-radiological hazards. In many cases, a prerequisite for the establishment of integrated treatment/disposal strategies is an indepth understanding of (i) radionuclide sources, inventories, and speciation in the specific waste streams and of (ii) the radionuclide release mechanisms from the solid wastes or waste forms and the characteristics of the released radionuclide species. One lesson learned from past research activities is that in many cases a mechanistic process understanding of the materials behaviour on a molecular level is essential, whereas phenomenological descriptions of the waste behaviour are often not sufficient for understanding the radionuclide behaviour during treatment or under disposal conditions. Therefore at FZJ the R&D activities on "special nuclear waste streams" comprise investigations on complex, real wastes and waste forms complemented by fundamental studies of materials and radionuclide behaviour as well as bottom up approaches using model substances/materials for unravelling specific effects. Acknowledgements

The research leading to these results has received funding from the European Union’s Seventh Framework Programme for research, technological development and demonstration under grant agreement no. 604779, the CAST project. Moreover, financial support was provided by the German Federal Ministry of Education and Research (BMBF) via the project "CarboDisp" (Grant 02S8790) and the collaborative research activity "Prometeus" (Grant 02S9266A). References

Ahn, J., Apted, M.J. (2011). Geological repository systems for safe disposal of spent nuclear fuels and radioactive waste. Woodhead Publishing, Oxford, 792 pp. Agency for Toxic Substances and Disease Registry (ATSDR) 2002. Toxicological profile for beryllium. U.S. Department of Health and Human Services, Public Health Service. Banford, A.W., Eccles, H., Graves, M.J., von Lensa, W., Norris, S. (2008). CARBOWASTE An integrated approach to irradiated graphite. Nuclear Future, 4, 268-270. Bundesministerium für Bildung und Forschung (BMBF) (2017). FORKA – Forschung für den Rückbau kerntechnischer Anlagen. Bonn, 17 pp. Burchell, T.D. (2012a). Radiation effects in graphite. Chapter 4.10 in: Konings, R.J.M. (ed.) Comprehensive nuclear materials, 4, 299-324. Burchell, T.D. (2012b). Graphite: properties and characteristics. Chapter 2.10 in: Konings, R.J.M. (ed.) Comprehensive nuclear materials, 2, 285-305. Cambi, G., Cepraga, D.G., Di Pace, L., Druyts, F., Massaut, V. (2010). The potential presence and minimization of plutonium within the irradiated beryllium in fusion power reactor. Proceedings of the Ninth International Symposium on Fusion Nuclear Technology, 85, 1139-1142. Chadwick, M.B., Herman, M., Obložinský, P., Dunn, M:E:, Danon, Y., Kahler, A.C., Smith, D.L., Pritychenko, B., Arbanas, G., Arcilla, R., Brewer, R., Brown, D.A., Capote, R., Carlson, A.D., Cho, Y.S., Derrien, H., Guber, K., Hale, G.M., Hoblit, S., Holloway, S., Johnson, T.D., Kawano, T., Kiedrowski, B.C., Kim, H., Kunieda, S., Larson, N.M., Leal, L., Lestone, J.P., Little, R.C., McCutchan, E.A., MacFarlane, R.E., MacInnes, M., Mattoon, C.M., McKnight, R.D., Mughabghab, S.F., Nobre, G.P.A., Palmiotti, G., Palumbo, A., Pigni, M.T., Pronyaev, V.G., Sayer, R.O., Sonzogni, A.A., Summers, N.C., Talou, P., Thompson, I.J., Trkov, A., Vogt, R.L., van der Marck, C., Wallner, A., White, M.C., Wiarda, D., Young, P.G., (2011). ENDF/B-VII.1 Nuclear Data for Science and 131

Technology: Cross Sections, Covariances, Fission Product Yields and Decay Data. Nuclear Data Sheets 112, 2887-2996. Compere, A.L., Griffith, W.L., Huxtable, W.P., Wilson, D.F. (1998). Strategies for the cost effective treatment of Oak Ridge legacy wastes. Oak Ridge National Laboratory, Report ORNL-TM-13577, 19 pp. Council of the European Union (CEU) (2011). COUNCIL DIRECTIVE 2011/70/EURATOM of 19 July 2011 establishing a Community framework for the responsible and safe management of spent fuel and radioactive waste. Brussels, 56 pp. Daunderer, M. (2006). Beryllium. Handbuch der Umweltgifte Ausgabe 06/2006. Loseblattsammlung, ecomed Verlag. Druyts, F., Fays, J., Van Iseghem, P., Scaffidi-Argentina, F. (2001). Chemical reactivity of beryllium pebbles in air. Fusion Engineering and Design 58-59, 695-700. Dylst, K., Seghers, J., Druyts, F., Braet, J. (2008). Removing tritium and other impurities during industrial recycling of Beryllium from fusion reactor. Fusion Science and Technology, 54, 215-218. El-Genk, M.S., Tournier, J.M.P. (2011). Development and validation of a model for the chemical kinetics of graphite oxidation. Journal of Nuclear Materials, 411, 193-207. Electric Power Research Institute (EPRI) (2006). Graphite decommissioning: Options for graphite treatment, recycling, or disposal, including a discussion of safety-related issues. EPRI Technical Report 1013091, 156 pp. Ene, D. (2012). ESS Preliminary waste management plan. European Spallation Source, Technical Report ÈSS-0003144, 111. Fachinger, J. (2012). Graphite. Chapter 5.21 in: Konings, R.J.M. (ed.) Comprehensive nuclear materials, 5, 539-561. Federici, G., Doerner, R., Lorenzetto, P., Barabas, V. (2012). Beryllium as a plasma-facing material for near-term fusion devices. Chapter 4.19 in: Konings, R.J.M. (ed.) Comprehensive nuclear materials, 4, 621-666. Gesellschaft für Anlagen- und Reaktorsicherheit (GRS) (2015). Decommissioning: Challenges of shutdown and decommissioning of nuclear power plants. https://www.grs.de/en/news/decommissioning-nuclear-international, accessed 24.05.2017. Girke, N.A., Bushuev, A.V., Kozhin, A.F., Petrova, E.V., Aleeva, T.B., Zubarev, V.N. (2012). 14C in spent graphite from uranium-graphite reactors at the Siberian chemical combine. Atomic Energy, 112, 63-66. International Atomic Energy Agency (IAEA) (1985). Treatment of spent ion-exchange resins for storage and disposal. Technical Reports Series 254, Vienna, 103 pp. International Atomic Energy Agency (IAEA) (1993). Treatment and conditioning of spent ion exchange resins from research reactors, precipitation sludges and other radioactive concentrates. Technical Reports Series 689, Vienna, 12 pp. International Atomic Energy Agency (IAEA) (2004). Scientific and technical basis for the geological disposal of radioactive wastes. Technical Reports Series 413, Vienna, 80 pp. International Atomic Energy Agency (IAEA) (2006a). Management of problematic waste and material generated during the decommissioning of nuclear facilities. Technical Reports Series 441, Vienna, 71 pp.


International Atomic Energy Agency (IAEA) (2006b). Characterization, treatment and conditioning of radioactive graphite from decommissioning of nuclear reactors. IAEATECDOC-1521, Vienna, 71 pp. International Atomic Energy Agency (IAEA) (2007). New developments and improvements in processing of ‘problematic’ radioactive waste. IAEA-TECDOC-1579, Vienna, 49 pp. International Atomic Energy Agency (IAEA) (2010). Progress in radioactive graphite waste management. IAEA-TECDOC-1647, Vienna, 30 pp. International Atomic Energy Agency (IAEA) (2015). Nuclear Technology Review 2015 Report by the Director General. IAEA- GC(59)/INF/2, Vienna, 52 pp. Ishitsuka, E., Kawamura, H. (1998) Beryllium neutron irradiation study in the Japan Materials Testing Reactor. Fusion Engineering and Design, 41, 195-200. Kettler, J., Havenith, A., Hirsch, M., Greul, C., Ulrich, J., Modolo, G., Wilden, A., Deissmann, G., Klaß, L., Lieck, N., Sadowski, F. (2017). PROcess of Radioactive MErcury Treatment under EU Safety Standards – PROMETEUS. KONTEC 2017: 13. Internationales Symposium "Konditionierung radioaktiver Betriebs- und Stilllegungsabfalle", 22-24 März 2017, Berlin, 198-203. Kuhne, L., Rizzato, C., Baginski, K., Trigubowitsch, N., Petrova, E.,Vulpius, D., Nabbi, R., Neumann, A., Steinmetz, H.-J., von Lensa, W. (2015) Entsorgung von bestrahltem Graphit (CarboDISP) – Abschlussbericht zum BMBF-Vorhaben FKZ 02S8790. Forschungszentrum Jülich GmbH, 146 pp. Laraia, M. (2011). Decommissioning of nuclear facilities and environmental remediation: generation and management of radioactive and other wastes. Chapter 7 in: Ojovan, M.I. (ed.): Handbook of advanced radioactive waste conditioning technologies, Woodhead Publishing, 173-204. Lierse von Gostomski, C., Remmert, A., Stöwer, W., Bach, F.W., Wilk, P., Kutlu, I., Blenski, H.J., Berthold, M., Nerlich, K.D., Plank, W. (2003). Entsorgung von Beryllium und Cadmium aus Forschungsreaktoren. KONTEC 2003: 6. Internationales Symposium "Konditionierung radioaktiver Betriebs- und Stilllegungsabfalle", 19-21 März 2003, Berlin, 702-710. Lierse von Gostomski, C., Remmert, A., Stoewer, W., Bach, F.W., Wilk, P., Blenski, H.J., Berthold, M., Nerlich, K.D., Plank, W., Artinger, R. (2004). Disposal of beryllium and cadmium from research reactors. Waste Management WM’04 Conference, February 29 March 4, 2004, Tucson, AZ, USA, WM-4205, 8 pp. Lierse von Gostomski, C., Erntl, H., Jörg, G., Remmert, A., Stöwer, W., Bach, F.-W., Jemdras, M., Kutlu, I., Wilk, P., Nerlich, K.-D., Artinger, R., Plank, W., Schöner, P., Blenski, H.-J., Berthold, M. (2010). Entsorgung von Beryllium/Berylliumoxid und Cadmium aus Forschungsreaktoren – Abschlussbericht zum gleichnamigen BMBFVorhaben FKZ 02S7951. TU München, Bericht RCM-ATR-Be/Cd-02S7951, 147 pp. Magnusson, Å., Stenström, K. (2005). 14C produced in Swedish nuclear power reactors measurements on spent ion exchange resins various process water systems and ejector off-gas. SKB Report R-05-78, 43 pp. Matyasova, V.E., Kostar, M.L., Kochubeeva, S.L., Nikonov, V.I. (2013a) Generation of beryllium materials out of beryllium-containing wastes for nuclear and thermo-nuclear energetic. Problems of Atomic Science and Technology 2, 110-117 (in Russian).


Matyasova, V.E., Kostar, M.L., Alekberov, Z.M. (2013b). Beryllium fluoride – starting material for the production of metallic beryllium and the salt component for nuclear reactors. Atomic Energy, 115, 102-108. Moir, D.L., Ross, K.J., Chen, J.D., Tarr, A.W., Bialas, E.L., Boivin, W.A., Doern, D.C., Hoffman, D.L., Ross, J.P.M. (1994). Determination of 14C in spent moderator ionexchange resin from Bruce Nuclear Generating Station A. Journal of Radioanalytical and Nuclear Chemistry, 185, 69-81. OECD-Nuclear Energy Agency (OECD-NEA) (2016). Costs of decommissioning nuclear power plants. Report NEA No. 7201, Paris, 255 pp. Park, S.D., Kim, J.S., Han, S.H., Jee, K.Y. (2008). Distribution characteristics of 14C and 3H in spent resins from the Canada deuterium uranium-pressurized heavy water reactors (CANDU-PHWRs) of Korea. Journal of Radioanalytical and Nuclear Chemistry, 277, 503-511. Rébufa, C., Traboulsi, A., Labed, V., Dupuy, N., Sergent, M. (2015). Experimental design approach for identification of the factors influencing the γ-radiolysis of ion- exchange resins. Radiation Physics and Chemistry, 106, 223-234. Rizzato, C., Rizzo, A, Heisbourg, G., Vecernuk, P., Bucur, C., Comte, J., Lebeau, D., Reiller, P.E. (2015). State of the art review on sample choice, analytical techniques and current knowledge of release from spent ion-exchange resins. CAST Project, Technical Report D4.1, 72 pp. Traboulsi, A., Dupuy, N., Rebufa, C., Sergent, M., Labed, V. (2012). Investigation of gamma radiation effect on the anion exchange resin Amberlite IRA-400 in hydroxide form by Fourier transformed infrared and 13C nuclear magnetic resonance spectroscopies. Analytica Chimica Acta, 717, 110-121. Wareing, A., Abrahamsen-Mills, L., Fowler, L., Grave, M., Jarvis, R., Metcalfe, M., Norris, S., Banford, A.W. (2017). Development of integrated waste management options for irradiated graphite. Nuclear Engineering and Technology, in press, https://doi.org/10.1016/j.net.2017.03.001. Vladimirov, P., Ferrero, C., Chakin, V., Kurinskiy, P., Moeslang, A., Pieritz, R., Weitkamp, T., Brun, E. (2015). Microstructure of out-of-pile annealed neutron irradiated beryllium studied by X-ray tomography. Acta Materialia, 88, 293-301. Vulpius, D., Baginski, K., Fischer, C., Thomauske, B. (2013a). Location and chemical bond of radionuclides in neutron-irradiated nuclear graphite. Journal of Nuclear Materials, 438, 163-177. Vulpius, D., Baginski, K., Kraus, B., Thomauske, B. (2013b). Thermal treatment of neutronirradiated nuclear graphite. Nuclear Energy and Design, 265, 294-309. Yim, M.-S., Caron, F. (2006). Life cycle and management of carbon-14 from nuclear power generation. Progress in Nuclear Energy, 48, 2-36. Dr. Natalia Shcherbina, Larissa Klaß, Dr. Guido Deissmann, Prof. Dr. Dirk Bosbach, Forschungszentrum Jülich GmbH Institute of Energy and Climate Research (IEK-6): Nuclear Waste Management D-52425 Jülich Germany



Energy Density, Lifetime and Safety Not Only an Issue of Lithium Ion Batteries Martin Winter1,2, Alex Friesen2, Falko Schappacher2, 1 Jülich Research Center HelmholtzInstitut Münster, 2 Münster University MEET Battery Research Center


Lithium ion cells are established electrochemical energy storage systems with high efficiencies and high energy and power densities. The typical lithium ion cell is based on a carbon-based anode and a layered transition metal oxide cathode. The key to high capacities and energy and power densities lies in optimized and new materials as well as in the design of electrodes, battery cells, modules and systems. The maximum available energy density is determined to a major extent at the material level. The combination of anodes and cathodes with high capacities and low and high potentials, respectively, determines the cell capacity and voltage and consequently the energy density. The power density of lithium ion cells is mainly determined by the design of electrodes. The electrode can be customized for high power or high energy applications, with a high power density being reached at the cost of energy density. Safety of lithium ion cells is an important factor for their broad acceptance, especially in electric vehicle (EV) applications. The continuous increase in energy density leads to a parallel decrease of thermal stability of the cell materials. Thus, for increasing the active and passive safety, measures at the material, cell and system levels are required. Introduction

The energy transition is progressing. A main focus is on sustainable power supply for which efficient and cost-effective energy storage systems are required (Figure 1). Basically, energy storage systems can be classified according to four types depending on their physical principles. Thermal storage systems store caloric energy as heat (e.g. Power-to-Heat concepts). Mechanical storage systems store potential energy (e.g. pump storage plants) or kinetic energy (e.g. flywheels). Examples for storing energy as chemical energy are Power-to-Gas and Power-to-Liquid. Batteries, and in the present context especially lithium ion batteries, have a prominent position among the electrical and electrochemical energy storage systems as they have a high efficiency and high energy density compared to most other secondary (i.e. rechargeable) electrochemical energy storage systems.

Figure 1: Energy storage as a central element of the energy transition.


-2The basic principle of a lithium ion battery

The active materials are the host materials for lithium ions on the anode and cathode side of the battery cell (see Figure 2). In state-of-the-art battery cells the cathode consists of a layered transition metal oxide (e.g. LiNi0.33Co0.33Mn0.33O2, NCM-111) and the anode is carbon based (e.g. graphite). The active materials are mixed with a conductive agent ensuring the electronic conductivity over the entire electrode. They are casted together with a binder onto a current collector (copper or aluminum). The cathode material acts as source of lithium after assembly, while the cell is assembled in an uncharged state. During the first charging of the battery cell electrons are provided at the negative electrode and lithium ions diffuse from the layered oxide on the positive electrode through the electrolyte and the separator towards the negative electrode where they intercalate into the graphite. The present state of the art electrolytes of lithium ion batteries are electrchemically instable at the low potentials of the negative electrode during charging. A small fraction of the electrolyte is electrochemically decomposed at the negative electrode and forms a protective layer, which is called solid electrolyte interphase (SEI). During the initial charging cycles a specific formation procedure, utilizing special charging and discharging steps and electrolyte additives, is used in order to create a thin, and area covering SEI layer which has a low impact on the internal resistance of the cell and protects the bulk of the electrolyte from further decomposition. Figure 2: Schematic view of a lithium ion battery cell. In the Ragone diagram of Figure 3 different energy storage technologies are compared. The specific energy is plotted against the specific power of the corresponding technology. The time for a full discharge is calculated by dividing the specific energy by the specific power of the corresponding technology. As can be seen, the capacitor has a high power density but a low energy density hence the capacitors show a fast charge and discharge capability but only for a short time. Supercapacitors show comparable specific power but higher specific energy. The lead acid battery, nickel cadmium and nickel metal hydride systems offer high specific energies but relatively low specific power. The lithium ion battery combines both, high energy density and high power density and offers good charge and discharge rates (C-rates). Thus, depending in the cell chemistry and cell design the lithium ion battery is suited for both high energy and high power applications. Figure 3: Ragone-diagram compares different types of batteries. The energy density (Wh kg-1) is plotted against the power density (W kg-1).


-3The properties of the active materials (anode and cathode) determine the maximum available energy content. Nevertheless, further influences have to be taken into account, when the practical energy contents are regarded. As shown in Figure 4 the amount of inactive components increases with every step of production. Hence, the energy density decreases. On the electrode level, the active material mixed with conductive agent and binder is coated on metallic current collector foils (aluminum for the cathode and copper for the anode). At the cell level, separator, electrolyte, cell housing and the terminals are added. At the battery module and system level, electrical contacts, housing, mechanical stabilization, thermal and battery management systems are included.

Figure 4: Amount of inactive components increases from the material level to the EV. Materials, cells and batteries are characterized in terms of specific energy (gravimetric energy density) and energy density (volumetric energy density). The specific energy is determined by the equation (1) and the energy density with equation (2): Wh

Capacity (Cell) ∗Cell voltage


Mass of active & inactive materials

Specific Energy [



Capacity (Cell)∗Cell voltage


Volume of active & inactive materials

Energy density [


(1) (2)

The increasing amount of inactive components leads to a decrease of the practical specific energy and energy density. Andre et al. [1] calculated specific energy targets for 2025 using the example of the BMW i3. The results are shown in Figure 5 with respect to the material, electrode, cell and battery levels. The specific energy drops from the material level to the battery level by a factor of 4. The comparison reveals high potentials for increasing the specific energy at all levels.

Figure 5: Targets for specific energy of todays and future generation of batteries, cells, electrodes and materials.[1]


-4Due to the relation energy = voltage • capacity, there are two ways for increasing the energy at the materials level. For the anode the interest is on materials with the lowest as possible potentials (vs. Li/Li+) and high capacities and for the cathode on materials with the high as possible potentials (vs. Li/Li+) and high capacities (see Figure 6). For anodes the state of the art material is graphite. It has a potential only slightly above the one of lithium metal and resaonable capacities. In order to further increase the energy on the anode the interest is on materials with comparably low potentials but higher capacities. Silicon is a promising candidate as it has a capacity in the order of 3.500 – 4.000 mAh g-1. During charging the silicon forms an alloy with lithium and can take up to 4.4 lithium ions per silicon atom (Li22Si5). The lithiation of silicon is accompanied by a volume change of +320%. As a result, the silicon particles as well as the composite electrode and the whole cell experience a huge mechanical stress. On the material level, the volume change results in particle cracking and enhanced electrolyte decomposition at the new surfaces and thus an accelerated aging of the cell. On the electrode level, the adhesion of the active material to the current collector suffers whereby more and more particles become electronically insulated, and thus are no longer available for the lithium exchange resulting in capacity loss. One way of overcoming these challenges is by utilizing composites of carbon with nano-scale silicon. Capacities of about 1,000 – 2,000 mAh g-1 with reasonable cycle life can be realized. Another way for increasing the capacity on the anode is the usage of metallic lithium. Lithium metal tends to form a high surface area deposit (dendritic Li) during deposition. These dendrites grow through the separator towards the cathode causing

Figure 6: Comparison of the specific capacities and potentials (vs. Li/Li+) of different anode and cathode active materials. eventually an internal short circuit which usually results into a thermal runaway of the cell. Structured lithium metal electrodes in combination with a solid electrolyte are a promising way to utilize lithium metal anodes. State of the art cathode materials are the well-known layered oxides LiNi0.33Co0.33Mn0.33O2 (NCM-111) and LiNi0.8Co0.15Al0.05O2 (NCA). All known suitable cathode


-5materials with high potentials vs. Li/Li+ show relatively low capacities of up to 200 mAh g-1 (NCA). The ideal cathode material would be a material with a high potential and a high specific capacity. Two strategies are pursued in the current research activities: materials with high potentials by utilizing high voltage spinels like LiMn1.5Ni0.5O2 and the study of materials with higher capacities such as lithium-rich layered oxides (e.g. Li1.2[Mn0.56Ni0.16Co0.08]O2).

Figure 7: Lithium ion battery electrolyte – A multicomponent system with high influence on the performance of the lithium ion battery. The electrolyte is a key component in a lithium ion battery (Figure 7) in contact with all parts of the battery cell and is exposed to highly oxidative and reductive potentials at the electrodes. The electrolyte has a major influence on the performance and safety of a lithium ion battery. State of the art electrolytes consist of conductive lithium salts (e.g. LiPF6) which provide the ionic conductivity and organic solvents, usually a cyclic and a linear organic carbonate (i.e. ethylene carbonate and dimethyl carbonate). Electrolyte additives are used to tailor certain physical, electrochemical or safety properties of the electrolyte. These additives are a cost-effective way of influencing certain properties of a battery cell which improve the performance and safety. The electrolyte should provide a broad electrochemical stability window for active materials with potentials as low or as high as possible, respectively. Furthermore, the electrolyte needs to enable high power density within a broad temperature range as well as a long lifetime and a safe operation over the whole lifetime. Performance of lithium Ion batteries

The ratio between power and energy (P/E) is an important factor for electrode design. The power is determined by the cell voltage and the applied current. The voltage profile depends on the internal resistance of the cell and the resistance depends on the applied current and the temperature. The internal resistance is composed of different polarizations in the cell, as shown in Figure 8. Thus, a low resistance is necessary for high power applications.

Figure 8: Composition of the internal resistance in lithium ion cells.[2]


-6The P/E ratio for high energy applications is ≈ 5 and for high power applications ≈ 20. Electrodes are composed of the active material, the conductive agent and the binder, coated on metallic current collector foils. A schematic cross cut is shown in Figure 9. The properties of the electrode and therefore of the cell can be customized by different parameters. In general, a homogenous distribution of the components is necessary. The electrode can be designed either in view of a high power or a high energy application. In the following we discuss how the specific energy is influenced by the dry film thickness (DFT), the active to inactive material ratio and the porosity are shown (Figure 10).

Figure 9: Schematic view of an electrode. The calculation of the specific energies is based on a model system, which takes into account the thickness of electrodes and current collectors, the porosity, the ratio between active and inactive materials, the separator and the electrolyte. Graphite anodes and NCM-111 cathodes are considered. The ratio of the active and inactive materials is shown in Figure 10 a). Increasing the amount of active material linearly increases also the specific energy. A conductive agent is needed in order to increase the electronic conductivity, especially the cathode particles need higher amounts of conductive agents due to their poor intrinsic conductivity. The addition of a binder is similarly important. The particles of the active material and the conductive agent are fixed by the binder. Furthermore, the binder is balancing the volume expansion of the graphite during charging and discharging. In a fully lithiated condition the graphite expands up to 9% [3]. Without the addition of flexible binders the particles will lose contact among themselves and with the current collector, leading to accelerated aging of the cell. With the substitution of graphite by silicon in the anode, the function of the binder becomes even more important due to the extremely high volume expansion of up to 320% in the lithiated state [4]. Typical recipes contain 95% active material for high energy applications and 85% for high power applications. The influence of electrode porosity is shown in Figure 10 b). The porosity is adjusted by the calendering process. The applied pressure depends on the particle size of the active material. Smaller particles (nm size) need higher pressures. A smaller porosity corresponds to a higher electronic conductivity. Furthermore, the energy density will increase with decreasing porosity. Higher porosity shows a higher ionic conductivity of the electrolyte, whereas the diffusion length will increase with similar specific energy. A typical porosity is ≈30% for both, high energy and high power, applications.


-7The dry film thickness (DFT) is the electrode thickness after calendering. The influence on the specific energy is shown in Figure 10 c). Increasing the DFT increases the amount of active material and therefore, the specific energy of the cell. However, the electronic and ionic conductivity decreases with an increasing DFT. Furthermore, polarization gradients in the electrode are favored with increasing thickness, which generate different lithiation state in the electrode, limiting the specific energy and energy density. Typical DFT for high power applications are around 40 µm and for high energy applications around 80 µm. The increase of the DFT shows a high potential for an increase of the overall energy density of the cells. Further parameters to impact the P/E ratio are the particle size, the anode to cathode ratio, the current collector foil thickness and the active material itself.

Figure 10: Variation of the ratio between active and inactive components (a), the electrode porosity (b) and the dry film thickness (c) on the electrode level. Safety of Lithium Ion Batteries

The safety of lithium ion batteries and hence of electronic devices like mobile phones or laptops plays a crucial role in the public perception and hence the acceptance. This is especially true for the use of batteries in the field of electro-mobility. The public discussion is highly affected by recent incidents such as burning smartphones or burning electric vehicles. Taking a closer look into the statistics (Figure 11) and calculating the incidents per driven 1 billion miles the real situation is somewhat different. Based on statistics in the US there are 90 fires per 1 billion miles for cars with an internal combustion engine. With 6 fires of Tesla vehicles and 3 billion driven miles 2 vehicle fires per 1 billion miles are calculated. Due to the low market penetration of electric vehicles and the resulting weak database the calculated numbers bear a significant level of arbitrariness, and a conclusion that electric vehicles are safer with regard to fires than internal combustion cars cannot be draw. However, there is a certain evidence that electric vehicles could be at least as safe as vehicles with an internal combustion engine. In any case, it has to be the aspiration of scientists and


-8engineers to make battery cells and batteries as safe as possible. The key to safer batteries lies in active measures (i.e. with regard to the battery management system, or the cell and the battery design) and in passive measures as well, which can be applied on the material level by improved thermal stability of the active materials and the electrolyte.

Figure 11: Vehicle fires of vehicles with an internal combustion engine and battery electric vehicles based on numbers from the US.[4-6] Fire is a by-product of combustion, the process of rapid oxidation of fuel. In order to ignite and burn, a fire requires three elements: heat, fuel, and oxygen, represented by the "Fire Triangle" (cf. science of fire fighting). The fire is prevented or extinguished by “removing” any one of the three elements. A fire naturally occurs when the elements are combined in the right proportions (e.g., more heat is needed to ignite some fuels). Sometimes it is useful to consider a fourth essential element of fire, the sustaining Chemical Chain Reaction which leads to the "Fire Tetrahdron" (see Figure 12).

Figure 12: Elements of the Fire Triangle and the Fire Tetrahedron [5].


-9External and internal failures on the cell level usually result in a temperature increase (heat) within the battery cell. An intrusion causes a short circuit of several anode and cathode layers and the resulting high current leads to an increase of the cell temperature. External short circuits lead to high currents and internal heating of the cell, as well. All the other known safety tests cause reactions within the battery cell resulting in a temperature increase within the cell. Oxygen is the second element for a fire. It is released from layered cathodes at elevated temperatures, but the released oxygen from the cathodes is just enough to react with roughly 20% of the electrolyte. More oxygen for the combustion is accessible after opening or rupture of the cell housing. Combustibles are available within the battery cell. Electrolyte solvents and salts, High surface area lithium and hydrogen rich gases are within the cell or produced during lifetime or a critical safety event and fuel the fire. A chemical Chain Reaction keeps the fire burning. If the heat dissipation rate of the cell is higher than the heat generation rate within the cell the cell will cool down and enter an uncritical state. In case of a heat generation rate which is higher than the heat dissipation rate the cell will heat up internally and further exothermal reactions are triggered within the battery cell releasing go more heat resulting finally in a thermal runaway and opening, rupture or even explosion of the battery cell (see Figure 13).

Figure 13: Schematic view of processes taking place in a lithium ion battery cell during an safety test. Safety tests allow general statements concerning the safety behavior of lithium ion batteries, but they allow no closer look into the processes and chemical reactions taking place in a battery cell during a safety test. Improving materials design for safer batteries is barely possible based on data gained from standard safety tests. Safety experiments in an adiabatic environment lead to more precise and reliable data about the processes taking place in a battery cell during the test. The basic principle of an accelerating rate calorimeter (ARC) is based on a test object, in our case a battery cell, equipped with a thermocouple on its surface which then is placed within the calorimeter (see Figure 14). During the experiment, the volume in the calorimeter is heated stepwise and the cell surface temperature is measured. If a self-heating rate (SHR) of the battery cell is detected above the exothermal threshold of 0.02 K min-1 the temperature of the surrounding volume in the ARC is increased by heaters to match the cell surface temperature and hence to prevent heat dissipation. Thereby it is possible to study exothermal reactions finally leading to a thermal runaway.


- 10 -

Figure 14: Schematic view of an Accelerating Rate Calorimeter (ARC). In Figure 15 (top) a typical evolution of the SHR in relation to the temperature is shown. At about 80°C the SEI starts to decompose and the electrolyte comes into direct contact with the surface of the active material (Figure 15 left). The released reaction heat of this process is low. At higher temperatures the electrolyte reacts in a highly exothermal reaction with the released lithium from the anode (Figure 15 center). In this temperature range the onset of the thermal runaway is triggered. The thermal runaway itself starts at a SHR of 10 K min-1. The electrolyte reacts directly with the released oxygen by the cathode in a highly exothermic reaction resulting finally in rupture of the cell and fire or explosion (Figure 15 right).

Figure 15: Typical course of an ARC curve (top) and the schematic view of the different stages. SEI decomposition at about 80°C (left), reaction of the electrolyte with released lithium from the anode (center) and oxygen evolution from the cathode during the thermal runaway (right).


- 11 Volumetric and gravimetric energy densities of commercial 18650 type cells with different cathode active materials are shown in Figure 16 and plotted against the temperature of the thermal runaway. The experiments were conducted under adiabatic conditions in an ARC. A trend to lower temperatures for the onset of the thermal runaway with increasing energy density is visible. Additionally, the goals of several cell manufacturers and car manufacturers are shown. The trend to increasing energy densities will be pursued in the short term by utilizing active materials with a lower thermal stability compared to the state of the art.

Figure 16: Comparison of the volumetric (left) and gravimetric (right) energy densities of 18650-type cells with different cathode active materials and the temperature of the thermal runaway. Conclusion

On the material level, the energy density of lithium-ion batteries is determined to a major part by the used active materials. A high variety of materials with many combinations exists which must be analyzed with regard to their potential for an increase of the energy density. Today, the research focus is on high capacity anode materials and high capacity or high voltage materials on the cathode. At the next integration level, the electrode level, power capability is mostly determined by the electrode design. A power increase comes along with loss in energy density. There are several options which can be examined for increasing both specific power and specific energy.


- 12 On the cell level, increasing energy densities can be achieved by using thermally less stable materials. More improvements on the materials and cell levels are needed for applications in electric vehicles. These challenges can only be met if science and engineering work hand in hand. References

[1] D. Andre, S.-J. Kim, P. Lamp, S.F. Lux, F. Maglia, O. Paschos, B. Stiaszny, Fut J. Mater. Chem. A, 3 (2015) 6709-6732. [2] A. Nyman, T.G. Zavalis, R. Elger, M. Behm, G. Lindbergh, J. Electrochem. Soc. 157 (2010) A1236. [3] J. M. Tarascon, M. Armand, Nature, 414 (2001) 359-367. [4] „ZOE Battery Durability, Field Experience and Future Vision“, AABC 2017, Mainz, Germany. [5] M. Winter, „Li-Ion Batteries and Beyond“, Industry Report 2017, http://totalbatteryconsulting.com/industry-reports/Li-Ion-and-beyond-report/overview.html [6] „Advances in High-Energy Density Lithium-ion Polymer Battery for EV“, AABC Europe 2016, Mainz, Germany. [7] „Advanced xEV Battery Develoment at CATL“, AABC 2017, Mainz, Germany. Prof. Dr. Martin Winter, Jülich Research Center Helmholtz-Institut Münster, D-48149 Münster & Münster University MEET Battery Research Center, D-48149 Münster; M.Sc. Alex Friesen, Dr. Falko M. Schappacher Münster University MEET Battery Research Center, D-48149 Münster;


Fusion Research: Recent Progress and Perspectives A.J.H. Donné, EUROfusion


The European roadmap to the realisation of fusion electricity1 to the grid breaks the quest into eight missions. For each mission, it reviews the current status of research, identifies open issues, and proposes a research and development programme. A long-term perspective on fusion is mandatory since Europe has a leading position in this field and major expectations have grown in other ITER parties on fusion as a sustainable and secure energy source. China, for example, is launching an aggressive programme aimed at fusion electricity production well before 2050. Europe can keep the pace only if it focuses its effort and pursues a pragmatic approach to fusion energy. With this objective, the present roadmap has been elaborated. ITER is the key facility of the roadmap as it is expected to achieve most of the important milestones on the path to fusion power.2 The Fusion Roadmap is tightly connected to the ITER schedule and the vast majority of European resources for fusion research in Horizon 2020 are dedicated to ITER and its accompanying experiments. Parallel to the ITER exploitation in the 2030s, the construction of the demonstration power plant DEMO needs to be prepared. DEMO will for the first time supply fusion electricity to the grid.3 The design, construction and operation of DEMO require full involvement of industry to ensure that, after a successful DEMO operation, industry can take responsibility for commercial fusion power. Introduction

Worldwide many countries are investing in Energy Research and Development, driven by an ever rising energy demand of a growing population as well as by growing GDPs in developing countries. Ensuring competitiveness and securing our energy supplies is of prime concern but is only sustainable in case it is combined with combatting climate change. Energy sources that are carbon-free and sustainable are therefore crucial for our future prosperity and well-being. Fusion, in common with renewables such as wind and solar, can fulfil these criteria.4 Fusion is the merging of two or more light atomic nuclei forming new reaction products with total mass less than that of the original nuclei. The mass difference is converted into energy according to Einstein's equation 𝐸 = 𝑚𝑐 2 . Fusion is the process that powers the Sun, where fusion reactions take place in the core's high temperature, high density plasma, mostly consisting of hydrogen. Fusion is the only idea for a new primary energy source that is not yet being exploited, as it is not straightforward to create the right conditions for generating fusion energy on Earth. Of the various approaches to generate fusion electricity, magnetic confinement fusion is the furthest advanced. At the high temperatures required for fusion on Earth (~150 million °K), all matter is fully ionised and in the plasma state. Properly configured magnetic fields can confine the charged particles that make up the plasma. The quest for fusion energy concentrates on magnetically confining a plasma at sufficiently high temperatures and long enough duration for commercially viable fusion to occur. The fusion reaction that is easiest to exploit is between the hydrogen isotopes deuterium and tritium, leading to helium and neutrons as reaction products.


Deuterium is abundantly available in natural water (33 mg D per liter). Tritium does not occur in nature due to its short decay time of 12.36 years, but can be produced from lithium, a metal ubiquitous in the Earth’s crust and in seawater. There is more than enough to fuel fusion reactors for tens of thousands of years without risk of shortages or monopoly of supply. The physics behind fusion does not include chain reactions, which is an inherent safety feature of fusion power plants: the plasma rapidly extinguishes itself in case of any malfunctioning. The radioactive by-products of fusion are short-lived activated wall materials; after about 100 years the remaining radiotoxicity will be comparable to that of the ashes of current coal power plants. The benefits of fusion power as carbon-free, sustainable energy source are persuasive. Magnetic confinement fusion has already demonstrated on a small scale that energy can be produced with this concept. Today, the largest magnetic confinement devices can routinely confine hydrogen and deuterium plasmas at temperatures high enough to generate fusion. Now its feasibility at a scale approaching a power plant needs to be proven. This is the purpose of ITER,5 the world’s largest experimental fusion facility, sited in Cadarache, in the South of France as part of a worldwide collaboration involving China, Europe, India, Japan, Russia, South-Korea and the USA. ITER will not generate electricity but study plasmas in reactor-like conditions; electricity production to the grid is the object of the demonstration fusion power plant (DEMO), which follows ITER. Both ITER and DEMO are based on the tokamak concept in which a toroidally shaped plasma is confined by a combination of external superconducting magnetic field coils and an internal magnetic field generated by inducing a toroidal current in the plasma; the plasma is in fact the secondary winding of a transformer.

Fig. 1: Cutaway view of the ITER device. The cryostat of the ITER tokamak (light blue) will be about 30 meters high and 30 meters in diameter. The plasma (pink) inside the magnets forms a toroidal ring. The small man on the bottom left of the machine gives an idea of the scale. Image: US ITER


The EU Roadmap to fusion energy

Achieving commercially viable fusion requires a substantial amount of coordinated resources deployed at European level over a long period of time. In order to structure the required effort, a roadmap to fusion energy with eight missions was developed and agreed by the fusion stakeholders.1 This roadmap forms the basis for the European fusion programme. It provides a clear and structured way forward to a demonstration of commercial electricity production from fusion on a credible roadmap and realistic timescale. The main elements of the Fusion Roadmap are: 1.

ITER. The aim of this device is to show that fusion is feasible. ITER should reach a ratio of thermal fusion power over input power Q = Pfus/Pin of 10. Since the alpha particles generated by the fusion reaction carry 20% of the fusion energy, while the neutrons carry 80% of the energy, conditions are reached in ITER in which the alpha particles have enough energy to heat the plasma. ITER will not be equipped with the balance of plant for generating electricity, but it will test the technologies to produce tritium from lithium which are required for DEMO in special Test Blanket Modules. 2. DEMO. This is the demonstration reactor that should produce for the first time electricity from the fusion process. The present thought is that the European DEMO reactor will be an extrapolation from ITER, using as much as possible technologies that have been already tested. This should ease the nuclear licensing process. The target electrical output of DEMO will be in the range 300 – 500 MWE. 3. A materials test facility to test and validate materials for DEMO under a fusion relevant neutron load and spectrum. The International Fusion Materials Irradiation Facility (IFMIF)6 is an accelerator-based neutron source. The materials test facility should operate in parallel to ITER such that the new materials are validated before DEMO is going to be built. In the remainder off this paper a brief overview is given of the challenges in the eight missions. A more detailed description of the challenges on the road towards fusion electricity can be found in a special issue of the Open Access journal Europhysics News.7 -

Mission 1 – Developing plasma regime of operation for ITER and DEMO

The aim of this mission is to demonstrate and qualify operational plasma regimes that meet the needs of ITER and DEMO. The focus is on reaching high fusion performance with metallic plasma facing components, which implies that various types of magnetohydrodynamic plasma instabilities need to be stabilised. Despite the high performance, the power deposition on the plasma wall and in the divertor, which receives the highest heat loads, should be tolerable. This implies that plasma regimes need to be developed in which the directed power flux from the fusion plasma by particles on narrow stripes of the wall is reduced. This can be done in the plasma edge by converting particle energy into electromagnetic radiation, thus uniformly distributing the power over the surface. To do all this, involves developing integrated (model-based) controllers that are able to control the profiles of multiple plasma parameters at the same time. Much emphasis is on utilizing metallic plasma facing components. This might seem strange as reaching a high performance in a fusion device with carbon walls is much easier. However, carbon forms dust and it easily binds with the hydrogen (or tritium) from the fusion reaction. The result is that in a device like ITER – if it would be using carbon walls – it would take only 50-100 discharges before all tritium that is allowed to be used in the device is lying on the bottom of the fusion device bound into carbon dust. After the JET tokamak, 8 at this moment the largest operating tokamak in the world, was changed to a metal wall, the tritium retention went down by a factor of 20. 9 However, it became more difficult to reach high 149

performance as special operational procedures are needed to keep the metal (tungsten in case of JET) out of the plasma. Apart from JET, several medium-sized tokamaks (Asdex-Upgrade in Germany, TCV in Switzerland and MAST-U in the UK) are employed to develop the required operational scenarios. In general the smaller devices are more flexible and can test new ideas more quickly. Those ideas that work are then tested on JET and the results are extrapolated towards ITER.

Fig. 2: Section of the JET plasma (pink – authentic color of the H-alpha radiation from the boundary plasma - the millions degree hot core of the plasma radiates in the x-ray range and appears transparent in the visible spectral window). The color photo at the right is taken during plasma operation and is here superimposed on a photo of the interior of the JET vessel equipped with the ITER-like wall. In actuality the plasma would extend the whole way around. Image: EUROfusion


Mission 2 – Heat exhaust systems

The typical steady-state heat loads on the target plates of ITER are in the order of 10 MW/m2. This is equivalent to the power load on the surface of the sun, and hence, we do need to develop materials for the plasma facing components that are capable to withstand such heat loads for a sufficiently long time. Fortunately, on earth we can actively cool the components, otherwise this would be mission impossible. Mission 2 is largely concentrated on three pillars. Firstly, for the present well-proven divertor geometries control schemes are being developed to routinely and robustly detach the hot plasma from the divertor plates. Secondly, alternative magnetic geometries are being studied for the divertor, in which the footprint of the plasma is


spread over a larger surface. Thirdly, new materials are being developed that are able to withstand higher heat loads. Divertor detachment and also alternative divertor geometries are being tested in the same devices as used for mission 1. The new materials are being studied in special plasma-facingcomponent test devices. E.g. the Magnum-PSI linear plasma simulator in the Netherlands can mimic the heat loads of 10 MW/m2 under steady state conditions, JUDITH in Germany can test materials under an intense electron beam, WEST is a tokamak in France to test activelycooled tungsten under similar power loads as in ITER. -

Mission 3 – Materials

Every atom in the plasma facing material of ITER undergoes typically 1-2 displacements (dpa, displacements per atom) during the full operational life time. This is due to the interaction with the high neutron fluence from the plasma. Materials have been developed that can well cope with these loads in ITER. However, in DEMO the typical neutron fluence (mainly due to the much longer plasma pulses) leads to loads of 50-100 dpa. This implies that new materials need to be developed and validated. This implies that a dedicated neutron source should be available for testing materials developed with a fusion reactor relevant neutron spectrum. Materials research concentrates on the elements that are thought to be most viable for a fusion reactor: Eurofer (a special steel alloy) for the structural components, tungsten for the plasma facing components and CuCrZr as material for the cooling pipes. Special emphasis is devoted to fibre reinforced materials that have improved fracture mechanics. The ideal materials test facility would be IFMIF, the International Fusion Materials Irradiation Facility or its smaller version DONES, the DEMO Oriented NEutron Source.6 The design of DONES is presently ongoing and the construction should start early in the next decade. It is based on a RF accelerator for deuterium. The deuterium ions impinge on a liquid lithium target where the nuclear reaction generates a similar neutron spectrum as in a fusion reactor. -

Mission 4 – Tritium self-sufficiency

The tritium which makes up half of the fuel of the fusion reaction has a short decay time of only 12.36 years. It therefore doesn’t occur readily in nature and it must be produced (bred) in the blanket of the fusion reactor. The idea is that the neutrons that escape from the fusion reaction have a reaction with 6Li atoms in the blanket surrounding the fusion reactor. The neutron splits the lithium into tritium and helium. The tritium is taken out of the blanket and fed into the reactor for maintaining the D T -reaction while the helium is a non-radioactive, non-toxic and valuable exhaust product. For an economic fusion reactor the tritium should be replenished entirely within the reactor i.e. the breeding ratio should be at least 1; ideally it should be 1.1 or even larger to compensate for some losses and also to be able to produce a start-up quantity of tritium for the next generation of reactors. Tritium production will be tested in specific test blanket modules at ITER. Several concepts are being tested by the various Parties involved in the ITER project to study which is the most viable and economic concept. -

Mission 5 – Safety and environment

ITER and DEMO are nuclear devices and therefore safety is an issue in all sub-projects from the first day of conceptual design onwards. Even though a fusion reactor is inherently safe, it is a nuclear device and everything possible should be done to protect the workers and the 151

people living in the environment from any damage. To obtain the license to operate it must be demonstrated to the regulator that all aspects of the reactor are safe and that there are no hidden pitfalls. -

Mission 6 – Integrated DEMO design

To demonstrate fusion electricity to the grid as desired around the middle of the century implies that the DEMO3 engineering design should be started before ITER reaches high performance operation. This requires a thorough analysis which elements of DEMO can be developed and designed irrespective of ITER, which elements can be designed and allow for a range of ITER outcomes, and which elements can be only designed after ITER has provided some adequate results. Using such an analysis it is possible to already start designing DEMO, while leaving enough room to incorporate new knowledge that comes from ITER. In the present roadmap the Engineering Design of DEMO will start roughly at the same moment when ITER comes into operation. The Engineering Design is planned to be finalised ~5 years after ITER reaches high performance such that all knowledge from ITER can be incorporated. The present DEMO pre-conceptual design phase is set up in a holistic way. The DEMO design as a whole is optimised rather than that DEMO is seen as a conglomerate of subsystems that are all individually optimised. Lessons learned from ITER (good and bad) are incorporated. -

Mission 7 – Cost of electricity

It is important to have continuously an open eye for innovations, as they could lead to a higher performance of the fusion reactor or to reduced costs. A good example is the effort of the EUROfusion consortium in the development of high-temperature superconductors. They could both allow for stronger magnetic field and hence a higher performance or a somewhat smaller reactor and lead to decreased costs for the cryogenic cooling of the magnets. Other new developments that will have certainly an effect on the design and construction of a fusion reactor will be novel approaches such as additive manufacturing, virtual engineering, etc. These will be closely followed, and wherever possible be utilised. -

Mission 8 – Stellarator

ITER and DEMO are magnetic fusion devices based on the tokamak concept. In a tokamak the plasma is confined by a combination of magnetic fields from external coils and “internal” magnetic fields of a strong toroidal current which is induced by a transformer to which the toroidal plasma column is the secondary winding. A tokamak is therefore, by nature of this transformer action, a pulsed device. The tokamak is also prone to plasma instabilities, in particular those arising from unfavourable density distributions of its current, albeit that they can be stabilised or mitigated by various control tools. A stellarator is also a toroidal magnetic confinement device with the main difference that the confining magnetic field is completely generated by external magnetic fields. This makes it possible to operate the stellarator continuously and, because there is no net plasma current, the device doesn’t feature many of the instabilities that can occur in a tokamak. The design of a stellarator is, however, much more complicated than that of a tokamak. The Wendelstein 7-X stellarator that has recently come into operation in Greifswald in Germany, is the world’s largest stellarator.10 Its design was only possible when sufficient computational power became available. In terms of its development track towards high performance the stellarator is some decades behind the tokamak. Research at Wendelstein 7-X should demonstrate whether the stellarator has merits to be used as concept for the future fusion power plants.


Fig. 3: Cutaway view of the Wendelstein 7-X stellarator. From top to bottom one can see the different elements from plasma (pink), vacuum vessel, superconducting coils (grey and copper tone) to the cryostat (grey) with its many ports for diagnostics and other equipment. Due to the special magnetic configuration the plasma has a distorted oval poloidal cross-section rotating and varying along the toroidal circumference with a fivefold symmetry. The diameter of the plasma is about 11 m from centre left to centre right. Copyright: Max-Planck Institut für Plasma Physik.


This paper has given a brief overview of the main elements and missions of the European fusion roadmap which implements a credible and achievable R&D strategy towards demonstrating electricity production from fusion. If the implementation of the roadmap is adequately resourced and receives full stakeholder support, the European power sector should be in a position in the second half of the century to acquire a leading position in the introduction of commercial fusion power plants as part of a future energy mix. Acknowledgments

This work has been carried out within the framework of the EUROfusion Consortium and has received funding from the Euratom research and training programme 2014-2018 under grant agreement No 633053. The views and opinions expressed herein do not necessarily reflect those of the European Commission.



1. 2.

https://www.euro-fusion.org/wpcms/wp-content/uploads/2013/01/JG12.356-web.pdf http://www.iter.org/doc/www/content/com/Lists/list_items/Attachments/724/IBF_05_2 017.pdf 3. G. Federici et al., Overview of the design approach and prioritization of R&D activities towards an EU DEMO, Fusion Eng. Design 109-111 B (2016) 1464 - 1471, https://doi.org/10.1016/j.fusengdes.2015.11.050 4. D.J. Ward, Fusion as a future energy source, Europhysics News 47, 5-6 (2016) 28 - 31, https://doi.org/10.1051/epn/2016505 5. D.J. Campbell, The first fusion reactor: ITER, Europhysics News 47, 5-6 (2016) 32 34, https://doi.org/10.1051/epn/2016504 6. J. Knaster et al., IFMIF, the European–Japanese efforts under the Broader Approach agreement towards a Li(d,xn) neutron source: Current status and future options, Nucl. Mat. Energy 9 (2016) 46 - 54, https://doi.org/10.1016/j.nme.2016.04.012 7. A.J.H. Donné et al., Challenges on the road towards fusion electricity, Europhysics News 47, 5-6 (2016) 20 - 24, https://doi.org/10.1051/epn/2016502 8. L.D. Horton and the JET Contributors, JET, the largest tokamak on the eve of DT operation, Europhysics News 47, 5-6 (2016) 25 - 27, https://doi.org/10.1051/epn/2016503 9. S. Brezinsek et al., Fuel retention studies with the ITER-Like Wall in JET, Nucl. Fusion 53 (2013) 083023, 10. T. Klinger, A newcomer: the Wendelstein 7-X Stellarator, Europhysics News 47, 5-6 (2016) 35 - 38, https://doi.org/10.1051/epn/2016506 Dr. A.J.H. Donné EUROfusion Boltzmannstrasse 2 D-85748 Garching (bei München) Germany [email protected]


Civil Nuclear Power The Cyber Security Perspective Guido Gluschke, Brandenburg University of Applied Sciences, Institute for Security and Safety (ISS), Germany

Key words: Cyber Security Domains, Nuclear facility, Nuclear Power Plant, Cyber Security Threats, Design Basis Threat, Regulatory Framework, Security Management Abstract

The threat from cyber-attacks is increasingly perceived as a problem of national and international security as cyber-attacks grow in number and sophistication and as perpetrators are no longer only private hackers or organized criminals, but also nation states. Likewise, attacks once confined to standard computer systems, or information technology (IT), have now been extended to production systems, or operational technology (OT), with all the implications and potential consequences such attacks may carry. To understand implications and consequences for nuclear facilities and in particular for nuclear power plants (NPPs) cyber security domains are introduced. These domains group the various types of computer systems into functional elements, which then can be better understood in terms of their importance for a NPP. While the threat from cyber-attacks against the energy sector is real, elaboration on cyber security threats is done when looking deeper into technology threats and threats stemming from systemic factors. Furthermore, the broadly used threat assessment model Design Basis Threat (DBT) is discussed regarding its limits for cyber. A view on risk modelling and risk mitigation is taken. Cyber security has become an essential element of the overall security framework of nuclear facilities, and this emerging area is a growing priority for facility operators, national regulators as well as international organizations such as the International Atomic Energy Agency (IAEA). It is focused on elements and requirements for cyber security in national regulation as well as operational governance for NPPs. Introduction

Today, all industries are becoming more and more digitalized. The energy and the nuclear sector are no exceptions from this trend. Information and communication technology is part of most business processes and influences the nuclear industry in the same way as it does other industries. However, nuclear differs from other industries in the fact that this sector is highly regulated and technical developments cannot be implemented in the same way as is the case in other industries. Having recent trends in mind, such as cloud services or mobile devices, information technology in general is a big challenge for the nuclear industry. This article deals with cyber security issues at nuclear facilities and focuses in particular on nuclear power plants (NPPs). In the literature the terms ‘cyber security’, ‘IT security’ and ‘computer security’ can be found to describe security for information assets or digital systems1. For simplification, the term ‘cyber security’ is used in this text as the general term. 1

Tim Maurer and Robert Morgus, Compilation of Existing Cybersecurity and Information Security Related Definitions, New America Foundation Report, October 2014.


Cyber Security Domains in Nuclear Facilities

To get a better understanding of how an information flow works in nuclear facilities a nuclear power plant (NPP) is used to illustrate the cyber world. Figure 1 shows the information and data exchange in general between different sections of a NPP.

Nuclear section Control Room

Business Partner

(Digital I&C)

(Office IT and I&C)

Administration (Office IT) Internet

data flow Information and data flow Information and data flow

Information and data flow

Maintenance Partner

Figure 1 - Information flow in a NPP The administrative domain of a NPP works with standard business information technology (IT) and is comparable to business IT found in other industries. Typically, data from management, human resource, logistics or procurement are processed in this section. There are also systems for office automation, e.g. email, file and print services, engineering and maintenance systems, workflow systems or document management systems. Systems for access and badge management could also be part of the administrative section. These systems are partly used in the second domain, the control room. The control room is usually connected both to systems for administrative purposes2, such as email or document management, and systems for controlling the plant equipment and for protecting the nuclear section. Systems for operational control of a NPP are, for example, reactor control systems but also feedwater, steam or turbine control systems. Additional systems are installed to protect the plant from unwanted conditions. These safety systems, such as reactor limitation or protection systems, are designed, for instance, to ensure a safe shutdown of the reactor in order to prevent a core melt. The aforementioned systems are part of the plant instrumentation and control (I&C). Furthermore, emergency systems exist which support the plant operation in case of an emergency event, such as fire protection systems and voice and data communication infrastructure. All these systems have digital portions inside and have to be considered when developing a cyber security architecture. In general, in a NPP the IT and I&C systems can be categorized as a complex system of digital elements with usually over 20.000 digital devices. More and more parts are digitalized, in particular in the I&C environment as most vendors are no longer producing analog versions of their components. In addition, increased internet connectivity can be seen as a result of increased needs of operational data for various purposes, such as optimization, regulatory needs, forecast calculation or education. 2

International Atomic Energy Agency, IAEA Nuclear Security Series No. 17 – Computer Security at Nuclear Facilities, Vienna 2011.


On the other hand, cyber is defined as a new domain of military actions where industrial control systems are among the new targets. While cyber attacks are rapidly changing and their development is very professional, sufficient cyber security knowledge is often missing at the nuclear facility, even for incident response. Responsibilities for different levels of cyber defence are unclear in most nation states, while categorisation and attribution of attacks are difficult. Threat and Risk Modelling

In many countries, nuclear power plants are seen as a part of their critical infrastructure. With that in mind, they might be an interesting target for professional adversaries. As a consequence, nuclear facilities have to deal with many risks regarding IT and I&C3. To understand the sources of risks in terms of nuclear security, it is essential to discuss the various threats and impacts evolving when operating IT/ I&C in a nuclear facility. From state level’s and operator’s perspective the most important source for IT-based threats is the result of the Design Basis Threats (DBT) methodology, which is conducted on nation state level. “A DBT is the State’s description of a representative set of attributes and characteristics of adversaries, based upon (but not necessarily limited to) a threat assessment, which the State has decided to use as a basis for the design and evaluation of a physical protection system. A DBT is a comprehensive description of the motivation, intentions and capabilities of potential adversaries against which protection systems are designed and evaluated.”4 A threat is the combination of capability, intent and opportunity. For a threat assessment, threat sources are needed which combine capabilities and motivation. Examples of threat sources are shown in Figure 2. Then, it can be considered which capability a particular threat source might have in terms of cyber-attacks. Obviously, one important aspect for evaluation of the threat capability is knowledge about attack vectors or about groups who develop and deliver malicious code for attacks. Another aspect could be financial resources, which are necessary to buy malicious code, which can easily costs up to $50.000. The “Target of Opportunity” is unique to cyber threats. This means that a nuclear installation is hit by a cyber-attack by accident, i.e. not intentionally. But even this case has to be considered seriously. Disgruntled Employee Internal

Covert Agent Human Error

Threat Sources

Extremist Groups Terrorist Groups External

Organized Crime Nation States Target of Opportunity

Figure 2 - Example s of threat sources for cyber threats 3

Caroline Baylon, Cyber Security at Civil Nuclear Facilities – Understanding the Risks, Chatham House Report, London, September 2015. 4 International Atomic Energy Agency, IAEA Nuclear Security Series No. 10 – Development, Use and Maintenance of the Design Basis Threat, Vienna 2009.


Part of the DBT methodology is the process of determining which threats have to been defended against by the operator, and which by the nation state. It is obvious that not all threats can remain on the operator’s side. In nation states, the fight against terrorism is typically within the responsibility of the state. In the physical world for which the DBT methodology was designed, the ‘Maximum Threat Capability’ can be clearly defined. Assumptions on the capability of a physical attacker with his weapons or explosives can be made, which can be determined outside the responsibility of the operator. Threats which cannot be assigned to the responsibility of the operator are referred to as “beyond DBT”. Threats which are not seen as relevant by a nation state are referred to as “beyond state”. Considering DBT, essential questions exist in terms of cyber, e.g.: What is the maximum threat capability of a cyber threat? How to determine if a cyber attack was a terrorist act? How to define and describe the level of cyber threat at which a nation state comes into responsibility? These and other questions have been intensively discussed at the IAEA, but they are not answered finally by now5. The DBT model is shown below: i. ii. iii.

High Threat Capabilities Beyond State e.g. military attacks

e.g. terrorist attacks

Maximum Threat Capability against which protection will be reasonably ensured State Responsibility

Design Basis Threat

Beyond DBT

Operator Responsibility

Within License for Nuclear Facility

e.g. attack by single person

Low Threat Capabilities

Figure 3 - Design Basis Threat Model Beside specific threats evaluated by the nation state and its security agencies, the question remains whether cyber is a new threat actor or whether cyber is only a tool which is used by existing threat actors. A structured DBT could cover attack groups, such as     

Terrorism; Insider; Organized Crime; Environmental Activists, or Other.


Guido Gluschke and Andrea Cavina, Translating the DBT: A comparative analysis, International Conference on Computer Security in a Nuclear World: Expert Discussion and Exchange, Vienna, 1-5 June, 2015.


Cyber issues can apply to all attack groups mentioned above. But one group is not mentioned in the DBT for physical security: the military attack group. The reason why military weapons are not covered by the DBT, or being more precise, are not assigned to the licensee’s responsibility is because (a) in general, military weapons are controlled by nation states; (b) nation state’s intelligence service is responsible for tracking such a threat if it becomes real; (c) nation state’s armed forces should be able to fend off such kind of threat. In the western hemisphere military attacks can be categorized as ‘beyond state’ for attacks using kinetic military weapons. But is this true for cyber? A cyber weapon can be launched by everybody with the right skills. So, we have to take into account that there are military-grade cyber weapons available in the hands of adversaries. That is the reason why military should become a new DBT threat group in terms of cyber. The three aspects regarding physical military attacks mentioned above cannot be seen as effectively controlled in cyber, because: (a) Cyber weapons cannot be controlled by nation states. In general, everybody who has sufficient capability and knowledge can produce a sophisticated and effective cyber weapon. Technically, it is only necessary to have a PC, an internet connection and software development kits for the target systems which should be attacked and which can be usually downloaded from the internet; (b) Once somebody has such a cyber weapon he becomes a real threat but most national intelligence services have not the capabilities and opportunities for tracking such kind of cyber threats or threat actors. Old school methods of investigation or surveillance are not working any longer; (c) In case of a physical military weapon not detected by intelligence services and moved near to a nuclear facility in order to attack it the assumption exists that such a single attack can be warded off by armed forces while a sophisticated cyber attack would most likely not be fended off by a nation state. In addition, attribution of a professional cyber attack is hardly possible. In consequence, neither effective detection nor adequate response is given. Looking to Stuxnet, in a three months period after its appearance in June 2010 nobody had a clear understanding whether this cyber weapon was used against him. The main characteristic of a cyber weapon is its effectiveness. Military-grade cyber weapons are highly targeted and highly effective like bunker buster bombs in the physical world. Highly effective means that the cyber weapon leads to a successful attack with a high probability. Looking at a comment on Stuxnet published in the NYT6 : ‘“To check out the worm, you have to know the machines,” said an American expert on nuclear intelligence. “The reason the worm has been effective is that the Israelis tried it out.”’ The manufacturing of military-grade cyber weapons is very expensive. This depends not only on the zeroday-exploits which are part of it but also on the fact that this kind of cyber weapon has a limited lifetime. Once used, a single cyber weapon is no longer a threat for the targeted facility because after a phase of forensics the targeted facility knows how to respond to this attack vector. It is a weapon with a one-off effect when there is a response team with adequate knowledge. Right now, the sources of such threats can be assumed to be nation states because a huge amount of resources and a multi-year military-like planning is necessary to build a 6



cyber weapon such as Stuxnet. At the moment a handful countries are suspected to have military-grade cyber weapons for offensive use. At least the same amount of countries has the capability to do so, but the number will be rising soon7. If an attack fails in the physical world the attacker can use more powerful weapons and try it again. If he has more powerful weapons then there will be a point in time when he is successful. In the digital world an approach which is based on physical power only works in very rare cases, e.g. in case of brute force attacks in order to break crypto keys. The success of cyber attacks is not depending on the question of how powerful a weapon is but of how sophisticated it is. That means the game will be won by the most creative and effective attacker or defender. And it will be won by the party who has an entire attack or risk view, sufficient experience and situational awareness as well as suitable methods for attacking or mitigating. Methodologies known from the physical area regarding robustness of protection measures are not applicable any more. Defining a threshold value for the number of attackers, amount or type of weapons is not sufficient for cyber. A new way to define a level of cyber threat, or cyber power, must be found. The question remains what a "Maximum Threat Capability" is in terms of cyber and how to describe the parameters which make a nation state to a powerful nation state in the age of cyber. Everybody would say: “We are as secure as possible from our perspective, considering our means and our knowledge”. This includes a couple of limits, such as: Limits of informatics, mathematics, physics; Limits of methodology, human imagination and knowledge during the design process, e.g. single point of failure, common cause failures, insufficient methods;  Limits of vendors and supply chain, e.g. quality limitation in implementation of hardware and software, trusted supply chain;  Limits of verification and testing, e.g. no error free software;  Limits of detection and response, e.g. limited technics for detection, limited capabilities, knowledge and experience, missing situational awareness. These limits can be seen as restrictions in order to defend against cyber threats sucessfully. In consequence, the "Maximum Threat Capability" in terms of cyber could be considered as "Cyber-related threats, a nation state is unable to defeat", such as:  

Denial of Service (DoS): When a nation state is not capable to handle massive DoS attacks;  Encryption: When a nation state is not capable to evaluate if an encryption is strong enough for its intended purpose;  Advanced Persistent Threat (ATP): When a nation state has no detection or protection mechanisms regarding zero day exploits;  Malware: When a nation state has no antivirus industry which detects in higher quality than the commercial AV scanners;  Supply Chain: When a nation state is not able to check if IT/OT systems or software for critical sectors are free of backdoors or hidden functions when bought from sources in other countries. This list shows some limits vital for a nation state to control the threats stemming from the ongoing digitalization of critical infrastructure sectors, such as energy and nuclear. 


Scott Borg, Director and Chief Economist of the U.S. Cyber Consequences Unit (US-CCU), Talk at DGAP, Berlin, January 2012.


Threat and Risk Mitigation

The protection of nuclear facilities is the responsibility of nation states together with operators. Most countries follow the IAEA recommendations on physical protection, NSS138. From the nuclear security perspective, along the IAEA recommendations, nuclear computer security goals can be derived from the nuclear security goals mentioned in NSS13 in the following way: Computer security is focused on preventing computer actions that could directly or indirectly lead to  unauthorized removal of nuclear or other radioactive material;  sabotage against nuclear material or nuclear facilities;  theft of nuclear sensitive information. These nuclear computer security goals describe possible impacts, which have to be avoided in any case. Thus, the goals have to be fulfilled from regulator side as well as from operator side. A cyber regulation might be in place that regulates the necessary steps to achieve a safe and secure operation of a nuclear facility. This is not always the case though. The maturity of cyber regulations differs from country to country9. An essential step to gain more security is to identify and understand digital systems which are vital for the operation of the plant and for handling emergency situations. Essential digital systems comprise not only safety systems, safety-relevant systems, emergency systems, but could also include particular operational systems. These systems have to be identified and classified regarding their contribution to potential impacts. Vulnerability assessments have to be conducted to evaluate in which ways the nuclear computer security goals can be violated in a particular nuclear installation. These vulnerability assessments have to take into account that a computer system can be a source of a cyber threat, a target of a cyber threat, or the way in which a cyber threat is launched. In addition to technical components and computer systems, information should be considered as a vital asset, too. Manipulated information, on paper or represented as data, can also have serious effects on systems and also on processes and workflows. It should be assessed on which information which kind of decisions are made – as well as its impact on the nuclear security goals, not only the nuclear computer security goals. An information or computer risk assessment will evaluate all scenarios which are relevant for the nuclear facility. These will include in any case all scenarios which impact on the nuclear computer security goals but can also be extended to additional risks, only relevant for the operator itself, such as loss of information about customers or suppliers. To ensure cyber security at nuclear facilities, legislation has to be in place within a nation state. Cyber security legislation could be within the legislation for the nuclear sector but is often found as independent legislation10. On nation state’s level a regulatory framework should include cyber security requirements. Furthermore, cyber security should be part of the licensing process for a nuclear facility. The operator has to implement its requirements coming from the regulatory framework in conjunction with the DBT. Essential elements for a nuclear security regulation in the nuclear sector could be a cyber security concept or a computer security plan11. The computer security 8

International Atomic Energy Agency, IAEA Nuclear Security Series No. 13 – Nuclear Security Recommendations on Physical Protection of Nuclear Material and Nuclear Facilities (INFCIRC/225/Revision 5), Vienna 2011 9 Guido Gluschke and Andrea Cavina, Cyber Security at Nuclear Facilities: National Approaches, Study of the Institute for Security and Safety at the Brandenburg University of Applied Sciences, Potsdam, July 2015. 10 Guido Gluschke and Andrea Cavina, Cyber Security at Nuclear Facilities: National Approaches, Study of the Institute for Security and Safety at the Brandenburg University of Applied Sciences, Potsdam, July 2015. 11 International Atomic Energy Agency, IAEA Nuclear Security Series No. 17 – Computer Security at Nuclear Facilities, Vienna 2011.


concept needs to be tailored to the current situation at the facility, has to be evaluated regularly and should cover the whole life cycle of computer systems. Additionally, human resource development and capacity building in cyber security is crucial in order to establish a robust cyber security approach at a nuclear facility12. Moreover, information security management and a security culture contribute significantly to nuclear cyber security. REFERENCES

BAYLON, Caroline, Cyber Security at Civil Nuclear Facilities – Understanding the Risks, Chatham House Report, London, September 2015. DUDENHOEFFER, Donald D., MRABIT, Khammar, HILLIARD, John and ROWLAND, Michael T., Gates, Guards, Guns And Geeks: The Changing Face Of Nuclear Security And The IAEA's Leading Role In Promoting Computer Security For Nuclear Facilities, 9th International Topical Meeting on Nuclear Plant Instrumentation, Control & HumanMachine Interface Technologies (NPIC & HMIT 2015), Charlotte, February 23-26, 2015. GLUSCHKE, Guido and CAVINA, Andrea, Educational Instruments for Nuclear IT/Cyber Security and Information Security Capacity Building, International Conference on Computer Security in a Nuclear World: Expert Discussion and Exchange, Vienna, 1-5 June, 2015. GLUSCHKE, Guido and CAVINA, Andrea, Translating the DBT: A comparative analysis, International Conference on Computer Security in a Nuclear World: Expert Discussion and Exchange, Vienna, 1-5 June, 2015. GLUSCHKE, Guido and CAVINA, Andrea, Cyber Security at Nuclear Facilities: National Approaches, Study of the Institute for Security and Safety at the Brandenburg University of Applied Sciences, Potsdam, July 2015. INTERNATIONAL ATOMIC ENERGY AGENCY, Core Knowledge on Instrumentation and Control Systems in Nuclear Power Plants, IAEA Nuclear Energy Series No. NP-T3.12, Vienna 2011. INTERNATIONAL ATOMIC ENERGY AGENCY, IAEA Nuclear Security Series No. 10 – Development, Use and Maintenance of the Design Basis Threat, Vienna 2009. INTERNATIONAL ATOMIC ENERGY AGENCY, IAEA Nuclear Security Series No. 13 – Nuclear Security Recommendations on Physical Protection of Nuclear Material and Nuclear Facilities (INFCIRC/225/Revision 5), Vienna 2011. INTERNATIONAL ATOMIC ENERGY AGENCY, IAEA Nuclear Security Series No. 17 – Computer Security at Nuclear Facilities, Vienna 2011. INTERNATIONAL ATOMIC ENERGY AGENCY, IAEA Nuclear Security Series No. 20 – Nuclear Security Fundamentals: Objective and Essential Elements of a State’s Nuclear Security Regime, Vienna 2013. MAURER, Tim and MORGUS, Robert, Compilation of Existing Cybersecurity and Information Security Related Definitions, New America Foundation Report, October 2014. Guido Gluschke, [email protected], Brandenburg University of Applied Sciences, Institute for Security and Safety (ISS), David-Gilly-Str. 1, D-14469 Potsdam, Germany 12

Guido Gluschke and Andrea Cavina, Educational Instruments for Nuclear IT/Cyber Security and Information Security Capacity Building, International Conference on Computer Security in a Nuclear World: Expert Discussion and Exchange, Vienna, 1-5 June, 2015.


Safeguards and Non-Proliferation experience from an IAEA perspective Tariq Rauf 1


The International Atomic Energy Agency (IAEA) has been implementing nuclear safeguards (verification and assessments) for more than half a century covering peaceful nuclear activities. IAEA safeguards are implemented in States pursuant to legal authority from the IAEA Statute and bilateral, regional and international nuclear non-proliferation treaties and agreements; and are set of technical measures that allow the IAEA to independently verify a State's legal commitment not to divert nuclear material from peaceful nuclear activities to nuclear weapons or other nuclear explosive devices. In 1991, the IAEA safeguards system suffered a massive shock when it was discovered that Iraq was running an heretofore undetected parallel undeclared nuclear (weapon acquisition) programme. As a result, the IAEA safeguards system was strengthened based on a combination of expanded information and technical measures through the Additional Protocol (to safeguards agreements) that was approved for implementation in 1997. Further challenges to the IAEA safeguards system came during 1992 through 2015, from the DPRK, Iran, Libya, South Korea and Syria. This presentation describes the structure and technical elements of safeguards. IAEA Safeguards

Non-nuclear-weapon States party to the Treaty on the Non-Proliferation of Nuclear Weapons (NPT) are required to renounce nuclear weapons and to use nuclear energy exclusively for peaceful purposes, verification of this obligation would be fulfilled by bringing into force a comprehensive safeguards agreement (CSA) with the Agency. The basic undertaking of the State would be to accept safeguards on all source or special fissionable material in all peaceful nuclear activities within its territory, under its jurisdiction or carried out under its control anywhere, for the exclusive purpose of verifying that such material is not diverted to nuclear weapons or other nuclear explosive devices.2 For its part, the IAEA has the corresponding right and obligation to ensure that safeguards are applied. For States with comprehensive safeguards agreements in force but with little or no nuclear material or nuclear activities, a Small Quantities Protocol (SQP) may be concluded which holds in abeyance certain measures of the agreement, until the State acquires more than specified quantities of nuclear material and/or a nuclear facility. While the reporting requirements and the conduct of inspections in States with SQPs are far less intense than in States without SQPs, all States must establish a functioning system for accounting and control of nuclear material and maintain on-going communications with the Agency.3 In February 1992, the Board of Governors affirmed that the scope of comprehensive safeguards agreements was not limited to nuclear material actually declared by a State, but included any material that is required to be declared. In other words, the Board confirmed that the organization has the right and obligation, under such agreements, to verify not only that State declarations of nuclear material subject to safeguards are 'correct' (i.e. they accurately describe the types and quantities of the State's declared nuclear material holdings), but that they are also 'complete' (i.e. that they include all material that should have been declared). 163

Objectives of safeguards

The objective of safeguards is the timely detection of diversion of significant quantities of nuclear material from peaceful nuclear activities to the manufacture of nuclear weapons or of other nuclear explosive devices or for purposes unknown, and deterrence of such diversion by the risk of early detection. The 'timely detection' of the diversion of 'significant quantities' is based on the premise that, in case a certain quantity of nuclear material cannot be accounted for, the possibility of the State manufacturing a nuclear explosive device cannot be excluded. Furthermore, a certain amount of time is required for the State to convert nuclear material into a weapon-usable form. Goal quantities and timeliness requirements are established for detecting diversion of different categories and forms of nuclear material (e.g. low-enriched uranium and high-enriched uranium; bulk form or fresh reactor fuel assemblies). If the overall objective of a comprehensive safeguards agreement is to be achieved, a second objective must be pursued, that is the detection of undeclared nuclear material and activities in a State. This requires different tools from those needed for the timely detection of the diversion of declared nuclear material, such as a broader range of information, more emphasis on the evaluation of information, more access for inspectors to locations, and a more analytical approach in implementing safeguards. It also requires the evaluation of the State's entire nuclear fuel cycle capabilities (i.e. the State 'as a whole') in addition to individual facilities. The IAEA has defined three safeguards objectives4 that are common to all States with CSAs, as follows:   

to detect undeclared nuclear material and activities anywhere in the State; to detect undeclared production or processing of nuclear material at facilities and Locations Outside Facilities (LOFs); and, to detect diversion of declared nuclear material at facilities and LOFs.

In order to meet the overall objective the Agency determines an optimized combination of safeguards measures needed to achieve State-specific technical objectives, based on the evaluation of all available information on the State. The concept of considering the State as a whole provides the opportunity to focus verification efforts and resources where needed to meet the State-specific objectives. The methodology and approach are based on a comprehensive State evaluation that takes State-specific factors into consideration in all stages of safeguards implementation. In order to apply effective safeguards under comprehensive safeguards agreements, the Agency identifies and conducts safeguards activities to address generic State-level safeguards objectives that are common to all States with comprehensive safeguards agreements. In determining how these generic safeguards objectives are to be addressed for a particular State, the Agency conducts an analysis of all technically plausible paths by which that State could pursue the acquisition of nuclear material for the development of a nuclear weapon or other nuclear explosive device. Such an acquisition path could involve the diversion of declared nuclear material, unreported imports of nuclear material, unreported production or processing of nuclear material at declared nuclear facilities or LOFs, undeclared nuclear material and activities, or any combination of these. The Agency then establishes technical objectives for each path. State-level approach

The generic and technical objectives and applicable safeguards measures to address them form the basis of a State-level safeguards approach for a State. In developing and implementing a State level safeguards approach for a State, the Agency takes into account State-specific factors, such as the nuclear fuel cycle and related technical capabilities of the State. In evaluating safeguards implementation for a State, the Agency assesses the extent to which the planned activities have been carried out and the objectives of the State-level safeguards approach achieved. In addition, the Agency monitors the status of follow-up actions, including the actions necessary in order to conclude whether or not any identified anomalies, discrepancies and inconsistencies constitute an


indication of diversion of nuclear material or of the presence of undeclared nuclear material or activities.

Fig. 1: State-level approach. (Source: Tariq Rauf, “IAEA Nuclear Verification”, 2015)

Access to locations and information is essential for meeting the objectives of safeguards agreements. The State's Safeguards Regulatory Authority (SRA) is responsible for facilitating the access and providing support to IAEA inspectors. Agency activities in the State fall into three major categories: design information verification, inspections, and complementary access. Each category of activity involves various tasks needed to achieve the technical objectives, and may involve access to a variety of locations within a facility, site, or other locations in a State. Safeguards Inspections

The IAEA may carry out three kinds of inspections: ad hoc, routine, and special inspections, as well as complementary accesses. States must ensure the inspectors are able to carry out their activities, by providing access to locations and to information necessary to meet independently the objectives of the inspection. States, and NWFZ regional control mechanisms, have the right to have IAEA personnel accompanied during inspections, provided that in doing so, inspectors are not delayed or otherwise impeded in carrying out their functions. Ad hoc inspections are normally conducted to verify the information contained in the initial report by a State to the IAEA, before Subsidiary Arrangements have been concluded and Facility Attachments have been prepared, or to verify nuclear material before it is exported or upon receipt in the importing State. Routine inspections5 are conducted after the Subsidiary Arrangements Attachments have been concluded and specific information has been incorporated in the Attachments, including information on 'strategic points' in each facility. Once the broader conclusions are drawn in a State with an AP in force, the IAEA has the right under certain conditions to conduct inspections on a random basis, with a minimum advance notification to the State and operator or to select part of the routine inspection activities randomly. This supplementary measure can achieve increases in both effectiveness and efficiency, and is an important component of the State level concept for safeguards planning and implementation. States, and nuclear-weapon-free zone (NWFZ) regional control mechanisms, have the right to have inspectors accompanied6 during unannounced inspections; such accompaniment must not delay or otherwise impede the inspectors in the exercise of their functions. States may find the logistics challenging, but the Agency may nonetheless exercise its right to conduct unannounced inspections. The IAEA periodically communicates to the State its general programme of inspections to help minimize impacts on the facilities. Inspectors conducting a routine inspection must be granted access and support to carry out their activities to meet the verification objectives.


The IAEA may require special inspections which may be either additional to the routine inspection effort, or involve access to information or locations which are additional to those involved in routine and ad hoc inspections, or both. While special inspections have rarely been carried out, they are an important element of the Agency's legal authority to implement safeguards, and may be necessary for the IAEA to achieve the objectives of NPT and NWFZ safeguards. Complementary access refers to access provided to IAEA inspectors by a State under an Additional Protocol, to enable the inspectors to carry out specific verification and assessment activities to meet the Agency's safeguards objectives. The Agency may request complementary access to a variety of locations in a State with an Additional Protocol in force. The IAEA may request access to any location on a site; complementary access at sites is often conducted in conjunction with DIVs or inspections at facilities on or at the site. Complementary access is also used to confirm the continued decommissioned status of a facility or LOF. The Agency may also request complementary access to locations at which activities take place as declared by a State to the IAEA.7 Furthermore, the State shall provide access to the Agency to any location specified by the Agency, other than the above, to carry out location-specific environmental sampling, provided that if the State is unable to provide such access, the State shall make every reasonable effort to satisfy Agency requirements, without delay, at adjacent locations or through other means.8 Each type of access requested has specific advance notice requirements; in some cases this may be less than two hours. In addition to locations associated with State declarations under an AP, the IAEA may also request complementary access to any location in the State. Such conditions require effective coordination within the country, and as with inspections, the State has the right to accompany IAEA inspectors on complementary access, provided that such accompaniment does not impede or delay the access.9


Managed access refers to steps taken by the State to prevent the dissemination of proliferationsensitive information,10 to meet safety or physical security requirements, or to protect proprietary or commercially sensitive information, in such a manner as to not impede the IAEA's activities to fulfil the purpose of the access. The State when providing its initial declaration pursuant to its Additional Protocol, should inform the Agency of the places at a site or location at which managed access may be applicable. Arrangements for managed access shall not preclude the Agency from conducting activities necessary to provide credible assurance of the absence of undeclared nuclear material and activities at the location in question, including the resolution of a question relating to the correctness and completeness of the information provided by the State in its initial declaration under the Additional Protocol or of an inconsistency relating to that information. An example of managed access is the designation of routes through buildings that avoid areas where inspectors' safety is a concern but which allow inspectors to gain a thorough understanding of the function and purpose of the building. Ultimately, the State must provide sufficient access to information and locations during managed access to allow the IAEA inspectors to fulfil the purpose of the access. Conclusion

The single most significant obstacle to nuclear weapon development remains acquisition of special nuclear material (SNM) - highly enriched uranium and weapon-usable plutonium. Development of a production capability for SNM cannot be achieved without a number of observable indicators and requires time as well as overcoming considerable obstacles. With advances in safeguards methodologies and practices, ubiquitous availability of unrestricted satellite imagery, national technical means and related capabilities, clandestine production of SNM runs an unacceptably high risk of detection through the implementation of IAEA safeguards - DPRK and Iran are cases in point. For IAEA nuclear verification pursuant to safeguards agreements, the legal and technical basis remains unchanged, i.e. nuclear material accountancy and verification as the core of the safeguards system. Furthermore, safeguards procedures such as the "State Level Approach" or "State Level Concept" need to retain the centrality of nuclear material accounting and verification; third-party or open source and intelligence information when used should be in an open and transparent manner with full disclosure its origin and available for review at the IAEA Board of Governors. Moreover, as in the case of the Comprehensive Nuclear-Test- Ban Treaty (CTBT) and the Comprehensive Nuclear-Test-Ban Treaty Organization CTBTO, information on allegations or suspicions of non-compliant activities should be considered only if provided through official channels and subject to consideration and review at the IAEA Board of Governors. Thus, with a strengthened IAEA safeguards system free of external and internal manipulation and supplemented by credible actionable additional information and data sources, the probability of detection of clandestine production of SNM could be significantly improved. In addition, removing existing SNM production facilities from national control and placing them under multilateral auspices with IAEA involvement, and the negotiation of a Fissile Material Treaty including existing stocks and production facilities, would go far in further strengthening the nuclear nonproliferation system and provide additional confidence of assurance of non-proliferation. Finally, if a State is determined to develop or has achieved a break-out capability or nuclear latency - as have several advanced nonnuclear-weapon States - there is no absolute guarantee or system to prevent break-out; this is the enduring dilemma of nuclear technology short of a global prohibition on nuclear weapons and nuclear weapon-usable materials supported by robust verification authority and supplemented by multilateralizing the sensitive parts of the nuclear fuel cycle11. Given the several decades' long experience of the IAEA in nuclear verification, the credibility of the Agency's safeguards conclusions, and the recognized independence and impartiality of the IAEA, the Agency is recognized as the sole competent authority to verify States' compliance with their NPT and NWFZ nuclear-non-proliferation obligations. Only the IAEA has the legal authority, under its Additional Protocol, to confirm the absence of undeclared nuclear material and activities. The NPT and all five existing nuclear-weapon-zones rely upon comprehensive safeguards to meet


respective treaty requirements. No verification system in the world anywhere can provide an absolute guarantee of detecting violations if a State is taking active concealment measures, on the other hand, the suite of safeguards technologies and methodologies being implemented by the IAEA currently make it very difficult for a State to have the assurance of the non-detection of clandestine nuclear activities by the Agency. References and Notes

1 Director Disarmament, Arms Control and Non-Proliferation Programme, Stockholm International Peace Research Institute (March 2013-March 2017); Former Head, Verification and Security Policy Coordination, Office reporting to the Director General, International Atomic Energy Agency (2002-2011). The views expressed in this paper are solely those of the author. 2 Paragraph 1, INFCIRC/153/Corr., https://www.iaea.org/sites/default/files/publications/documents/infcircs/1972/infcirc153.pdf. 3 IAEA: Guidance for States Implementing Comprehensive Safeguards Agreements and Additional Protocols, (IAEA Services Series 21), pp. 1-2, http://wwwpub.iaea.org/MTCD/Publications/PDF/SVS-21_web.pdf. 4 See, ”The Safeguards System of the International Atomic Energy Agency”, https://www.jaea.go.jp/04/iscn/iscn_old/resource/safeguards%20system.pdf. 5 The purposes of routine inspections are listed in paragraph 72 of INFCIRC/153. 6 Paragraph 89 of INFCIRC/153. 7 Activities declared pursuant to Article 2 of INFCIRC/540, https://www.iaea.org/sites/default/files/infcirc540.pdf 8 INFCIRC/540, Article 5. 9 INFCIRC/540, Article 4. 10 Such as uranium enrichment or plutonium separation. 11 See, Open-Ended working Group (United Nations General Assembly (UNGA) RES 67/56), Taking Forward Multilateral Nuclear Disarmament Negotiations, Geneva, 23 May 2013, "The Roles and responsibilities of Nuclear- weapon Possessing and Nuclear-Weapon States," Presentation by Tariq Rauf: http://www.reachingcriticalwill.org/images/documents/Disarmamentfora/OEWG/statements/23May_Rauf.pdf.



Impressum: Deutsche Physikalische Gesellschaft e.V. Hauptstraße 5 D-53604 Bad Honnef Tel. 02224-9232-0, Fax 02224-9232-50 [email protected] www.dpg-physik.de www.weltderphysik.de Berliner Geschäftsstelle: Magnus-Haus Am Kupfergraben 7 D-10117 Berlin Tel. 030-201748-0, Fax 030-201748-50 [email protected] Pressekontakt: [email protected] http://presse.dpg-physik.de

Wissenschaftlicher Herausgeber, Redaktion und Layout: Prof. Dr. Hardo Bruhns Meliesallee 5 D-40597 Düsseldorf [email protected] für den Arbeitskreis Energie Deutsche Physikalische Gesellschaft e.V.

Für den Inhalt und Bildrechte der Beiträge sind die jeweiligen Autoren verantwortlich, bei denen die entsprechenden Rechte verbleiben. Eventuelle Bildrechte, die nicht ermittelt werden konnten, werden auf Anfrage im Rahmen der üblichen Vereinbarungen entgolten. Diese Publikation ist im Internet erhältlich unter http://www.dpg-physik.de Die im Text abgedruckten Zahlen und statistischen Angaben wurden mit Sorgfalt ermittelt. Es wird um Verständnis dafür gebeten, dass eine Gewähr für diese Angaben nicht übernommen werden kann.

ISBN 978-3-9818197-2-4      170

ISBN 978-3-9818197-2-4

Deutsche Physikalische Gesellschaft e. V. Geschäftsstelle Hauptstr. 5 53604 Bad Honnef Telefon: 0 22 24 / 92 32 - 0 Fax: 0 22 24 / 92 32 - 50 E-Mail: [email protected] Internet: www.dpg-physik.de www.weltderphysik.de