Deep Reinforcement Learning zur Betriebsoptimierung hybrider industrieller Energienetze
Niklas Panten
Gesetzliche Vorgaben, das wachsende Umweltbewusstsein von Konsumenten und steigende Energiepreise drängen Unternehmen zu mehr Nachhaltigkeit in der Produktion. Für die Versorgung von Produktionsanlagen und die Temperierung der Produktionsstätten werden in der Industrie durch interagierende Wandler, Speicher und Netze unterschiedliche Energiedienstleistungen bereitgestellt. Eine Vielzahl stochastischer Störgrößen haben dabei Einfluss auf den Wirkungsgrad und die spezifischen Betriebskosten. Aufgrund der Komplexität führen weit verbreitete konventionelle Regelansätze oft zu suboptimalem Betriebsverhalten.
In der vorliegenden Arbeit wird mit einem Deep Reinforcement Learning Ansatz ein Verfahren der Künstlichen Intelligenz untersucht, um durch Interaktion eines intelligenten Agenten mit verschiedenen Energiesystemen eine nach multiplen Zielgrößen optimierte Betriebsstrategie zu erlernen. Dafür wird ein flexibles, kaskadiertes Optimierungskonzept erarbeitet, welches eine risikoarme Implementierung und Erprobung von datengestützt erlernten Betriebsstrategien ermöglicht. Um synthetische Daten für das Training zu generieren und das Verfahren zu evaluieren, wird eine umfangreiche Simulationsbibliothek zur Erstellung digitaler Zwillinge von Energiesystemen entwickelt und durch eine effiziente Schnittstelle an die lernenden Algorithmen angebunden.
Unter bestehenden DRL-Varianten werden wesentliche Merkmale herausgearbeitet, ein leistungsstarker Algorithmus selektiert und implementiert. Nach Parametrierung des Verfahrens kann durch Simulationsstudien die Vorteilhaftigkeit durch Reduktion von Energiekosten und Lastspitzen gezeigt werden. Zeitgleich werden die Grenzen des Ansatzes aufgezeigt, Schwachstellen kritisch diskutiert und weiterer Forschungsbedarf identifiziert.