• Keine Ergebnisse gefunden

Deep-Reinforcement-Learning zur automatisierten Bestimmung von engpassverschärfenden Gamingstrategien in Smart Markets Masterarbeit

N/A
N/A
Protected

Academic year: 2022

Aktie "Deep-Reinforcement-Learning zur automatisierten Bestimmung von engpassverschärfenden Gamingstrategien in Smart Markets Masterarbeit"

Copied!
1
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Masterarbeit

Ansprechpartner:

Jacob Tran, M.Sc.

Pascal Pfeifer, M. Sc.

+49 241 997857-249 jacob.tran@fgh-ma.de

Forschungsgemeinschaft für Elektrische Anlagen und Stromwirtschaft e.V. (FGH e.V.) Roermonder Straße 199

52072 Aachen http://www.fgh-ma.de

Deep-Reinforcement-Learning zur automatisierten Bestimmung von engpassverschärfenden Gamingstrategien in Smart Markets

Der Zubau dezentraler Erzeugungsanlagen hat in den letzten Jahren zu einem massiven Bedarf nach Flexibilität im Engpassmanagement geführt. Die ambitionierten Ausbauziele der Erneuerbaren und regulatorische Entwicklungen wie die Spitzenkappung und die Novellierung des Energiewirtschaftsgesetzes machen ein effizientes Engpassmanagement in Zukunft zwingend notwendig. Zur Deckung des Flexibilitätsbedarf stehen Konzepte wie der lokale Flexibilitätsmarkt zunehmend im Fokus. Eine daraus resultierende Herausforderung ist das strategische Bietverhalten der Flexibilitäten. So können diese durch eine geschickte Vermarktung am Spotmarkt ihre Erlöse am Flexibilitätsmarkt maximieren. Dieses sogenannte Gaming kann zu Ineffizienzen im System in Form von verzerrten Preissignalen, Verschärfung von Engpässen und insgesamt höheren Systemkosten führen.

Das Ziel deiner Arbeit ist daher die Entwicklung eines Verfahrens zur Simulation des strategischen Bietverhaltens in lokalen Flexibilitätsmärkten.

Hierfür soll ein Multi-Agentensystem aufgebaut werden, dessen Agenten mittels eines Ansatzes aus dem Deep Reinforcement Learning in der Lage sind individuelle Entscheidungs- und

Handlungsmöglichkeiten zu erlernen. Zudem soll ausgewertet werden, inwiefern spezifische lokale Netzstrukturen Gamingstrategien begünstigen können.

Dein Profil:

• Du bist interessiert an aktuellen Forschungsthemen rund um die Energieversorgung der Zukunft

• Du willst dich mit eigenen Ideen aktiv in laufende Forschungsprojekte einbringen

• Du interessierst dich für Machine Learning und Methoden der Datenverarbeitung

• Du hast bereits Programmierkenntnisse in Python oder C++ gesammelt

Wir bieten:

• Eine intensive und zuverlässige Betreuung

• Einen eigenen klimatisierten Arbeitsplatz mit flexibler Arbeitszeiteinteilung

• Kostenfreie Teilnahme an Sportangeboten (Volleyball, Tennis, Fußball und vieles mehr)

• Bei sehr guter Leistung die Möglichkeit der anschließenden Promotion

• Bei sehr guter Leistung die Vermittlung von Industriekontakten aus einem Netzwerk von knapp 70 Unternehmen

Strategisches Bietverhalten einer verbrauchsseitigen Flexibilität zur Verschärfung eines antizipierten Engpasses1

0 P

t

TEngpass 0

P

t TEngpass

Regenerationsphase Netzdienlicher Flex.-Einsatz Flexibilitätspotential

P

0 TEngpass t

P

0 TEngpass t

Verhalten ohne Gaming

Verhalten mit Gaming

Referenzen

ÄHNLICHE DOKUMENTE

The robot can explore its simulated environment (Figure 2) by taking physical action and observing the results of its actions in terms of change in the environment and a sparse

Development of a simulation environment for tunnel boring machines to train reinforcement learning agents.

Ziel deiner Bachelor-, Seminar-, oder Masterarbeit ist es, ein Reinforcement Learning Netz für das Optikdesign zu implementieren.. Dabei soll das Netz in der Lage

Das Ziel deiner Bachelorarbeit ist daher eine tiefergehende Analyse der Methoden zur Ableitung der Parametrierung des Reinforcement Learning Modells. Des Weiteren soll

TPC-H Workloads - Single Table-Workload Pair, or Set of Table- Workload Pairs: In order to give an optimal partitioning for the tables in the TPC-H workload at SF10 cases

However, when applying DRL to specific cases, such as data management applications (DRLDM), the impact of design choices (concerning problem framing, model charac- teristics,

First, we view our learning task as optimization in policy space, modulo the constraint that the desired policy has a programmatic representation, and solve this optimization

Figure  7a–c show the success rate for different policy archi- tecture searched for the DQN agent trained using curriculum learning on No Obstacles, Static  Obstacles, and