• Keine Ergebnisse gefunden

Parametrierung eines Double-Q-Reinforcement-Learning Modells für die Ableitung von Handelsstrategien in Smart Markets Bachelorarbeit

N/A
N/A
Protected

Academic year: 2022

Aktie "Parametrierung eines Double-Q-Reinforcement-Learning Modells für die Ableitung von Handelsstrategien in Smart Markets Bachelorarbeit"

Copied!
1
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Bachelorarbeit

Ansprechpartner:

Jacob Tran, M.Sc.

+49 241 997857-249 jacob.tran@fgh-ma.de

Forschungsgemeinschaft für Elektrische Anlagen und Stromwirtschaft e.V. (FGH e.V.) Roermonder Straße 199

52072 Aachen http://www.fgh-ma.de

Parametrierung eines Double-Q-Reinforcement-Learning Modells für die Ableitung von Handelsstrategien in Smart Markets

Der Zubau dezentraler Erzeugungsanlagen hat in den letzten Jahren zu einem massiven Bedarf nach Flexibilität im Engpassmanagement geführt. Die ambitionierten Ausbauziele der Erneuerbaren und regulatorische Entwicklungen wie die Spitzenkappung und die Novellierung des Energiewirtschaftsgesetzes machen ein effizientes Engpassmanagement in Zukunft zwingend notwendig. Zur Deckung des Flexibilitätsbedarf stehen Konzepte wie der lokale Flexibilitätsmarkt zunehmend im Fokus. Eine daraus resultierende Herausforderung ist das strategische Bietverhalten der Flexibilitäten. So können diese durch eine geschickte Vermarktung am Spotmarkt ihre Erlöse am Flexibilitätsmarkt maximieren. Um die verschiedenen Handelsstrategien ableiten zu können, wurde ein selbstlernendes Multi-Agenten- System implementiert, das mit einem Reinforcement Learning-Ansatz trainiert wurde.

Aufgrund der erheblichen Rechenzeit des Modells sind Vorüberlegungen bezüglich der

Parametrierung und der

Eingangsdatenverarbeitung notwendig, um auch mehrdimensionale Systeme untersuchen zu können.

Das Ziel deiner Bachelorarbeit ist daher eine tiefergehende Analyse der Methoden zur Ableitung der Parametrierung des Reinforcement Learning Modells. Des Weiteren soll mit Hilfe eines Neuronal Netzes Transfererkenntnisse im Lernprozess erkannt und genutzt werden, um die Rechenzeit des Lernprozesses zu reduzieren.

Dein Profil:

• Du bist interessiert an aktuellen Forschungsthemen rund um die Energieversorgung der Zukunft

• Du willst dich mit eigenen Ideen aktiv in laufende Forschungsprojekte einbringen

• Du interessierst dich für Machine Learning und Methoden der Datenverarbeitung

• Du hast optional bereits erste

Programmierkenntnisse in Python oder C++ gesammelt

Wir bieten:

• Eine intensive und zuverlässige Betreuung

• Einen eigenen klimatisierten Arbeitsplatz mit flexibler Arbeitszeiteinteilung

• Kostenfreie Teilnahme an Sportangeboten (Volleyball, Tennis, Fußball und vieles mehr)

• Eine tolle Atmosphäre mit vielen gemeinsamen Aktionen von Studenten und Assistenten

• Bei sehr guter Leistung die Möglichkeit der anschließenden Promotion

• Bei sehr guter Leistung die Vermittlung von Industriekontakten aus einem Netzwerk von knapp 70 Unternehmen

Agent Market

Grid

Referenzen

ÄHNLICHE DOKUMENTE

• Eine diskrete Aktion wird gewählt und erhält zusätzliche Informationen durch die kontinuierliche Aktion... Hybride

Similarly to the autonomous driving simulation we use two setups: (1) we train the methods with the expert’s feature expecta- tions for each context, and (2) instead of using

First, we view our learning task as optimization in policy space, modulo the constraint that the desired policy has a programmatic representation, and solve this optimization

Beispielsweise können alle Arbeitsschritte, die mit dem Pflug durchgeführt wurden, gefiltert und die Kennzahlen zu Flächenleistung oder Arbeitsbreite abgegli- chen werden..

The suitability of the simulation model for determining suboperation times and other key values was shown in the results chapter for process steps with single machines.. In

Reinforcement learning is a class of machine learning algorithms whose underlying mechanism is inspired by behaviourist psychology, where the learner and decision maker — called agent

TPC-H Workloads - Single Table-Workload Pair, or Set of Table- Workload Pairs: In order to give an optimal partitioning for the tables in the TPC-H workload at SF10 cases

However, when applying DRL to specific cases, such as data management applications (DRLDM), the impact of design choices (concerning problem framing, model charac- teristics,