• Keine Ergebnisse gefunden

Reinforcement Learning zur Verbesserung von Optiken in der Lasertechnik

N/A
N/A
Protected

Academic year: 2022

Aktie "Reinforcement Learning zur Verbesserung von Optiken in der Lasertechnik"

Copied!
1
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Lehrstuhl für Technologie Optischer Systeme TOS Prof. Dr. rer. nat. Carlo Holly Steinbachstraße 15

52074 Aachen

Telefon +49 241 8906 142

Bachelorarbeit / Masterarbeit / Seminararbeit Maschinenbau / CES / Physik

Reinforcement Learning zur Verbesserung von Optiken in der Lasertechnik

Motivation/Hintergrund

Für die verschiedenen Anwendungsbereiche in der Lasertechnik werden individuelle Optiken benötigt, welche derzeit von erfahrenen Optikdesignern ausgelegt und aufgebaut werden. Doch in letzter Zeit boomt die künstliche Intelligenz und versucht auch hier in der Optik-Community die erfahrenen Optikdesigner zu ersetzen. Bevor sie jedoch die Optik-Weltherschafft übernehmen können, braucht es noch viele kluge Köpfe, die ihnen eine nahrhafte Umgebung zum Wachsen implementieren können.

Ziel dieser Arbeit

Ziel deiner Bachelor-, Seminar-, oder Masterarbeit ist es, ein Reinforcement Learning Netz für das Optikdesign zu implementieren. Dabei soll das Netz in der Lage sein, ein vorhandenes Startsystem so zu verbessern, dass es die gewünschten Anforderungen der Nutzer erfüllt. Dafür wird ein Agent eingesetzt, welcher verschiedene Aktionen ausführen kann und durch ein Belohnungsschema richtige Aktionen zur Verbesserung auswählt. Verschiedene Verbesserungsaktionen, welche das RL Netz verwenden soll, sind bereits in der Literatur erforscht worden.

Eine mögliche Aktion könnte beispielsweise das Optimieren von bestimmten ausgewählten Linsenparametern sein, was das Implementieren und Testen von verschiedenen Optimierern erfordert. Weitere Aktionsmöglichkeiten wären Hinzufügen oder Entfernen von Linsen, sowie die Wahl von bestimmten Linsenmaterialen.

Je nach dem, um was für eine Art Abschlussarbeit es sich handelt könnten die Aufgabenbereiche angepasst werden.

Voraussetzungen

Du interessierst dich für Reinforcement Learning und hast auch schon Erfahrung in Programmierung gesammelt. Erste Kenntnisse mit Machine Learning besitzt du bereits oder möchtest sie dir demnächst aneignen. Praktisch wäre es auch, wenn du schonmal etwas über Optimierung gehört hast.

Du arbeitest eigenständig, gewissenhaft und dokumentierst auch deine Arbeit. Denn am besten soll dein Nachfolger deine Arbeit auch nachvollziehen können.

Unser Profil

Der Lehrstuhl für Technologie Opti- scher Systeme (TOS) arbeitet eng mit dem Fraunhofer Institut für Lasertechnik (ILT) zusammen, um neue Möglichkeiten und Techniken zur Realisierung von optischen Systemen zu erforschen. Unsere Gruppe befasst sich beispielsweise mit der Entwicklung von Software für die automatisierte Optik- auslegung applikationsangepasster Systeme.

Bei Interesse melde dich:

Cailing Fu, M.Sc

Telefon +49 241 8906 8368 cailing.fu@tos.rwth-aachen.de

Referenzen

ÄHNLICHE DOKUMENTE

• Eine diskrete Aktion wird gewählt und erhält zusätzliche Informationen durch die kontinuierliche Aktion... Hybride

We show how existing verification techniques can be adapted to efficiently verify desirable properties of extracted decision tree policies: (i) we learn a decision tree policy

First, we view our learning task as optimization in policy space, modulo the constraint that the desired policy has a programmatic representation, and solve this optimization

Reinforcement learning is a class of machine learning algorithms whose underlying mechanism is inspired by behaviourist psychology, where the learner and decision maker — called agent

Reinforcement Learning(RL) ist der ¨ Uberbegriff f¨ ur eine Reihe von Methoden des Maschinellen Lernens. Der große Vorteil dieser Verfahren ist die F¨ ahigkeit ” k¨ unstlich“

Dass die Agenten noch weiterhin neue Zustände lernen und die Gewinnrate nie genau 100% erreicht, liegt an der gewählten Explorationsrate von  = 0,001, die dazu führt, dass der Agent

TPC-H Workloads - Single Table-Workload Pair, or Set of Table- Workload Pairs: In order to give an optimal partitioning for the tables in the TPC-H workload at SF10 cases

For terminal states found during training or by applying the trained network we perform a further Monte Carlo analysis in the space of order one coefficients a ij , b ij (which