• Keine Ergebnisse gefunden

Ziel dieser Arbeit ist, verschiedene Netzwerkmodelle und –architekturen zur Analyse und Klassifikation hochdimensionaler, multisensorischer Datensätze zu untersuchen. Eine Aufgabenstellung besteht darin, Abnormitäten im hochdimensionalen Raum der multisensorischen nichtlinearen Zeitreihen zu detektieren und ggf. eine Klassifizierung zu ermöglichen. Die Datenanalyse muss aufgrund partiell fehlenden Vorwissens sowohl überwacht als auch mit unüberwachten Methoden durchgeführt werden. Um den „Fluch der Dimensionalität“ zu vermeiden, sowie systeminhärente Information zu detektieren, wird der hochdimensionale Datenraum reduziert bzw. signifikante Kennzahlen extrahiert, um anschließend eine einfache Klassifikation dieser Daten zu ermöglichen.

Ein weiteres Ziel der Arbeit besteht in der Analyse und Klassifizierung hochdimensionaler Datenräume ohne Dimensionsreduzierung. Konkret besteht die Aufgabe darin, mehrdimensionale Vektoren von Messergebnissen aufgrund eines Klassen-Labels zu gruppieren und neue Testdatensätze zu klassifizieren. Diese Klassifikationsergebnisse können für diagnostische Zwecke bei der Ursachenfindung von multivariaten Fehlerbildern verwendet und so ein KI-System aufgebaut werden, das unmittelbar nach der Detektierung nicht nur die Abnormität erkennt, sondern sogar die Ursache prognostizieren soll.

Das verwendete Datenmaterial stammt aus der Si-Halbleiterfertigung. Im Speziellen wurden Daten eines Logik-Bausteins verwendet, der bei Mobilfunk-Telefonen eingesetzt wird. Es handelt sich hierbei um eine Schaltung in Hybrid-Technologie, d.h. es sind sowohl digitale, als auch analoge Elemente in der Schaltung vorhanden. Je nach Produkt und Technologie werden einige hundert bis zu tausend Chips auf einem einzigen Wafer gefertigt (beim untersuchten Produkt ca. 500). Der Wafer ist eine monokristalline Silizium-Scheibe, auf der im Lauf der Fertigung, in einem Raster von ca. 1 cm Kantenlänge, die Chips prozessiert werden. Die Produktion ist sehr kosten- und zeitintensiv, so müssen die Wafer bis zu einigen hundert Prozessierungsschritte bis zum fertigen Produkt durchlaufen. Die Durchlaufzeit einer Scheibe von der Einschleusung bis zur Funktionsmessung beträgt, je nach Komplexität des Bauteils, mehrere Wochen. Die Waferausbeute liegt derzeit zwischen 43 und 93 Prozent und liefert damit noch ausreichend Verbesserungspotential.

Eine typische Abfolge von Prozessierungsschritten in der Halbleiterproduktion ist:

Aufwachsen einer neuen halbleitenden Schicht, Strukturierung mittels Fototechnik, selektives Abtragen durch Nass- bzw. Trockenätzverfahren und die Dotierung des Materials durch Implantation. Nach der Fertigprozessierung der Wafer werden eigens aufgebrachte

Standardstrukturen, einfache Transistoren, Schichtwiderstände etc., gemessen und anschließend ein Funktionstest der einzelnen Bauteile durchgeführt. In dieser Arbeit werden sowohl die in situ aufgezeichneten Prozessdaten von Trockenätzanlagen, wie zeitlicher Temperaturverlauf, Signalintensitäten etc., als auch die nach der Fertigprozessierung erfassten Messwerte, untersucht. Ziel der Datenanalyse der einzelnen Prozessierungsschritte ist, Abhängigkeiten von einzelnen Observablen mit Ausbeute und Performance des Endproduktes zu erkennen, um so eine Fehlererkennung, Klassifikation und Fehlerdiagnose unmittelbar nach der Prozessierung einer einzelnen Scheibe zu ermöglichen.

Die statistische Prozesskontrolle der Halbleiterproduktion überwacht üblicherweise Messwerte, wie Schichtdicken oder Linienbreiten, die nach dem eigentlichen Einzelprozess stichprobenhaft gemessen werden. Der ursächliche Zusammenhang zwischen Prozessparametern und Prozessziel ist derzeit bei vielen Prozessen nicht ausreichend bekannt und verstanden. In der Realität kommt es deshalb oft vor, dass fehlprozessierte Scheiben erst bei der Funktionsmessung auffallen, was eine hohe Vergeudung von Fertigungskapazität bedeutet. Aus der Fehlererkennung und Diagnose der Prozessparameter erhofft man deshalb eine hohe Produktivitätssteigerung, sowie aufgrund der damit möglichen besseren Prozesskontrolle eine massive Qualitätsverbesserung.

Abbildung 1.1: Grobe Skizze des Prozessierungsablaufes eines Loses in der Halbleiter-fertigung. Ein Los, bestehend aus 50 Wafer, durchläuft bis zu 400 Einzelprozesse. Während der Einzelprozesse werden einige physikalische Parameter als Funktion der Zeit aufgezeichnet. Am fertigen Wafer werden zunächst die PCM-Strukturen vermessen, anschließend wird der Funktionstest auf Bauteilebene durchgeführt.

Im zweiten Teil der Arbeit werden keine Zeitreihen von Prozessanlagen, sondern skalare Mess-Parameter untersucht. Diese im sogenannten Ritz-Rahmen aufgebrachten

PCM(Elektrische Parameter) Lose aus

50 Wafer

Litho Etch Implant

TAS (Funktions-test)

Standardstrukturen wie Transistoren und Schichtwiderstände ermöglichen eine Beurteilung der Fertigung unabhängig vom eigentlichen Produkt und werden PCM-Parameter (process control monitoring) genannt. Da die PCM-Strukturen die gleichen Einzelprozesse wie die eigentlichen funktionalen Strukturen auf dem Wafer durchlaufen, sollten die Eigenschaften beider Strukturen korrelieren. Das heißt, falls die PCM-Strukturen eine gewisse Spezifikation erfüllen, sollte auch der Wafer eine entsprechende Ausbeute an funktionierenden Chips aufweisen.

Abbildung 1.2: Schematisches Bild eines fertig prozessierten Wafers mit den aufgebrachten PCM-Strukturen. An den markierten Stellen werden die PCM-Parameter gemessen.

Da die eigentlichen Funktionsmessungen der Bauteile (ca. 1000 verschiedene Funktionstests) sehr aufwendig und teuer sind, werden an jedem Wafer an fünf Stellen (oben, unten, rechts, links, mitte) ca. 65 PCM-Strukturen gemessen. Es werden also pro Wafer zunächst 65 x 5 ≈ 3x102 statt 500 x 1000=5x105 Messungen vorgenommen. Liegen die PCM-Werte innerhalb der Spezifikationsgrenzen, werden die Funktionsmessungen durchgeführt.

Diese Arbeit ist folgendermaßen aufgebaut: Nach der theoretischen Behandlung der Grundlagen neuronaler Netze und der verwendeten statistischen Verfahren in Kapitel 2 werden im dritten Kapitel die Analysen und Simulationsergebnisse dargestellt. Da im Zuge der Prozessierung die Zuordnung der Zeitreihen zu den Funktionsmessergebnissen verloren geht, wird in Kapitel 3.1 mit unüberwachten Methoden der Datenanalyse gearbeitet. Für ein bestimmtes Problem war die Information über Signalverlauf und zugehöriges Resultat bekannt. In Kapitel 3.2 werden diese Daten mit überwachten Analysemethoden untersucht und Informationen über die Zeitreihen mit dem jeweiligen Prozessziel erarbeitet. Kapitel 3.3 unterscheidet sich hinsichtlich des Datenmaterials von den vorherigen Kapiteln. Hier werden nicht multisensorische Zeitreihen, sondern hochdimensionale Testdaten mit a-priori-Information zur Mustererkennung und Klassifikation untersucht. Im letzten Kapitel werden die Ergebnisse kurz zusammengefasst.

PCM-Strukturen Chips