• Keine Ergebnisse gefunden

Interaktive Bildanalyse mittels Volumen-Rendering-Verfahren

7 SEGMENTIERUNGSVERFAHREN FÜR MEDIZINISCHE BILDDATEN

7.1 Segmentierungsverfahren ohne Modellwissen

7.1.2 Interaktive Bildanalyse mittels Volumen-Rendering-Verfahren

Mit zunehmender Entwicklung der medizinischen Gerätetechnik, stetig steigender Bildauflö-sung und zunehmender Anzahl der Schichtbilder ist der Weg der rein manuellen Markierung von Objekten bei 3D-Datensätzen aus Zeitgründen häufig nicht mehr akzeptabel. Um eine In-terpretation der Daten zu ermöglichen, kann eine Visualisierung der interessierenden Details Abhilfe schaffen. Da eine 3D-Visualisierung immer auch mit einer Informationsreduktion einhergeht, müssen hier solche Visualisierungsmethoden verwendet werden, die bei der Pro-jektion der Daten in eine 2D-Darstellung ein Bild erzeugen, das mit den Alltagserfahrungen bei der visuellen Wahrnehmung richtig interpretiert werden kann. Außerdem müssen zur be-nutzergesteuerten Datenanalyse noch Interaktionsmethoden zur Verfügung gestellt werden, die eine zielorientierte Steuerung des Analyseprozesses unterstützen. Auf diese beiden Punkte soll im Folgenden näher eingegangen werden.

7.1.2.1 Darstellung der Daten mittels Volume-Rendering

Im Gegensatz zu oberflächenbasierten Verfahren bieten Volume Rendering Verfahren gute Möglichkeiten für eine 3D-Bildanalyse von Voxeldatensätzen. Als Methoden können hierbei das Emissions/Absorptions Volume Rendering Verfahren oder das Reflexions/Transmissions Volume Rendering Verfahren eingesetzt werden. Mit letzterem ist es möglich, entweder die Oberflächen einer Struktur darzustellen oder aber, diese transparent sichtbar zu machen, wo-durch der Blick auf tiefer gelegene Strukturen freigegeben wird. Zur Projektion der 3D-Daten auf den 2D-Bildschirm lassen sich drei unterschiedliche Ansätze verfolgen:

- Back-to-Front-Projektion, - Front-to-Back-Projektion und - Ray-Tracing-Verfahren.

Beim Back-to-Front-Algorithmus muss zuerst der von der virtuellen Bildebene entfernteste Voxel ermittelt werden. Ausgehend von diesem Voxel werden dann nacheinander die am

nächsten liegenden Voxel der Reihenfolge nach durchlaufen und unter dem eingestellten Be-trachtungswinkel auf die Bildebene projiziert. Fallen mehrere Voxel auf einen Bildpunkt, so wird durch diese Durchlaufstrategie garantiert, dass der Voxel, der der Bildebene am nächsten liegt, in der 2D-Darstellung als Oberflächenpunkt angezeigt wird (Abb. 7.2 ).

Beim Front-to-Back-Ansatz wird das Bild zur Darstellung genau in umgekehrter Reihen-folge durchlaufen. Um ein Überschreiben der sichtbaren Oberflächenvoxel zu vermeiden, wird ein zusätzlicher z-Buffer genutzt. In diesem Zusatzspeicher wird der Abstand des jeweils aktuell auf den entsprechenden Bildpunkt projizierten Voxels zur Bildebene abgelegt. Bei ei-ner erneuten Projektion eines Voxels auf einen Punkt wird sein Abstand mit dem Wert im z-Buffer verglichen, und der Punkt mit dem kleinsten Abstand wird dargestellt. Anschließend wird der z-Buffer, falls notwendig, aktualisiert.

Abb. 7.3: Vorgehensweise beim Ray-Tracing-Verfahren

Im Gegensatz zu den beiden bisher betrachteten Verfahren wird beim Ray-Tracing nicht von dem Volumen ausgegangen, sondern es werden jeweils Strahlen von den einzelnen Bild-punkten der Bildebene in der Betrachtungsrichtung verfolgt (Abb. 7.3 ). Die auftretende Re-flexion und Transmission wird jeweils erfasst. Die Stärke der ReRe-flexion der Strahlen an den einzelnen Voxeln hängt davon ab, wie stark seine Oberflächenwahrscheinlichkeit ist. Diese lässt sich anhand des Grau- bzw. Gradientenwerts abschätzen. Der nicht reflektierte Anteil ei-nes Strahls dringt anschließend solange weiter in das Volumen ein, bis alle Anteile reflektiert wurden und somit keine Transmission mehr stattfinden kann. Auf eine Weiterverfolgung der reflektierten Sekundärstrahlen wird in der medizinischen Visualisierung zumeist aus Auf-wandsgründen verzichtet. Diese besondere Art des Ray-Tracings wird auch als Ray-Casting bezeichnet. Obwohl das letzte Verfahren im Gegensatz zu den beiden vorher betrachteten An-sätzen einen höheren Rechenaufwand besitzt, wird es häufiger verwendet, da es eine relativ einfache Erzeugung perspektivischer 3D-Ansichten ermöglicht und außerdem transparente Abb. 7.2: Vorgehensweise bei der Vo-lumenvisualisierung mit dem Back-to-Front-Algorithmus. Der am weitesten entfernte Voxel wird zuerst auf die Bildebene projiziert.

3D-Darstellungen erlaubt. Die Vorgehensweise beim Einsatz von Transparenz soll im folgen-den Abschnitt genauer betrachtet werfolgen-den. Eine ausführliche Beschreibung der drei beschrie-benen Rendering Methoden ist in [Udup00] und [Watt02] zu finden.

7.1.2.2 Veränderung der Darstellung durch Variation der Transferfunktion Durch die Festlegung einer entsprechenden Abbildungsfunktion der Grauwerte auf die Para-meter Farbe und Durchsichtigkeit lassen sich Teilstrukturen im Datensatz auswählen, die dann in der 2D-Ansicht dargestellt werden. Die verwendeten Transferfunktionen dienen der Materialklassifizierung der einzelnen Voxel. Sie können ganz unterschiedliche Formen besit-zen, wobei der minimale Farb- bzw. Opazitätswert 0.0 und der maximale Wert 1.0 ist. In Abb.

7.4 sind einige Beispiele für mögliche Transferfunktionen gezeigt.

Abb. 7.4: Beispiele für die Gestalt von Transferfunktionen

Im Anschluss an die Klassifikation der Voxel wird die Projektion in die Blickrichtung durchgeführt. Dabei wird durch Summieren von Pixeln entlang eines Strahls der Farbwert an der Bildposition bestimmt. Die Berechnung erfolgt dabei beginnend mit dem am weitesten von der Bildebene entfernt liegenden Voxel. Die einem Voxel entstammende akkumulierte Farbe Faus(x,y,z) berechnet sich dabei nach der folgenden rekursiv angewandten Formel [Watt02]:

) , , ( ) , , ( ] , , ( 1 [ ) , , ( )

, ,

(x y z F x y z x y z F x y z x y z

Faus = ein ⋅ −α + ⋅α , (7.3)

wobei Fein(x,y,z) die in dieses Voxel akkumulierte Farbe ist, α(x,y,z) die Opazität des aktuel-len Voxels und F(x,y,z) die Farbe des aktuelaktuel-len Voxels.

Eine Verbesserung der Darstellung lässt sich noch durch die Integration einer Schattierung in die Berechnung erreichen. Dabei wird von der Annahme ausgegangen, dass ein Voxel ein Teil einer Oberfläche sein kann. Die Orientierung der Oberfläche lässt sich aus der normierten Oberflächennormale ermitteln, die aus dem Gradienten berechnet wird. Mit Hilfe dieser Nor-malen lässt sich unter Verwendung eines Beleuchtungsmodells, z. B. des Phong-Beleuchtungsmodells, eine Schattierungskomponente bestimmen, die den Wert von F(x,y,z) in der Summierungsoperation ersetzen oder modifizieren kann. Bei letzterem kann anhand der Stärke des Gradienten entschieden werden, welchen Beitrag die Schattierungskomponente zu dem Farbwert leistet, indem dadurch das Verhältnis zwischen Transmission und Reflexion für einen Voxel gesteuert wird. Ist der Gradient gering, wird ein großer Anteil des einfallenden Lichts transmittiert und nur ein geringer Anteil reflektiert. Im umgekehrten Fall wird bei einer hohen Oberflächenwahrscheinlichkeit ein großer Anteil des Lichts reflektiert und nur wenig Licht transmittiert. Auch in diesem Fall sind zur zusätzlichen Beeinflussung der Darstellung wiederum Transferfunktionen einsetzbar. Die einzelnen Transferfunktionen lassen sich dabei auch zu multidimensionalen Transferfunktionen kombinieren. Ausführlich ist diese Vorge-hensweise in [Levo88] beschrieben.

Untersuchungen auf dem Gebiet der Spezifikation von Transferfunktionen haben gezeigt, dass durch die intuitive Steuerung der einzelnen Darstellungsparameter eine Exploration der Daten möglich ist. In Abb. 7.5 sind drei Beispiele für eine unterschiedliche Visualisierung ei-nes CT-Datensatzes zu sehen, bei deren Erzeugung die genutzte Transferfunktion variiert wurde. Die Auswahl einer geeigneten Transferfunktion ist jedoch ein teilweise langwieriger Prozess. Deshalb wurden verschiedene Ansätze zur automatischen Generierung von Transfer-funktionen entwickelt. Diese können z.B. eine statistische Auswertung der Grauwert- und Gradientenverteilung beinhalten ([Fang97], [Kind98]) oder eine nachbarschaftsbasierte Grauwertanalyse umfassen [Hinz00]. Weiterhin gibt es Ansätze zur Ableitung von Transfer-funktionen mit Hilfe eines bildbasierten Entwurfs durch Nutzung von Informationen über den Kontext des Bildes [Cast98] und durch eine Adaption des Histogramms des aktuellen Bildes an ein Histogramm eines Bildes für das bereits eine gute Transferfunktion existiert. Die Transformationsparameter des Histogramms können dann zur Transformation der bereits be-stehenden Transferfunktion genutzt werden [Rezk00]. Schließlich wurde auch die Möglich-keit einer stochastischen Generierung vieler verschiedener Transferfunktionen getestet, aus denen der Benutzer anhand von Bildergalerien in einem mehrstufigen Prozess am bestem ge-eignet aussuchen kann [He96].

Wenn es mit Hilfe einer geeigneten Transferfunktion möglich ist, die gesuchte Struktur durch Volume Rendering bildlich darzustellen, kann im nächsten Schritt die interaktive Ex-traktion der interessierenden Bereiche durch den Einsatz von Interaktionswerkzeugen erfol-gen.

Abb. 7.5: Darstellung eines CT-Datensatzes unter Verwendung von drei unterschiedlichen Transfer-funktionen, aus [Hinz00]

7.1.2.3 Interaktionsmöglichkeiten zur Unterstützung der Bildanalyse

Um aus den dargestellten Bilddaten die interessierenden Strukturen extrahieren zu können, sind Interaktionsschritte erforderlich. Als erster Schritt kann hier z. B. eine grobe Detektion der interessierenden Bereiche stattfinden. Diese kann sowohl in 2D auf einer Schicht ausge-führt werden als auch in 3D durch direkte Integration und Manipulation eines Quaders (Abb.

7.6), einer Kugel oder einzelner Schnittebenen. Die Realisierung eines Kugelausschnitts ist z.

B. dadurch möglich, dass der Benutzer in der Schnittbilddarstellung des Volumendatensatzes eine Schicht auswählt, welche die gesuchte Struktur enthält. Darin wird durch Angabe eines Kreises mit der Größe des gewünschten Kugeldurchmessers die interessierende Region defi-niert. Die Beschreibung der Kugelregion ist dabei durch die Angabe des einem Mittelpunktes und einem Punkt auf der Kugeloberfläche durch zwei einfache Mausklicks möglich.

Ein weiterer einfacher Weg zur Extraktion beliebiger Regionen ist der Einsatz eines Radie-rers. Diese Vorgehensweise hat jedoch den Nachteil, dass die Interaktion oft schwer handhab-bar und wenig präzise ist. Ein Beispiel für das Ergebnis einer derartigen Operation ist in Abb.

7.7 zu finden.

Abb. 7.7: links: Darstellung der 3D-Visualisierung des Abdomenbereichs bei Fokussierung auf die Leberregion. Die Erzeugung des Bildes erfolgte mit dem SurgeryPlanner von MEVIS. rechts: Ergeb-nis der Visualisierung nach dem Einsatz des Radiergummis, aus [Prei03]

Schließlich werden auch Schnittebenen mit verformbaren Gittern zur Detektion von Unter-volumen genutzt. Diese lassen sich relativ einfach vom Benutzer bedienen. Somit ist ein schnelleres, gezielteres und genaueres Extrahieren von komplizierteren 3D-Strukturen als mit den vorgenannten Manipulatoren möglich.

Zur direkten Integration von halbautomatischen Segmentierungsverfahren, wie sie in den folgenden Abschnitten genauer beschrieben werden, werden noch weitere Interaktionswerk-zeuge benötigt. Hierzu zählen u.a. Picking-WerkInteraktionswerk-zeuge, die das Selektieren einzelner Punkte direkt anhand der Volumendarstellung ermöglichen oder auch Bereichsselektierer, die ein fes-tes, vom Benutzer einzugebendes Volumen besitzen und durch den Datensatz bewegt werden können, wobei nur die jeweils überdeckte Region als gerendertes Bild angezeigt wird. Ein Beispiel für den Einsatz der Picking-Funktion zur Exploration von 4D-SPECT-Daten ist in [Hinz03] zu finden.

Abb. 7.6: Extraktion eines Untervolumens mit Hilfe von Boxclipping und Visualisierung des ausgewählten Bereichs mit einer separaten Trans-ferfunktion, (© P. Hastreiter, Uni Erlangen)

7.1.2.4 Zusammenfassung

Die Entwicklung von Verfahren zur interaktiven Bildanalyse auf Grundlage einer Volumenvi-sualisierung befindet sich derzeit noch ziemlich am Anfang. Probleme für ein interaktives Ar-beiten existieren vor allem in bezug auf die benötigten Rechenzeiten, da die Berechnung der Volumenvisualisierung nach jeder Manipulation der Daten und jeder Veränderung einer Transferfunktion erneut durchgeführt werden muss.

Weil das gesamte, zur Segmentierung von Strukturen benötigte Wissen durch den Benutzer in den Segmentierungsvorgang eingebracht wird, ist diese Methode vor allem zur Detektion kompakter Strukturen sehr flexibel einsetzbar. Nachteilig ist jedoch die Subjektivität der Er-gebnisse und deren schlechte Reproduzierbarkeit. Verbesserungen sind durch die Entwick-lung neuer Manipulatoren, durch die Integration weiterer Feedback-Methoden und durch die gezielte Nutzung der Erfahrungen aus dem Bereich der computergestützten Chirurgie in der Zukunft möglich.