• Keine Ergebnisse gefunden

Untersuchungen zur Verbesserung der Myonenspur-Rekonstruktion in IceCube

N/A
N/A
Protected

Academic year: 2022

Aktie "Untersuchungen zur Verbesserung der Myonenspur-Rekonstruktion in IceCube"

Copied!
112
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Untersuchungen zur Verbesserung der Myonenspur-Rekonstruktion

in IceCube

von

Michael Soiron

Diplomarbeit in Physik vorgelegt der

Mathematisch-Naturwissenschaftlichen Fakult¨ at

der Rheinisch-Westf¨ alischen Technischen Hochschule Aachen

im

Oktober 2012

angefertigt im

III. Physikalischen Institut, Lehrstuhl B

Prof. Dr. Ch. Wiebusch

(2)
(3)

Inhaltsverzeichnis

1 Einleitung 1

2 Das IceCube Neutrino Observatorium 3

2.1 Funktionsweise von Cherenkov-Teleskopen . . . 4

2.2 Detektoraufbau . . . 5

2.3 Design der optischen Module . . . 5

2.4 Datennahme . . . 7

2.5 Teilchensignaturen . . . 8

2.5.1 Elektronen . . . 8

2.5.2 Myonen . . . 9

2.5.3 Tauonen . . . 10

2.6 Physik mit IceCube . . . 11

2.6.1 Messung des diffusen Neutrinoflusses . . . 11

2.6.2 Neutrinos aus extragalaktischen Punktquellen . . . 11

2.6.3 Neutrinos aus galaktischen Punktquellen . . . 13

2.6.4 Suche nach Dunkler Materie . . . 14

2.6.5 Suche nach exotischer Physik . . . 14

2.7 Monte-Carlo-Simulationen . . . 14

2.7.1 Generatoren . . . 14

2.7.2 Propagation . . . 15

2.7.3 Detektorsimulatiomn . . . 15

3 Rekonstruktion von durchgehenden Myonenspuren 17 3.1 Lichtpropagation in Icecube . . . 18

3.2 Trefferselektion . . . 19

3.3 Linefit als erste Spurhypothese . . . 24

3.4 Likelihood-Anpassungen . . . 24

3.4.1 Prinzip . . . 24

3.4.2 PDF-Parametrisierung durch die Pandelfunktion . . . . 27

3.4.3 Photonics-Tabellen und Photosplines . . . 28

(4)

3.4.4 Likelihood-Beschreibung . . . 31

3.4.5 Faltung von Likelihoodfunktionen . . . 32

3.4.6 Untergrund Beschreibung . . . 33

3.5 Implementierung der Likelihood-Anpassungen in Icecube . . . 34

3.5.1 Der Simplex Algorithmus . . . 37

3.5.2 Fitmodule . . . 37

4 Vergleich zwischen Photospline- und Pandel-Rekonstruktionen 39 4.1 Konfiguration der Anpassungen . . . 40

4.2 Vergleich der Pointspreadfunktion . . . 40

4.2.1 Nugen-Daten . . . 40

4.2.2 CORSIKA-Daten . . . 44

4.3 Diskussion der Likelihooddifferenz . . . 44

4.3.1 SPE1st . . . 50

4.3.2 SPEAll und SPEqAll . . . 52

4.3.3 MPE . . . 56

4.4 Vergleich der Likelihood-Landschaft . . . 60

5 Parameter Optimierung 67 5.1 Untergrund Parameter . . . 68

5.2 Minimizer . . . 68

5.3 Trefferselektion . . . 68

5.4 Schrittweite . . . 70

5.5 Anzahl der Iterationen . . . 71

6 Gaußische Faltung MPE Verteilung f¨ur Splinefits 75 6.1 Faltung der Likelihoodfunktion . . . 76

6.2 Untersuchung der Laufzeit . . . 77

6.3 Untersuchung der Aufl¨osung . . . 78

6.4 Untersuchung der Likelihooddifferenz . . . 78

7 Diskussion und Zusammenfassung 83 7.1 Zusammenfassung . . . 84

7.2 Ausblick . . . 84

A Normierung 85

Literaturverzeichnis 94

List of Figures 99

List of Tables 102

(5)

B Selbstst¨andigkeitserkl¨arung / Eidesstattliche Erkl¨arung 103

C Danksagungen 105

(6)
(7)

KAPITEL I

Einleitung

(8)

Seit Jahrtausenden besch¨aftigen sich die Menschen mit den Sternen. Dank der Arbeit vieler Wissenschaftler und Philosophen haben wir in den let- zten Jahrhunderten enorme Fortschritte bei der Beschreibung des Kosmos gemacht, aber es gibt noch viel zu entdecken. Mit der dunklen Materie und der dunklen Energie ist ein Großteil der treibenden Kr¨afte im Universum bis heute weitgehend unverstanden. Große Themen der heutigen Astrophysik sind die Quellen kosmischer Strahlung, die Beschaffenheit dunkler Materie und die Suche nach Physik jenseits des Standardmodells.

Nach dem sichtbarem Licht, das die Menschen schon seit jeher nutzen um die Sterne zu beobachten, sind heutzutage auch andere Information- squellen nutzbar. Neben anderen Bereiche des elektromagnetischen Spek- trums k¨onnen Informationen auch ¨uber die geladene kosmische Strahlung, wie Protonen, Elektronen und Positronen gewonnen werden. Ein bisher noch nicht erschlossene Informationsquelle sind Astrophysikalische Neutrinos, die kaum mit Materie wechselwirken und daher auf ihrem Weg kaum abgelenkt werden. Um diese Teilchen messen zu k¨onne werden sehr große Detektoren ben¨otigt, von denen das IceCube Neutrinoobservatorium der derzeit gr¨oßte ist. Neben dem Nachweis und der Untersuchung astrophysikalischer Neutri- nos besch¨aftigt sich IceCube auch mit Themen wie der Messung von Neu- trinooszillationen und kosmischer Strahlung sowie dem Nachweis exotischer Teilchen.

Dabei ist ein optimales Verst¨andnis des Detektors und die Weiterentwick- lung der verwendeten Werkzeuge zur Auswertung der aufgezeichneten Daten von entscheidender Bedeutung. Eines dieser Werkzeuge ist die Rekonstruk- tion von Myonenspuren. Myonen k¨onnen durch Wechselwirkung geladener kosmischer Strahlung mit der Atmosph¨are oder durch Wechselwirkung von Myonneutrinos in der Umgebung des Detektors entstehen. Atmosph¨arische Myonen und Myonneutrinos, stellen sowohl einen großen Untergrund f¨ur die Suche nach astrophysikalischen Neutrinos, als auch Signal f¨ur die Vermes- sung kosmischer Strahlung oder Neutrinooszillationen dar. Somit bilden sie die Grundlage vieler wissenschaftlicher Arbeiten.

Diese Arbeit besch¨aftigt sich mit der Weiterentwicklung der Rekonstruk- tion von Myonenspuren. Es dabei nicht nur um die Verbesserung der Genauigkeit der Rekonstruktion, sondern auch um ein tieferes Verst¨andnis von deren Funktionsweise. Dadurch soll zuk¨unftigen Entwicklern mehr M¨oglichkeiten f¨ur Verbesserungen und Benutzern Einblicke in die St¨arken und Schw¨achen der untersuchten Methoden gegeben werden.

(9)

KAPITEL II

Das IceCube Neutrino Observatorium

(10)

2.1 Funktionsweise von Cherenkov-Teleskopen

Geladene Teilchen, die sich durch ein nicht leitendes Medium bewegen, polar- isieren die sie umgebenen Atome. Bewegt sich ein geladenes Teilchen schneller als das Licht in diesem Medium, ¨uberlagern sich die durch die Polarisation entstehenden Punktwellen konstruktiv. Es kommt zu einer Lichtemission, die sich kegelf¨ormig um die Bahn des Teilchens ausdehnt. Diese Emissionen wer- den als “Cherenkov-Licht” bezeichnet. Abbildung 2.1 zeigt die geometrischen Eigenschaften dieses Effekts. Das Teilchen legt w¨ahrend eines Zeitintervalls

Abbildung 2.1:Skizze des Cherenkov Effekts. Ein geladenes Teilchen bewegt sich mit der Geschwindigkeitv =βcdurch ein Medium mit dem Brechungsin- dexn. Es polarisiert dabei die umliegenden Atome und erzeugt dadurch auf seinem Weg Punktwellen, die sich nach dem Huygenssches Prinzip zu Wellen- fronten ¨uberlagern. θc ist dabei der Winkel, den die Wellenfronten zur Spur des Teilchens bilden.

t eine Strecke von

xp =βct (2.1)

zur¨uck. W¨ahrend dessen kann sich das Licht lediglich

xl =ct/n (2.2)

weit bewegen. Dabei istn der Brechungsindex, des Mediums. Es ergibt sich hieraus f¨ur den Cherenkov-Winkelθc die folgende Beziehung:

1=n·cos(θc). (2.3) Cherenkov-Teleskope wie IceCube nutzen diesen Effekt um hochenergetische, geladene Teilchen zu messen. F¨ur solche Teilchen ist anzunehmen, dassβ ≈1

(11)

2.2 Detektoraufbau 5

ist. Daher liegtθc im Bereich von 41,2−43,6 [1]. Die Variation ist durch den vom Eis abh¨angigen Brechungsindex bedingt, der von der Wellenl¨ange des Lichtes abh¨angt. Die Transparenz des Eises der Antarktis ist f¨ur den Wellenl¨angenbereich um 400 nm am h¨ochsten, weswegen die IceCube Photo- multiplier auf diese Wellenl¨ange optimiert sind (siehe 2.3).

2.2 Detektoraufbau

Das IceCube-Neutrino-Observatorium befindet sich am geographischen S¨ud- pol und besteht aus 86 Strings, welche jeweils 60 optische Module miteinander verbinden. Diese sind in 2450 m tiefe hexagonal angeordnete Bohrl¨ocher ein- gelassen. Die Detektorgeometrie ist in Abbildung 2.2 zu sehen. Der Abstand zwischen zwei benachbarten Modulen betr¨agt an den Strings 17 m und zwis- chen den Strings 125 m. Außerdem verf¨ugt IceCube ¨uber die Niederenergieer- weiterung DeepCore. Diese besteht aus 8 Strings welche dichter mit Mod- ulen best¨uckt und im Bereich um den zentralen IceCube-String in das Eis eingelassen sind. DeepCore-Module sind in Abst¨anden von 7 m-10 m an den Strings angebracht. Zusammen mit den umgebenden IceCube Strings betr¨agt der Abstand der einzelnen Module zwischen den Strings in der dichtesten Re- gion etwa 40 m.

An der Eisobefl¨ache befinden sich zus¨atzlich mit optischen Modulen aus- ger¨ustete Tanks, die Eis mit guten optischen Eigenschaften enthalten. Das Netz aus 81 Stationen, welche mit jeweils zwei dieser Tanks ausger¨ustet sind heißt IceTop. Die Elektronik zum Auslesen und Filtern der Daten aus den Strings und IceTop-Tanks befindet sich nahe der Amundsen-Scott-S¨udpol- station ¨uber dem Detektor.

2.3 Design der optischen Module

Der Aufbau der in IceCube verwendeten digitalen optischen Module (DOM) ist in Abbildung 2.3 dargestellt. Eingerahmt von einer Glaskugel, besteht das Modul aus einem PMT (PhotoMultiplier Tubes) und der entsprechenden Ausleseelektronik. PMTs wandeln ein kommende Photonen in Elektronen um, die dann eine messbare Ausgangsspannung erzeugen. Das Ausgangssignal ist eine analoge Wellenform deren Integral die Anzahl der Photoelektronen (PE) beschreibt.

Die in IceCube verwendeten PMT stammen von der Firma Hamamat- su und sind besonders im Wellenl¨angenbereich von 300-600 nmsensitiv. Die Quantenausbeute bei 405nmbetr¨agt etwa 25% und f¨ur Deepcore-PMT 33%.

(12)

Abbildung 2.2: Darstellung des IceCube Detektors in der 86 String Konfig- uration

Die PMT werden mit einer Verst¨arkung von etwa 107 betrieben [1].

Das Mainboard liest das analoge PMT Signal aus und wandelt die analoge Wellenform in einen digitalen Puls um. Es enth¨alt einen FADC (FastAnalog to Digital Converter). Dieser hat so gut wie keine Totzeit und ein langes Messintervall von 6,4 µs. Die Zeitaufl¨osung, mit der gemessen wird, ist allerdings mit 25 ns verh¨altnism¨aßig niedrig. Die beiden enthaltenen ATWD (AnalogTransient Waveform Digitizer) messen in Intervallen von etwa 422 ns mit Zeitaufl¨osungen von 3,3 ns pro Kanal. Die Totzeit betr¨agt 29µs. Die ATWD arbeiten daher abwechselnd um eine zu lange Totzeit des Moduls zu vermeiden.

Bei Spuren, die nah am DOM liegen hinterlassen ein zeitlich kurzes Signal mit scharfem Maximum, dass die ATWD wesentlich besser aufl¨osen k¨onnen als die FADC. F¨ur weit entfernte Spuren sind dagegen die FADC besser

(13)

2.4 Datennahme 7

Abbildung 2.3: Darstellung eines digitalen optischen Moduls des IceCube Detektors [2]

geeignet, da die Signale durch Streuung des Chrerenkovlichts im Eis stark verbreitert werden, sodass das Messintervall der ATWD zu kurz sein kann.

Am oberen Ende der Module befinden sich LED, die Photonen der Wellenl¨ange 405 nm mit verh¨altnism¨aßig hoher Intensit¨at abstrahlen k¨onnen. Diese eignen sich zum Testen der Module, der Detektorgeometrie und der Eigenschaften des umliegenden Eises.

2.4 Datennahme

Um zu bestimmen wann die ein Ereignis von der DAQ (Data AQusition) aufgezeichnet existieren sogenannte Trigger, die bei einem Interessanten Vor- gang die Datennahme starten und ein definiertes Zeitfenster aufzeichnen welches dann als ”Ereignis” bezeichnet wird. Anschließend werden interes- sante Ereignisse von sogenannten Online-Filtern selektiert und uninteres- sante verworfen. Eine Trefferselektion, die von vielen Filtern genutzt wird sind HLC (Hard LocalCoincidence) Treffer. Wie in Abbildung 2.4 schema- tisch dargestellt, k¨onnen zwei DOM-Signale, ein HLC-Paar bilden, wenn sie am gleichen String benachbart sind. Außerdem m¨ussen die Signale inner- halb von tHLC = 1µs liegen. Erf¨ullt eine Messung die Bedingung eines der laufenden Trigger, werden die digitalisierten Wellenformen von HLC-Treffer vollst¨andig ¨ubertragen. Von DOM-Treffern , die das HLC Kriterium nicht erf¨ullen (Soft Local Concidence), wird lediglich die Information ¨uber die

(14)

Abbildung 2.4: Schematische Darstellung des HLC Kriteriums [3] anhand von einem String mit 5 DOM. Links sind Beispiele f¨ur das Erf¨ullen des Kri- teriums und rechts f¨ur dessen Nichterf¨ullung.

Zeit des Treffers, die Ladung des maximalen und der beiden umgebenden FADC-Eintr¨age ¨ubertragen

2.5 Teilchensignaturen

Durch Wechselwirkung hochenergetischer Neutrinos in oder in der Umge- bung des Detektors mit Kernen entstehen geladene Teilchen, die mit IceCube nachgewiesen werden k¨onnen. Die Signaturen, die die jeweiligen Leptonen im Detektor hinterlassen sind in Abbildung 2.5 dargestellt.

2.5.1 Elektronen

Elektronen verlieren bedingt durch ihre vergleichsweise geringe Masse schnell Energie durch Bremsstrahlung. Diese abgestrahlten Photonen k¨onnen wieder zue+e-Paaren zerfallen und so zur Bildung einer elektromagnetische Kaskade beitragen. Die L¨ange der Kaskade reicht von einigen Metern f¨ur ein PeV Elek- tron bis etwa 200 m f¨ur die h¨ochste zu erwartende Energie von etwa 10 EeV.

Die Lichtemissionen der Kaskade sind um den Cherenkov-Winkel herum

(15)

2.5 Teilchensignaturen 9

Abbildung 2.5: Monte-Carlo-Simulationen [1] und schematische Darstel- lung [4] der durch Neutrinowechselwirkung erzeugten Teilchen. Elektronen- wechselwirkung liefert eine ¨ortlich stark begrenzte Kaskade, Myonenwechsel- wirkung eine hadronische Kaskade und eine klare Spur und Tauonen zwei r¨aumlich voneinander getrennte Kaskaden.

maximal, stammen aber nur zu geringem Anteil vom Prim¨arelektron. Durch die Vielzahl der Emissionen und der geringen Ausdehnung ist es sehr aufwendig die genaue Richtung der Kaskade zu bestimmen. Die Energierekonstruktion wird dadurch allerdings vereinfacht, weil die Energie der Kaskade vollst¨andig im Detektorvolumen deponiert wird.

2.5.2 Myonen

Bis zu einer Energie von Ec ≈100 GeV [5] deponieren Myonen Energie fast ausschließlich in Form von Ionisation. Oberhalb dieser Energie spielt auch der Energieverlust von Paarbildungsprozessen und der Bremsstrahlung eine Rolle. Auch inelastische Wechselwirkung mit Kernen wird mit zunehmender Energie immer wahrscheinlicher.

Der Energieverlust der Myonen l¨asst sich folgendermaßen parametrisieren:

dE

dx =a+b·E. (2.4)

Dabei sindaundbsich langsam ¨andernde Funktionen. Der Anteil des Ionisa- tionsverlusts wird durcha mit Hilfe der Bethe-Bloch-Formel [6] beschrieben,

(16)

w¨ahrend b die bei h¨oheren Energien eintretenden Terme beschreibt.

Die Reichweite der Myonen l¨asst sich n¨aherungsweise mit

LdE ≈log(1 +Eb/a)·1

b (2.5)

bestimmen und liegt f¨ur energiereiche Myonen bei einigen Kilometern. Die Reichweitenbeschr¨ankung durch die Zerfallsdauer mit der Lebensdauer des Myons von τµ= 2,2µs

Lzerf all =βmuγcτµ (2.6)

ist f¨ur hoch energetische Myonen (β ≈ 1 und γ > 10) ebenfalls weit gr¨oßer als der Detektor. Ein Myon mit einer Energie von 1 TeV h¨atte demnach eine Spurl¨ange von 6,25 km.

Auch wenn der Energieverlust durch Cherenkov-Licht innerhalb des Detek- tors vernachl¨assigbar ist, hinterlassen Myonen einen gut sichtbaren Cherenkov- Kegel innerhalb des Detektors. Aufgrund hohen Spurl¨ange haben Myonen- spuren außerdem einen l¨angeren ”Hebel” als Kaskaden und sind somit leichter zu rekonstruieren. Bei sehr hohen Energien, finden innelastische Wechsel- wirkungen mit Kernen immer h¨aufiger statt, sodass immer mehr Licht durch Hadronische Kaskaden abgestrahlt wird. Dadurch wird die Rekonstruktion der Spur und auch der Energie erschwert, da das Cherenkov-Licht von dem Licht der Kaskaden ¨uberstrahlt wird.

2.5.3 Tauonen

Zum erzeugen eines Tauons wird aufgrund der hohen Masse mτ = 1,8 GeV eine hohe Schwerpunktenergie ben¨otigt. Die bei der Neutrino-Kern Wechsel- wirkung entstehenden hadronischen Reste sind daher sehr energiereich und die entstehende Kaskade gut im Detektor sichtbar.

Durch seine kurze Lebensdauer ττ ≈ 0,29 ps zerf¨allt das τ wieder und hinterl¨asst eine weitere elektromagnetische Kaskade. Der Abstand zwischen den Kaskaden betr¨agt etwa 50 cm pro PeV τ-Energie. Obwohl die Spur des Tauons selbst also nicht deutlicher ist als die eines niederenergetischen Myons, kann man dessen Energie und Richtung durch die Lage und Inten- sit¨at der beiden Kaskaden gut bestimmen. W¨urde man einen solchen ”Double Bang” vollst¨andig innerhalb des Detektors beobachten, ließe sich das dadurch τ sehr genau identifizieren.

(17)

2.6 Physik mit IceCube 11

2.6 Physik mit IceCube

Der Ursprung kosmischer Strahlung ist bisher ungekl¨art. Ihre Energiever- teilung ist allerdings im Bereich von einigen GeV bis zu mehreren 100 EeV vermessen und folgt einem Potenzgesetz

dN/dE =E−γ. (2.7)

Abweichungen gibt es, wie in Abbildung 2.6 zu sehen ist, bei 107 GeV dem sogenannten Knie und f¨ur Energien ab etwa 1011 GeV entweder durch den GZK-Effekt oder durch eine Energiebegrenzung kosmischer Beschleuniger.

Beim Knie der kosmischen Strahlung ¨andert sich γ leicht von etwa 2.7 auf 3 und flacht bei etwa 109 GeV wieder ab [7]. Mit dem Nachweis hochenergetis- cher kosmischer Neutrinos soll IceCube weitere Aufschl¨usse ¨uber die Quellen dieser Strahlung liefern und das Spektrum dieser Neutrinos vermessen.

Des weiteren ist es m¨oglich mit IceCube Themen wie die Suche nach Dunkler Materie und die Suche nach Physik außerhalb des Standartmodells ab zu decken. Das folgende Kapitel soll einen groben ¨Uberblick ¨uber die Forschung mit IceCube geben.

2.6.1 Messung des diffusen Neutrinoflusses

Modelle f¨ur kosmische Beschleuniger sagen das Auftreten von hochenergetis- chen Neurtinos voraus. Die diffuse Analyse versucht diesen Neutrinofluss zu messen oder Limits f¨ur die Existenz solcher Neutrinoenergien zu setzen. Es wird erwartet, dass das Energiespektrum ¨ahnlich wie das der geladenen kos- mischen Strahlung einem Potenzgesetz mit einemγ von etwa 2,0 folgt. Bisher konnten nur Limits auf den Neutrinofluss angegeben werden [9]. Den gr¨oßten Untergrund f¨ur diese Messung bilden abw¨artslaufende Myonen und Neutri- nos, die durch Wechselwirkung kosmischer Strahlung mit der Atmosph¨are entstehen.

2.6.2 Neutrinos aus extragalaktischen Punktquellen

Neben Zerf¨allen sehr schwerer Teilchen (Top-Down Szenario), die als Ursache kosmische Strahlung gr¨oßtenteils experimentell ausgeschlossen sind [10], kom- men als Quellen f¨ur hochenergetische kosmische Teilchen auch relativistis- che Schockfronten in Frage. In diesen k¨onnen die Teilchen an Magnetfeldern gestreut und dadurch beschleunigt werden. Dieser Prozess heißt Fermibeschle- unigung [11]. H¨ochste Energien werden nur durch die Fermibeschleunigung erster Ordnung erreicht. Schockfronten, die dazu energiereich genug sind, kommen nach heutigem Wissensstand nur bei folgenden Objekten vor:

(18)

Abbildung 2.6:Spektrum der auf der Erde messbaren kosmischen Strahlung.

[8]

• AGN (Active Galactic Nuclei) [12] [13] sind zentrale schwarze L¨ocher von Galaxien, die umgebende Materie aufnehmen. Diese supermassiv- en schwarzen L¨ocher haben Massen in der Gr¨oßenordnung von 106 bis 109 Sonnenmassen. Bei der Aufnahme von Materie entsteht um das schwarze Loch herum eine Scheibe aus heißer Materie und ein Jet der senkrecht dazu verl¨auft. In diesen relativistischen Jets sollte Fermi Beschleunigung zweiter Ordnung m¨oglich sein.

• GRB (GammaRayBurst) [14] sind einige Sekunden lange sehr heftige Gammastrahlungsausbr¨uche, deren Ursache noch nicht gekl¨art ist. Eine m¨ogliche Ursache w¨aren Supernovae massereicher Sterne (M >= 20M), die direkt zu einem schwarzen Loch kollabieren.

(19)

2.6 Physik mit IceCube 13

W¨ahrend Neutrinos aus GRB aufgrund ihrer begrenzten Dauer nur in Ver- bindung mit der Messung der von den GRB ausgehenden Gammastrahlung nachgewiesen werden k¨onnen, bilden die meisten AGN eine zeitlich konstante Punktquelle am Himmel, die mit IceCube nachweisbar sein sollte. Bei AGN kann es aber auch zu sogenannten ”Flares” kommen, bei denen sich deren Helligkeit f¨ur kurze Zeit verst¨arkt. F¨ur den Nachweis dieser Punktquellen ist die Winkelaufl¨osung des Detektors und somit auch die Richtungsrekon- struktion der einkommenden Neutrinos von besonderer Bedeutung, da die Richtung der Neutrinos f¨ur die Zuordnung zu einer einzelnen Punktquelle entscheidend ist und Atmosph¨arischer Untergrund bei guter Kenntnis der Spurrichtung besser erkannt werden kann.

2.6.3 Neutrinos aus galaktischen Punktquellen

Auch in der Galaxis gibt es Beschleuniger, die Teilchen bis in die PeV Region beschleunigen k¨onnen. Kandidaten daf¨ur sind

• Supernova ¨Uberreste [15]: Die bei einer Supernova abgestoßene H¨ulle bewegt sich mit einer h¨oheren Geschwindigkeit als die Schallgeschwin- digkeit im interstellaren Medium und bildet damit eine Schockfront in der Fermibeschleunigung statt finden kann. Diese kann Teilchen auf Energien bis zu 100 TeV bringen.

• Mikroquasare [16,17]: Mikroquasare sind stellare schwarze L¨ocher oder Neutronensterne, die in direkter N¨ahe einen Partnerstern besitzen, wel- cher ihnen konstant Masse zuf¨uhrt. Dies f¨uhrt zur Bildung einer Akkre- tionsscheibe und einem dazu senkrechten Jet. Deren Intensit¨at h¨angt von der Akkretierungsrate des Quasars ab. Innerhalb des Jets k¨onnen Teilchen auf mehrere TeV beschleunigt werden.

• Neutronensterne [18], [19] :Innerhalb von jungen Supernova ¨Uberresten in deren Kern sich ein Neutronenstern befindet k¨onnen Teilchen durch magnetische Dipolstrahlung auf Energien von bis zu 1 PeV beschleu- nigt werden. Außerdem erzeugen diese Pulsare ein starkes elektrisches Feld, in dem Teilchen ebenfalls auf h¨ochste Energien gebracht werden k¨onnen.

Der Neutrinofluss, der von diesen Quellen ausgeht, sollte mit dem bereits gemessenen Teilchenfluss korreliert sein und ebenfalls einem Potenzgesetz folgen.

(20)

2.6.4 Suche nach Dunkler Materie

Auch wenn es viele Hinweise auf die Existenz dunkler Materie durch den Gravitationslinseneffekt [20], den kosmischen Mikrowellenhintergrund [21]

und den Rotationskurven von Galaxien [22, 23] gibt, existiert bisher noch kein teilchenphysikalischer Nachweis. Handelt es sich bei dunkler Materie um Teilchen die schwach wechselwirken k¨onnen, die man auch als WIMPs (Weakly Interacting Massive Particles) bezeichnet, sind diese in der Lage durch Wechselwirkungen Teilchen des Standardmodells zu bilden und somit nachweisbar. Einer der wichtigsten Kandidaten ist dabei das Neutralino, dass von supersymmetrischen Modellen als eine Linearkombination der supersym- metrischen Partner des Photons, der W und Z Bosonen sowie der supersym- metrischen Higgsbosonen vorhergesagt wird. Neutralinos sind somit neutrale Fermionen und die leichtesten supersymmetrischen Teilchen. Bei supersym- metrischen Modellen, die Neutralinos als dunkle Materie vorhersagen, wird supersymmetrischen Teilchen eine R-Parit¨at von −1 und Standardmodell- teilchen von 1 zugeordnet. Die Erhaltung der R-Parit¨at setzt voraus, dass ein supersymmetrisches Teilchen durch Zerf¨alle immer auch eine ungerade Zahl an supersymmetrischen Teilchen erzeugen m¨ussen. Neutralinos k¨onnen daher nicht in Standartmodellteilchen zerfallen, k¨onnen diese aber durch An- nihilation erzeugen. In IceCube wird vor allem nach WIMP-Zerf¨allen in der Sonne und dem galaktischen Zentrum gesucht, da dort eine verh¨altnism¨aßig hohe dunkle Materie Dichte zu erwarten ist [24].

2.6.5 Suche nach exotischer Physik

Die Suche nach bisher unentdeckten schweren Teilchen aus dem fr¨uhen Uni- versum bezeichnet man als die Suche nach ”exotischer Physik”. Ein Beispiel sind magnetische Monopole. Hierbei handelt es sich um magnetische Elemen- tarladungen [25]. Die Existenz magnetischer Monopole wird von allen vere- inheitlichten Theorien vorhergesagt [26]. W¨ahrend relativistische Monopole Cherenkov-Licht erzeugen, k¨onnen nicht relativistische Monopole auf ihrem Weg Protonzerf¨alle und somit hadronische Kaskaden induzieren.

2.7 Monte-Carlo-Simulationen

2.7.1 Generatoren

Der erste Schritt der Monte-Carlo-Simulationen ist die Simulation der Prim¨ar- teilchen, eventueller Wechselwirkungen und der Endprodukte, die auf den

(21)

2.7 Monte-Carlo-Simulationen 15

Detektor treffen. Hierzu werden zwei verschiedene Software Pakete verwen- det.

Nugen (ν-generator) wird f¨ur Monte Carlo Simulationen kosmischer Neu- trinos benutzt [27]. Es simuliert Neutrinos, die einem vorgegebenen En- ergiespektrum folgen und ”zwingt” diese in einem Zylindervolumen um den Detektor zur Interaktion mit dem Eis. Um das betrachten eines realistischen Spektrums zu erm¨oglichen speichert Nugen zu jedem Neutrino ein Interak- tionsgewicht ab, dass die Wahrscheinlichkeit einer Wechselwirkung innerhalb des sensitiven Bereichs des Detektors wiedergibt.

CORSIKA (COsmic Ray SImulation for KAscade) simuliert Myonen und Myonneutrinos [28], die durch Wechselwirkung mit hochenergetischen kosmischen Teilchen in der Atmosph¨are entstehen. Dabei wird die Luftschauer simuliert, die ein hochenergetisches kosmisches Teilchen erzeugen w¨urde und dann berrechnet welche der Schauerteilchen die Erdoberfl¨ache erreichen.

2.7.2 Propagation

Entstehende Myonen werden anschließend mithilfe des Pakets MMC (Muon Monte Carlo) durch das Eis propagiert. [5] Dieses Simuliert den Energiev- erlust sowie die Lichtemissionen des Myons und die L¨ange der Myonenspur.

Zur Simulation des Lichtweges wird entweder PPC (Photon Propagation Code) [29] oder das Photonics-Paket verwendet [30]. W¨ahrend PPC jedes Photon einzeln propagiert, benutzt Photonoics Tabellen um die Ausbreitung des Lichtes im Eis zu beschreiben.

2.7.3 Detektorsimulatiomn

Nach den vorangehenden Schritten liegt eine Liste der getroffenen DOM vor, aus der unter Ber¨ucksichtigung der Quantenausbeute durch den PMT- Simulator Wellenformen erzeugt werden. Die Digitalisierung wird anschließend durch den DOM-Simulator vor genommen. Danach liegen Daten auf Trigger- level vor, auf die anschließend, wie auch f¨ur echte Daten, standardisierte Rekonstruktionsalgorithmen angewendet werden k¨onnen.

(22)
(23)

KAPITEL III

Rekonstruktion von durchgehenden

Myonenspuren

(24)

3.1 Lichtpropagation in Icecube

IceCube besteht zu ¨uber 99% aus nat¨urlich geformtem Eis, dessen Eigen- schaften von enormer Bedeutung f¨ur die Rekonstruktion der Spuren und Energien aller in IceCube gemessenen Teilchen sind. Zur Parametrisierung der Eiseigenschaften wird der effektive Streukoeffizient aef f und der Koef- fizient f¨ur die Absorption aabs ben¨otigt. Beide h¨angen von der Wellenl¨ange des zu messenden Lichtes und der Eistiefe ab. Der effektive Streukoeffizient beschreibt nur die Streuung, die das Licht signifikant von seinem direkten Weg ablenkt. Er wird beschrieben durch

aef f =astreu(1−< cos(θstreu)>). (3.1) Dabei ist astreu der Streukoeffizient und θstreu der Streuwinkel. Die Streu- ung an im Eis eingeschlossenen Blasen ist nahe der Oberfl¨ache am h¨ochsten und nimmt mit zunehmender Tiefe aufgrund des steigenden Drucks ab. Ab etwa 1350 m h¨angen die Eigenschaften des Eises nur noch von den klimatis- chen Bedingungen bei der Entstehung der entsprechenden Schicht ab. Ver- schmutzungen in der Atmosph¨are k¨onnen dabei zu Staubschichten f¨uhren, in denen die Streuung und Absorption besonders stark ist. Die gr¨oßte dieser Schichten befindet sich in etwa 2000 m Tiefe und wird im folgenden einfach als ”Dustlayer” bezeichnet. Typische Streu- und Absorptionsl¨angen außer- halb der Dustlayer sind

λabs = 1

aabs = 90 m−120 m, λef f = 1

aef f ≈25 m. (3.2) F¨ur das kleinere Vorg¨angerexperiment AMANDA wurden diese Koeffizienten mithilfe der DOM-LEDs ermittelt. Die experimentell ermittelten Daten sind in Abbildung 3.1 zu sehen. Da der IceCube Detektor wesentlich gr¨oßer ist als AMANDA, wurde hier zun¨achst eine Extrapolation der Eiseigenschaften f¨ur tiefere Eisschichten verwendet [31].

Nach diesem bereits in AMANDA verwendeten Millenium-Eismodell gab es diverse Weiterentwicklungen der Eismodelle. Das 2007 entwickelteAHA- Eismodell ber¨ucksichtigt Systematiken, die eine Ausschmierung der Schichten im Milleniummodell zur Folge haben. Außerdem wurden die tieferen Eis- schichten mithilfe verbesserter Simulationsalgorithmen neu extrapoliert. Ab- bildung 3.2 zeigt die ¨Anderungen des AHA-Modells gegen¨uber dem Millenium- Modell f¨ur eine Wellenl¨ange von 405 nm [32].

Die neuen SPICE-Eismodelle basieren auf Messungen mit IceCube LED- flashern und Dust-loggern [33]. Der Aufbau der Dust-logger ist in

Abbildung 3.4 dargestellt. Sie sind mit einer Lichtquelle und zwei Photomul- tipliern ausgestatte Module, die das vom Eis zur¨uck gestreute Licht messen.

(25)

3.2 Trefferselektion 19

Abbildung 3.1: Die mit AMANDA gemessenen Eiseigenschaften. Es ist die Tiefe und die Wellenl¨ange gegen den effektiven Streukoeffizienten (links) und den Absorptionskoeffizienten (rechts) aufgetragen. Man kann bei 2000 m Tiefe das Maximum der Dustlayer erkennen.

Sie werden mit den IceCube Strings in die Bohrl¨ocher eingelassen und nehmen nur w¨ahrend der Installationsphase der Strings Daten.

Mit den SPICE-,SPICE2- und SPICE-Mie-Modellen werden Korrekturen di- verser Systematiken, eine Anpassung an Daten aus bis zu 2600 m Tiefe und eine Extrapolation der Eiseigenschaften außerhalb des Detektorvolumens m¨oglich. Abbildung 3.3 zeigt den Vergleich zwischen dem AHA Eismodell und den verschiedenen SPICE-Modellen.

3.2 Trefferselektion

Um die Qualit¨at einer Rekonstruktion zu verbessern wird in den meisten F¨allen eine Trefferselektion durchgef¨uhrt um durch Rauschen verursachte Pulse auszusortieren. Dazu gibt es verschiedene Verfahren, die oft auch mit- einander verbunden werden.

Das sogenannte Time-Window-Cleaning ber¨ucksichtigt nur Treffer, die innerhalb eines definierten Zeitfensters um das Ausl¨osen des Ereignistriggers liegen. Mit dem ausl¨osenden Teilchen zeitlich nicht korrelierte Treffer werden somit aussortiert.

DasRT-Cleaningw¨ahlt einen Puls nur aus, wenn dieser innerhalb eines Ra-

(26)

Abbildung 3.2: Die Eiseigenschaften nach dem AHA-Modell. Man kann erkennen, dass die Maxima f¨ur die einzelnen Staubschichten im Vergleich sch¨arfer sind und das Eis in den tieferen Schichten wesentlich klarer ist.

(27)

3.2 Trefferselektion 21

Abbildung 3.3: Das SPICE2-Modell und das AHA Modell im Vergleich.

Dabei sindaundbef f die Absorptions- und effektiven Streukoeffizienten bei einer Wellenl¨ange von 400nm angegeben.

(28)

Abbildung 3.4: Schematische Darstellung eines Dust-loggers. Der obere PMT dient dazu das am Rand der Bohrlochs reflektierte Licht zu messen, w¨ahrend der untere PMT die Intensit¨at des aus dem Eis zur¨uck gestreuten, Lichts bestimmt. Aus beiden Messungen l¨asst sich dann das Verh¨altnis der zur¨uckgestreuten Intensit¨at zur gesamten transmittierten Intensit¨at bestim- men [34].

(29)

3.2 Trefferselektion 23

Abbildung 3.5: Die beiden Grafiken zeigen oben den r¨aumlichen Abstand der Treffer und unten die zeitliche ¨Uberlappung der Pulse [35]. Links sieht man die Pulse vor der Trefferselektion. Rechts sind die Radien R und die Zeitfenster der Pulse farblich markiert. Rot markierte Pulse w¨urden in diesem Beispiel durch das RT-Cleaning entfernt werden.

dius R um einen anderen Puls liegt. Zus¨atzlich muss jeder ausgew¨ahlte Puls zeitlich innerhalb eines anderen Pulses liegen. Abbildung 3.5 zeigt schema- tisch die Arbeitsweise dieses Verfahrens.

Das Seeded RT-Cleaning ist eine Weiterentwicklung des klassischen RT- Cleanings. Hier wird zun¨achst eine Reihe von HLC-Pulsen (Seed) betrachtet.

Alle Pulse, die relativ zu diesen die oben beschriebenen RT-Bedingungen erf¨ullen werden ausgew¨ahlt. Anschließend wird der gleiche Prozess mit der erweiterten Pulsliste durchgef¨uhrt, bis keine weiteren Pulse mehr hinzugef¨ugt werden. F¨ur die Seed-Pulse gibt es dabei die optionen alle HLC-Paare zu verwenden oder die HLCcore-Pulse, bei denen alle HLC-Paare, die nicht mindestens zwei Pulse aufweisen k¨onnen, welche die RT-Bedingung erf¨ullen entfernt. In dieser Arbeit wurde die HLCcore Einstellung verwendet. Da HLCcore-Pulse mit hoher Wahrscheinlichkeit Signaltreffer sind, bietet dieses Verfahren eine bessere M¨oglichkeit kausal zusammenh¨angende Pulse zu se- lektieren.

(30)

3.3 Linefit als erste Spurhypothese

Zum Berechnen eines Loglikelihood-Maximums wird zun¨achst eine Starthy- pothese ben¨otigt, um die herum nach dem Minimum gesucht werden kann (siehe 3.5.1). Um diese zu berechnen, ist der sogenannte Linefit die bew¨ahrteste Methode. Dabei werden die getroffenen DOM als St¨utzstellen f¨ur eine lineare Regression verwendet, die die Eiseigenschaften und die Form des Cherenkov- kegels nicht ber¨ucksichtigt [36]. Die PMT, an den Positionen~ri, die zu den Zeitenti getroffen werden, k¨onnen mit der Geraden

~ri~r+~v·ti (3.3) verbunden werden. Das zu minimierendeχ2 ist dann definiert als

χ2 =

NT ref f er

X

i=1

(~ri~r~v ·ti)2. (3.4) Dabei sind~r und~v die zu bestimmenden Parameter undNT ref f er die Anzahl der getroffenen DOM. Dies f¨uhrt zu der L¨osung

~

r=< ~ri >−~v·< ti > (3.5) und

v = < ~ri·ti >< ~ri >·< ti >

< t2i >< ti >2 . (3.6) Da die Berechnung analytisch abl¨auft und nur vergleichsweise einfache Rechen- operationen erfordert, ist der Linefit die schnellste Methode die Spur eines Myons zu bestimmen und eignet sich dadurch gut als erste Spurhypothese f¨ur aufwendigere Verfahren. Eine Weiterentwicklung des Linefits, der ”verbesserte”

Linefit, welcher die Informationen aller Treffer eines DOM in die lineare Re- gression einbezieht und zus¨atzlich Trefferselektionen vornimmt um kausal nicht mit der Spur zusammenh¨angende Treffer aus zu sortieren.

3.4 Likelihood-Anpassungen

3.4.1 Prinzip

Eine durchgehende Myonenspur ist durch ihren Vertex und ihre Richtung definiert. Anders als im Detektor startende oder auslaufende Spuren sind hier keine L¨angen vorgegeben. Auch bezeichnet der Vertex nicht zwangsl¨aufig den Startpunkt der Spur, sondern dient haupts¨achlich dazu den Richtungsvektor

(31)

3.4 Likelihood-Anpassungen 25

in das richtige Koordinatensystem zu projizieren. Ziel der Rekonstruktion ist die Bestimmung der drei Komponenten des Vertexvektors, der Vertexzeit und des Zenits- so wie den Azimutwinkels der Spur.

Zum Rekonstruieren von Myonenspuren ist es notwendig, die vorhandenen Informationen ¨uber die Ankunftszeiten des Lichtes an den DOM und der Lichtausbreitung im Detektor optimal zu nutzen. Bei IceCube wird daf¨ur ein Loglikelihood-Ansatz verwendet [36].

Bei einer Rekonstruktion mit der Maximum-Likelihood-Methode wird zun¨achst die Funktion

L= Y

iDOM

L(qi,1, .., qi,NP ulse, ti,1, ..., ti,NP ulse) (3.7) definiert, die jeder m¨oglichen Spur eine Wahrscheinlichkeit zuweist. NP ulse bezeichnet dabei die Anzahl der vom jeweiligen DOM aufgezeichneten Pulse mit einer ladung qi, die in Photo-Elektronen (PE) vorliegt und den Zeiten der jeweiligen Trefferti. Bei einer idealen Beschreibung w¨are die Spur mit der maximalen Wahrscheinlichkeit demnach die beste m¨ogliche Spurhypothese.

Aufgrund der Monotonie der Logarithmusfunktion wird die Funktion

llh= log(L) = X

iDOM

log(L(qi,1, .., qi,NP ulse, ti,1, ..., ti,NP ulse)) (3.8) an der selben Stelle maximal und ist demnach ein ¨aquivalenter Ansatz. Diese sogenannte Loglikelihoodfunktion ist analytisch einfacher zu handhaben und bietet den Vorteil numerisch stabiler zu sein.

Die Grundlage f¨ur die Berechnung der Loglikelihoodfunktion ist die, im fol- genden auch als PDF (Propability Density Function) bezeichnete, Wahr- scheinlichkeitsdichtefunktion des Zeitresiduums

tres=tT ref f ertgeo. (3.9)

Dabei ist tgeo die Zeit, an der man ein ungestreutes Photon, emittiert von einer hypothetischen Spur, am getroffenen PMT erwarten w¨urde undtT ref f er der Zeitpunkt an dem das betrachtete Photon gemessen wurde. Wie in Abbil- dung 3.6 zu sehen ist, wird die Form der Wahrscheinlichkeitsdichtefunktion P(tres) durch mehrere Effekte bestimmt:

• PMT-Jitter (Flimmern) bewirkt eine Unsicherheit auf die gemessene Ankunftszeit und f¨uhrt somit zu einer gaußischen Ausschmierung der PDF.

(32)

• Zuf¨alliges Rauschen, wie zB. durch radioaktive Zerf¨alle (siehe 2.3), hebt die Funktion um einen konstanten Wert an.

• Streuung verz¨ogert die Ankunftszeit der Photoelektronen und f¨uhrt zu einer Verschiebung der Funktion nach rechts sowie zu deren Verbre- iterung. Beide Effekte werden st¨arker bei gr¨oßerer Streuung.

• Kaskaden, die Myonen auf ihrem Weg erzeugen k¨onnen (siehe 2.5.2) flachen die Kurve zu großen tres ab.

Abbildung 3.6: Die Auswirkungen verschiedener Effekte auf die Form der Wahrscheinlichkeitsdichtefunktion f¨ur Zeitresiduen.

Die Bestimmung der PDF’s erfordert eine Beschreibung dieser Effekte. Ein etablierter Weg dies zu tun ist die Parametrisierung durch die sogenannte Pandelfunktion (siehe 3.4.2). Diese Studie befasst sich mit der relativ neuen numerischen Beschreibung mithilfe von Photosplines (siehe 3.4.3).

(33)

3.4 Likelihood-Anpassungen 27

3.4.2 PDF-Parametrisierung durch die Pandelfunktion

Die etablierte Form zum Beschreiben des PDF ist die von D. Pandel 1996 f¨ur AMANDA [36] entwickelte modifizierte Gammafunktion

p(tres) = 1

Nd · τ−d/λ·t(d/λ)−1res

Γ(d/λ) ·e(tres·(τ1+cmediumλa )+λad ). (3.10) Dabei ist λa die Absorptionsl¨ange im Eis und ddie Distanz zum getroffenen DOM.λundτ sind phenomenologische Parameter undNdeine Normierungskon- stante

Nd=e−d/λa ·

1 + τ cmedium

λa

(−d/λ)

(3.11) Diese sogenannte Pandelfunktion ist normiert und analytisch integrierbar, was vor allem f¨ur die MPE-Likelihood (siehe 3.4.4) von Bedeutung ist. In derzeitigen verwendeten Anpassungen wird eine mit einer Gaußfunktion gefal- tete Pandelfunktion verwendet. Das Faltungsintegral ist ebenfalls analytisch l¨osbar. Weitere Informationen sind in [37] zu finden.

Die freien Parameter sind durch das zugrundeliegende Eismodell bestimmt.

Abbildung 3.7 zeigt den Vergleich der mit dem zugrunde liegenden Modell simulierten Verteilungen und der Pandelfunktion f¨ur die beiden Abst¨ande d = 8 m und d = 71 m. Man kann erkennen das es trotz teilweise guter

¨Ubereinstimmungen an manchen Stellen und vor allem f¨ur sp¨ate Treffer zu Abweichungen kommt. Vergleiche zwischen Rekonstruktionen mit verschiede-

Abbildung 3.7:Vergleich zwischen Monte-Carlo Simulationen (schwarze His- togramme) und der zugeh¨origen Pandel Funktion (rote Linie).

nen Eismodellen in AMANDA verhalten sich allerdings sehr ¨ahnlich und rechtfertigen damit die Verwendung dieses einfachen analytischen Modells.

(34)

3.4.3 Photonics-Tabellen und Photosplines

Ein neuerer Ansatz zur Beschreibung des PDF ist die direkte Simulation des Lichtwegs mittels des Photonics-Packets (siehe 2.7). Dabei wird die vom zugrundeliegenden Eismodell errechnete Tabelle von Photonics umgerech- net [30]. Das Ergebnis ist eine Tabelle, die Propagation des Lichtes einer spezifizierten Quelle durch das Eis beschreibt. Die Wahl der Koordinaten h¨angt dabei von der zu beschreibenden Lichtquelle ab. F¨ur Kaskaden werden sph¨arische Koordinaten verwendet und f¨ur Myonen empfiehlt sich ein zylin- drisches Koordinatensystem. Photonics-Tabellen, die Myonen beschreiben, besitzen demnach mit dem Zenitwinkel θ,dem Azimutwinkel ψ, dem Ab- stand zu Quellel, dem Radiusρ, der Tiefe z und der Zeit f¨unf Orts- und eine Zeitkoordinate. Photonics propagiert die von der Quelle zu Zeit t ausgehen- den Photonen durch das Eis. Wie in Abbildung 3.8 zu sehen ist, bewegen sich die Photonen dabei geradlinig zwischen Streupunkten. Der Abstand der Streupunkte wird zuf¨allig mit der Wahrscheinlichkeitsdichtefunktion

dF(s)

ds = e−s/λs

λs (3.12)

ermittelt. Wobei F(s) eine Wahrscheinlichkeitsverteilung und λs die Streu- l¨ange ist. An den Streupunkten werden die Photonen um den Winkel θs gestreut. Dieser l¨asst sich mithilfe der Heyey-Greenstein-Phasenfunktion

pHG(cos(θs)) = 1−τ2

2(1 +τ2−2τ cos(θs))32 (3.13) durch

τ :=< cos(θs)>=Z pHG(cos(θs))cos(θs)d(cos(θs)) (3.14) w¨urfeln. Durchquert ein Photon dabei eine Zelle der Tabelle, erh¨oht dies den Photonfluss φ(~x, t) der Zelle. Der Beitrag den ein Photon zu diesem Fluss liefert ist durch das Gewicht

w= Yn

i=0

exp −∆si λa,i

!

(3.15) bestimmt, welches die Absorption der Photonen im Eis beschreibt. ∆si ist dabei die Schrittgr¨oße in einer Region mit der Absorptionsl¨angeλa,i.

Die PDF l¨asst sich dann f¨ur jede Zelle aus der Relation des Flusses und des zeitintegrierten Flusses

I(~x) =Z

−∞φ(~x, t)dt (3.16)

(35)

3.4 Likelihood-Anpassungen 29

Abbildung 3.8: Propagation eines Photons mit Photonics. Zs, φs und Θs

beschreiben dabei die Position der Quelle in sph¨arischen Koordinaten, deren Symmetrieachse die z Achse des zylindrischen Koordinatensystems definiert, in dem die Position der Zellen beschrieben wird. Es ist auch m¨oglich ein sph¨arisches (f¨ur Kaskaden) oder kartesisches Koordinatensystem zu w¨ahlen.

Die Photonen bewegen sich geradlinig, bis sie an sukzessiven Streupunkten ihre Richtung ¨andern.

(36)

Abbildung 3.9: Schematische Darstellung von Artefakten, die durch die lin- eare Interpolation einer exponentiellen Verteilung entstehen.

berechnen. Die Photonics-Tabellen liefern also eine diskontinuierliche Beschrei- bung der PDF. Dies ist ¨aquivalent zu einer linearen Interpolation der ex- ponentiellen Funktion φ(~x, t) und f¨uhrt zu Artefakten, deren Auspr¨agung von der Aufl¨osung der Tabelle abh¨angt, wie in Abbildung 3.9 schematisch dargestellt ist. Um diesen Effekt zu minimieren, ist es n¨otig Tabellen mit sehr hoher Aufl¨osung zu verwenden, deren Speicherplatzbedarf allerdings sehr groß ist. Um dieses Problem zu umgehen passt man an m¨oglichst hoch aufgel¨oste Tabellen einen Spline an. Dadurch wird die Beschreibung von φ(~x, t) kontinuierlich, der Speicherplatzbedarf sinkt und die Artefakte wer- den v¨ollig eliminiert. Abbildung 3.10 zeigt die Unterschiede zwischen einer Photonics-Tabelle mit grober Aufl¨osung, feiner Aufl¨osung und dem zugeh¨origen Splinefit f¨ur ein sph¨arisches Koordinatensystem.

Diese Methode ist gegen¨uber der Beschreibung durch die Pandelfunktion sehr neu und bisher noch nicht in den Standardrekonstruktionsverfahren en- thalten. Alle bisher durchgef¨uhrten Studien deuten auf eine deutliche Ver- besserung des Aufl¨osungsverm¨ogens [38] hin und machen die Photospline- Anpassungen somit zu einer viel versprechenden Alternative.

(37)

3.4 Likelihood-Anpassungen 31

Abbildung 3.10: Vergleich einer Photonics Tabelle mit grober Aufl¨osung (links), feiner Aufl¨osung (Mitte) und dem entsprechenden Splinefit (rechts).

3.4.4 Likelihood-Beschreibung

Wie in Abschnitt 3.4.1 erw¨ahnt, h¨angt die in Gleichung 3.7 beschriebene Funktion

L(q1, .., qNPulse, t1res, ..., tNresP ulse) direkt von der PDF p(tres) ab. Im Falle eines einzelnen Photoelektrons sind diese Funktionen identisch L(t1res) = p(t1res).

Um auch Pulse mit mehreren Photoelektronen beschreiben zu k¨onnen gibt es mehrere Ans¨atze, die derzeit verwendet werden [39].

DieSPEAll(SinglePhotoElektron;Allhits) Likelihood-Beschreibung geht davon aus, das jedem Photoelektron ein Photon zu geordnet werden kann. In diesem Fall werden die Wahrscheinlichkeiten der einzelnen Photoelektronen aufaddiert

LSP EAll =NYP E

i=1

p(tires). (3.17) Dabei istNP E die Anzahl der Photoelektronen des betrachteten DOM.

Der SPEqAll Ansatz verwendet zus¨atzlich zu SPEAll eine Ladungsgewich- tung, die Treffer mit hoher Ladung bevorzugt. Dies dient vor allem der Un- terdr¨uckung von lichtschwachen Untergrundtreffern.

LSP EqAll=NXP E

i=1

p(tires)qi (3.18) Der Zeitpunkt des ersten Treffers eines Pulses enth¨alt theoretisch die genauste Information ¨uber die Lichtausbreitung. Er markiert den Zeitpunkt an dem

(38)

die schnellsten, also am wenigsten gestreuten Photonen den DOM erreichen.

Die SPE1st Hypothese verwirft alle weiteren Treffer und benutzt nur diese Information.

LSP E1st =p(t1res). (3.19)

Dieser Ansatz hat sich als enorm effizient f¨ur nieder energetische Spuren er- wiesen, die wenig Ladung in den DOM deponieren. Die SPE1st Hypothese ist jedoch keine formal korrekte Likelihood-Beschreibung, da die Wahrschein- lichkeit den ersten Treffer mit einem bestimmten Zeitresiduum zu messen durch die verwendete PDF nicht richtig beschrieben wird. F¨ur DOM mit ho- her Ladung wird SPE1st daher immer unpr¨aziser.

Der formal korrekte Weg die Wahrscheinlichkeitsverteilung der Ankunft des ersten Treffers zu beschreiben [40]Phtoton Elektron) genannt. Hierzu bildet man die Ableitung

LM P E =− d

dt1resP(t1res)NP ulse (3.20)

wobei

p(t1res) =Z

t1res

p(t0)dt0. (3.21) Dies f¨uhrt zu der Funktion

LM P E =N p(t1res) Z

t1res

p(t0)dt0

!N−1

. (3.22)

Das Untersuchen des Verhaltens dieser verschiedenen Ans¨atze ist Ziel vieler Studien. Eine Studie ihres Verhaltens bei der Verwendung von Splinefits als Parametrisierung ist auch Teil dieser Arbeit (siehe Kapitel 4).

3.4.5 Faltung von Likelihoodfunktionen

Die in 3.4.1 beschriebene Ausschmierung der PDF durch die zeitliche Un- sicherheit der PMT, wird durch die PhotoSplines anders als bei der Pandel- funktion f¨ur die PDF p(tres) nicht beschrieben. Daher werden die so ermit- telten PDF’s nachtr¨aglich mit einer Gaußfunktion gefaltet

p0(tres) = Z

−∞p(t0)g(trest0)dt0. (3.23) Zus¨atzlich kann es f¨ur Treffer mit Spuren, die sehr nah an DOM liegen zu sehr spitzen Likelihood-Verteilungen kommen. Bei der MPE-Verteilung tritt dies f¨ur sehr hohe Ladungen ebenfalls auf. Da diese Verteilungen teilweise, trotz Faltung der PDF, viel schmaler sind als die zeitliche Unsicherheit der

(39)

3.4 Likelihood-Anpassungen 33

Abbildung 3.11: Die obigen Abbildungen zeigen mit Gaußfunktionen gefal- tete und ungefaltete Verteilungen f¨ur verschiedene Abst¨ande des DOM zur Spur des Myons. Bei einem Abstand von 0m sind die Verteilungen Deltafunk- tionen und die Faltung ergibt eine reine Normalverteilung. Bei gr¨oßeren Ab- st¨anden f¨uhrt sie zu einer Verbreiterung des Peaks, was zur Ber¨ucksichtigung der Zeitunsicherheit der PMT wichtig ist.

PMT, muss hier eine zus¨atzliche Gaußfaltung vorgenommen werden. Abbil- dung 3.11 zeigt die Auswirkungen, die eine solche Faltung f¨ur eine Panlel- MPE-Verteilung hat [40].

Die MPE ist bisher nicht Teil der Standardrekonstruktionsverfahren und ist f¨ur Photospline-Anpassungen hoch experimentell. Das Kapitel 6 besch¨aftigt sich mit einem MPE-Faltungsverfahren f¨ur Splinefits.

3.4.6 Untergrund Beschreibung

Das zuf¨allige Rauschen durch radioaktive Zerf¨alle ver¨andert die PDF um einen konstanten Wert wie in 3.4.1 beschrieben. Naturgem¨aß ist die zeitliche

(40)

Verteilung der Rauschtreffer eine Gleichverteilung. Betrachtet man die Ver- teilung der Zeitresiduen, beobachtet man neben einem Plateau auch einen Abfall zu sehr kleinen und sehr großen Zeitresiduen, wie in Abbildung 3.12 zu sehen ist. Die Abweichung von einem konstanten Plateau ist durch das zeitlich begrenzte Triggerfenster zu erkl¨aren. In dem f¨ur die Rekonstruktion relevanten Bereich kann man das Rauschen jedoch als konstant annehmen.

Dazu wird die Loglikelihoodfunktion aus Gleichung 3.8 um einen Rauschwert erg¨anzt:

llh = X

iDOM

log(L(qi,1, ..qi,NP ulse, ti,1res, ..., ti,NresP ulse) +cRausch) (3.24) F¨uhrt man ein RT-Cleaning wie in 3.2 beschrieben durch, werden Rausch- pulse mit fr¨uhen und sp¨aten Zeitresiduen aussortiert. Das f¨uhrt zu einer spitzeren Verteilung, die kein Plateau mehr aufweist. Um dies zu ber¨ucksichtigen muss der obige Rauschparameter variiert werden um die Form des Peaks zu beschreiben:

llh = X

iDOM

log(L(qi,1, ..qi,NP ulse, ti,1res, ..., ti,NresP ulse) +cRausch(d, E, t)), (3.25) wobei di der Abstand der Spur zum jeweiligen DOM und E die Energie des Teilchens ist. Die Standardrekonstruktionsverfahren ber¨ucksichtigen diese Abh¨angigkeit bisher nicht. Studien an der Johannes Gutenberg Universit¨at in Mainz haben gezeigt, das hierdurch eine Verbesserung der Aufl¨osung erzielt werden kann [38]. Weitere Untersuchen zu Auswirkungen des Rauschens auf die Rekonstruktion werden in 3.4.6 diskutiert.

3.5 Implementierung der Likelihood-Anpassungen in Icecube

Das Flussdiagramm in Abbildung 3.13 zeigt grob den Ablauf einer Rekon- struktion mit der IceCube-Rekonstruktionssoftware, genannt Icerec [42]. Mit- hilfe eines Pythonskripts erzeugt der Benutzter die ganz links abgebildeten Module und weist ihnen entsprechende Variablen zu.

F¨ur diese Studie wurde erstmalig eine in das ipdf Projekt eingebundene Ver- sion der Photosplinerekonstruktionen verwendet. Bei dieser Implementierung enth¨alt die Klasse I3GulliverIpdfPandel die Informationen, die zur Beschrei- bung der PDF ben¨otigt werden. F¨ur Photosplines ruft diese das Projekt Photonics-Service auf um die entsprechenden Informationen zu erhalten. Im Falle einer Parametrisierung durch die Pandelfunktion werden die angegebe- nen Parameter lediglich eingesetzt. Anschließend wird die PDF entsprechend

(41)

3.5 Implementierung der Likelihood-Anpassungen in Icecube 35

Abbildung 3.12: Die Zeitrsiduenverteilung von Rauschtreffern ohne Tref- ferselektion (oben) und mit RT-Cleaning (unten). [41]

(42)

Abbildung 3.13: Ein Flussdiagramm zur Rekonstruktion mit der IceCube- Software

den Einstellungen in eine Likelihoodfunktion umgerechnet. Die Klasse Al- lOMsLikelihoodwithConstandNoise rechnet dann die Ergebniss der einzelnen DOM in einen globalen Loglikelihood-Wert um.

Die Klasse I3Gulliver bildet die zentrale Einheit der Anpassung. Sie erh¨alt zun¨achst eine erste Hypothese (z.B. einen Linefit) und ordnet dieser durch Aufruf der oben erw¨ahnten Funktionen einen Loglikelihood-Wert zu. Der neg- ative Wert wird an den sogenannten Minimizer weitergegeben (siehe 3.5.1) , welcher diesen f¨ur das Finden des Minimums der Loglikelihoodfunktion ver- wendet (siehe 3.5.1). Ist der gefundene Wert minimal, gibt der Minimizer eine L¨osung an das Fitmodul zur¨uck, andernfalls liefert er einen Zwischenwert an I3Gulliver, welche wiederum einen Loglikelihood-Wert anfragt.

Neben dem oben beschriebenen Ablauf einer Rekonstruktion mit Spline- fits, gibt es auch alternative Implementierungen, die nicht die I3Gulliveripdf- PandelFactory sondern eine speziell f¨ur Photosplines ausgelegte Klassenfab-

(43)

3.5 Implementierung der Likelihood-Anpassungen in Icecube 37

rik verwenden. Da sich zum Vergleichen von Photosplines und Pandelfunk- tionen aber m¨oglichst ¨ahnliche Implementierungen besser eignen, wurde der beschriebene Algorithmus f¨ur diese Studie verwendet.

3.5.1 Der Simplex Algorithmus

Das in Icerec verwendete Modul zur Bestimmung des Minimums der neg- ativen Loglikelihoodfunktion wird I3Minuit genannt. Es ist eine Wrapper- funktion f¨ur die in ROOT implementierte Minuit Klasse [43]. Diese stellt mehrere Algorithmen zur numerischen Minimierung zur Verf¨ugung. Die hier verwendete ist der sogenannte Simplex-Algorithmus [44].

F¨ur einen m-dimensionalen Parameterraum, werden dabei zun¨achst m+ 1 Punkte definiert, wobei m Punkte symmetrisch um den gegebenen Start- punkt angeordnet werden. Diese Punkte bildet das sogenannte Simplex. An- schließend wird jeder Punkt evaluiert und der Punkt mit dem h¨ochsten Funk- tionswert an die gegen¨uberliegende Seite des aus den verbleibenden Punkten berechneten Mittelpunktes gesetzt.

Das Simplex hat die Eigenschaft zusammen zu schrumpfen, wenn es sich in einem Minimum befindet. Daher ist eine Toleranz auf dessen Gr¨oße definiert, ab der die Minimierung als konvergiert gilt. Eine zu niedrige Toleranzeinstel- lung kann zu einem Nichtkonvergieren oder zu einer starken Verlangsamung des Algorithmus f¨uhren, w¨ahrend eine zu hohe Einstellung zu Konvergenz bei falschen, lediglich lokalen Minima f¨uhren kann.

3.5.2 Fitmodule

Die oben erw¨ahnten Fitmodule sind die Python Module, welche unter Ver- wendung der Minimzer- , Seed- und Likelihood-Servicemodule, die Anpas- sung tats¨achlich ausf¨uhren. Hier gibt es verschiedene Ans¨atze, mehrere An- passungen unter Variation der ersten Spurhyphothese (Seed) durch zu f¨uhren.

Das simpelste m¨ogliche Fitmodul ist derI3SimpleFitter, welcher lediglich die oben beschriebene Anpassung einmal durchf¨uhrt.

Der I3IterativeFitter variiert nach einer Anpassung den gefundenen Zenitwinkel zuf¨allig und f¨uhrt mit der neuen Spur wieder eine Anpassung durch. Wie oft dies geschieht ist durch das Pythonmodul spezifizierbar. Das Modul gibt anschließend die Spur mit der besten Loglikelihood zur¨uck.

Der I3ParaboloidFitter tastet mit einer vom Nutzer gew¨ahlten Au- fl¨osung den gesamten Himmel ab. Jeder Punkt wird dabei als Seed f¨ur eine Likelihood-Anpassung verwendet. Das Modul gibt anschließend die Spur mit der besten Likelihood-Wert zur¨uck.

(44)
(45)

KAPITEL IV

Vergleich zwischen Photospline- und

Pandel-Rekonstruktionen

(46)

4.1 Konfiguration der Anpassungen

Die Einstellungen der Parameter f¨ur die durchgef¨uhrten Anpassungen sind in Tabelle 4.1 festgehalten. F¨ur bestimmte Anwendung wurden einige dieser Einstelllungen ver¨andert. Die Auswirkungen einer ¨Anderung einiger der Ein- stellungen wird in Kapitel 5 diskutiert.

In diesem Abschnitt soll ein kurzer ¨Uberblick ¨uber diese Gr¨oßen gegeben werden.

DieSchrittweiteist wichtig f¨ur die Umrechnung von Koordinaten des Min- imizers in physikalische Gr¨oßen und wird in Abschnitt 5.4 untersucht.

Die Minimizertoleranz beschreibt den Abstand zwischen den Punkten eines Simplex, der n¨otig ist, damit eine Minimierung als konvergiert gilt (siehe Abschnitt 3.5.1). Ihre Auswirkung auf die Anpassung wird in Abschnitt 5.2 untersucht.

Die verwendeten Photosplinetabellen wurden mit dem SPICE-Mie Eis- modell generiert (siehe Abschnitt 3.1). Es handelt sich um reine Myonentabellen, was bedeutet, dass keine Sekund¨arteilchen außer das bei der Neutrinowech- selwirkung entstehende Myon ber¨ucksichtigt werden. Diese Tabellen werden

”InfBareMuon” genannt.

Die durch die Zeitungenauigkeit der DOM bewirkte Verbreiterung der PDF wird sowohl bei Photospline-, als auch bei Pandel-Anpassungen durch die Faltung mit einer Gaußfunktion bewirkt (siehe Abschnitte 3.4.1, 3.4.2, 3.4.3). Der hier angegebene Parameter ist die Standardabweichung diese Gaußfunktion.

Die Funktionsweise derTrefferselektionwird in Abschnitt 3.2 beschrieben.

Ihre Auswirkung auf die Rekonstruktion wird in Abschnitt 5.3 diskutiert.

4.2 Vergleich der Pointspreadfunktion

4.2.1 Nugen-Daten

Die Abbildungen 4.1 und 4.2 zeigen die kumulative Winkelaufl¨osung f¨ur Pandel- und Photospline-Anpassungen. Die dabei angegebene Gr¨oße ist der Winkelψ zwischen der simulierten und der rekonstruierten Spur. Die bei der Anpassung verwendeten Werte sind Tabelle 4.1 zu entnehmen. Da die Monte-

(47)

4.2 Vergleich der Pointspreadfunktion 41

Parameter Wert

Schrittweite der Vertexkoordinaten 20 m Schrittweite des Zenitwinkels 0,1 rad Schrittweite des Azimutwinkels 0,2 rad

Minimizertoleranz 0,01

Photosplinetabellen ”InfBareMuon”

Photospline-Zeitungenauigkeit (Jitter) 4 ns

Pandel-Eismodell 2

Pandel-Zeitungenauigkeit (Jitter) 15 ns

Seed ”linefit”

Fitmodul ”I3IterativeFitter” mit vier Iterationen

Trefferselektion f¨ur den Linefit Seeded-RT-Cleaning Trefferselektion f¨ur die llh-fits keins

Rauschrate 104 Hz

Tabelle 4.1: Die Einstellungen f¨ur die in diesem Kapitel durchgef¨uhrten An- passungen

Carlo-Daten f¨ur die aktuelle IceCube Konfiguration noch nicht auf dem ben¨otigten Prozessierungslevel vorhanden waren, als diese Arbeit durchgef¨uhrt wurde, ist der verwendete Datensatz mit der 79-String Konfiguration von IceCube (IC79) erzeugt worden. Es handelt sich um einen Nugen Daten- satz, bei dem Neutrinos nach einem E−2 Spektrum generiert wurden. Insge- samt wurden 61.088 Ereignisse ausgewertet. Die quantitativen Werte der His- togramme k¨onnen Tabelle 4.2 entnommen werden. Wie in den Abbildungen 4.1 und 4.2 deutlich wird liefern die Anpassungen mit Photospline bei so gut wie allen Likelihood-Beschreibungen 3.4.4 eine bessere Aufl¨osung. Betrachtet

Fit Median [°] Mittelwert[°]

MPE und Pandel 2,27 27,82

MPE und Photosplines 2,45 30,84

SPEAll und Pandel 3,08 31,05

SPEAll und Photosplines 2,83 30,42

SPE1st und Pandel 2,36 26,48

SPE1st und Photosplines 1,85 25,52

SPEqAll und Pandel 3,24 32,39

SPEqAll und Photosplines 2,93 30,11

Tabelle 4.2: Ergebnisse der Rekonstruktionen f¨ur die verschiedenen Likeli- hoodfunktionen f¨ur den verwendeten Nugen Datensatz.

(48)

Abbildung 4.1: Ein kumulatives Histogramm des Winkels ψ zwischen der Rekonstruierten Spur und der Spur des durch Nugen simulierten Myons mit der h¨ochsten Energie. Hier wird f¨ur die SPE1st- und SPEAll-Likelihood- Beschreibung die Pandel- und Photospline-Rekonstruktionen miteinander verglichen.

(49)

4.2 Vergleich der Pointspreadfunktion 43

Abbildung 4.2: Ein kumulatives Histogramm des Winkels ψ zwischen der Rekonstruierten Spur und der Spur des durch Nugen simulierten Myons mit der h¨ochsten Energie. Hier wird f¨ur die MPE- und SPEqAll-Likelihood- Beschreibung die Pandel- und Photospline-Rekonstruktionen miteinander verglichen.

(50)

man nur Median und Mittelwert, so liefert allein die MPE-Likelihood f¨ur die Photosplines ein schlechteres Ergebnis als die Pandel-Rekonstruktionen.

Dabei ist der Median bei Analysen vor allem f¨ur die Identifikation von Punk- tquellen wichtig und die Mittelwert ein Maß daf¨ur wie gut schlecht Ereignisse Angepasst werden k¨onnen. Die Kurve der Photospline-Rekonstruktionen ist jedoch f¨ur kleine Winkeldifferenzenψ <2 steiler als die Pandelrekonstruk- tion, was darauf hindeutet, dass sich gut rekonstruierbare Ereignisse durch den Photospline besser beschreiben lassen, w¨ahrend uneindeutige Rekon- struktionen Probleme bereiten. Eine Erkl¨arung dieses Verhaltens ist die Ver- schlechterung der Leistung des Minimizers bei MPE-Photosplinerekonstru- ktionen (siehe Abschnitt 4.3). Die beste Aufl¨osung liefert hier die SPE1st- Photospline-Anpassung. SPE1st weist jedoch Probleme bei der Rekonstruk- tion der Vertices auf, wie in Abschnitt 4.3 zu sehen ist.

4.2.2 CORSIKA-Daten

Wie in Abschnitt 4.2.1 werden im folgenden Pandel und Photosplinerekon- struktionen f¨ur alle Likelihood-Beschreibungen miteinander verglichen. Der verwendete Datensatz ist ebenfalls mit der IC79-Geometrie erzeugt. Da es sich um einen CORSIKA Datensatz handelt, der nur atmosph¨arische Myonen enth¨alt ist von Interesse wieviele der abw¨artslaufenden Spuren f¨alschlicherweise als aufw¨artslaufend rekonstruiert werden, um bei experimentellen Daten bess- er zwischen Myonen atmosph¨arischen und kosmischen Ursprungs unterschei- den zu k¨onnen. Diese Unterscheidung ist f¨ur viele Analysen in IceCube von Bedeutung, da Aufw¨artslaufende Myonenspuren nur durch Nutrinowechsel- wirkung entstehen k¨onnen. Eine Spur wird als aufw¨artslaufend klassifiziert, wenn ihr Zenitwinkel gr¨oßer als 90 ist. Insgesamt wurden 12136 Ereignisse ausgewertet. Die Einstellungen der Anpassung sind mit den in Tabelle 4.1 gezeigten Werten identisch. Die Resultate der Anpassungen sind in den Ab- bildungen 4.3 und 4.4 sowie der Tabelle 4.3 zu sehen. Das Verhalten der Anpassungen ¨ahnelt dem f¨ur die Nugen Daten. Der niedrigere Prozentsatz an als aufw¨artslaufend klassifizierten Spuren f¨ur Photosplines zeigt, das sich ein besseres Verhalten bei der Aufl¨osung ψ auch auf diesen Wert positiv auswirkt.

4.3 Diskussion der Likelihooddifferenz

Eine M¨oglichkeit zum ¨uberpr¨ufen ob die verwendeten Likelihood-Beschreibungen die Realit¨at vertr¨aglich sind bietet der Likelihood-Quotiententest. Dabei han- delt es sich um einen Hyphothesentest. Man dividiert die Likelihoodfunk-

Referenzen

ÄHNLICHE DOKUMENTE