• Keine Ergebnisse gefunden

Einfu hrung Parallel Graph Algorithms

N/A
N/A
Protected

Academic year: 2022

Aktie "Einfu hrung Parallel Graph Algorithms"

Copied!
8
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Einf ¨ uhrung – Parallel Graph Algorithms

Pr ¨asentation · 19. Oktober 2021

Sebastian Lamm, Matthias Schimek, Peter Sanders

INSTITUT FUR¨ THEORETISCHE INFORMATIK ·LEHRSTUHL ALGORITHMIK

(2)

Parallel Graph Algorithms

Warum Graphenalgorithmen?

Viele Probleme lassen sich elegant auf Graphen abbilden

Materialwissenschaften, Netzwerkanalyse, Routenplanung, . . .

Warum Parallel?

Stetig wachsende Datenmengen

320 TiB Common Crawl Graph mit 3.1 Milliarden Websiten, . . .

Breites Spektrum von einfach (Linearzeit) bis (NP-)schwer

z.B. Connected Components vs. Graph Partitioning

Unterschiedliche Herangehensweisen

Shared-memory, Distributed memory, MapReduce, . . .

Graphenspezifische Probleme

Komplexe Strukturen erzeugen irregul ¨are Synchronisationsmuster

(3)

Parallel Graph Algorithms

Warum Graphenalgorithmen?

Viele Probleme lassen sich elegant auf Graphen abbilden

Materialwissenschaften, Netzwerkanalyse, Routenplanung, . . .

Warum Parallel?

Stetig wachsende Datenmengen

320 TiB Common Crawl Graph mit 3.1 Milliarden Websiten, . . .

Breites Spektrum von einfach (Linearzeit) bis (NP-)schwer

z.B. Connected Components vs. Graph Partitioning

Unterschiedliche Herangehensweisen

Shared-memory, Distributed memory, MapReduce, . . .

Graphenspezifische Probleme

Komplexe Strukturen erzeugen irregul ¨are Synchronisationsmuster

Fokus des Seminars

Theoretisch effiziente Algorithmen Praktisch effiziente Algorithmen

Geringe Laufzeit, wenig Kommunikation, . . .

Skalierbar auf realen Maschinen, schnelle Laufzeit auf echten Eingaben, . . .

(4)

Ablauf

1. Themenvergabe

2. Erster Draft der Ausarbeitung

4. Finale Version und Slides

5. Abschlussvortr ¨age

Anmeldung per Email (bis n ¨achsten Mo) mit 3 potentiellen Themen (gewichtet)

(31.12.21, ca. 2 Monate)

3. Peer-Review (21.01.22, ca. 3 Wochen)

(11.02.22, ca. 3 Wochen)

(Ende Februar)

Draft der Ausarbeitung wird in EasyChair hochgeladen

Jeder Teilnehmer bekommt andere Ausarbeitung zugelost

Feedback aus Review einbauen

(5)

Ausarbeitungen

Mind. 7-8 Seiten nicht mehr als 10 (excl. Referenzen)

Ubersicht ¨uber den State of the Art¨ Vergleich mehrerer Ver ¨offentlichungen

”Startpaper” wird von uns bereitgestellt

Weitere Paper ¨uber Referenzen oder zitierende Paper Ansonsten Suchmaschinen: Google Scholar, DBLP,

. . .

Vorlage wird von uns bereitgestellt Format

Inhalt

Recherche

(6)

Peer-Review

Ca. 1-2 Seiten

Kurze Zusammenfassung des Inhalts

Kritik untergliedert in Major und Minor Remarks Vorlage wird von uns bereitgestellt

Format

Inhalt

Wichtig

Review ist Teil der Pr ¨ufungsleistung

Major: Wichtigen Algorithmus vergessen, Schlussfolgerungen unklar, . . .

Minor: Bspw. grammatikalische oder sprachliche Fehler

(7)

Vortr ¨age

Umfang 20-25 Minuten

Guideline: 1-2 Minuten pro Folie, also ca. 10-15 Folien

Wie Ausarbeitung kurzer ¨Uberblick ¨uber mehrere Ergebnisse Etwas detaillierter ein Ergebnis aufgreifen

Format

Inhalt

Feedback

Ca. 1 Woche nach Abgabe Feedback von Betreuern Anschließend 5-10 Minuten Fragen

(8)

Themen

connected components strongly connected

components

reachability data structures breadth-first-search

minimum spanning trees shortest paths

matchings

maximum flows coloring

graph partitioning graph clustering

ear-decomposition and its applications

Delaunay triangulation graph generators

centrality measures (e.g., betweenness) triangle counting Connectedness

Paths (Trees of Paths)

Optimization Problems

Dissecting Graphs

Constructing Graphs + Centrality

Referenzen

ÄHNLICHE DOKUMENTE

We then apply an inclusive segmented scan Once the rays are sort [SHG08] to array Skeleton considering the Head Flags § Compute exclusive prefix-sum on ChunkSize ⟶ ScanChunkSize build

§ Shared memory and local memory is private to each block of threads, cannot be seen by child threads.. § So, how to return a value from a

As expected, cuckoo hashing is highly robust against answering bad queries (Figure 6.5) and its performance degrades linearly as the average number of probes approaches the

§  Awareness of the issues (and solutions) when using massively parallel architectures.. §  Programming skills in CUDA (the language/compiler/frameworks for

§  Synchronization usually involves waiting by at least one task, and can therefore cause a parallel application's execution time to increase. §  Granularity :=

§  Device memory pointers (obtained from cudaMalloc() ). §  You can pass each kind of pointers around as much as you

One method to address this problem is the Smart Grid, where Model Predictive Control can be used to optimize energy consumption to match with the predicted stochastic energy

§  Assume the scan operation is a primitive that has unit time costs, then the following algorithms have the following complexities:.. 38