• Keine Ergebnisse gefunden

• Transmission Control Protocol (TCP)

N/A
N/A
Protected

Academic year: 2022

Aktie "• Transmission Control Protocol (TCP)"

Copied!
35
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Grundlagen der Rechnernetze

Transportschicht

(2)

Übersicht

• Einfacher Demultiplexer (UDP)

• Transmission Control Protocol (TCP)

• TCP‐Überlastkontrolle

• TCP‐Überlastvermeidung

• TCP‐Varianten

(3)

Einfacher Demultiplexer (UDP)

(4)

Demultiplexing aber sonst keine weitere Funktionalität über IP

UDP

Prozess 1 Prozess 2 Prozess 3

Ankommende Pakete

Queues

Demultiplexing mittels 

Portnummern Prozess 

IP‐Paket

Quelle: 192.100.120.40 Ziel: 192.200.133.100 Daten: UDP‐Paket

Data

SrcPort DstPort Length Checksum

Sender‐Host Empfänger‐Host

Port‐Nummern sind 16 Bits lang.

Damit gibt es 216 = 65536 unterschiedliche Ports.

Global eindeutige

Adresse eines Prozesses:

<Port,Host>

(5)

Woher erfährt der Sender die Port‐Nummer des Empfängers?

Möglichkeit 1: vorab festgelegte Port‐Nummern.

Zum Beispiel Port 53 für DNS, Port 25 für Mail‐Server oder Port 517 für Unix‐

Talk‐Programm

Festgelegte Portnummern werden in einem RFC periodisch aktualisiert

Unter vielen Unix‐Systemen findet man die festen Portnummern auch unter  /etc/services

Möglichkeit 2: Port‐Mapper

Nur ein festgelegter Port über den man den Port‐Mapper anspricht

Client fragt erst den Port‐Mapper nach dem richtigen Port für einen  bestimmten Dienst

Der rückgegebene Port wird dann für die Kontaktierung des eigentlichen  Services verwendet

Bemerkung: häufig werden nach dem ersten Kontakt zwischen Client und Server  ein privater Port für deren Session ausgemacht.

Client Port‐Mapper

Server

Host 1 Host 2

(6)

Transmission Control Protocol (TCP)

(7)

Übersicht

Anwendungsprozess A

TCP Sende‐

puffer

Anwendungsprozess B

TCP Empfangs‐

puffer

schreibe Bytes

lese

Bytes

Segment Segment

lese

Bytes

schreibe Bytes

Empfangs‐

puffer

Sende‐

puffer

IP IP

Segment Segment Segment Segment

(8)

Übersicht

Anwendungsprozess A

TCP Sende‐

puffer

Anwendungsprozess B

TCP Empfangs‐

puffer

schreibe Bytes

lese

Bytes

Segment Segment

lese

Bytes

schreibe Bytes

Empfangs‐

puffer

Sende‐

puffer

IP IP

Segment Segment Segment Segment

Grundfunktion

Zuverlässige Auslieferung

eines Full‐Duplex

Byte‐Streams in

korrekter Reihenfolge Darüber hinaus:

Flusskontrolle (vermeidet, dass  Sender den Empfänger 

überlastet)

Lastkontrolle (vermeidet, dass  Sender zu viel Last im Netz  erzeugt)

Wie auch bei UDP:

Port‐Mechanismus

(9)

Segmentnummerierung und ACKs

Initiale Sequenznummer: 1999 Byte‐Stream

Segment 1 Bytes:

0…1023 Sequenz‐

nummer:

2000

Segment 2 Bytes:

1024…2047 Sequenz‐

nummer:

3024

Segment 3 Bytes:

2048…5000 Sequenz‐

nummer:

4028

Sender Empfänger Daten (SequenceNum)

Acknowledgment (SequenceNum+1) Bestätigt wird immer das 

nächste erwartete Byte

(10)

Sliding‐Window

Sendende  Anwendung

TCP

LastByteAcked

LastByteWritten

LastByteSent

Sendepuffer

Empfangende  Anwendung

TCP

NextByteExpected

LastByteRead

LastByteRcvd

Empfangspuffer

MaxSendBuffer = Größe des Sendepuffers MaxRcvBuffer = Größe des Empfangspuffers TCP‐Acknowledgements sind kummulativ (Kummulative ACKs) – bestätigt wird die Nummer  des ersten noch fehlenden Bytes. Alle vorigen Bytes wurden schon vollständig empfangen.

(11)

Flusskontrolle

Sender

TCP

v=LastByteAcked

l=LastByteWritten

w=LastByteSent

Empfänger

TCP

NextByteExpected

x=LastByteRead

y=LastByteRcvd

MSB = MaxSendBuffer MRB=MaxRcvBuffer

Zur Vermeidung eines Empfangs‐

pufferüberlaufes muss gelten:

Hierzu wird dem Sender das folgende 

„AdvertisedWindow“ a mitgeteilt:

Auf Senderseite muss stets gelten:

Damit ist das Maximum an Daten,  welches der Sender versenden darf  (genannt „EffectiveWindow“ e):

Anwendung, die z Bytes schreibt wird  blockiert, wenn:

(12)

Protokollablauf

Verbindungsaufbau

Datenübertragungsphase

Verbindungsabbau

Bildquelle: en.wikipedia.org/wiki/Transmission_Control_Protocol

(13)

Tafelanschrieb

(14)

Segmentstruktur

Octet 0 1 2 3

Bit 0 1 2 3 4 5 6 7 8 9 10111213141516171819202122232425262728293031

0 0 Source Port Destination Port

4 32 Sequence Number

8 64 Acknowledgement Number (if ACK set) 12 96 Data 

Offset

Rsrved 0 0 0

N S

C W

R E C E

U R G

A C K

P S H

R S T

S Y N

F I N

Window Size

16 128 Checksum Urgent Pointer (if URG set) 20

160

Options (if data Offset > 5)

(Padded at end with 0‐Bytes if necessary)

Data

(15)

Regulärer Duplexbetrieb

AdvWnd=1024, AckedSeqNr=3463

Gerät 1 Gerät 2

(16)

AdvertisedWindow = 0   Deadlock?

AdvertisedWindow=0

Empfangspuffer  wird geleert  und Empfänger  sendet nichts  an den Sender  zurück.

Empfänger Sender

Annahme: Sender  sendet ab hier  nicht weiter

Woher weis der  Sender, dass  wieder Platz im  Empfängerpuffer  ist?!?

AdvertisedWindow=0

Empfangspuffer  wird geleert  und Empfänger  sendet nichts  an den Sender  zurück.

Empfänger Sender

Segment der Länge 1

AdvertisedWindow=0

Segment der Länge 1

AdvertisedWindow=1200

Probing mit  Segment der  Länge 1

Persist timer

(17)

Wann soll ein Segment versendet werden?

TCP verwaltet eine Variable Maximum‐Segment‐Size (MSS)

MSS = MTU des lokalen Netzes  minus TCP‐ und IP‐Headergröße Versende Segment auf jeden Fall sobald

• mindestens MSS viele neue Bytes vorliegen oder

• der sendende Prozess explizit darum bittet (push)

Was sonst? Warum nicht aggressiv immer sofort senden?

(18)

Sofortiges Senden bedeutet unnötiger Overhead

Sender Empfänger

Sendepuffer leer

2 Bytes erzeugt 7 Bytes erzeugt 3 Bytes erzeugt

Segment mit ein paar wenigen Bytes bedeutet unnötiger Overhead. Versendet  werden muss: Daten + IP‐Header + TCP‐Header.

Effekte wie diesen, in denen unnötig kleine Pakete versendet werden, nennt man  auch Silly‐Window‐Syndrom.

Besser wäre es doch zu warten, bis der Puffer wieder gut gefüllt ist. Wie lange  sollte man warten?

(19)

Nagle‘s Algorithmus

Routine, die von TCP ausgeführt wird, wenn die sendende  Applikation neue Daten produziert hat:

if verfügbare Daten und Window >= MSS then sende volles Segment

else

if nicht-Acked Data unterwegs then

puffere die Daten bis Ack ankommt else

sende alle neuen Daten jetzt endif

endif

(Die Vorgehensweise von Nagle‘s Lösung nennt man auch self‐

(20)

Reübertragung bei TCP der ersten Stunde

TCP‐Sender TCP‐Empfänger

Segment

*

Wie lange warten, bis  das Segment 

reübertragen wird?

Erste TCP‐

Implementierungen 

verwenden das zweifache  der RTT.

Woher kennt man die RTT?

(21)

Ermitteln der RTT

Ein Sample RTT(i) bei gegebener Segment‐Sendezeit s und  Acknowledgement‐Zeit a für das ite versendete Segment:

Ein simpler Ansatz wäre das Stichprobenmittel darüber, also:

Die gesamte Summation muss dabei nicht jedes mal neu berechnet  werden:

(22)

Ermitteln der RTT

Nachteil des einfachen Stichprobenmittels:

• jede Messung auch die in der weiten Vergangenheit haben  dasselbe Gewicht

• Besser wäre es doch den aktuellen Messungen das meiste  Gewicht zu geben

Lösung exponentiell gewichteter gleitender Mittelwert (so ist es  auch in der Original‐TCP‐Spezifikation in RFC 793) realisiert:

Einfluss von ? TCP verwendet  zwischen 0,8 und 0,9.

(23)

Ermitteln der RTT

Warum lautet dieser gleitende Mittelwert eigentlich exponentiell  gewichtet? Expandieren liefert:

Also z.B. für alpha=0,8:

(24)

Problem: Zuordnung von ACKs

Sender Empfänger Sender Empfänger

SampleRTT

zu lang SampleRTT

zu kurz

Karn/Patridge‐Algorithmus: Ignoriere einfach die Segmente, die reübertragen wurden.

Darüber hinaus: wann immer ein Segment reübertragen werden musste:

Timeout = 2*Timeout (Exponential Backoff)

(25)

Einbeziehen der Varianz

Warum eigentlich Timeout für Reübertragung = 2*EstimatedRTT? 

RTT ist variabel, d.h. man sollte einen Sicherheitsabstand (hier eine  zusätzliche RTT) einhalten.

Aber wieso ist genau eine zusätzliche RTT gut? Besser: 

berücksichtige die Varianz der RTT‐Messungen. Jacobson/Karels‐

Algorithmus: schätze die folgende mittlere Abweichung:

Hierbei ist E[X] der Erwartungswert von Zufallsvariable X.

(26)

Einbeziehen der Varianz

Einfache Stichprobenvarianz lässt sich wie folgt berechnen:

Analog zur mittleren RTT lassen sich hierbei ebenfalls durch  exponentiell gleitenden Mittelwert neuere Varianzwerte höher  gewichten als ältere.

(27)

Einbeziehen der Varianz

Die komplette Berechnung nach Jacobson/Karels‐Algorithmus ist  dann wie folgt: 

Hierbei ist nach der Originalveröffentlichung von Jacobson:

g = 1/8 = 0,125 h = 1/4 = 0,25

(28)

Diskussion

Bandbreite Zeit bis Sequenz‐

nummern verbraucht  sind

T1 (1,5 Mbps) 6,4 Stunden Ethernet (10 Mbps) 57 Minuten T3 (45 Mbps) 13 Minuten Fast Ethernet (100 Mbps) 6 Minuten OC‐3 (155 Mbps) 4 Minuten OC‐12 (622 Mbps) 55 Sekunden OC‐48 (2,5 Gbps) 14 Sekunden

Bandbreite Delay‐Bandbreiten‐

Produkt für 

beispielsweise 100 ms RTT

T1 (1,5 Mbps) 18 KB Ethernet (10 Mbps) 122 KB

T3 (45 Mbps) 549 KB

Fast Ethernet (100 Mbps) 1,2 MB OC‐3 (155 Mbps) 1,8 MB OC‐12 (622 Mbps) 7,4 MB OC‐48 (2,5 Gbps) 29,6 MB

Kurze „Wraparound‐Zeit“ kann 

problematisch werden, wenn der Delay  und Bandbreite groß sind. Alte  Segmente  interferieren mit aktuellen. 

Das Sendefenster erlaubt mit 16‐Bit‐

AdvertisedWindow‐Werten, dass maximal  64KB Daten unterwegs sind. Somit wird bei  großem Delay eine große verfügbare 

Bandbreite kaum genutzt.

Lösungen? TCP‐Erweiterungen...

(29)

TCP‐Erweiterungen

32‐Bit‐Timestamp

Speichere Sendezeit in Segment

Wiederhole die Zeit im ACK

Berechne RTT bei ACK‐Empfang Sender braucht keine Timestamps zu

verwalten. Die sind „im Netz gespeichert“.

32‐Bit‐Sequenznummern: Lösung der  vorhin beschriebenen kurzen Wrap‐

around‐Zeiten

Verwende oben beschriebenen  Timestamp

Segmente mit gleichen 

SequenceNum‐Werten sind anhand  des Timestamp unterscheidbar

SrcPort DstPort SequenceNum

Acknowledgment

HdrLen

Checksum

Options (variable)

0 Flags AdvertisedWindow

UrgPtr

Data

0      4         10        16       31

Erinnerung: TCP‐Header

(30)

TCP‐Erweiterungen

Scaling‐Factor für das 16‐Bit‐Advertised‐

Window

Lösung der vorhin beschriebenen  Ineffizienz bei hohem Delay‐

Bandbreitenprodukt

AdvertisedWindow‐Wert wird mit  dem Scaling‐Factor multipliziert Selective‐ACK (SACK)

Verbesserung des kummulativen ACK  von TCP.

Neben dem gewöhnlichen 

Acknowledgement speichert das  Optionale Feld zusätzliche 

Acknowledgements für die nicht  aufeinander folgenden Segmente

Sender braucht nur noch die Lücken  zu reübertragen

SrcPort DstPort SequenceNum

Acknowledgment

HdrLen

Checksum

Options (variable)

0 Flags AdvertisedWindow

UrgPtr

Data

0      4         10        16       31

NextByteExpected LastByteRead

LastByteRcvd

(31)

TCP‐Überlastkontrolle

(32)

Motivation

Bisher haben wir die Flusskontrolle besprochen:

Regulieren der Senderate, um eine Überlastung des Empfängers  zu vermeiden.

Wir interessieren uns nun für die Überlastkontrolle:

Regulieren der Senderate, um eine Überlastung des ganzen  Netzes zu vermeiden.

Die TCP‐Flusskontrolle verwendet (wie schon gezeigt) das 

EffectiveWindow: es dürfen nur EffectiveWindow viele weitere  Bytes versendet werden.

• Versenden von weiteren Bytes verkleinert das EffectiveWindow

• Empfang von Acknowledgements vergrößert das Window wieder

Das EffectiveWindow kann auch für die Überlastkontrolle verwendet werden: ...

(33)

EffectiveWindow für Fluss‐ und Überlastkontrolle

Annahme in der Variable CongestionWindow steht, wie viel Bytes  das Netz im Transit erlaubt.

Setze das EffectiveWindow wie folgt:

Aber woher lernt TCP das CongestionWindow?

Additive Increase / Multiplicative Decrease (AIMD):

• Sender halbiert das Fenster, wenn er Überlast vermutet

• Sonst vergrößere das Fenster um eine MSS pro RTT Das Fenster darf aber nie kleiner als eine MSS werden

Wie kann man Überlast vermuten? Wann immer ein Timeout für  ein ausstehendes ACK stattfindet.

(34)

Additive‐Increase‐Beispiel

Source Destination

RTT

RTT

RTT

Erhöhe um  eine MSS

Erhöhe um  eine MSS

Erhöhe um  eine MSS

...

... ...

Inkrement pro RTT:

Inkrement pro ACK?

Sei c die alte Länge des  CongestionWindow. Nach  einem RTT‐Durchlauf ist:

(35)

Ein typisches AIMD‐Muster

CongestionWindowGröße

Zeit

Referenzen

ÄHNLICHE DOKUMENTE

BTOS II Standard Software Operations Guide (relative to release 2.0 or higher) This guide contains introductory, procedural, and reference information for using the

 Wird innerhalb eines sliding Window ein Segment verloren, muss das ganze Fenster erneut gesendet werden (und TCP fällt in Slow Start) Einfache Idee zur Verbesserung:.  Wenn

 Wird innerhalb eines sliding Window ein Segment verloren, muss das ganze Fenster erneut gesendet werden. Einfache Idee

MaxSendBuffer = Größe des Sendepuffers MaxRcvBuffer = Größe des Empfangspuffers TCP‐Acknowledgements sind kummulativ (Kummulative ACKs) –

LastByteWritten ‐ LastByteAcked Diese Größe muss immer kleiner gleich MaxSendBuffer

5.2.3 Connection Establishement and Termination 5.2.4 Sliding Window Revisited. 5.2.5 Triggering Transmission 5.2.6 Adaptive Retransmission

Empfangspuffer  wird geleert  und Annahme  der Empfänger  sendet nichts  an den Sender  zurück.

Because Telcon configuration statements apply to a wide range of communications purposes and configurations, this section describes only how to configure the following