QoS auf dem Kabel

Durch die Seiten QoS - Sprache und Codec und QoS - Bandbreite und Priorität wissen Sie nun, welche Bedeutung Bandbreite und Prioritäten im LAN haben. Schauen wir etwas auf das Kabel.

Zugriffsverfahren auf dem Träger

Da ist zuerst einmal das LAN am Client, z.B. einem PC. Die Zeiten von Token-Ring und FDDI mit deterministischen Zugriffszeiten sind schon lange vorbei und wenn ihr Netzwerk nicht allzu alt ist, sollte jeder Client einen eigenen Port an einem Ethernet-Switch haben. Damit gehört ihnen schon mal die Strecke vom PC bis zum nächsten Knoten ganz alleine und nur lokale Programme streiten mit ihrem Lync Client um die Bandbreite.

Aber der Vollständigkeit halber seien hier noch mal ein paar andere Verfahren aufgezählt:

Verfahren Beschreibung Medien

TDM-Verfahren

Time Division Multiplex
Es gibt fest vorgegebene "Slots", die zugewiesen werden. Kollisionen finden nicht Start

ATM, DECT, GSM, UMTS

CSMA-CD

"CD=Collision Detection"
Jeder darf senden aber muss vorher lauschen, ob der Träger frei ist. Bei einer Kollision wird abgebrochen und nach zufälliger Zeit wieder versucht

Ethernet

CSMA-CA

"CA=Collision Avoidance"
Es gibt noch einen Zwischenweg, der ohne fest zugeordnete Schlitze arbeitet, aber Kollisionen vermeidet und damit auch eine gewisse Übertragungszeit garantiert hat.

FFDDI, Token Ring, WiFi

Nur die "TDM-Verfahren" garantieren eine Übertragung, aber beschränken natürlich auch die Anzahl der Teilnehmer. Genau dieses Verfahren ist aber z.B. auf einem ISDN-Anschluss im Einsatz. Auch bei DECT und GSM werden Zeitschlitze verteilt und damit kann jedes Endgerät vorhersehbar bedient werden.

CSMA-CD ist beim Einsatz von Switches bis zum Endgerät (also keine Hubs mit Shared Medium) kaum mehr ein Problem. Eng wird es nur, wenn an einer Stelle die verfügbare Bandbreite geringer ist, also die erforderliche Bandbreite. Dann hilft auch der schnellste Switch bis zum Endgerät nicht mehr.

Missverständnis um Bandbreite/Bandwidth und Duplex

Wie selbstverständlich reden wir heute von Bandbreiten. Im LAN ist 1 Gigabit für Serverschon Standard und selbst Desktops und andere Endgeräte sind mindestens mit 100MBit angebunden. Geräte die 10 MBit nutzen, sind schon sehr selten. Die Einführung von 10 GBit im Serverbackend oder bei Trunks kommt voran und auch im Bereich der Speichernetzwerke(SAN) sind die Bandbreiten mit 2,4,8 oder gar 16 GBit üblich.

Und wie selbstverständlich sprechen wir von Bandbreiten obwohl der Begriff "Breite" eigentlich komplett falsch ist. Eine Verbindung in Datennetzwerken ist nämlich fast immer eine "einspurige" Verbindung, in der die Pakete hintereinander fahren. Vergleichen wir es mit dem Straßenverkehr. Wir können die verschiedenen Straßen, welche sich in Fahrspuren aufteilen und natürlich sind Autobahnen breiter als eine Landstraße oder Nebenstraße. Diese Bild ist für Datenverbindungen aber irreführend, da diese nicht unterschiedlich breit sind und auch nicht überholt werden kann, sondern alle auf der gleichen Spur fahren.

Bandbreite Niedrig Mittel Hoch
Falsche Vorstellung


(c) Google Streetview. Aaltenseweg, Zelhem, Gelderland, Niederlande


(c) Google Streetview: 38 N330, Zelhem, Gelderland, Niederlande


(c) Google Streetview A2 bei Herford

Bessere Eselsbrücke


Langsame Dampflok


Regionalexpress


ICE

Alle drei Züge "transportieren" Personen aber mit individuell unterschiedlichen Geschwindigkeiten aber immer auf dem "einen" Gleis. Nur wenn mehrere Links z.B. in Form einen "Trunk" zusammengeschaltet werden, dann gibt es auch mehrere parallele Wege. In dem Fall können dann mehrere Pakete parallel übertragen werden. Allerdings nicht "schneller" im Bezug auf das einzelne Paket.

Statt des Begriffs "Bandbreite" sollte daher besser von "Datenübertragungsrate" gesprochen werden. Der oft ähnlich verwendete Begriff "Baud" ist nicht passend, da je nach Modulationsverfahren (z.B. DSL) auch mehrere Bits pro Einheit übertragen werden können.

WWAN-Verbindungen sind aber in der Regel bidirektional, d.h. es ist keine Einbahnstraße. Die Datenmenge kann auf beiden Richtungen ungestört voneinander übertragen werden. Anders sieht es wieder bei WLAN aus. Auf einer Frequenz kann nur ein Paket gleichzeitig übertragen werden. Allerdings gibt es mehrere Frequenzkanäle, so dass auch hier mehrere Wege offen stehen.

Ein gutes Beispiel ist der Wechsel einer WAN-Verbindung. Dieses einfache Beispiel zeigt einen "PING" auf einen Google DNS-Server (8.8.8.8) der lange zeit unter 30ms gedauert hat. Seit Mitte Juli 2012 aber die die Laufzeit der ICMP-Pakete deutlich länger und unterliegen auch einer breiteren Streuung.

Passiert ist hier eigentlich ein unspektakulärer umzug von einem Bürogebäude in ein anderes Gebäude. Dabei wurde aber die Anbindung an das Internet von einer Glasfaser (100MBit deren Durchsatz aber auf 4 MBit gedrosselt war) auf eine SDSL-Leitung mit 4MBit umgestellt. Obwohl nominell damit der gleiche Durchsatz vorhanden ist, hat sich die Laufzeit der Pakete verschlechtert.

Der Engpass und Queues

Aber auch die schnellste Verbindung kommt an einen Knotenpunkt an dem mehrere Verbindungen ein und ausgehen und die Pakete "Umsteigen" müssen. Vergleichbar zu einem Hauptbahnhof, in dem Reisende zwischen schnellen Fernzügen und langsameren Regionalzügen oder lokalem Nahverkehr umsteigen.

QoS und Priorisierung kommt immer dann zum Tragen, wenn zwischen den beiden Endpunkten die Bandbreite nicht ausreichend breit ist, um alle anstehenden Pakete ohne spürbare Verzögerung zu übertragen. Dabei gibt es keine harte Grenze, da Last in der Regel nicht gleichverteilt ist und daher die meisten Router entsprechende Warteschlangen pflegen. Mit "genug" Bandbreite muss man sich kaum Gedanken über QoS machen, zumindest dann nicht, wenn immer noch genug Restkapazität" vorhanden ist, um z.B. die kleinen VoIP-Pakete durchzuquetschen.

Wenn Sie sich das folgende Bild anschauen, dann wird ein Benutzer auf dem linken PC auch per RTAUDIO mit 100Kbit relativ problemlos über den 2 MBit WAN-Link zum Gateway kommen, um darüber zu telefonieren.

Würde es keine andere Last geben und 100Kbit eine feste Bandbreite sein, dann könnten bis zu 20 Telefonate gleichzeitig geführt werden. Wenn die Codes besser komprimieren, und weniger Bandbreite brauchen, könnten sie noch mehr Verbindungen parallel betreiben. Wenn Sie aber nun 30 Verbindungen betrieben und alle Gespräche nun 100kbit brauchen, dann passt das nicht mehr. Hoffentlich wird der Router dann UDP-Pakete "gleichmäßig" verwerfen und die Endpunkte dies erkennen und gegebenenfalls den Codec wechseln. Denn QoS bessert hier nichts. Vielleicht erinnern sie sich, dass ein primärmultiplex, der auch 2 MBit hat und dabei 32 Kanäle a 64kbit (=2048kbit) betreibt (30B+2D). Hier sind aber 30 Telefonleitungen mit dem G.711 Codec (64kbit fest) über Zeitschlitze (TDM) fest zugewiesen. Der 31te Anrufer bekommt aber ein "Besetzt".

Eine solche "Überlastung" einer Verbindung kann auch durch QoS nicht verhindert werden. QoS kann nur im Wettbewerb der verschiedenen Datenpakete für eine hoffentlich gute Übertragung von VoIP-Paketen sorgen. (Siehe QoS Bandbreite, Prio, CAC)

QoS und Internet und MPLS

Sie können gerne Pakete auch Richtung Internet taggen. Aber natürlich wird der Provider sich diese Priorisierung genau anschauen und gegebenenfalls überschreiben (z.B.: mit 0) Gerade Richtung Internet ist das wohl der Standard. Nur bei privaten Netzen z.B.: auf Basis von MPLS o.ä., verkaufen Provider ja auch diesen Service entsprechend und dort können Sie QoS nicht nur nutzen, sondern sollten sogar die zugewiesenen Bandbreiten abstimmen

QoS Richtung Internet wird fast immer schon am ersten Router des Providers ersetzt. Schlimmer noch: Eingehend können sie gar kein QoS erwartet, wenn die Gegenseite und alle Zwischenstationen dies nicht passieren lassen. D.h. ein Download eines Kollegen "füllt" die Bandbreite ihrer Internetanbindung in Empfangsrichtung und sie können nichts dagegen tun. Ein Grund mehr SIP-Trunks eigene Links zu geben.

VLAN und QoS

Oft höre ich, dass das ganze Thema VoIP doch wunderbar zu lösen wäre, wenn die Telefone in ein eigenes VLAN gestopft werden. Das ist so aber nicht korrekt. Ein VLAN trennt physikalische Netzwerke logisch von einander ab, d.h. alle Clients im gleichen VLAN können direkte miteinander sprechen. Über VLANs hinweg muss ein Router das Paket übertragen. Natürlich reduzieren VLANs z.B. die Belastung durch Broadcasts etc. im gleichen Subnetz und können die Sicherheit erhöhen, weil sich Geräte nicht mehr direkt sehen. Die VLAN-Kennzeichnung ist ganz tief auf dem Netzwerklevel verankert:

VLANs sind kein QoS Ersatz, denn ein eigenes VLAN ist keine Bandbreitensicherung.

Alle Stationen eines VLANs nutzen aber weiter den gemeinsamen Switch und vielleicht auch die gemeinsamen Trunks zu anderen Switches. Und spätestens hier müssen die Daten wieder über das gleiche Nadelöhr. Also muss der Switch natürlich auf dem Weg über Trunk nun entscheiden, ob er die QoS-Kennzeichnungen im IP-Paket "versteht" und entsprechend die Queue zum Trunk bedient oder ob er sich strickt an 802.1q hält, welches auf Layer-2 arbeitet und durch einen Layer2-Switch schneller zu verarbeiten ist. das VLAN-Tag ist nämlich direkt hinter der MAC-Adresse im Ethernet-Paket angesiedelt und Teilt sich die beiden Bytes (16bit) mit der 802.1p Klassifizierung.

Die Einstellung ist je Switch natürlich individuell. Aber ich habe Switches gesehen, bei denen man anhand der QoS-Klasse eine entsprechende 802.1p Klassifizierung zuweisen konnte, die dann auch als VLAN-Priorisierung verwendet wurde.

Der Netmon-Blick

Mit einem Netzwerk Analysator können Sie recht einfach auf dem Ethernet erkennen, welche Priorität ein entsprechendes Paket hat. Da DiffServ sich innerhalb von TCP/IP abspielt, können die Felder im IPv4 und IPv6-Paket gesehen werden

  • IPv4Paket mit Klassifizierung DSCSP 46
  • IPv6 Paket ohne Klassifizierung
  • 802.1p Kennzeichnung
    Diese Priorisierung auf Level2 ist natürlich auch in den OSI-Schichten tiefer verankert. Noch unterhalb des IP-Protokolls wird hier der QoS-Level übertragen. Hier einmal mit dem Default "0 = Best Effort" und einmal mit "2 = Spare"

Scheduler im Router

QoS ist eigentlich immer nur ein Thema, wenn es von einem "dicken Rohr" auf eine "dünne Strippe" geht. Ich benutze diesmal den Straßenverkehr als Beispiel:

  • Feuerwehr, Polizei
    Das klassische Beispiel für einen "priorisierten" Verkehr, der immer Vorrechte gegen alle anderen Transportdienste hat. Hoffen wir, dass nicht so viele Einsatzfahrzeuge gleichzeitig unterwegs sind, dass sie selbst den Stau darstellen. In vielen Netzwerken gibt es diese Prioritätsklasse, aber zum Schutz des gewöhnlichen Verkehrs darf sie nicht unbegrenzt Bandbreite belegen.
  • Gemeinverkehr
    Der normale PKW muss sich die verfügbare "Transportkapazität" der Straße mit anderen Teilnehmern teilen. Auf besonders staugefährdeten Stellen greifen verkehrslenkende Maßnahmen ein oder es werden ausweichstrecken befahren.
  • Schwerlastverkehr
    Sicher müssen auch Waren heute immer mehr "Just in Time" abgeliefert werden, aber die meisten Transporte sind nicht so zeitkritisch wie der Individualverkehr. Der LWK-Fahrer ist dann zwar langsamer am Ziel aber das ist tolerierbar. Dies ist auch sichtbar in der generellen Geschwindigkeitsbegrenzung, an den LWK-Überholverboten an Steigungen oder bestimmten Autobahnabschnitten und dem Sonntagsfahrverbot..

Das Beispiel "Straße" hinkt natürlich etwas, weil die Einordnung auf der Strecke selten fremdgesteuert wird und Fahrzeuge auf der Straße natürlich überholen können.

Auf einer WAN-Strecke wird nicht überholt.

Und damit stehen wir vor der komplizierten Verteilung von Bandbreite. Eine stumpfe Priorisierung nach der Wichtigkeit würde im Extremfall dazu führen, dass überhaupt kein Güterverkehr mehr durch kommt. Also muss man überlegen, ob man jeder Transportgruppe eine "Mindestbandbreite" garantiert oder ob für jede Klasse eine Maximalbandbreite zugewiesen wird, die in der Summe nicht über 100% ist. So eine statische Zuweisung von Maximalbandbreiten lässt aber Kapazitäten ungenutzt. Bei der Vorgabe von Mindestbandbreiten hingegen darf man natürlich auch nicht über 100% kommen.

Eine alleinige Nutzung von Mindestbandbreiten kann bei einigen Router-Produkten aber dazu führen, dass diese "zugesicherte" Bandbreite auch blockiert wird. Also etwa wie "ein Platz freihalten" oder ein Handtuch auf den Liegestuhl in Hotel platzieren. Nicht elegant und vor allem wenig effektiv für alle. Und selbst wenn jeder seine Mindestbandbreite hat, dann gilt es auch die restliche Bandbreite gezielt zu verteilen. Würde man nun "Round Robin" aus jeder Klasse immer ein Paket abrufen, dann hätte VoIP mit kleinen 200byte Paketen schlechtere Karten als ein FTP mit 1500Byte.

Es müsste also eine Lösung wie die "Schnellkasse" im Supermarkt her, bei der "kleine Pakete" vorbei dürfen. Erst an der Ausgangstür (aka der Sendequeue) müssten sie sich dann wieder in die Reihe einsortieren.

Unterstützung durch Net at Work:
Wir können Sie aktiv unterstützen. Rufen Sie einfach unter 0800-MSXFAQ (0800-638 28 96) an.

Weitere Links