News & Presse

20.05.2010

Auswahlkriterien von Switchting-Architekturen beim Design von Cloud Netzwerken

In den späten 90er Jahren entwickelte Netzwerke adressierten vornehmlich statische Anwendungen und E-Mail. Die neuen Anwendungen und Verkehrsmuster von heute sind dynamisch und erfordern neue Switching-Ansätze, um auf Echtzeit-Anwendungen zuzugreifen. Die Zukunft des Cloud-Networking optimiert die folgenden Variablen: garantierte Leistung, geringe Latenz und voll vermaschte Kommunikationsmuster. Die Switching-Architekturen und erweiterten Produktreihen der 7000-Familie sind dafür entwickelt, eine optimierte Cloud-Netzwerk-Lösung abzugeben.

Überblick

Netzwerke erfordern heute eine jederzeit klar berechenbare Performance, denn sie sind erheblich sensibler gegenüber den über sie laufenden Anwendungen, als das bei traditionellen Netzwerken mit statischer Adresszuweisung der Fall war. In der Vergangenheit wurden Unternehmensnetze für spezifische Anwendungen entworfen - die neuen Cloud-Netze im Rechenzentrum sind in der Lage, eine Vielzahl von Applikationen zu bedienen. Dies ist ein grundlegender Fortschritt im Vergleich zu den heute noch oft üblichen, überladenen Netzwerken, in welchen Verspätungen und Verzögerungen bei der Übertragung sozusagen fest mit eingebaut sind.

Berechenbare Netzwerkleistung auf Basis von Applikationen:

Anders als frühere Client-/Server-Designs, die für klassischen Web- (etwa 256 kByte), E-Mail- (1 MByte), oder Filetransfer-Verkehr (10 MByte) ausgelegt waren, müssen Cloud-Netzwerke in den Rechenzentren ein exakt berechenbares Maß an Übertragungsleistung bieten. Moderne Applikationen wie beispielsweise algorithmisches Trading in schneller Frequenz oder seismische Sondierungsanalysen können sehr spezielle, genau umrisse Anforderungen stellen. In den genannten Beispielen könnte das etwa eine extrem niedrige Verzögerungszeit sein. Andere Beispiele umfassen etwa die Bewegung großer Mengen gespeicherter Daten oder von Images virtueller Maschinen. Auch Datenströme groß angelegter Analysen von Web-2.0-Applikationen sind ein typisches Szenario. Für all solche Anwendungen geeignete Rechenzentren brauchen blockierungsfreie und berechenbare Performance. Ein Schlüsselaspekt entsprechender Switching-Architekturen ist die gleichbleibende Performance für Applikationen über physikalische und virtuelle Maschinen hinweg. Für alle Netzwerkknoten müssen blockierungsfreie Bandbreiten und berechenbare Verzögerungszeiten gleich sein. Auch die neueren Multikernprozessoren sind eine Herausforderung für die Netzwerkbandbreite. Aus diesen Gründen zählt konsistente Bandbreite in Verbindung mit einem ausgewogenen Mix aus Skalierbarkeit in Terrabit-Dimensionen, berechenbaren, niedrigen Verzögerungen, blockierungsfreiem Durchsatz und Hochgeschwindigkeitsverbindungen auf Basis mehrerer 1/10 GbE- und künftig auch 40/100 GbE-Links für Cloud-Netzwerkarchitekturen zu den grundlegenden Charakteristika.

Grundlagen: Switching-Infrastrukturen für Rechenzentren

Für das Cloud-Switching im Rechenzentrum kristallisieren sich derzeit zwei Architekturen heraus: Cut-Through-Switching (Pakete werden weitergeleitet, sobald der Switch darin die Zieladresse gelesen hat) bietet in HPC-Cluster-Umgebungen (HPC = High Performance Compute) extrem kurze Latenzzeiten, während Store and Forward-Switching mit seinem tiefen Speichergewebe und seinen VOQ-Mechamismen (Virtual Output Queuing) die nötigen Puffer für Web-basierte Rechenzentrumsapplikationen bietet (Bild 1). Die Switches der 7100-Serie von Arista sind mit ihrer zweistufigen, auf geringste Latenz ausgelegten "Leaf und Spine"-Architektur ideal für HPC-Netzwerk-Umgebungen. (Anders als beim klassischen, dreistufigen Modell mit Access-, Aggregations-/Verteilungs- und Kern-Switches gibt es in der Arista-Architektur nur noch zwei Ebenen: Die Aggregationsebene ist in den Access- und Kern-Switches aufgelöst.

Arista nennt den Kern "Spine" (Rückgrat) und den Access "Leaf" (Blatt)). Die Arista 7048-Serie eignet sich dagegen perfekt für stark beladene Rechenzentren der nächsten Generation, die 1- und 10-GbE-Verbindungen einsetzen, um sowohl Speicher als auch Web-basierte Applikationen zu unterstützen.


Bild 1a: HPC Netzwerk-Applikation mit niedriger Verzögerung


Bild 1b: Groß angelegtes, asymmetrisches Rechenzentrumsdesign

HPC-Cluster mit niedriger Verzögerung:

Moderne Anwendungen für den schnell getakteten Handel bei Finanzdiensten nutzen Echtzeit-Marktdaten. Sie erfordern Cut-Through- und Shared-Memory-Switch-Technologien, um die ultraniedrigen Verzögerungszeiten von wenigen Mikrosekunden – manchmal sogar nur einigen hundert Nanosekunden – liefern zu können. Der Vorteil dieser 10 GbE-Technologie sind beste Verzögerungswerte bei minimalen Puffern auf Port-Ebene. Dies garantiert nahezu sofortige Informationsübertragung über das Netz, um Daten-Feeder, Clients oder algorithmische Trading-Applikationen zu bedienen. Cut-Throug-Switching ist die ideale Architektur für "Leaf-Server" mit "wohl geordneten" und symmetrischen Verkehrsmustern. Beispiele sind etwa High Performance Computing (HPC), seismische Analysen und eben hochfrequente Trading-Applikationen. Die Technologie geht davon aus, dass das Netzwerk zu weniger als 50 Prozent ausgelastet und damit nicht überladen ist. Außerdem erachtet sie niedrige Verzögerungszeiten als kritisch. Cut-Throug-Switching kann mehrere Mikrosekunden einsparen, besonders mit großen beziehungsweise sehr großen (Jumbo-) Frame-Paketen. In Umgebungen, in denen gilt: "Zeit ist Geld", kann diese Dimension niedriger Verzögerungszeiten schnell Millionen Dollar sparen. Die Arista 7100 Serie ist optimal für ultra niedrige Latenzzeiten geeignet, denn Pakete werden sofort nach dem Empfang weitergeleitet und nicht im Speicher zwischengepuffert. Die Geräte erlauben auch schnelles Multicasting, indem sie Queuing- und Serialisierungsverzögerungen minimieren (Bild 2).


Bild 2: Cut-Through Switching für HPC-Cluster mit niedrigen Latenzzeiten

Berechenbare Leistung für die Rechenzentren der nächsten Generation:

In stark ausgelasteten Netzwerken wie solchen mit tragenden, zentralen Anwendungen, nahtlosem Speicherzugriff an verschiedenen Punkten den Netzwerks, Ressourcen-Pools für Rechenleistung und Applikationen, ebenso wie Rechenzentrum-Backbones, ist eine berechenbare, gleichbleibende Performance im geswitchten Netzwerkaufbau eine absolute Schlüsselanforderung. Typische Beispiele sind Anwendungen, die große Datenblöcke verlangen wie Map-Reduce-Cluster (ein von Google eingeführtes Framework für nebenläufige Berechnungen über große Datenmengen auf Computer-Verbunden), verteilte Suchaufträge und Systeme für Datenbankabfragen. Gleichbleibende Leistung ist hier eine zwingende Anforderung. Geringfügige Latenzen von 3-6 Mikrosekunden sind akzeptabel, nachdem bisherige Switches schlechter als größenordnungsmäßig 20-100 Mikrosekunden lagen. Eine Switching-Architektur, die erweiterte Puffer unterstützt – und hier geht es um viele Megabytes per Port – in einem sauber geplanten Store-and-Forward-System, erweist sich als optimal für solche Anwendungen. Moderne Store-and-Forward Switching-Architekturen nutzen Virtual Output Queuing (VOQ), um den "jeder-mit-jedem"-Verkehr (Vermaschung) besser zu koordinieren. VOQ verhindert die Überlastung des Switch-Geflechts ebenso wie die "Head of Line Blocking"-Probleme, die bei früheren Switches oft nervten. Die Kombination aus VOQ und erweiterten Puffern bringt Applikationen und dem gesamten Netzwerk ein klares Plus an Flexibilität. Große Puffer lindern Überlastungsprobleme, wenn der Verkehr versprengt oder von Gerätedaten, die auf gemeinsamen Servern gleichzeitig zusammenlaufen, stark beladen ist. Ein Beispiel für letzteres ist, wenn ein Applikations-Server von verteilten Storage-Servern Daten empfängt und all diese Antworten mehr oder weniger gleichzeitig auflaufen. In solchen Fällen muss der Switch über ein angemessenes Puffer verfügen, um die Speicherdaten ohne Verlust halten zu können. Auch für asymmetrische Übertragungen zwischen 1 und 10 GbE-Netzwerken sind große Puffer wichtig, um die unterschiedlichen Verbindungsgeschwindigkeiten ausgleichen zu können.


Bild 3: Größere Rechenzentren brauchen für asymmetrischen Verkehr große Puffer und VOQ/Store-and-Forward-Switching

Anwendungen in Cloud-Netzwerken:

Cloud-Netzwerke lassen sich sehr gut mit den zweistufigen "Leaf and Spine"-Switches von Arista aufsetzen (Bild 4). Sehen wir uns einmal eine bedeutende und allseits bekannte Anwendung aus dem Bereich soziale Netzwerke an: Facebook. Wie aus verschiedenen Quellen hervorgeht, wurde hier ein Cloud-Netzwerk mit über 30.000 Servern aufgebaut, mit jeweils 800 Servern pro Memory-Cache-Cluster. Insgesamt erzeugen die Server 50 bis 100 Millionen Anfragen, während sie 28 Terrabytes an Speicher durchsuchen! Anstelle der traditionellen Datenbank-Suchschemen, die sich etwa 5 Millisekunden Zugriffszeit gönnen, nutzt Facebook eine Memory-Cache-Architektur, über die sich die Zugriffszeiten auf weniger als eine halbe Millisekunde reduzieren! Weniger Übertragungswiederholungen reduzieren ebenfalls die Verzögerung und verbesserte, stabile Verbindungen sorgen für erhöhte Leistung. In dieser Umgebung sollten große Puffer mit garantiertem Zugriff eine Schlüsselerwägung sein. Der Arista 7048 ebenso wie künftige VOQ-Produkte stellen quasi den "natürlichen Lebensraum" für Anwendungen mit großen Mengen an Speicher, Suchfunktionen, Datenbankabfragen und Web-Verkehr dar.

Betrachten Sie diesen bewährten Fall für verzögerungsfreie HFT-Applikationen (HFT = High Frequency Trading = elektronischer Handel in extrem schneller Abfolge). Hier werden Programme benutzt, die einen Finanzhandel auf Basis von Echtzeitkriterien wie Uhrzeit, Preis oder Orderhöhen automatisch ausführen. Entsprechende Applikationen sind bei Hedge-Fonds, Renten-Fonds, Wechsel-Fonds und anderen institutionellen Finanzhändlern weit verbreitet. Während die Applikation läuft, reagiert sie auf jeden Input oder jedes Informationshäppchen und führt den entsprechenden Handel in Bruchteilen einer Mikrosekunde aus – im wahrsten Sinne des Wortes mit einem Wimpernschlag. Finanzprotokolle werden häufig für den internationalen Austausch von Echtzeit-Informationen über Wertpapiere oder Markt-Transaktionen verwendet. Es wird erwartet, dass künftig immer mehr Anwendungen über mehrere Verbindungen gleichzeitig bedient werden. Dadurch werden niedrige Latenzzeiten für Verbindungen über Rechen-Cluster-Knoten künftig zur Top-Anforderung für Cloud- und Switching-Architekturen. Die Arista7100-Serie fügt sich optimal in diese HPC-Designs mit extrem niedriger Latenz.


Bild 4: Cloud-Netzwerk-Designs auf Basis der Arista 7000 Familie

Zusammenfassung:

Es gibt eine wachsende Zahl von "Killer-Applikationen" für Cloud-Netzwerke, für die sich die neuen Rechenzentrum-Switching-Architekturen von Arista als besonders vorteilhaft erweisen. Dazu zählen:

• High Frequency Trading (elektronischer Finanzhandel in extrem schneller Abfolge)
• High Performance Computing (HPC)
• Applikationen für Rechnerverbunde
• Video on Demand
• Zugriff auf Netzwerkspeicher
• Web-Analysen, Map-Reduce, Datenbanken und Suchanfragen
• Virtualisierung
In den späten 90er Jahren entwickelte Netzwerke adressierten vornehmlich statische Anwendungen und E-Mail. Die neuen Anwendungen und Verkehrsmuster von heute sind dynamisch und erfordern neue Switching-Ansätze, um auf Echtzeit-Anwendungen zuzugreifen. Die Zukunft des Cloud-Networking optimiert die folgenden Variablen: garantierte Leistung, geringe Latenz und voll vermaschte Kommunikationsmuster. Die Switching-Architekturen und erweiterten Produktreihen der 7000-Familie sind dafür entwickelt, eine optimierte Cloud-Netzwerk-Lösung abzugeben.

© Copyright 2009 Arista Networks Inc. (www.aristanetworks.com)
Übersetzung vom Englischen ins Deutsche: SEiCOM Communication Systems GmbH (www.seicom-muc.de)

Über SEiCOM:
SEiCOM ist bereits seit über 15 Jahren als Value-Added High-end-Distributor für IT-Infrastrukturen auf dem deutschsprachigen Markt tätig. Das Unternehmen hat bereits mit vielen hochkarätigen Herstellen aus USA und Deutschland zusammengearbeitet. Unter anderem war SEiCOM 1997 erster europäischer Distributor von Extreme Networks und hat maßgeblich zu dessen Popularität in Deutschland beigetragen. In den letzten 6 Jahren hat SEiCOM zudem seine Kompetenz in drahtlosen und drahtgebundenen Netzwerktechnologien verstärkt und führende Marken wie Aerohive, Airtight, Airwave, Arista, Aruba, Ekahau und zuletzt QLogic in sein Programm aufgenommen. Details finden Sie auf unserer Webseite www.seicom-muc.de

Über Arista:
Arista Networks hat sich auf Cloud-Netzwerklösungen für große Rechenzentren und Rechnerumgebungen spezialisiert. Arista bietet klassenbeste 10-Gigabit-Ethernet-Switches die Skalierbarkeit, Robustheit und nicht zuletzt das Preis-/Leistungsverhältnis auf diesem Sektor völlig neu definieren. Kern der Arista-Plattform ist das Extensible Operating System (EOS), ein Pionierstück in Sachen Software-Architektur mit Selbstheilungsfähigkeiten und der Möglichkeit, Upgrades im laufenden Betrieb durchzuführen.


Weitere Informationen:

SEiCOM Communication Systems GmbH
Dieter Seipt
Klenzestr. 1-3
D-85737 Ismaning
Tel: 089 - 96 24 56-700
Fax: 089 - 96 24 56-956
E-Mail: arista@seicom-muc.de
Web: www.seicom-muc.de

Weiterführende Links:
Whitepaper Arista - Das Rechenzentrum auf 10 Gigabit Ethernet aufrüsten
Whitepaper Arista - Upgrading the Datacenter to 10 Gigabit Ethernet