Mehr Rechenleistung im Schrank Redundanz der LAN-Verbindungen
Gerade für hochverfügbare Anwendungen sind Bladeserver eine hervorragende Wahl, weil sich viele Komponenten wie Netzteile oder LAN-Anschlüsse sogar im laufenden Betrieb redundant erweitern lassen. Bei Rackservern ist das nur eingeschränkt möglich.
Anbieter zum Thema
Die Serverlandschaft in den Rechenzentren hat sich in den letzten zehn Jahren massiv gewandelt: Wo früher eine Mixtur unterschiedlichster monolithischer Rechner stand, haben sich heute auf Industriestandards beruhende Rackserver durchgesetzt – nicht zuletzt wegen ihres attraktiven Preis-Leistungs-Verhältnisses. Ab sechs bis acht neu anzuschaffenden Rackservern bilden Bladeserver eine interessante Alternative. So lassen sich beispielsweise in einem 7U-hohen Gehäuse (1U = 4,45 cm) zehn senkrecht einzuschiebende Blades mit jeweils zwei Xeon-Prozessoren unterbringen. In einen 19-Zoll-Schrank passen dann sechs Bladegehäuse mit insgesamt 120 Prozessoren. Würde man hier Rackserver mit Dual-Prozessoren verwenden, hätten im gleichen Gehäuse in der Summe nur 84 CPUs (42 1U-Systeme) Platz.
Rackserver bestimmen den Markt
Die Anschaffungskosten für Hardware sind um 20 bis 25 Prozent niedriger, da alle Blades Ressourcen wie Strom, Netzteile, Lüfter, Managementkarten und Netzwerk-Switches gemeinsam nutzen.
Während es bei Rackservern eine getrennte Stromversorgung für Netzteil und Kühllüfter gibt, zeichnen sich Bladeserver dadurch aus, dass Netzteile und Kühllüfter in einem einzigen Gehäuse, das mit Strom versorgt werden muss, untergebracht sind. Dadurch reduziert sich der Stromverbrauch pro Server, aber auch die Verkabelung; bei den Leitungen lassen sich Einsparungen bis zu 70 Prozent erzielen. Im direkten Vergleich mit Rackservern bringen die Blades eine erheblich höhere Rechenleistung pro Einbauschrank und bieten durch redundant ausgelegte Komponenten eine höhere Verfügbarkeit. Dazu trägt auch bei, dass die wichtigsten Komponenten im laufenden Betrieb austauschbar sind.
Kein Single Point of Failure
Das Konstruktionsprinzip der Redundanz bedeutet: Es existiert kein Single Point of Failure. Gemeint ist damit im Allgemeinen eine Komponente, deren Fehlfunktion den Komplettausfall eines Systems nach sich ziehen würde. Recht anfällig dafür ist die Stromversorgung: Wird für Bladeserver eine hohe Verfügbarkeit angestrebt, empfiehlt sich bereits bei der Festlegung der Konfiguration auf redundante Netzteile zu achten.
In den Chassis der Dell-Bladeserver überwacht ein spezieller Dell Remote Access Controller (DRAC) das gesamte System. Der DRAC verfügt über Funktionen für Leistungskontrolle, Ereignisprotokollierung und Inventar-Reporting. Mit diesem Administrationstool können Behörden ein Set von Regeln definieren, die unter anderem beim Ausfall eines Netzteils Anwendung finden. Sind zwei plus zwei (also insgesamt vier) Netzteile vorhanden, bietet es sich an, ein Duo in Reserve zu halten: selbst wenn im laufenden Betrieb ein oder zwei ausfallen, ist die Verfügbarkeit gesichert.
Das A und O der Konfigurtaion
In den Gehäusen, in denen die Blades eingebaut werden, ist häufig Raum für vier I / O-Module. Nicht ungewöhnlich ist, dass zwei der Module für Ethernet-Anschlüsse reserviert sind, die anderen beispielsweise Fibre Channel oder Infiniband unterstützen. Werden I / O-Module paarweise konfiguriert, trägt dies ebenfalls dem Konstruktionsprinzip der Redundanz Rechnung.
So lässt sich etwa mit einem zweiten Fibre-Channel-Modul ein redundanter Datenpfad zu Speichersystemen legen. Diese Art der Redundanz ist nicht von vornherein in den Bladeservern eingebaut, sie wird erst per Konfiguration festgelegt. Erforderlich ist die Redundanz der Datenpfade zum Beispiel dann, wenn eine besonders hohe Verfügbarkeit bei Lese- und Schreibzugriffen auf die Storagemedien angestrebt wird. Das ist besonders bei transaktionsintensiven Applikationen der Fall.
Jedes Server-Blade verfügt in der Regel über zwei integrierte LAN-Anschlüsse (LOM = LAN on Motherboard), die über dedizierte Verbindungen mit den internen Ports der Switches oder der Pass-Through-Module verbunden sind. Die LOMs bieten häufig eine 1-Gbit / s-Full-Duplex-Leitungen.
Die Unterschiede liegen im Detail
Nun besteht ein wichtiger Unterschied zwischen Blade- und anderen Servern darin, dass die Verbindung zwischen dem LOM und den internen Ports der integrierten I / O-Module (Switch oder Pass-Through) im Bladeserver über das Midplane fest verdrahtet ist. Die Konsequenz dieses Designs: Der Link zwischen dem LOM und dem integrierten I / O-Modul bleibt im Status „connected“ – es sei denn, dass entweder das LOM-Modul oder der I / O-Port ausfällt. Das gilt auch für den Fall, dass keine LAN-Verbindung zwischen den externen Uplink-Ports und dem integrierten Switch besteht. Umgekehrt bedeutet das jedoch, dass ein externer Fehler wie ein Kabelbruch keine Fehlermeldung in einem Konfigurationsszenario erzeugt, in dem ein integrierter Switch genutzt wird.
Ist ein Pass-Trough-Modul präsent, befindet sich der Link nur dann im Status „connected“, wenn eine Verbindung zwischen den externen Ports des Pass-Through-Moduls und dem Switch außerhalb des Blade-Chassis besteht – so verhält es sich ja auch bei Stand-alone-Servern. Zu einer Fehlermeldung kommt es, wenn ein entsprechendes Event im LOM, dem Pass-Through-Port oder dem externe Switch eintritt.
Umgehen lässt sich diese Limitierung der Redundanz beziehungsweise Verfügbarkeit über die Administrationseinstellung in der Firmware eines Switches, beispielsweise dem Dell PowerConnect 5316M. Der Layer-2-Switch aggregiert den Datenverkehr im Netzwerk von den Gigabit-Netzwerk-Controllern der einzelnen Bladeserver und bietet dabei sechs Uplink-Anschlüsse als Verbindung zur Infrastruktur des Hauptnetzwerks. Über einen entsprechenden Konfigurationsbefehl unterstützt der Switch dann LAN-Teaming.
Anders sieht die Sache aus, wenn statt eines Switches ein Pass-Through-Modul zum Einsatz kommt. Ein Pass-Through-Modul ist ein Gerät, das den Datenverkehr direkt vom Bladeserver an ein externes LAN-Device weiterleitet. Die Module sind in einer Eins-zu-eins-Beziehung mit dem Anschluss für den Bladeserver verbunden. Das entspricht der Verkabelung von den Netzwerkkarten eines herkömmlichen 1U-Servers zum externen Netzwerkgerät.
Das Fibre-Channel-Pass-Through-Modul bietet wie das Pass-Through-Ethernet-Modul eine nahtlose Verbindung zu externen Fibre-Channel-SAN-Switches. Eine optionale Fibre-Channel-Zusatzkarte auf der Hauptplatine der Bladeserver übernimmt dabei die Weiterleitung vom Midplane an das Fibre-Channel-Pass-Through-Modul, den externen Fibre-Channel-Switch und schließlich an das Storagesystem. Sind bereits Fibre-Channel-Switches vorhanden, kann der Anwender die vorhandene Infrastruktur nutzen und so deutliche Einsparungen erzielen. Das Fibre-Channel-Pass-Through-Modul ist bei Dell standardmäßig mit zehn optischen Kurzwellen-Transceivern ausgestattet. Für High Performance ComputingCluster (HPPC), die maximalen Durchsatz und geringe Latenz erfordern, besteht die optimale Lösung aus einem Topspin-Infiniband-Pass-Through-Modul, das jeweils mit einer Topspin-InfiniBand-HBA-Zusatzkarte in den einzelnen Bladeservern sowie mit einem externen Topspin-Switch 120 oder 270 verbunden ist. Über redundante Verbindungen vom HBA zu den externen Switches bietet diese Hochleistungslösung einen Durchsatz von bis zu 10 Gbit/s (4-fach).
Fazit
Die redundant ausgelegten technischen Komponenten wie Netzteile, I/O-Module und LAN-Verbindungen bilden die Grundausstattung einer hohen Verfügbarkeit. Abgerundet werden diese physikalischen Bausteine durch Vorkehrungen im Managementbereich. Neben dem standardmäßig vorhandenen Remote-Access-Tool gibt es bei Dell-Chassis die Möglichkeit, einen zweiten DRAC zu implementieren, der eine aktive / passive Redundanz bietet: Während das erste Tool aktiv den Status aller Komponenten überwacht, wartet das zweite passiv auf Events. Erst im Fehlerfall wird vom bislang aktiv auf das passive Modul umgeschaltet.
Artikelfiles und Artikellinks
(ID:2001584)