LOAD BALANCING UND FAILOVER

Zu beachten ist zunächst, dass es sich bei Failover nicht um Load Balancing handelt. Beim Load Balancing geht es darum, dass Workload und Traffic auf mehrere Server verteilt werden. Das Ziel besteht darin, eine Überbelastung eines einzelnen Servers und gegebenenfalls einen Totalausfall zu vermeiden. Durch diese Methode kann außerdem mehr Arbeit in derselben Zeitspanne erledigt werden, weshalb auch die Nutzer schneller bedient werden. Load Balancing erfüllt demnach hauptsächlich den Bedarf nach Skalierbarkeit, wodurch die Systemfähigkeit durch das Hinzufügen weiterer Ressourcen gesteigert wird.

FAILOVER

Bei Failover handelt es sich dagegen um einen operativen Backup-Modus. Ziel des Failover, also der Ausfallsicherung, ist es zu ermöglichen, dass die Arbeit, die normalerweise von einem Server erledigt wird, bei einem Ausfall von einem anderen Server übernommen wird. Erschaffen wurde das System des Failover, damit in IT-Systemen Fehlertoleranzen ermöglicht werden können. Failover werden aus diesem Grund bei solchen Systemen und Komponenten eingesetzt, die stets verfügbar sein müssen. Ein Failover lässt sich im Grunde für alle Aspekte eines Systems einrichten, beim PC beispielsweise, um den Ausfall eines Prozessors zu überbrücken.

FUNKTIONSWEISE DES FAILOVER

Wenn im Normalfall Server A jegliche Anfragen bearbeitet und dies beispielsweise aufgrund von Ausfällen nicht möglich ist, kann Server B diese Aufgabe übernehmen. Ein Failover ist also der Prozess des Umschaltens zwischen den primären und sekundären Systemen bzw. Systemkomponenten (Server, Prozessoren, Netzwerke oder Datenbanken) im Fall eines Ausfalls. Zu diesem Ausfall kann es entweder durch Wartungsarbeiten oder unvorhersehbare Systemstörungen kommen. Systemdesigner stellen daher die Failover-Fähigkeit Servern, Systemen oder Netzwerken zur Verfügung, die eine hohe Verfügbarkeit und einen hohen Grad an Verlässlichkeit verlangen. Wenn ein stets höchstverfügbarer Service benötigt wird, ist es durch den Failover möglich, beispielsweise Wartungsarbeiten auf einzelnen Servern durchzuführen, ohne den Service dafür deaktivieren zu müssen. Die beiden Server überwachen sich hierbei oftmals gegenseitig mithilfe eines Heartbeats. Dabei handelt es sich um eine Netzwerkverbindung zwischen mehreren Rechnern mit einem Cluster. Dadurch können gegenseitige Benachrichtigungen darüber erfolgen, dass die Rechner verfügbar sind für die Erfüllung ihrer Aufgaben.
Server B befindet sich für den Failover idealerweise in einem separaten Datenzentrum. Ist dies nicht möglich, sollte er sich zumindest auf einem anderen Switch als Server A befinden. Generell gilt, dass die Distanz zwischen den Servern so groß wie möglich sein sollte.
 
 

Hendrik Müller
E-Mail:
Telefon: 0511/367 175 38

Name (Pflichtfeld)
E-Mail-Adresse (Pflichtfeld)

Deine Nachricht