Logistik-IT Steht der Server, steht auch der Container

Autor / Redakteur: Thomas Hertel / Dipl.-Betriebswirt (FH) Bernd Maienschein

Während zentrale Logistikanwendungen häufig auf AS/400- oder I-Series-Systemen laufen, haben sich Windows- oder Linux-Server in praktisch allen anderen Bereichen durchgesetzt. Weil darauf auch unternehmenskritische Anwendungen wie Exchange, Oracle oder Blackberry laufen, müssen sie ebenfalls gegen Systemausfälle und Datenverluste gesichert werden – zu vertretbaren Kosten.

Anbieter zum Thema

Die IT hat sich in der Logistik längst vom Kosten- zum Produktionsfaktor gemausert. Und zwar zu einem der wichtigsten, denn ohne IT geht in der modernen Logistik schon lange nichts mehr. Einfache Fehler – technische oder menschliche – können dabei erhebliche Auswirkungen haben: Wenn nur der Drucker streikt, der die Packlisten oder Lieferscheine erstellt, kommt der Lkw nicht vom Hof. Stillstandszeiten aber kosten nicht nur Umsatz, sondern häufig auch Vertragsstrafen und im Extremfall die gesamte Kundenbeziehung – von Produktionsausfällen beim auf Just-in-Time-Lieferung angewiesenen Empfänger ganz zu schweigen.

Risikofaktor Systemausfall ausschalten

Wenn schon ein Druckerausfall teuer werden kann – wie steht es dann erst mit den Servern, auf denen alle für das Unternehmen lebensnotwendigen Applikationen laufen? Dabei geht es nicht nur um die zentralen Logistikanwendungen und deren Server, sondern auch ebenso kritische Applikationen in der Windows-Welt wie Exchange, SQL, Oracle, Sharepoint oder Datei- und Druckservices.

Bildergalerie

Bedenkt man, dass ein einstündiger Ausfall jeder dieser Applikationen selbst in mittleren Unternehmen schnell zu Schäden im fünf- oder gar sechsstelligen Euro-Bereich führen kann, erscheint ein solches Risiko kaum tragbar. Immerhin bedeutet selbst eine Verfügbarkeit von 99,9% statistisch noch fast 9 h Ausfallzeit pro Jahr. Selbst wenn die Serverhersteller solche Verfügbarkeiten garantierten (was sie nicht tun), kann heute kaum ein modernes Logistikunternehmen mit solchen Ausfallzeiten leben.

Hinzu kommt noch die Tatsache, dass die Ausfallzeit des Servers nur eine Komponente bei der Verfügbarkeit der Gesamtlösung ist. Mit der Wiederherstellung der Hardware ist es ja nicht getan; oft müssen Betriebssystem und Anwendungen neu installiert sowie Daten von Backupsystemen wiederhergestellt werden. Je nach Backupkonzept kann das etliche Stunden oder gar Tage dauern. Zudem kann es natürlich auch jederzeit zu Datenverlusten kommen, ohne dass es überhaupt Hardwareprobleme beim Server gibt.

Sicherheit mit Augenmaß

Gerade bei Datenverlusten, ob nun in Verbindung mit einem Hardwareproblem oder nicht, stellen sich zwei grundlegende Fragen:

  • Wie lange darf es höchstens dauern, bis die Systeme und Daten wiederhergestellt sind und den Anwendern wieder zur Verfügung stehen? Hier spricht man in Fachkreisen von der Recovery Time Objective (RTO).
  • Wie alt dürfen die Daten sein, die wiederhergestellt werden, oder in anderen Worten, wie viel Datenverlust kann das Unternehmen sich erlauben? Dies wird als Recovery Point Objective (RPO) bezeichnet.

Hier gibt es meist keine unternehmensweit gültigen Zahlen, sondern diese Fragen sind für unterschiedlich kritische Systeme auch unterschiedlich zu beantworten. Wenn man jedoch davon ausgeht, dass bei kritischen Kernanwendungen Ausfallzeiten von einer Stunde schon Kosten im sechsstelligen Bereich verursachen können und der Verlust von Transaktionsdaten ebenfalls erhebliche Kosten mit sich bringt, wird schnell klar, dass traditionelle Backupsysteme den Anforderungen moderner Logistikdienstleister in der Regel nicht mehr gewachsen sind.

Alternativen zum klassischen Backup

Zum einen dauert die Wiederherstellung von Magnetbändern zu lange, und zum anderen stehen dabei nur die Daten vom letzten Backuplauf zur Verfügung. Und das sind typischerweise die vom vergangenen Abend; alle im Laufe des Tages entstandenen oder geänderten Daten sind dann verloren. Wenn es überhaupt noch Daten gibt, denn schon oft stellte sich erst beim Versuch der Wiederherstellung heraus, dass das Backup gar nicht so funktioniert hatte, wie geplant.

Es müssen also Alternativen zum klassischen Backup her, doch welche? Wie bereits angedeutet, gibt es dafür keine allgemeingültige Antwort. Die zentralen Logistikanwendungen müssen rund um die Uhr verfügbar sein, ein einstündiger Ausfall des Mailservers ist dagegen für viele Unternehmen nicht allzu kritisch. Fällt ein Server in einer kleinen Niederlassung aus, hat das in der Regel geringere Auswirkungen als bei einem zentralen System, auf das alle Mitarbeiter weltweit Zugriff benötigen.

Entsprechend haben die Systeme auch unterschiedliche Anforderungen an ein Hochverfügbarkeitskonzept. Es ist auch wirtschaftlich in der Regel nicht vertretbar, ein Konzept, das für die unternehmenskritischen Server entwickelt wurde, auf alle Systeme im Unternehmen zu übertragen. Die Devise muss also sein: für jedes System die Sicherheit, die es benötigt.

Virtualisierung als Lösung?

Bei den zentralen Applikationen mit ihren proprietären Serversystemen wie AS/400 haben sich viele Logistikunternehmen für Hochverfügbarkeitskonzepte auf der Basis von Replikationstechnologien entschieden. Solche Lösungen wie Mimix HA von Vision Solutions replizieren die Produktionsumgebung in Echtzeit und ohne Datenverluste auf einen Backupserver.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Mimix unterstützt dabei jede beliebige Anwendungsumgebung und Netzwerktopologie, einschließlich Intra-Server-Replikation, zwei- und dreistufiger ERP-Umgebungen, bidirektionaler Replikation und Kaskadenreplikation. Fällt nun der Produktionsserver aus, kann der Backupserver innerhalb kürzester Zeit seine Funktion übernehmen, so dass die Anwender praktisch unterbrechungsfrei weiterarbeiten können und auch keine Datenverluste entstehen. Zudem ermöglichen solche Hochverfügbarkeitskonzepte es den Verantwortlichen, Wartungsarbeiten am Produktivsystem ebenso ohne Unterbrechung des laufenden Betriebs durchzuführen wie den Test neuer Applikationen oder von Updates.

Während in vielen Unternehmen die zentralen Applikationen auf diese Weise gut gesichert sind, laufen die meisten der nicht ganz so kritischen Anwendungen auf Windows-Servern oder auch auf Linux-Systemen; letztere sind vor allem im Bereich der Web-Server populär. Unternehmenskritisch sind hier vor allem die Exchange-, Datenbank- und Fileserver, in vielen Fällen auch Sharepoint- oder Blackberry-Server.

Speichervirtualisierung zur Absicherung kritischer Server

Eine nahe liegende Maßnahme zur Absicherung solcher Server ist oft der Einsatz von Speichervirtualisierung. Mit dieser Technologie lassen sich Snapshots beliebiger Laufwerke sehr schnell erstellen und verteilen. Durch die Replikation der Snapshots an unterschiedlichen Orten lässt sich mit diesem Ansatz eine sehr wirkungsvolle Disaster/Recovery-Strategie umsetzen. Eine Alternative dazu ist die Spiegelung des kompletten Storage Area Networks (SAN) – wodurch beispielsweise Recovery Point Objectives von 30 min zuverlässig erreicht werden können.

Ein virtualisiertes Failoverkonzept erhöht die Verfügbarkeit der Systeme deutlich, hat aber auf der anderen Seite durchaus Schwachstellen. Speichervirtualisierung benötigt an allen Standorten redundante Hardware – eine Anforderung, die die Kosten für Disaster Recovery mit dieser Technologie schnell in die Höhe treibt.

Replikation der Daten in Echtzeit kann in vielen Fällen genügen

Die SAN-Spiegelung hat dazu noch eine vergleichsweise geringe Reichweite und setzt Fibrechannel im Netzwerk voraus. Dadurch ist dieser Ansatz für viele, aber sicher nicht alle Szenarien geeignet, gegen die sich ein Unternehmen durch ein Disaster/Recovery-Konzept schützen möchte. Auch erfordert nicht jede Anwendung ein so aufwändiges Sicherheitskonzept.

In vielen Fällen genügt die Replikation von Daten in Echtzeit, wobei je nach Anwendungsfall einer oder mehrere Quellserver auf ebenfalls einen oder mehrere Zielserver repliziert werden. Allerdings sollte man sich hier nicht auf die Replikationstools einzelner Applikationen verlassen, die oft erhebliche Anforderungen stellen und schwer zu implementieren und zu verwalten sind. Zudem gibt es viele Applikationen, die keine Replikationsmechanismen zur Verfügung stellen, und diese müssten ohnehin nach wie vor auf andere Weise gesichert werden.

Generische Software-Replikation

Sollen Windows- oder Linux-Server unabhängig von der jeweiligen Applikation repliziert werden, benötigt man ein generisches Softwaretool wie etwa Double-Take von Vision Solutions. Diese Replikationssoftware installiert Treiber, die Schreibvorgänge des Betriebssystems abfangen und filtern, bevor diese an die Hardware weitergereicht werden. Auf diese Weise können Transaktionen transparent an den Zielserver übertragen werden, auf dem für eine Failoverlösung natürlich die gleichen Anwendungen laufen müssen.

Die generische Replikation ist nicht nur applikationsunabhängig, sondern ermöglicht auch die nachträgliche Implementierung der Replikation auf vorhandenen Servern. Da lediglich Schreibvorgänge auf Byteebene repliziert werden, ist das Verfahren für die Applikation völlig transparent – sie muss weder neu installiert noch modifiziert werden.

Zudem sinken die Anforderungen an die Bandbreite sehr deutlich, da etwa die Änderung von zwölf Bytes auf dem Quellserver lediglich die Übertragung eben dieser zwölf Bytes an das Zielsystem zur Folge hat anstelle der gesamten Datei. Das führt dazu, dass auch langsame Wan-Verbindungen für die Replikation genutzt werden können. In einer solchen Anordnung mit räumlich getrennten Quell- und Zielservern ist dann auch die schnelle Wiederaufnahme des Betriebes nach einer lokalen Katastrophe möglich.

Eine Replikationslösung ist sowohl in One-to-many- und in Many-to-one-Szenarien einsetzbar. Es ist also möglich, einen besonders kritischen Server auf zwei oder mehr Backupsysteme zu replizieren oder anders herum einen Backupserver für die Replikation mehrerer aktiver Server einzusetzen.

Generische Replikation kann auch gesamtes System sichern

Da alle Daten einschließlich offener Dateien in Echtzeit auf die Zielsysteme übertragen werden, kann das Zielsystem durch Übernahme des Namens und der IP-Adresse wirkungsvoll an die Stelle des ausgefallenen Servers treten. Die Replikation offener Dateien ist eine Grundvoraussetzung, wenn es um eine Hochverfügbarkeitslösung für SQL-Datenbanken oder Exchange-Server geht.

Je nach Anforderung können per generischer Replikation nur die Daten oder auch das gesamte System einschließlich Betriebssystem, Anwendungen und Daten gesichert werden. Letzteres ermöglicht auch einen schnellen Bare-Metal-Restore des Produktionsservers; das heißt, dass Betriebssystem und Applikationen nicht manuell installiert werden müssen, bevor man die Daten zurücksichern kann. Dabei werden auch völlig unterschiedliche Hardwarekonfigurationen unterstützt.

Zentrales Backup mit virtuellen Servern

Attraktiv ist eine solche Lösung besonders für Logistikunternehmen mit mehreren Niederlassungen, in denen nicht unbedingt IT-Experten beschäftigt werden, obwohl auch dort lokale Exchange- und Fileserver oder andere Applikationsserver betrieben werden. Diese können nun unter vollständiger Kontrolle der IT-Abteilung und ohne Beteiligung nicht dafür qualifizierter lokaler Mitarbeiter auf einen Server im zentralen Rechenzentrum gesichert werden.

Hier werden dann alle weiteren Schritte durchgeführt wie etwa die Archivierung auf Platte oder Band. Andersherum kann auch eine größere Niederlassung die Backupfunktion für die Server aus dem zentralen Rechenzentrum übernehmen.

Noch effizienter werden solche Lösungen, wenn man die Backupsysteme nicht als physikalische Server betreibt, sondern die Vorteile der Virtualisierung nutzt. Da die Backupsysteme in der Regel nicht hochperformant sein müssen und anders als beim MSCS-Cluster auch die Hardware von Quell- und Zielserver nicht identisch sein muss, lassen sich hierfür hervorragend auch virtuelle Maschinen einsetzen.

So können beispielsweise alle Exchange- oder Fileserver in den Niederlassungen auf jeweils eine virtuelle Maschine repliziert werden. Dabei werden virtuelle Infrastrukturen auf Basis von VM-Ware und Microsofts Hyper-V unterstützt. Auch die Absicherung virtueller Maschinen oder des gesamten Hostsystems ist mit Double-Take möglich.

Kombination von Replikation und Failover kommt günstig

Die Replikation in Kombination mit einem automatischen oder manuellen Failover ist eine günstige Lösung für alle Applikationen, bei denen sowohl die RPO als auch die RTO knapp bemessen sind. Dies ist jedoch nicht bei allen Systemen der Fall. Bei weniger kritischen Servern ist ein Ausfall von ein paar Stunden oft durchaus zu verschmerzen, während Datenverluste auch hier unbedingt vermieden werden sollen. Die RTO beträgt hier also mehrere Stunden, während die RPO nach wie vor im Sekunden- oder Minutenbereich angesiedelt ist.

Hier gleich in ein automatisches Failover-System zu investieren, hieße mit Kanonen auf Spatzen zu schießen. Mit Livewire stellt Double-Take deswegen auch eine Lösung zur Verfügung, bei der ein Quellserver ebenfalls in Echtzeit repliziert, aber auf das Failover verzichtet wird. Hier erfolgt die Wiederherstellung bei Bedarf manuell – allerdings innerhalb weniger Stunden statt Tage, da nicht nur die Daten, sondern auch das Betriebssystem und die Anwendungen abgesichert werden.

Im Falle eines Falles steht dem Administrator also ein aktuelles Image des gesamten Servers zur Verfügung, das er auf einen physikalischen oder virtuellen Backup-Server überspielen kann. Sehr einfach lassen sich damit auch Lösungen implemetieren, in denen mehrere Produktionsserver auf einen zentralen Image-Server repliziert werden.

Thomas Hertel ist freier Journalist in München

(ID:380255)