#Warum ein Backup alleine nicht ausreicht
TechTalk (2) mit Stefan Gruhn, Geschäftsführer der Gruhn IT GmbH
Es war kurz nach der Jahrtausendwende, als ich 2002 mit einem Kunden über die Notwendigkeit von Backups diskutierte. Dieser Kunde war der Meinung, dass die Garantie auf Festplatten ihm als Absicherung ausreichen würde. Und wenn durch einen Hardwaredefekt oder einen Virenbefall Daten zu Schaden kommen, oder Server vollständig ausfallen, dann wäre das nicht schlimm. Man würde eben normal weiter machen. Was auch immer dieses "normal" bedeutet hatte.
Inzwischen ist die Abhängigkeit von zuverlässigen IT-Systemen existenziell geworden. Selbst kurze Unterbrechungen haben Auswirkungen, die nicht unbedacht bleiben dürfen.
Als Ende der 80er Jahre die alten Mainframe-Systeme der neuen Client-Server-Architektur weichen mussten verlagerten sich auch die Daten eines Unternehmens und die Frage nach Backups wurde immer wichtiger. Damals ging es primär darum möglichen Hardwaredefekten vorzubeugen, oder die Folgen abzufangen. Die heutigen Phänome wie Cyberangriffe, Viren & Co., Sabotage, etc. waren damals noch nicht bekannt. Es reichte in den meistne Fällen aus, Daten und Serversysteme auf Bandlaufwerken zu sichern und damit waren Unternehmen in den meisten Fällen ausreichend geschützt.
Anfang der 90er Jahre rückten mit dem Aufkommen der Internetnutzung und des neuen E-Mailverkehrts plötzlich Viren und Trojaner ins Blickfeld der IT-Administratoren. Schon damals nahmen Datenmengen kontinuierlich zu, so dass Bandlaufwerke bald schon den Anforderungen nicht mehr gerecht wurden. Denn sie waren zu langsam und zu unzuverlässig. Hinzu kam, dass in kleinen und mittleren Unternehmen der Bandwechsel von Personen manuell vorgenommen werden musste, was auch nicht selten zu Konflikten führte, wenn Bänder verwechselt wurden, oder sogar verloren gingen.
Nicht selten kam es vor, dass wenn von einem Band zurück gesichert werden sollte, man plötzlich feststellte, dass entweder gar keine Backupdaten auf den Bändern vorhanden waren, oder dass durch Bandfehler die vorhandenen Daten nicht mehr lesbar waren. Das war die Geburtsstunde des mehrstufigen Backups. Wobei mehrstufig nicht zu verwechseln ist mit Generations-Backups.
Bis dahin gab es nichts vergleichbares
Alles was sich mit dem Aufkommen der neuen IT-Strukturen entwickelte war neu. Es gab in der Vergangenheit nichts Vergleichbares und die gesamte IT-Branche war srtändig am lernen. Oft wurde auch aus Fehlern gelernt. Analysten hatten in den ersten Jahren des neuen Jahrtausend bereits die These aufgestellt, dass 30% aller Unternehmen, die von Datenproblemen betroffen waren, in den folgenden drei Jahren in eine Unternehmenskrise schlittern. Die Argumentation war bereits damals gut nachvollziehbar: Verliert ein Unternehmen durch Hardwareprobleme oder einen sonstigen destruktiven Prozess einen relevanten Teil seiner Daten, dann beginnt eine Kettenreaktion. Zuerst fallen wegen der fehlenden Daten Unternehmensabläufe aus. In Büros kann nicht gearbeitet werden, in der Produktion fehlen Auftragsdaten und in der Buchhaltung können entweder Rechnungen nicht gestellt, oder Zahlungen nicht korrekt verbucht werden, u.s.w. Bis Unternerhmen wieder in geregelten Prozessen funktionieren dauert es teilweise Wochen, wenn nicht sogar Monate. Das kostet mindestens Zeit und viel Geld. Und im Zweifel leidet das Image und der Wettbewerb schläft während solcher Zeiten nicht.
So schnell wie möglich wieder auf die Beine
Ein Zebra Fohlen hat nach seiner Geburt nur wenige Minuten um auf die Beine zu kommen und Teil seiner Herde zu werden. Schafft es das nicht, fällt es der Natur zum Opfer. Unternehmen, die von Daten- oder Systemproblemen betroffen sind müssen so schnell wie irgendwie möglich wieder auf die Beine kommen. Im besten Fall wird ein Problem nur zu einem leichten Taumeln und gar nicht erst zu einem Fall. Dafür sind kluge Backup-Logiken und solide Desaster-Recovery-Strategien elementar wichtig. Was eine solide Desaster-Recovery-Strategie ausmacht, haben wir in einem anderen TechTalk bereits besprochen. Das Fundament für jede Art von Desaster-Recovery ist das Vorhandensein von möglichst aktuellen und fehlerfreien Backups.
Nimm 2 - haben wir als Kinder schon gelernt
Machen wir einen Sprung ins hier und jetzt. Bandlaufwerke sind schon lange keine guten Backupmedien mehr. Sie wurden abgelöst durch verschiedene Arten mobiler Festplatten. Durchgesetzt hat sich für kleine Datenmengen die RDX-Technologie von Tandberg. Diese Wechselfestplatten sind zwar zuverlässiger als Bänder, haben aber immer noch die gleichen Probleme, dass sie gewechselt werden müssen, dass es keine Verwechselungen geben darf und auch ein möglicher Verlust ist nicht ausgeschlossen.
Deshalb konzipieren wir Systeme so, dass wir Backups immer mindestens zweistufig anlegen; besser ist sogar dreistufig. Die erste Backupstufe findet bereits innrhalb eines Servers auf einem eigenen RAID-Volume statt. Diese erste Stufe wir genutzt für schnelle Rücksicherung von versehentlich gelöschten Daten. Die zweite Stufe erfolgt dann entweder auf RDX-Wechselmedien, oder besser noch auf eine kleine Storage, die sich im lokalen LAN befindet, jedoch möglichst in einem anderen Gebäudebereich. Diese Backupstufe sichert den plötzlichen Verlust ganzer Systeme ab, beispielsweise bei Feuer, Einbruchdiebstahl oder einem Hardwaredefekt. Wenn keine dritte Stufe, die sich als CloudBackup in einem externen Rechenzentrum befindet, istalliert wird, dann ist unsere Empfehlung, zumindest für die zweite Stufe eine NAS mit entsprtechendem Filesystem einzusetzen, bei dem über Snapshots Daten sehr granular wieder hergestellt werden können.
Es gibt letztlich keine wirkliche Patentlösung. Jede Backuplogik und Desaster-Recovery-Strategie ist eine Einzelfallbetrachtung und orientiert sich in Größe und Aufwand an dem Sicherheitsbedarf des jeweiligen Untenrehmens.
Sind Sie sich sicher, dass Sie wirklich sicher sind?
Wenn Sie Ihre Backuplogik oder Desaster-Recovery-Strategie überprüfen und verbessern möchten, dann sprechen Sie uns gerne an.