200km Mindestabstand zwischen Rechenzentren
Kurz vor Weihnachten hat das Bundesamt für Sicherheit in der Informationstechnik seine Empfehlung für die Entfernung georedundanter Rechenzentren drastisch angehoben: 200km sollen ...
Kurz vor Weihnachten hat das Bundesamt für Sicherheit in der Informationstechnik seine Empfehlung für die Entfernung georedundanter Rechenzentren drastisch angehoben: 200km sollen mindestens zwischen zwei sich Georedundanz gebenden Rechenzentren liegen.
Bisher empfahl das BSI einen Mindestabstand von fünf Kilometern, nun 40-mal so viel.
Sorge um potenzielle Schadsituationen
Die Gründe für diese Empfehlung sind im neuen Leitfaden des BSI „Kriterien für die Standortwahl höchstverfügbarer und georedundanter Rechenzentren“ erklärt:
„Da es aber, insbesondere durch den Blick in die Vergangenheit, nicht möglich ist, zukünftige potenziell schädliche Situationen und Ereignisse ausreichend sicher vorherzusagen, sollten einander Georedundanz gebende Rechenzentren einen Mindestabstand von circa 200 Kilometer zueinander haben“, führt das BSI aus. Hier geht es etwa um regionale Katastrophen, die gleichzeitig beide Rechenzentren ausfallen lassen könnten. Dazu zählen neben Naturkatastrophen wie Überschwemmungen, Großbrände und Erdbeben auch von Menschenhand gemachte Unglücke, wie etwa Störfälle in Atommeilern.
„Ist im Einzelfall ein deutlich geringerer Abstand unabweisbar“, so das BSI weiter, „ist diese Notwendigkeit schriftlich ausführlich darzulegen und einer Risikoanalyse zu unterziehen“.
Doch auch dann sollten georedundante Rechenzentren keinesfalls unter 100 Kilometer auseinanderliegen.
Weitreichende Folgen für RZ-Betreiber
Für Betreiber von Rechenzentren, insbesondere die als „kritische Infrastrukturen“ eingestuften, hat diese Änderung weitreichende Folgen:
Unternehmen, die die bisher empfohlenen fünf Kilometer zwischen ihren georedundanten Rechenzentren einhielten, müssen sich nun nach mindestens einem neuen Standort für das zweite Zentrum umschauen.
Dies beinhaltet eine umfangreiche Migration von Infrastruktur, Daten und aktiven Workloads. In vielen Fällen werden Organisationen ihre Desaster-Recovery-Strategien überdenken und entsprechend anpassen müssen.
Die Empfehlungen des BSI für den sicheren Betrieb von Rechenzentren gelten vielen Organisationen als Leitfaden für den sicheren IT-Betrieb. Viele Branchen folgen den Empfehlungen deshalb freiwillig, andere, wie etwa die Bankenbranche, werden von ihren eigenen Verbänden zur Einhaltung der Richtlinien verpflichtet.
Neue Voraussetzungen haben direkte Folgen für BC/DR
Auch auf die von vielen Unternehmen genutzten Systeme für BC/DR, die auf Technologien wie synchroner Spiegelung, Backups und Snapshots aufbauen, hat die Empfehlung Folgen:
Mit der weiteren Entfernung erhöhen sich die Verzögerungszeiten der Daten, die zwischen den Rechenzentrum verschoben werden. Dies macht insbesondere die synchrone Replikation von Daten, auf der die Hochverfügbarkeit vieler Systeme aufbaut, effektiv unmöglich.
Wenn die verwendeten Technologien aufgrund geänderter Rahmenbedingungen nicht mehr funktionieren, bedeutet dies für Unternehmen, dass sie zukünftig ihre VMs mit minimalem Performanceverlust und geringen RPOs schützen müssen.
Des Weiteren kann diese neue Empfehlung komplette DR- und Backupstrategien, welche auf der Basis der bisherigen Richtlinien erstellt wurden, durcheinanderbringen.
Die Stunde von asynchroner Replikation und CDP scheint gekommen
„Die meisten Unternehmen werden ihr zweites georedundantes Rechenzentrum wohl in einem Umreis von weniger als 200 Kilometern haben und sind demzufolge unmittelbar von der neuen Empfehlung des BSI betroffen,“ kommentiert Johan van den Boogaart von Zerto die neue Empfehlung des BSI und ihre Folgen.
„Somit stehen diese Unternehmen jetzt vor der Wahl, entweder ein drittes, weiter entferntes RZ aufzubauen, oder gleich in die Cloud zu migrieren. Dabei gibt es jedoch einen Haken. Die weitere Entfernung bereitet hinsichtlich Latenz, Bandbreite und der Größe von Snapshots unlösbare Probleme. Unter Berücksichtigung all dieser Faktoren, bleibt nahezu nur eine technische Möglichkeit auf diese weite Entfernung Redundanz zu gewährleisten: Continuous Data Protection, kurz CDP, mit asynchroner Replikation.“
Ein Kommentar von Zerto