CDP als Zukunft des Backups: Von periodisch zu kontinuierlich

Traditionelle Backup-Technologien stoßen an ihre Grenzen. Neue Backup-Ansätze wie CDP helfen dabei Verfügbarkeit zu jeder Zeit zu gewährleisten.

 

Backup ist seit gut 35 Jahren ein wesentlicher Bestandteil der IT-Infrastruktur. Doch während sich die Datenmenge selbst und die gesamte IT-Landschaft dramatisch verändert haben, ist die Backup-Technologie im Wesentlichen gleichgeblieben. In den weniger ausgelasteten Zeiten werden die Daten kopiert und an einem zweiten Ort gespeichert, von wo aus sie später wiederhergestellt werden können. Mit den neuen Anforderungen an moderne Rechenzentren scheint dieser auf Snapshots basierende Prozess veraltet zu sein, und viele Unternehmen stoßen an die Grenzen der aktuellen Backup-Technologie. Die Herausforderungen sind nicht die relativ einfache Erstellung von Backups, sondern die Verfügbarkeit zu jeder Zeit zu gewährleisten. Viele Unternehmen suchen deshalb nach Alternativen, um ihre Backup-Strategien zu modernisieren. Kontinuierliche Backups aufbauend auf Continuous Data Protection scheinen die logische Alternative zu periodischen Backups zu sein.

 

Die Mängel der traditionellen Backup-Technologien

Systeme rund um die Uhr online und hoch performant zu halten, war noch nie so wichtig wie heute. Doch egal was die Ursache für einen Ausfall ist – Ransomware, Umweltkatastrophen oder schlicht menschliche Fehler – mit herkömmlichen Sicherungsmethoden kann die Wiederherstellung oft Tage dauern. Darüber hinaus kann ein periodisches Backup einen bis zu 24 Stunden währenden Datenverlust verursachen. Grund genug für Unternehmen sich nach zeitgemäßen und verlässlicheren Lösungen umzuschauen.

 

Periodische Backups, die nur einmal am Tag gemacht werden, können bis zu 24 Stunden Datenverlust verursachen.

 

Periodische Backups kosten viel Zeit und bedeuten in der Regel starke Performanceeinbußen für das System. Sie sind von Natur aus wenig granular und bei heutiger schnell ansteigender Datenmenge und notwendiger Aktualität deshalb sehr schnell veraltet. Auch die Verwaltung der Backups ist oft eine komplexe und ressourcenintensive Aufgabe, bei der dedizierte Systeme und Hilfslösungen wie Backup-Proxys oder Media Agents zum Einsatz kommen. Dies hat sogar dazu geführt, dass viele Unternehmen mittlerweile eigene Backup-Spezialisten in ihren IT-Teams beschäftigen.

Eine weitere große Herausforderung in heutigen IT-Umgebungen besteht darin, dass Anwendungen nicht auf einer einzigen virtuellen Maschine (VM) liegen, sondern auf verschiedene VMs mit unterschiedlichen Rollen verteilt sind. Oft sind diese Anwendungen teilweise abhängig von anderen Anwendungen, wodurch komplexe Anwendungsketten entstehen. Die erfolgreiche Wiederherstellung dieser gesamten Anwendungsketten hängt davon ab, wie konsistent diese einzelnen VMs wiederhergestellt werden können. Inkonsistenzen machen die Wiederherstellung von Anwendungen lästig, komplex, zeitaufwendig und erlauben oft keine schnelle Wiederaufnahme von Diensten. Aus diesem Grund wurden die RTOs (Recovery Time Objective, Wiederanlaufzeit eines ausgefallenen (EDV-)Systems) für die Backup-Wiederherstellungszeit für Produktivsysteme immer länger.

 

CDP bietet RPOs von wenigen Sekunden

Die kontinuierliche Datenreplikation (Continuous Data Protection, CDP) ist, nach Ansicht vieler Experten, die Zukunft des Backups. CDP repliziert jede einzelne IO in Echtzeit, sodass RPOs (Recovery Point Objective, legt fest, wie groß der Zeitraum zwischen zwei Datensicherungen sein darf) von wenigen Sekunden erreicht werden können. Alle replizierten Änderungen werden in einem Journal gespeichert, so dass man einfach auf den neuesten Zeitpunkt zurückgreifen kann – mit manchen Lösungen sogar bis zu 30 Tagen in der Vergangenheit. CDP-basierte Plattformen ermöglichen nicht nur sehr geringen Datenverlust bei Ausfällen, dank Orchestrierung und Automatisierung können Dateien, Anwendungen, VMs oder sogar ganze Rechenzentren mit wenigen Klicks wiederhergestellt werden. Die meisten Anwendungsfälle, die eine granulare Wiederherstellung erfordern, wie etwa Dateilöschungen, Datenbankbeschädigung oder Ransomware, erfordern nur eine kurzfristige Datensicherung. Wenn beispielsweise ein Ausfall um 17:26 Uhr eintritt, ermöglicht CDP die Wiederherstellung von Daten die um 17:25 Uhr erstellt und gesichert wurden. Ein Backup, das seit mindestens 4 Stunden veraltet sein könnte, hilft in diesem Fall nicht weiter.

 

Da mit CDP jede IO in Echtzeit repliziert wird, kann ein RPO von wenigen Sekunden erreicht werden.

 

 

Mittels der Automation der Wiederherstellung und Orchestrierung lassen sich auch komplexe Multi-VM-Anwendungen konsistent wiederherstellen. Diese verketteten Anwendungen sind auf verschiedene VMs in verschiedenen Umgebungen verteilt. Sie müssen als zusammenhängende, logische Einheit geschützt werden, um eine konsistente Wiederherstellung zu ermöglichen. Moderne Lösungen mit CDP und Orchestrierung setzen Wiederherstellungspunkte, an denen alle VMs genau den gleichen Zeitstempel besitzen. Auf diese Weise, startet jede VM der Applikation vom selben Wiederherstellungspunkt aus. Dies erlaubt der IT-Abteilung den Service nicht nur für jede VM, sondern sogar die komplexesten Anwendungen innerhalb von Sekunden nach dem Auftreten des Fehlers wieder zu starten. Ohne einzelne VMs manuell starten oder Boot-Sequenzen einhalten zu müssen.

 

Kontinuierliche Datenreplikation ohne Performanceverlust

Moderne Plattformen, die CDP für Backup nutzen führen sogar Disaster Recovery, Backup, und Cloud-Mobilität in einer einzigen, einfachen und skalierbaren Lösung zusammen. Diese besteht idealerweise aus den Schlüsselkomponenten CDP mit einem Journal anstatt Snapshots sowie Orchestrierung & Automation. So bietet sie die Grundlage für eine kontinuierliche Datenreplikation ohne Beeinträchtigung der Performance und ermöglicht die konsistente Wiederherstellung von Anwendungen von vor wenigen Sekunden bis von vor Jahren. Das Journal vereint die kurz- als auch die langfristige Speicherung der Daten und ermöglicht dank Orchestrierung die Wiederherstellung von Dateien, VMs, Anwendungen oder ganzen Rechenzentren in einem benutzerfreundlichen Workflow mit nur wenigen Klicks. Diese Workflows sind plattformübergreifend konsistent und erlauben ein einfaches Failover auf einen sekundären Standort. Etwa das Verschieben einer Anwendung nach Azure, die Verwendung von AWS als DR-Standort für IBM-Cloud-Workloads oder die einfache Wiederherstellung einer Datei, VM oder einer gesamten Anwendung. Diese Orchestrierung & Automatisierung ermöglicht es Unternehmen, alles vorzudefinieren, um Workloads wie Boot-Reihenfolgen, die Verknüpfung von IPs oder Netzwerk erfolgreich mit wenigen Klicks wiederherzustellen.

 

Mühelose Datenverfügbarkeit statt zeitraubende Backup-Verwaltung

Unternehmen müssen ihre Daten schützen und ihre IT rund um die Uhr verfügbar halten. Die technologischen Grundlagen von Backup, insbesondere die Snapshot-Technologie, sind seit etwa 35 Jahren gleich und machen es IT-Teams schwer, die Verfügbarkeit garantieren wollen, aber stattdessen nur allzu häufig mit der Verwaltung von Backups beschäftigt sind. Die gute Nachricht für Unternehmen und ihre IT gleichermaßen: Lösungen für kontinuierliches Backup sind bereits verfügbar und sind nicht nur eine deutliche Verbesserung im Vergleich zu traditionellen Backups, sondern gehen im besten Fall noch einen Schritt weiter. Sie führen die bestehenden Lösungen für Backup, Disaster Recovery und Cloud-Mobilität endlich zusammen.

Johan van den Boogaart

 

Johan van den Boogaart ist Regional Sales Manager bei Zerto, blickt auf fast zwei Jahrzehnte Erfahrung in der IT-Branche zurück und bekleidete während seiner Karriere verschiedene Vertriebspositionen in den Bereichen Storage, Disaster Recovery und Virtualisierung. Vor Zerto verantwortete Boogaart den Vertrieb von Nexenta und Open-E in der deutschsprachigen Region als Sales Manager. Bei Acronis bekleidete er davor den Posten des OEM/ Corporate Account Managers. Boogaart ist Diplom Kaufmann und Absolvent der Universität Groningen.

 

 

8 Artikel zu „CDP Backup“

Cloud-Backup erfordert leitungsfähige WAN-Leitungen

Datensicherung in Cloud-Umgebungen

Unternehmen nutzen zunehmend Storage-Ressourcen in Cloud-Umgebungen, um dort Daten oder Backups zu speichern. Häufig übersehen sie jedoch einen Punkt: die Rolle der Netzwerkverbindungen zwischen Cloud-Computing-Ressourcen und dem Firmenrechenzentrum. Hohe Latenzzeiten und Bandbreiten-Engpässe können dazu führen, dass Desaster Recovery in einer Cloud nicht wie erwartet funktioniert.

Deutsche Rechenzentren haben höchste Stromkosten in Europa

Sechsmal höhere Steuern, Abgaben und Netzentgelte als in Niederlanden und Schweden. Stromkosten machen rund die Hälfte der Betriebskosten aus.   Rechenzentren in Deutschland müssen europaweit am meisten für Strom bezahlen. Die Kosten sind bis zu sechsmal höher als in Nachbarländern. Das ist das Ergebnis einer Preisanalyse des Digitalverbands Bitkom, bei der die Stromnebenkosten verglichen wurden.…

Drei Optionen Rechenzentren über große Entfernung abzusichern

Die Entfernung zwischen georedundanten Rechenzentren soll mindestens 200 km betragen. So empfiehlt es das BSI seit diesem Jahr. Dies stellt viele Unternehmen vor Probleme, betrug die bisher empfohlene Distanz in der Vergangenheit doch gerade einmal fünf Kilometer. Diese geringe Distanz erlaubte es den Betreibern bisher, ihre Rechenzentren über HA-Systeme synchron zu spiegeln. Dies ist bei…

Tatort Diensthandy: Datensicherheitsrisiken bedenken

Smartphones zählen mittlerweile auch im Job zum Alltag – sei es für das Verfassen einer E-Mail zwischendurch oder zur kurzfristigen Terminabsprache. Doch spätestens seitdem die Medien darüber berichtet haben, dass einige Unternehmen Mitarbeitern die Nutzung von WhatsApp aufgrund der EU-Datenschutzgrundverordnung, kurz EU-DSGVO, verbieten, wissen viele, dass die dienstliche Nutzung von Handys datenschutzrechtliche Gefahren birgt. »Bei…

BSI hebt Empfehlung für georedundante RZ-Entfernung von 5 auf 200 Kilometer an

Kurz vor Weihnachten hat das BSI (Bundesamt für Sicherheit in der Informationstechnik) seine Empfehlung für die Entfernung georedundanter Rechenzentren von fünf auf 200 Kilometer angehoben. Die Gründe für diese Empfehlung sind im neuen Leitfaden des BSI »Kriterien für die Standortwahl höchstverfügbarer und georedundanter Rechenzentren« genau dokumentiert [1].   Was die Entfernung von einander Georedundanz gebender…

Unternehmen in der Cloud – und wo bleibt der Know-how-Schutz?

Sobald die EU-Mitgliedsstaaten die Know-how-Schutz-Richtlinie umgesetzt haben, müssen Unternehmen angemessene Maßnahmen zum Schutz von Geschäftsgeheimnissen vornehmen. Zählt dazu auch die Wahl des Cloud-Providers?   Ziel der Richtlinie 2016/943 ist ein einheitlicher Mindestschutz für Geschäftsgeheimnisse in Europa – doch was ändert sich damit? Und was hat die Wahl eines sicheren Cloud-Dienstes damit zu tun? Die Richtlinie…

Crashtest für die IT-Sicherheit

Warum Zulieferer für die Automobilbranche ihre Business-Continuity- und Disaster-Recovery-Lösungen aufrüsten müssen, um ein höheres Maß an IT-Resilience zu erreichen.   Im Jahr 2016 stoppten zwei Automobilzulieferer die Belieferung ihres Kunden Volkswagen. Dies führte bei Volkswagen zu erheblichen Verzögerungen in der Produktion und führte zu Verlusten von schätzungsweise 100 Millionen Euro. Diese damals sehr öffentliche Konfrontation…

Günstigere Kreditzinsen mit der richtigen BC-DR-Strategie?

Systemausfälle stellen für Unternehmen ein hohes Risiko dar. Ist ein Unternehmen stark von seinen IT-Systemen abhängig, können größere Ausfälle nicht nur Geld kosten, sondern das Bestehen des Unternehmens an sich bedrohen. Banken, die selbst sehr stark von IT-Diensten abhängen, haben dies erkannt und haben damit begonnen, das Risiko möglicher Kreditausfälle an die Widerstandsfähigkeit der Kunden-IT…