Cyberresilienz beginnt mit Backup: Ein Rahmenwerk für messbare Wiederherstellung

Illustration Absmeier foto freepik

Cyberresilienz entscheidet sich nicht beim Backup, sondern bei der Wiederherstellung. Angesichts von Ransomware, kompromittierten Identitäten und komplexen Cloud‑Abhängigkeiten müssen Unternehmen ihre Backup‑Strategie konsequent auf messbare Recovery‑Ergebnisse ausrichten. Dieser Beitrag zeigt, wie eine architekturgetriebene Enterprise‑Backup‑Strategie Wiederherstellbarkeit, Sicherheit und Resilienz systematisch in den Mittelpunkt stellt.

 

Die Enterprise-Backup-Strategie hat sich weit über ihre traditionelle Rolle als operative Absicherung hinaus entwickelt. In modernen digitalen Unternehmen bildet die Backup-Architektur eine zentrale Grundlage für Business Continuity, Cyberresilienz, regulatorische Compliance sowie Incident Response. 

Hardwareausfälle, Ransomware-Kampagnen, kompromittierte Zugangsdaten, Insider-Bedrohungen und regionale Cloud-Ausfälle haben den Schwerpunkt von der Backup-Erstellung hin zur verlässlichen Wiederherstellung verlagert.

Vor diesem Hintergrund muss die Backup-Strategie mit Blick auf ein zentrales Prinzip entwickelt werden: Wiederherstellung unter erschwerten Bedingungen. Ziel ist nicht die bloße Erzeugung von Sicherungskopien, sondern die deterministische und zeitgerechte Wiederherstellung, und das selbst bei bereits kompromittierten Systemen, Identitäten oder gar gesamten Trust-Domains.

Dieser Beitrag beschreibt einen strukturierten, auf die Architektur ausgerichteten Ansatz zur Entwicklung einer Enterprise Backup-Strategie, die Wiederherstellung-Ergebnisse, Resilienz sowie operative Validierung bewusst über die Entscheidungen zu eingesetzten Werkzeugen stellt.

Eine wirksame Enterprise Backup-Strategie wird durch die zu schützenden Geschäftsziele definiert und nicht durch die eingesetzte Software oder Speicherplattform. Vor der Produktauswahl sind vier Kernfragen zu klären:

Welche Daten und Systeme sind geschäftskritisch?

Nicht alle Workloads tragen dasselbe Risikoprofil. Kern-Datenbanken, umsatzrelevante Systeme, Identity-Plattformen und ERP-Umgebungen erfordern ein signifikant höheres Schutzniveau als Umgebungen in der Entwicklung oder Archivsysteme. Übertriebener Schutz erzeugt unnötige Kosten, vernachlässigter Schutz exponiert existenzielle Risiken.

Wie viel Datenverlust ist tolerierbar? (RPO)

Das Recovery Point Objective (RPO) definiert den maximal akzeptablen Datenverlust in Zeiteinheiten. Ein RPO von fünf Minuten erfordert kontinuierliche oder nahezu kontinuierliche Datensicherung mit hoher Ingest-Kapazität. Ein RPO von 24 Stunden hingegen erlaubt batch-orientierte Verfahren. Das RPO bestimmt die Sicherungsfrequenz, Anforderungen an die Bandbreite sowie die Speicherarchitektur.

Wie lange dürfen Systeme ausfallen? (RTO)

Das Recovery Time Objective (RTO) definiert die maximal zulässige Wiederherstellungsdauer. Dabei beeinflusst das RTO unmittelbar Restore-Durchsatz, die Fähigkeit zur Parallelisierung, die Storage-Performance und die Infrastruktur-Dimensionierung. Es handelt sich oft um die am stärksten unterschätzte Designlimitierung.

Wie wird Wiederherstellbarkeit nachgewiesen?

Der erfolgreiche Abschluss eines Backup-Jobs ist für sich genommen kein Beweis für die Wiederherstellbarkeit. Verifikation muss belegen, dass Systeme unter realistischen Lastbedingungen innerhalb definierter Zeitfenster wiederhergestellt werden können. Diese Anforderungen sind als messbare SLAs für jede Workload-Kategorie zu formalisieren. Die Architektur leitet sich rückwärts aus diesen SLAs ab.

 

Daten klassifizieren und RPO/RTO-Ziele zuordnen

Eine effektive Strategie startet mit der Klassifizierung: Ein Tier-basiertes Modell sorgt dafür, dass Ressourcen zum Schutz korrekt zugewiesen werden.

Tier 1 – Kritische Produktionssysteme
Beispiele: ERP, Zahlungsplattformen, Kundendatenbanken
RPO: Minuten
RTO: < Eine Stunde

Tier 2 – Wichtige Geschäftsanwendungen
Beispiele: Applikationsserver, VDI, E-Mail Plattformen
RPO: Stunden
RTO: Innerhalb eines Geschäftstags

Tier 3 – Fachbereichs-Daten, Daten zur Kollaboration
Beispiele: File Shares, Collaboration-Repositories
RPO: Täglich
RTO: Mehrere Tage

Tier 4 – Langzeitarchive
Beispiele: Compliance-Daten, abgeschlossene Projekte
RPO: Tage oder länger
RTO: Tage bis Wochen

 

Sicherungsfrequenz, Aufbewahrungsfristen und Restore-Infrastruktur müssen an diese Tiers individuell angepasst werden. Eine Gleichbehandlung aller Daten führt in der Regel zu höheren Kosten bei geringerer Leistung zur Wiederherstellung.

Bei sehr großen Datenvolumen in Langzeitarchiven stößt die traditionelle Vorgehensweise der Datensicherung und -wiederherstellung zunehmend an technische wie auch wirtschaftliche Grenzen. Vor diesem Hintergrund ist ein Umdenken hinsichtlich der Absicherung dieser Daten erforderlich. Die enorme Datenmenge führt dazu, dass vollständige Sicherungen und insbesondere eine zeitnahe Wiederherstellung oftmals nur noch mit erheblichem Aufwand oder gar nicht mehr möglich sind. Stattdessen rücken zunehmend Schutzmaßnahmen, die auf der Architektur basieren, in den Fokus. Zu nennen wären hier beispielsweise Objektspeicher-Plattformen mit revisionssicheren Funktionen, die Datenstände unveränderlich vorhalten, sowie standortübergreifende Redundanzverfahren wie Erasure Coding, mit denen sich Ausfälle gezielt absichern lassen.

In solchen Architekturen wird der Schutz der Daten primär durch die inhärente Resilienz der zugrunde liegenden Speicherplattform gewährleistet. Die Einschätzung hängt selbstverständlich immer vom Einzelfall ab, aber für diese Datenklassen erweisen sich klassische Sicherungs- und Wiederherstellungsprozesse häufig als weder erforderlich noch praktikabel.

 

Die 3-2-1-Regel für moderne Modelle der Bedrohung erweitern

Die klassische 3-2-1-Regel bleibt grundlegend:

  • Drei Datenkopien
  • Zwei unterschiedliche Speichermedien
  • Eine Offsite-Kopie

Dieses Modell adressiert Hardwareausfälle und lokale Störungen, setzt jedoch implizit voraus, dass administrative Strukturen des Vertrauens intakt bleiben. Moderne Angriffe kompromittieren häufig privilegierte Zugangsdaten vor der Ausbringung von Ransomware. Wenn alle Backup-Kopien derselben administrativen Trust-Domain unterliegen, bietet die reine geografische Trennung nur begrenzten Schutz.

Erweiterung zu 3-2-1-0:

  • Drei Datenkopien (Redundanz gegen Hardware) sowie Betriebsfehler
  • Zwei unterschiedliche Speichersysteme oder Technologien, Reduktion systemischer Risiken
  • Eine logisch isolierte Kopie außerhalb der primären Trust-Domain, Trennung der Control Plane
  • Keine Wiederherstellungsfehler, kontinuierlich überprüfte Integrität und Wiederherstellung

Ziel ist hierbei nicht die theoretische Perfektion, sondern die Eliminierung unbekannter Ausfallmodi vor dem Hintergrund eines realen Vorfalls.

 

Immutability auf der richtigen Kontrollebene durchsetzen

Immutability ist eine nicht verhandelbare Kontrollmaßnahme in Ransomware-resilienten Architekturen, allerdings ist nicht jede Implementierung gleichwertig.

Weiche Immutability:

  • Konfiguriert über UI oder Meta-Daten
  • Administrativ umkehrbar
  • Anfällig bei Credential-Kompromittierung

Erzwingbare (Hard) Immutability:

  • Beim Schreibvorgang angewendet
  • Auf der Speicherebene technisch durchgesetzt
  • Löschen oder Modifizieren selbst mit erhöhten Rechten ausgeschlossen

Für wirksamen Schutz gilt:

  • Durchsetzung auf API-Ebene
  • Aufbewahrungsfristen dürfen administrativ nicht verkürzt werden
  • Backup-Repositories dürfen keine Löschrechte mit Produktionssystemen teilen

Immutability muss eine echte technische Grenze darstellen und keine bloße Policy-Empfehlung.

Storage auf Wiederherstellung statt nur auf Retention ausrichten

Backup-Software orchestriert Jobs und verwaltet Metadaten. Die Speicherarchitektur bestimmt dabei die tatsächliche Fähigkeit zur Wiederherstellung. Zu bewerten sind dabei insbesondere:

Datenintegrität und Dauerhaftigkeit

Checksummen, Erasure Coding und Background Scrubbing zur Erkennung stiller Korruption von Daten.

Restore-Performance unter Parallelität

Massen-Wiederherstellungen legen Engpässe offen, die Einzel-Restores nicht zeigen.

Unabhängige Retention-Durchsetzung

Retention muss vom Speichersystem selbst erzwungen werden, unabhängig von der Backup-Logik.

Operative Skalierbarkeit

Kapazität und Durchsatz müssen skalieren, ohne die Architektur zu beeinträchtigen.

Objektspeicher als strategische Option

Viele Unternehmen setzen auf Objektspeicher als primäres Backup-Ziel aufgrund:

  • Nativem Scale-out-Design
  • Hoher Datenhaltbarkeit
  • API-basierter Immutability
  • Planbarer Wirtschaftlichkeit im Petabyte-Bereich

Objektspeicher ersetzt nicht zwangsläufig andere Tiers, schafft jedoch architektonische Unabhängigkeit sowie skalierbare Leistung zur Wiederherstellung.

Im Kontext moderner Anforderungen zur Sicherheit und Resilienz geht eine zeitgemäße Objektspeicher-Architektur jedoch deutlich über rein API-basierte Unveränderbarkeit hinaus. Ein Beispiel hierfür ist ein mehrschichtiges Sicherheitsmodell (Scality CORE5). Neben der Immutability auf API-Ebene wird der Schutz der Daten konsequent bis in den Daten- und Storage-Layer erweitert.

Dazu zählt eine durchgehende Verschlüsselung sowohl der übertragenen Daten (Data in Flight) als auch der gespeicherten Daten (Data at Rest), wodurch der Schutz während der Übertragung ebenso wie im Ruhezustand gewährleistet ist. Auf Speicherebene sorgt zusätzlich Erasure Coding nicht nur für eine hohe Haltbarkeit der Daten und eine effiziente Wiederherstellbarkeit, sondern erhöht darüber hinaus insgesamt auch die Sicherheit gegenüber potenzieller Exfiltration von Daten.

Da Daten dabei in kodierte Fragmente (Chunks) aufgeteilt und verteilt gespeichert werden, besitzen einzelne Fragmente außerhalb des definierten Erasure-Coding Schemas keinen verwertbaren Informationsgehalt. Selbst bei einem Angriff auf das Dateisystem oder aber im Fall eines physischen Diebstahls von Datenträgern bleiben isolierte Fragmente wertlos, da eine Rekonstruktion der Daten ohne Zugriff auf das vollständige, systeminterne Kodierungsschema sowie die notwendigen Quorum-Fragmente nicht möglich ist.

Ergänzt wird dieses Sicherheits- und Resilienzkonzept durch gezielte geografische Ausfallsicherheit. Diese kann über synchron gestreckte Cluster mit standortübergreifendem Erasure Coding oder aber über asynchrone Cross-Region Replication (CRR) realisiert werden. Dadurch lassen sich sowohl lokale Störungen in der Infrastruktur als auch regionale Ausfälle zuverlässig abfangen.

Schließlich wird eine solche Architektur idealerweise als gehärtete Software-Appliance bereitgestellt: ohne Root-Zugriff, mit konsistent gepatchten Software-Komponenten einschließlich Betriebssystem sowie einer stark reduzierten Angriffsfläche. Auf diese Weise entsteht eine integrierte Plattform, die in der Lage ist, Skalierbarkeit, Datenintegrität sowie Sicherheitsanforderungen gleichermaßen zu adressieren.

 

Architekturmuster risikoorientiert auswählen

  • Pattern A: Direkt auf unveränderlichen Objektspeicher
    Backup schreibt direkt auf unveränderlichen Objektspeicher. Replikation sorgt für Standort-Redundanz. Geeignet für: große Datenmengen, moderate RTO-Anforderungen, Fokus auf Skalierung sowie operativer Einfachheit.
  • Pattern B: Performance-Tier und Immutable Capacity-Tier
    Aktuelle Backups auf hochperformantem Speicher, sofortige Replikation auf unveränderlichem Objektspeicher. Geeignet für: niedrige RTOs, hohe Restore-Geschwindigkeit, lange Retention.
  • Pattern C: Logisch isolierte oder aber Air-Gapped Architektur
    Trennung von Management- und Datenebene, restriktiver Netzwerkzugang, Retention außerhalb operativer Administrations-Kontrolle. Geeignet für: regulierte Branchen, Umgebungen der Hochsicherheit, erhöhte Insider-Risiken. Jedes Muster repräsentiert eine individuelle Mischung (Kosten, Komplexität, Sicherheit zur Wiederherstellung).

 

Kontinuierliche Validierung institutionalisieren

Eine nicht getestete Backup-Strategie versagt unter Druck.

  • Automatisierte Restore-Tests
    Regelmäßige Wiederherstellung in isolierten Umgebungen inklusive Validierung der Applikationen.
  • Integritätsprüfung
    Checksummen und Scrubbing zur frühzeitigen Erkennung von Korruption.
  • Messung der Performance
    Messung des Restore-Durchsatzes unter parallelen Szenarien der Wiederherstellung.
  • Auditierbarkeit
    Unveränderbare Protokolle aller Backup- und Restore-Vorgänge zur Compliance- und Forensik-Unterstützung. Validierung muss kontinuierlich und operativ verankert sein. Eine jährliche Compliance-Übung ist nicht ausreichend.

 

Umsetzung über eine strukturierte Roadmap

Tage 0–30: Analyse und Architektur-Design

  • Workload-Klassifizierung
  • Definition von RPO/RTO-Tiers
  • Identifikation von Lücken bei Immutability und Isolation
  • Auswahl geeigneter Architekturmuster

Tage 31–60: Härtung von Sicherheit und Kontrolle

  • Aktivierung von API-basierter Immutability
  • Verschlüsselung, granulare Kontrollen des Zugriffs
  • Einschränkung administrativer Rechte, Trennung von Trust-Domains

Tage 61–90: Validierung und Skalierung

  • Einführung automatisierter Restore-Tests
  • Messung realer Recovery-Performance
  • Implementierung einer zusätzlichen isolierten Kopie, bedarfsorientiert

Nach jeder Übung oder Incident-Simulation sind Annahmen zu überprüfen, Zugriffspfade zu härten sowie Modelle zur Kapazität anzupassen.

 

Vermeidbare Ausfallmuster erkennen

Häufige Designfehler:

  • Reversible oder rein Policy-basierte Unveränderlichkeit
  • Gleichsetzung von Backup-Erfolg mit Wiederherstellbarkeit
  • Unterdimensionierter Restore-Durchsatz
  • Geteilte administrative Trust-Domains mit Produktion
  • Single-Site- oder Single-Copy Architekturen

Die Vermeidung dieser Fehler steigert Resilienz häufig stärker als die bloße Einführung zusätzlicher Werkzeuge.

 

Von der Datensicherung zur messbaren Resilienz

Enterprise-Backup ist längst keine Übung in Sachen Speicheroptimierung mehr, sondern eine strategische Fähigkeit zur Resilienz. Eine wirksame Strategie plant für Wiederherstellung unter Bedingungen eines Ausfalls und nicht für den Backup-Erfolg im Normalbetrieb. Sie richtet die Architektur an messbaren SLAs aus, erzwingt Immutability auf der richtigen Kontrollebene, stellt die Unabhängigkeit des Speichers sicher und validiert Wiederherstellbarkeit kontinuierlich. Wenn Backup-Architektur konsequent am Geschäftsrisiko ausgerichtet und Wiederherstellung als getestete, auditierbare Fähigkeit verstanden wird, entsteht im Kontext klassischer Datensicherung tatsächliche und vorhersagbare Cyberresilienz.

Christoph Storzum, VP Sales Europe, Scality

Der Beitrag wurde in Teilen mit KI erstellt.

 

207 Artikel zu „Cyberresilienz Backup“

Vier Säulen der Cyberresilienz

Trotz langjähriger Investitionen in Abwehrmaßnahmen nehmen Cyberangriffe und kostspielige Ausfallzeiten weiter zu. Traditionelle Sicherheitsmethoden zur Bedrohungsprävention und -erkennung bleiben zwar nach wie vor relevant, doch unter CISOs zeigt sich eine Veränderung in der Herangehensweise. Viele erweitern ihr Aufgabengebiet, um zusätzlich die Leitung von Wiederherstellungsmaßnahmen nach Sicherheitsvorfällen zu übernehmen, damit ihr Unternehmen rasch wieder betriebsbereit ist.…

Datensicherung in Zeiten der Cloud: Die unterschätzte Verantwortung für Backups in Microsoft 365

Microsoft 365 ist in vielen Unternehmen längst der Ort, an dem sich große Teile des Arbeitsalltags abspielen. Kommunikation, Zusammenarbeit und Wissensmanagement finden heute überwiegend über Exchange Online, Teams, OneDrive, SharePoint oder OneNote statt. Damit ist Microsoft 365 längst mehr als ein Produktivitätswerkzeug – es bildet die Grundlage zahlreicher geschäftskritischer Prozesse.   Vor diesem Hintergrund wird…

Mehr Cyberresilienz durch künstliche Intelligenz: 5-Stufenplan für Unternehmen

Olaf Pursche, Leiter Kompetenzgruppe Sicherheit eco – Verband der Internetwirtschaft e.V.: »KI ist längst fester Bestandteil von Geschäftsprozessen. Mit ihrer Verbreitung nehmen jedoch auch Bedrohungen wie Deepfakes und KI-gestütztes Phishing zu. Entscheidend ist daher die sichere und verantwortungsvolle Integration von KI als zentraler Baustein der Cyberresilienz.« eco veröffentlicht Whitepaper für Entscheidungsträgerinnen und Entscheidungsträger zu sicherer…

Cyberresilienz für CISOs: Widerstands- und Anpassungsfähigkeit für ein resilientes Unternehmen

Sicherheitsverantwortliche haben Jahrzehnte damit verbracht, Abwehrmaßnahmen aufzubauen, doch trotz Investitionen in die Prävention sind Unternehmen nach wie vor mit erheblichen Störungen und Ausfallzeiten durch Cyberangriffe konfrontiert. Daher ist es notwendig, den Fokus zu verlagern: Von einer Denkweise, die auf Prävention und Reaktion ausgerichtet ist, hin zu einer Cyberresilienz-Strategie, die ihren Schwerpunkt auf Widerstands- und Anpassungsfähigkeit…

Cybersichere Backups: Backup ist keine Lebensversicherung für Daten

Geballte Kompetenz mit höchstem Know-how für Cybercrime und Cybersicherheit konnte das Polizeipräsidium Köln als Veranstalter knapp 100 Unternehmen seiner Stadt anbieten. Mitveranstalter waren das DIGITAL.SICHER.NRW als Kompetenzzentrum für Cybersicherheit in der Wirtschaft, die IHK Köln, die Handwerkskammer Köln sowie IT-Sicherheitsberater und Backup-Experten. Diese vermittelten passende Strategien, um möglichen Cyberangriffen mit maximaler Abwehr zu begegnen.  …

Cyberresilienz: Zu lange Betriebsunterbrechungen in den Unternehmen

Cyberresilienz ist in aller Munde. Aber wie sieht es tatsächlich in der Praxis damit aus? In einem aktuellen Statusreport befragte Absolute Security 750 CISOs von US- und UK-Unternehmen. Die richtungsweisenden Antworten zeigen, dass durchaus noch Nachholbedarf dabei besteht, Ausfallzeiten auf ein Minimum zu beschränken. Deutlich über die Hälfte (55 Prozent) der befragten Sicherheitschefs gaben an,…

Ausblick 2026: Agentic AI und KI-basierte Angriffe prägen Cyberresilienz-Strategien

Mit Blick auf das Jahr 2026 werden Innovationen wie Agentic AI und immer mehr KI-basierte Angriffe Cyberresilienz, Governance und Identitätssicherheit in den Mittelpunkt von Sicherheitsstrategien rücken. Wie können Unternehmen das Spannungsfeld zwischen Innovationsdruck, neuen Bedrohungen und Widerstandsfähigkeit meistern?   Wiederherstellung und Resilienz: So lässt sich die Herausforderung durch KI-gesteuerte Angriffe bewältigen Künstliche Intelligenz (KI) beschleunigt…

Warum Datensicherung zur strategischen Kernkompetenz wird – Die neue Relevanz von Backup

Am 20. Oktober 2025 stand die digitale Wirtschaft still. Ein DNS-Fehler in der AWS-Region US-EAST-1 legte weltweit über 2.000 Unternehmen und Millionen Nutzer lahm. Von Snapchat über Signal bis zu kritischen Finanzdienstleistern – der mehrstündige Ausfall demonstrierte mit schonungsloser Klarheit die Achillesferse der globalisierten Cloud-Infrastruktur. Für europäische Unternehmen war dies mehr als eine technische Störung. Es war ein Weckruf zur strategischen Neuausrichtung ihrer Backup- und Resilienzsysteme.

it-sa 2025 – Zwischen KI-Disruption und dem Gebot der Cyberresilienz

Die it-sa 2025 in Nürnberg stand im Zeichen einer tiefgreifenden Zerrissenheit: Selten lagen Hype und Handlungsdruck, Chance und Zwang so nah beieinander. Auf der einen Seite entfesselt künstliche Intelligenz eine beispiellose Innovationsdynamik, auf der anderen Seite zwingt ein Tsunami an Regularien wie NIS2 die Unternehmen zu einem strategischen Umdenken.

Wirkliche Cyberresilienz: Cybersicherheit ist eine Angelegenheit der Unternehmenskultur

Im Falle eines erfolgreichen Angriffs sind die Schuldigen mitunter schnell gefunden: Eine Lücke in der Firewall, eine geöffnete Phishing-Mail oder eine übersehene Warnmeldung. Doch ein Blick in die Praxis zeigt: IT-Sicherheit scheitert nicht an Technologien oder Fehlverhalten, sondern bereits grundsätzlich an einem Mangel an Unternehmenskultur. Wenn Cybersicherheit in einer Organisation nur als eine schlecht durchgesetzte…

Widerstandsfähigkeit für SaaS-Umgebungen – Backup als strategischer Resilienzfaktor

Die Zahl der globalen Ransomware-Opfer ist um 70 Prozent gestiegen und 80 Prozent der Unternehmen waren in den letzten zwölf Monaten von mindestens einem Ransomware-Angriff betroffen. Social Engineering/BEC-Angriffe stiegen von 20 Prozent auf 25,6 Prozent im Vergleichszeitraum Januar-Mai 2025 zu 2024. Gleichzeitig werden SaaS-Plattformen zu immer attraktiveren Zielen für Cyberkriminelle, da sie in fast allen…

KI und Cyberresilienz: Die Zukunft der IT-Sicherheit – Cyberresilienz als strategische Priorität

Kathrin Redlich, Vice President DACH & CEE bei Rubrik, betont die Notwendigkeit von Cyberresilienz in Unternehmen, da Cyberangriffe unvermeidlich sind. Dabei ist die schnelle Wiederherstellung der Geschäftskontinuität nach einem Angriff entscheidend für die langfristige Wettbewerbsfähigkeit. Die Integration von KI in Sicherheitslösungen wird eine wichtige Rolle bei der Abwehr von Cyberangriffen spielen.

Cyberresilienz ist auch für kleinere Teams nicht mehr optional

Vor nicht allzu langer Zeit konnten kleinere IT- und Sicherheitsteams noch behaupten, dass sie keine Ziele mit hoher Priorität seien. Das ist heute nicht mehr der Fall. Im Jahr 2025 haben es Angreifer auf alle abgesehen, unabhängig von ihrer Größe. Ganz gleich, ob CEOs ein globales Unternehmen oder einen 200-köpfigen Betrieb leiten, der regionale Infrastruktur…

Cyberresilienz als Schlüssel zur Zukunftssicherung: Schutz, Wiederherstellung und Anpassungsfähigkeit im digitalen Zeitalter

Ransomware-Angriffe gehören mittlerweile zum Standardrepertoire von Cyberkriminellen. So weit – so bekannt. Weniger bekannt ist die Erkenntnis, dass 90 Prozent der erfolgreichen Angriffe von nicht-verwalteten Geräten ausgehen [1]. Mithin Geräte, für die die Eigentümer voll verantwortlich sind, einschließlich aller Betriebssystemupdates, Sicherheitspatches und Softwareprodukte. Und damit stellen sie eine Sicherheitsgefahr für Unternehmen dar. Organisationen sollten daher…

Cyberresilienz einer der größten Wettbewerbsvorteile der Neuzeit

Analyse der IT-Sicherheitsvorfälle im ersten Halbjahr 2025 zeigt, dass Ransomware weiterhin dominiert und Cyberangriffe zunehmend Industrie und IT treffen.   Riedel Networks, Anbieter von maßgeschneiderten IT-Security- und Netzwerkdienstleistungen, veröffentlicht seinen aktuellen Report mit über 100 dokumentierten IT-Sicherheitsvorfällen aus dem ersten Halbjahr 2025, von Phishing über Zero-Day-Attacken bis hin zu Schwachstellen in der Lieferkette, und zeigt,…

Endpoint-Security: Cyberresilienz als strategischer Imperativ

Unternehmen sind nur so stark wie ihr schwächster Endpunkt: Der 4-Punkte-Plan für effektive Endpoint-Security.   Unternehmen sehen sich einem unerbittlichen Ansturm von Cyberbedrohungen ausgesetzt. Sie erleben Angriffe auf breiter Front – von Servern über Cloud-Dienste bis hin zu APIs und Endgeräten. Das Arsenal der Cyberkriminellen ist mit hochentwickeltem Phishing und KI-gestützten Exploits bestens ausgestattet. Für…

Modernes Backup ohne Tape und Cloud ist möglich

Ein vollständiges und sicheres Backup sowie ein zuverlässiges und schnelles Restore sind die Grundlagen zum Schutz vor Datenverlust und den Folgen eines Cyberangriffs – Tape hat hier ausgedient und auch die Public Cloud ist verzichtbar.   Zwei in der Datensicherung eingesetzte Technologien stehen derzeit bei vielen Unternehmen und Behörden auf dem Prüfstand. Bei Tape sind…

Das Backup-Paradox – warum das Gefühl der Sicherheit für Unternehmen die größte Schwachstelle sein könnte

Heute müssen Unternehmen über traditionelle Backup-Strategien hinausdenken und sicherstellen, dass ihre Daten – unabhängig von den Umständen – sicher und verfügbar bleiben. Denn besonders Angriffe auf Software as a Service (SaaS) Anwendungen haben stark zugenommen und sorgen für einen Wandel hin zu cloudbasierter Datensicherung. Gartner prognostiziert, dass bis 2028 75 Prozent der großen Unternehmen SaaS-Backups…

Backups sind kein Allheilmittel

Ein Kommentar von Trevor Dearing, Director of Critical Infrastructure Solutions bei Illumio   Am 31. März, macht der World Backup Day auf die Bedeutung regelmäßiger Datensicherungen aufmerksam. Backups sind ein unverzichtbarer Bestandteil jeder modernen IT-Sicherheitsstrategie. Allerdings werden Backups hierzulande maßlos überschätzt: Laut der vom Ponemon Institute durchgeführten Studie »The Global Cost of Ransomware«, ist mehr…

Nachhaltige Cyberresilienz lebt in einem Ökosystem

Warum Partner-Ökosysteme für den Schutz und das Sichern von IT-Infrastrukturen, Systemen und Daten auch 2025 immer wichtiger werden.   Cyberresilienz ist eine Voraussetzung, um die Verfügbarkeit von Geschäftsprozessen in einer zunehmend gefährdeten digitalen Wirtschaft aufrechtzuerhalten. Plattformlösungen für eine proaktive Abwehr und für eine automatisierte, saubere Cyber Recovery sind zentral für den Rebuild funktionierender Infrastrukturen. Angesichts…