75 Prozent aller IT-Anwendungen sind nicht gegen ungeplante Systemausfälle gewappnet

foto-cc0-pixabay-955169-ausfall-kammMit fehlertoleranten Lösungen wollen IT-Entscheider millionenschwere Downtime-Verluste vermeiden.

Die von Stratus beauftragte und vom Marktforschungsunternehmen Enterprise Strategy Group (ESG) durchgeführte Studie »Highly-Available and Fault-Tolerant Infrastructure Considerations Survey« befragte mehr als 250 IT-Entscheider in Nordamerika und Westeuropa nach ihrer Meinung zu Anwendungsausfall, Wiederherstellungszeiten und Virtualisierungsnutzung sowie hochverfügbaren und fehlertoleranten Verfügbarkeitslösungen.

Demnach ist die große Mehrzahl der Produktionsserver und -services nicht dafür ausgelegt, die durchschnittliche Ausfalldauer von 87 Minuten unbeschadet zu überstehen. Für Unternehmen mit kritischen Geschäftsanwendungen kann jede Ausfallminute schwerwiegende Folgen haben, von entgangenem Umsatz über die Nichteinhaltung von Dienstgütevereinbarungen (SLAs) bis hin zu empfindlichen Reputationsverlusten. Zugleich tolerieren 53 Prozent der Anwendungen maximal 15 Minuten Downtime – viel zu wenig angesichts der Tatsache, dass 80 Prozent aller Ausfallereignisse deutlich länger als 15 Minuten dauern.

Always-On-Infrastruktur

Darüber hinaus mussten 71 Prozent der IT-Manager einräumen, dass ihr Unternehmen die Kosten von Ausfallereignissen nicht präzise ermittelt. Die Mehrheit der Unternehmen weiß also erst dann, welcher finanzielle Schaden entsteht, wenn der Ernstfall eingetreten und es für vorbeugende Maßnahmen zu spät ist. Weil CIOs und COOs diese Risikoexposition mit Sorge betrachten, planen mehr und mehr IT-Verantwortliche den Umstieg auf fehlertolerante oder Hochverfügbarkeitslösungen. So haben immerhin 38 Prozent der befragten Manager vor, die Anzahl ihrer durch eine Always-On-Infrastruktur geschützten Produktionsplattformen in den kommenden 24 Monaten spürbar aufzustocken.

»Ungeplante Ausfälle sind auch heute noch die Achillesferse von IT-Systemen. Umso alarmierender ist, dass sich weit über die Hälfte der Unternehmen nicht die Mühe macht, die Kosten für einen Systemausfall verlässlich zu quantifizieren. Diese Unternehmen haben keine Ahnung, wie sich ein solches Ereignis auf ihr Geschäft auswirkt, und können sich deshalb nicht darauf vorbereiten«, beschreibt Jason Andersen, Vice President Business Line Management bei Stratus Technologies, die Situation. »Hochverfügbare und fehlertolerante Infrastrukturen haben sich als schlagkräftige Waffe gegen Ausfallrisiken erwiesen. Das ist umso wichtiger, als mit zunehmender Nutzung von Edge-Systemen, z. B. in Form von IoT-Geräten, auch die Downtime-Kosten und -Risiken weiter steigen werden.«

Die wichtigsten Erkenntnisse auf einen Blick:

Die überwiegende Mehrheit der IT-Anwendungen ist für ein durchschnittliches Ausfallereignis nicht gewappnet.

  • 72 Prozent der Anwendungen tolerieren von Haus aus nur eine Downtime von unter 60 Minuten und damit deutlich weniger als die Durchschnittsdauer von 87 Minuten.
  • 53 Prozent stoßen bereits nach 15 Minuten an ihre Grenzen, wobei 80 Prozent aller Ausfälle jedoch länger als 15 Minuten dauern.

 

IT-Entscheider haben keine präzise Vorstellung von den Kosten eines Ausfalls und sind daher nicht darauf vorbereitet; als Reaktion auf dieses Kostenrisiko wollen mehr Unternehmen eine fehlertolerante Infrastruktur einführen.

  • 71 Prozent der Studienteilnehmer verzichten auf die Erfassung relevanter Kennzahlen, die ihnen einen realistischen Eindruck von den drohenden Ausfallkosten vermitteln könnten.
  • 47 Prozent bezeichnen die geschäftlichen Auswirkungen eines Ausfalls als wichtigsten finanziellen Grund für die Einführung einer fehlertoleranten oder hochverfügbaren Lösung.
  • 38 Prozent der Befragten planen, den prozentualen Anteil ihrer durch eine fehlertolerante Infrastruktur abgesicherten Produktionsplattformen in den kommenden 24 Monaten zu erhöhen.

 

Die Sicherstellung der Anwendungsverfügbarkeit in virtualisierten Umgebungen ist weiterhin problematisch.

  • 84 Prozent der IT-Entscheider geben zu, bei der Sicherstellung der Anwendungsverfügbarkeit in einer virtualisierten Serverlandschaft vor erheblichen Problemen zu stehen.
  • Rund 50 Prozent wollen die Anzahl der virtuellen Maschinen, die durch Verfügbarkeitstechnologien abgesichert sind, in den kommenden zwei Jahren nicht erhöhen.

 

[1] Studienkonzeption und -durchführung

  • Für die Studie wurden 250 IT-Entscheider online befragt, die Verantwortung für die Beschaffung oder das Management von Hochverfügbarkeitslösungen für IT- oder OT-Plattformen in Nordamerika und Westeuropa tragen.
  • In ausführlichen telefonischen Interviews wurden zudem sieben IT-Entscheider in Nordamerika, darunter zwei Stratus-Kunden, um ihre Meinung gebeten.
  • Die Studie umfasste neben dem Finanz-, Fertigungs- und Healthcare- auch den Einzelhandels- und Behördensektor sowie weitere Branchen.
  • Die Teilnehmer machten Angaben zu ihrer beruflichen Tätigkeit, zu Unternehmensgröße und -branche sowie zu ihrer Vertrautheit mit der Business-Continuity- und Virtualisierungsumgebung ihres Unternehmens.
  • Die Befragung fand von Juni bis September 2016 statt und wurde von der Enterprise Strategy Group durchgeführt.
  • Ausführliche Informationen zur aktuellen Stratus-Studie finden Sie im zugehörigen Blog-Post.

Drei Maßnahmen für höhere Sicherheit und Verfügbarkeit in der Cloud

Always-On-Verfügbarkeit: Mangelnde Datenverfügbarkeit ist richtig teuer

Hochverfügbarkeit und Ausfallsicherheit: So finden Unternehmen das für ihre Anforderungen und ihr Budget passende Konzept

IT kämpft weiter um Anwendungsperformance und Verfügbarkeit

Hochverfügbarkeit effektiv umsetzen mit Software-defined Storage

Kontinuierliche Verfügbarkeit, fortschrittliche Sicherheitssysteme und integrierte Backup- und Recovery

Data-Center-Trends 2017: Standort, Energie und Kühlung werden immer wichtiger

Backup allein genügt nicht mehr

Der Mainframe ist auch im Zeitalter des digitalen Wandels unverzichtbar

Globale Herausforderung: Verbesserte Verfügbarkeit bei gleichbleibenden Beständen

Studie: Verfügbarkeit von Apps wichtiger als Sicherheit

ECM: Höhere Informationsverfügbarkeit und Transparenz

Dieser IT-Infrastruktur-Trend kommt 2017 auf den Mittelstand zu