Probleme der IT-Infrastruktur: »Das Dreckige Dutzend«

Illustration: Absmeier, Jarmoluk

»Das Dreckige Dutzend« ist weit mehr als ein US-Kriegsfilm. Der Begriff ist sehr oft auf verschiedene Weise in verschiedenen Branchen genutzt worden, vom Einzelhandel bis zur Luftfahrtindustrie. Für die IT-Branche hat Eric Herzog, CMO bei Infinidat, eine Liste der »Dreckigen Dutzend« erstellt. Es handelt sich um eine Liste von Problemen der IT-Infrastruktur, die aktuelle Unternehmensimplementierungen »kontaminieren« und für Gefahren und Risiken sorgen. Es sind die Herausforderungen, Lücken, Missverständnisse und Probleme, die CxOs, Speicheradministratoren und andere IT-Führungskräfte nachts wach halten, weil sie nicht wissen, was sie nicht wissen. Bevor sie die Probleme aus der Welt schaffen können, müssen sie wissen, welche es sind.

 

Eric Herzogs Dreckiges Dutzend

  1. Unzureichende Cyberresilienz
  2. Cybersicherheit und Datenspeicherung ohne Zusammenhang
  3. Speicherwildwuchs
  4. Fehlende Nutzung flexibler Verbrauchsmodelle
  5. Hohe Gesamtbetriebskosten
  6. Langsame Datenwiederherstellung nach einem Cyberangriff
  7. Langsame Apps und Workloads
  8. Veraltete Architektur
  9. Unzureichend ökologische Speicherinfrastruktur
  10. Missverständnisse über Hybrid Cloud
  11. Fehlende Automatisierung
  12. Unzureichender Support durch Lieferanten

 

Diese Faktoren formen eine Situation, mit denen Unternehmen und Dienstanbieter konfrontiert sind, unabhängig davon, ob sich die Führungsebene dessen bewusst ist oder nicht. Jeder einzelne dieser Faktoren kann einen ansonsten leistungsstarken IT-Betrieb beeinträchtigen. Es bedarf einer soliden Strategie, um die Probleme zu lösen.

 

  1. Unzureichende Cyberresilienz

Cyberresilienz sollte eines der wichtigsten Elemente der IT-Strategie eines Unternehmens sein. Aber zu viele Unternehmen verfügen über ein unzureichendes Maß an Cyberresilienz, um ausreichend gegen Cyberangriffe geschützt zu sein, insbesondere Ransomware und Malware. Zu den Merkmalen einer starken Cyberresilienz-Lösung gehören: unveränderliche Snapshots, Air Gapping, eine gesicherte forensische Umgebung (Sandbox) und eine kurze Wiederherstellungszeit (Minuten, nicht Stunden oder Tage). Eine Cyberresilienz-Lösung kann als effektiv gelten, wenn sie garantierte Verfügbarkeit und eine vollständig skalierte Datenwiederherstellung für sowohl Primär- als auch Sekundärspeicher bietet. Idealerweise sollte der Storage-Hersteller entsprechende Garantien bieten.

 

  1. Cybersicherheit und Datenspeicherung ohne Zusammenhang

IT-Führungskräfte und CISOs müssen die Speicherung als Teil der umfassenden Cybersicherheitsstrategie ihres Unternehmens betrachten. Um Cybersecurity-Bedrohungen einen Schritt voraus zu sein, muss ein ganzheitlicher Ansatz gewählt werden. Dies bedeutet, dass die Beziehung zwischen Cybersicherheit, Datenspeicherung und Cyberresilienz bewertet werden muss. Primärspeicher und Sekundärspeicher müssen geschützt werden und so konzipiert sein, dass sie sich nahtlos und intelligent in die allgemeinen Cybersicherheitsstrategien und umfassenden Frameworks von Unternehmen integrieren lassen. Nur so können Daten, das Pfund mit dem Unternehmen wuchern können, wirkungsvoll geschützt werden.

 

  1. Speicherwildwuchs

Ein Unternehmen weiß, dass es Opfer von Speicherwildwuchs ist, wenn es zu viele Storage-Arrays hat. Vielleicht hat es im Laufe der Zeit 10, 12, 15, 20, 40 oder mehr Speicher-Arrays angehäuft, weil der Bedarf an Datenspeicherkapazität beständig gestiegen ist. Das ist nicht überraschend, führt aber unweigerlich zu Ineffizienz, überhöhten Kosten, übermäßig komplexen Rechenzentren, schlechtem Speichermanagement, negativen Auswirkungen auf die Umwelt und den Abfall. Speicherkonsolidierung ist die richtige Strategie, um dieses Problem zu lösen. Organisationen müssen sich nach Storage-Arrays umsehen, die ein Vielfaches der Datenkapazität ihrer bestehenden Systeme speichern können und eine Migration ohne Unterbrechung der Betriebsabläufe erlauben. In der Praxis lassen sich 40 Speicher-Arrays auf einige wenige konsolidieren, um die Verwaltung zu vereinfachen, Kosten zu sparen, die Effizienz zu steigern und die Nachhaltigkeit im Einklang mit den Zielen der Green IT zu gewährleisten.

 

  1. Fehlende Nutzung flexibler Verbrauchsmodelle

Unternehmen sind »Gewohnheitstiere«. Viele haben sich darauf festgelegt, Speicherkapazität auf eine bestimmte Art und Weise zu nutzen und zu finanzieren, sei es als Private oder Public Cloud, sei es als Investitions- oder Betriebsausgabe. Dabei gibt es Nutzungsmodelle, die Unternehmen mehr Möglichkeiten bieten. Ein Unternehmen kann nun eine Mischung aus Investitions- und Betriebsausgaben wählen und finanziell davon profitieren, nur für die Kapazität seines Speichersystems zu bezahlen, die es tatsächlich nutzt. Oder es kann High-End-Speichereigenschaften und -funktionen mit einem Pay-as-you-go-Ansatz in einem Cloud-ähnlichen Verbrauchsmodell nutzen. Unternehmen sollten die verschiedenen flexiblen Nutzungsmodelle prüfen, die ihnen zur Verfügung stehen. Sie sollten sich für einen Lieferanten entscheiden, der verschiedene Nutzungsmodelle anbietet und seinen Kunden erlaubt, diese zu kombinieren und im Laufe der Zeit zu wechseln.

 

  1. Hohe Gesamtbetriebskosten

IT-Verantwortliche suchen ständig nach Möglichkeiten, Kosten zu senken. Storage ist einer der Bereiche, in denen die IT-Abteilung erhebliche Kosteneinsparungen erzielen kann, ohne dabei Abstriche bei Verfügbarkeit, Zuverlässigkeit oder Leistung machen zu müssen. Eine strategischere Herangehensweise an die Speicherinfrastruktur wird sich dabei positiv auf das Endergebnis auswirken. Unternehmen können auf automatisierte und autonome Speicherplattformen für Primär- und Sekundärspeicher umsteigen und viele Speicher-Arrays auf einige wenige leistungsfähigere Plattformen konsolidieren. Die Umstellung auf Storage-as-a-Service ist ebenfalls eine Möglichkeit, die Kosten zu senken und die Leistungsfähigkeit zu erhöhen.

 

  1. Langsame Datenwiederherstellung nach einem Cyberangriff

Erfolgreiche Ransomware-Angriffe, die Daten blockieren oder in irgendeiner Weise beschädigen, gehören zur traurigen Realität der Unternehmens-IT. Die Wiederherstellung der Daten nach einem Angriff erfolgt in der Regel zu langsam, aber viele Unternehmen scheinen sich damit abgefunden zu haben, dass das eben so ist. Eine nahezu sofortige Wiederherstellung nach einem Cyberangriff ist jedoch möglich. Daten können in einer Minute oder weniger aus unveränderlichen Snapshots wiederhergestellt werden, was einer Organisation eine zuverlässige Wiederherstellung ihrer Daten ermöglicht. Besonders fortschrittliche Lieferanten garantieren ihren Kunden sogar bestimmt Wiederherstellungszeiten.

 

  1. Schlechte Performance der Anwendungen und Workloads

IT-Führungskräfte hören nicht selten Beschwerden von Führungskräften und Mitarbeitern, wenn Anwendungen langsam laufen. Das halsbrecherische Tempo der heutigen Geschäftswelt offenbart Leistungsprobleme in der Dateninfrastruktur. Nicht nur die Server sind wichtig für die reale Anwendungsleistung, sondern auch der Speicher ist entscheidend. Bei stark transaktionalen Block-Workloads müssen Unternehmen bei der Wahl der Speicherlösung beispielsweise auf die Anwendungslatenz achten. Die Latenz ist in der Praxis die wichtigste Determinante für die Transaktionsleistung. Eine Latenzzeit von 35 Mikrosekunden kann bei Speicherplattformen für Unternehmen als Richtwert dienen. Eine Latenzzeit über 40 Mikrosekunden sollten Unternehmen nicht akzeptieren.

 

  1. Abhängigkeit von einer veralteten Architektur

In vielen Unternehmen findet sich noch eine Speicherarchitektur mit doppelter Redundanz. Eine solche Architektur ist veraltet und bietet nicht das Maß an Zuverlässigkeit bietet, das in der heutigen digitalisierten Welt erforderlich ist. Die Best Practice im Speicherbereich ist eine dreifach redundante Architektur, auch wenn die großen Anbieter dies nur ungern zugeben, weil ihre bestehende Installationsbasis auf einer Dual-Mode-Architektur beruht. Für Unternehmen und Service Provider, die eine hohe Zuverlässigkeit und Langlebigkeit wünschen, ist die dreifache Redundanz jedoch der richtige Weg. Einige Anbieter, die eine Dreifach-Redundanz-Architektur nutzen, sind sich ihrer Sache auch so sicher, dass sie eine 100%ige Verfügbarkeitsgarantie für ihre Speicherlösungen bieten.

 

  1. Zögerliche Ökologisierung der Speicherinfrastruktur

Mehr Speicher-Arrays bedeuten mehr physische Objekte, die recycelt werden müssen. Diese Ineffizienz ist das Gegenteil eines grünen Ansatzes, der darauf abzielt, Abfall zu reduzieren, effizienter zu recyceln und die Auswirkungen auf die Umwelt zu verringern. Zu viele Speicher-Arrays verbrauchen auch mehr Energie, mehr Platz und sind teurer. Die Speicherkonsolidierung hingegen steht im Einklang mit dem Umweltschutz – weniger Energie, weniger Platz, weniger Abfall, weniger Recycling und gleichzeitig weniger Kosten. Darum sollten Unternehmen verstärkt die Konsolidierung ihrer Speicherinfrastruktur anstreben.

 

  1. Missverständnis der Hybrid Cloud

Zu viele IT-Führungskräfte gehen davon aus, dass ihr Unternehmen komplett auf eine Public Cloud umsteigen muss und keine Private Cloud haben kann, weil sie denken, dass die Private Cloud nicht mehr relevant ist. Das ist falsch. Eine Hybrid Cloud, die Public Cloud und Private Cloud kombiniert, ist durchaus von Vorteil. Eine moderne Private Cloud für die Datenspeicherung ist so leistungsfähig, dass sie der Public Cloud insbesondere bei Bereitstellung, Verwaltung und Nutzung das Wasser reichen kann. Die Kombination von öffentlichen und privaten Cloud-Umgebungen bietet einem Unternehmen mehr Kontrolle, mehr Flexibilität, mehr Sicherheit und mehr Kosteneffizienz. Eine moderne Private Cloud für Storage ermöglicht es Unternehmen, die Kontrolle zu behalten, die Kosten zu senken, die Cybersicherheit zu erhöhen und je nach Bedarf, abhängig von den Anwendungen und Arbeitslasten, eine die öffentliche Cloud einzubinden.

 

  1. Fehlende autonome Automatisierung

Ohne autonome Automatisierung werden die Datenspeicherung und die Unternehmensinfrastruktur insgesamt komplexer und kostspieliger. Automatisierung allein ist nicht mehr ausreichend. Die Einbeziehung des autonomen Aspekts in die Automatisierung hebt diese auf die nächste Stufe und ebnet den Weg für die Vereinfachung des Rechenzentrums und AIOps. Diese Funktionalität bietet Unternehmen einen »Set-it-and-forget-it«-Ansatz. Die Speicherung wird im Wesentlichen selbstlernend. Infinidat beschreitet mit einem selbstlernenden Neural Cache neue Wege bei der autonomen Automatisierung. Der Neural Cache nutzt die intelligente Datenplatzierung in einem mehrstufigen Speicherdesign, um das Speichersystem zu optimieren, den Bedarf an manueller Leistungsoptimierung zu eliminieren und den Personalaufwand im Betrieb zu reduzieren.

 

  1. Unzureichender Support von Speicheranbietern

Die Bedeutung des Supports bei der Wahl des richtigen Speicherlieferanten lässt sich kaum überschätzen. Idealerweise erhält ein Unternehmen einen »White Glove«-Service von seinem Speicherlieferanten. Darunter ist zu verstehen, dass ein technischer Berater mit der Qualifikation und Erfahrung der höchsten Support-Stufe ohne Zusatzkosten das gesamte Projekt betreut und dem Kunden bei Installation und Betrieb zur Seite steht. So werden eine fehlerfreie Konfiguration und ein problemloser Betrieb gewährleistet.