Der Vierklang: Performance, Skalierbarkeit, Security, Nachhaltigkeit – Highend-Storage im Aufwind

In einer sich ständig wandelnden digitalen Landschaft müssen Unternehmen nicht nur mit der Zeit gehen, sondern vorausdenken. Dabei spielt die effektive Speicherung und Verwaltung von Daten eine entscheidende Rolle. Trotz der zunehmenden Beliebtheit von Cloud-Speicherlösungen bleiben Highend-Speicherarrays im »On-Premises«-Betrieb eine starke Option für Großunternehmen, die eine leistungsfähige, skalierbare und sichere Datenspeicherung benötigen.

Die Herausforderungen bei der Speicherung und Verwaltung von Unternehmensdaten sind vielfältig. Erstens wachsen die Datenmengen kontinuierlich und das durchgehend schneller als die Storage-Budgets. So hat IDC bereits 2017 in der viel zitierten »Data Age 2025-Studie ein Datenwachstum auf schier unvorstellbare 175 Zettabytes im Jahr 2025 prognostiziert [1]. Und zum Zeitpunkt der Veröffentlichung war die rasante und extrem datenintensive Entwicklung im Bereich der künstlichen Intelligenz noch nicht vollständig absehbar. Diese Flut an Daten erfordert leistungsfähige und skalierbare Speicherlösungen, die mit dem wachsenden Bedarf mithalten können. Dass niemand vorhersagen kann, wie eine solche Menge an Speicherchips bis dahin produziert werden kann, steht auf einem ganz anderen Blatt.

Zweitens müssen Unternehmen in der digitalen, weltumspannenden Ökonomie in Lage sein, ihre Daten jederzeit schnell und effizient zu verarbeiten. In vielen Branchen, von der Finanzwelt über die Gesundheitsbranche bis hin zur Fertigung, werden Echtzeitanalysen immer wichtiger, die ausreichende Performance voraussetzen. Highend-Speicherarrays mit ihrer hohen Geschwindigkeit und geringen Latenzzeit sind da die ideale Basis, um Daten effizient zu verarbeiten und die gewonnenen Erkenntnisse schnell umzusetzen. Gleichzeitig sind sie in der Lage, Speichertechnologien für unterschiedliche Anforderungen parallel in einem Array anzubieten, von günstigen Festplatten für Backups bis hin zu schnellem, aber teurerem NVMe- oder gar SCM-Speicher, beispielsweise für Transaktionen.

Drittens ist Sicherheit ein entscheidender Faktor. Daten sind ein wertvolles Gut und ihr Schutz vor Verlust, Diebstahl und Missbrauch ist von größter Bedeutung. Dabei müssen Unternehmen sowohl interne Sicherheitsmaßnahmen berücksichtigen als auch externe Anforderungen erfüllen, etwa gesetzliche Vorgaben zum Datenschutz wie das »Recht auf Löschung« gemäß der DSGVO.

Und – last but not least – spielt viertens auch Nachhaltigkeit eine immer größere Rolle. Angesichts der globalen Herausforderungen in Bezug auf Klimawandel und Ressourcenknappheit suchen Unternehmen nach Möglichkeiten, ihren Energieverbrauch und ihren CO²-Fußabdruck zu reduzieren. Optimal auf die Anforderungen zugeschnittene Highend-Speicher-Arrays sind hier in einer Gesamtbetrachtung (Stromverbrauch, Platzbedarf im Rechenzentrum, Kühlung, Laufzeit usw.) die energieeffizienteste Speicherlösung. Insbesondere die Langlebigkeit der Systeme ist ein wichtiger Faktor: Durch die Verwendung hochwertiger Komponenten und das Angebot regelmäßiger Updates und Wartungsservices durch den Hersteller verrichten die Systeme über viele Jahre zuverlässig ihren Dienst.

Hitachi hat in realen Kundenumgebungen durch die Konsolidierung mehrerer Systeme in sein »Flaggschiff«, die bis zu einer Kapazität von 69 Petabytes modular erweiterbare VSP 5600, die Emissionen um rund 60 % reduzieren können. Über den kompletten Lifecycle entstehen mit 95 % die bei weitem meisten CO²-Emissionen durch Stromverbrauch und Klimatisierung im laufenden Betrieb. In komplexen Umgebungen kann sich dies bei einer Laufzeit von fünf Jahren schnell zu Größenordnungen von bis zu 5.000 Tonnen CO² aufsummieren

Datenverfügbarkeit ohne Kompromisse. Highend-Storage kombiniert hohe I/O-Leistungen mit geringen Latenzzeiten. Die Skalierbarkeit ist ebenso entscheidend, insbesondere angesichts des exponentiellen Wachstums des Datenvolumens. Der »Elefant im Raum« sind die Anschaffungskosten, die im fünfstelligen Bereich beginnen und bei komplexen Systemen auch siebenstellige Summen erreichen kann. Betrachtet man die Gesamtkosten über den Lebenszyklus (TCO) relativiert sich die hohe Einstiegsinvestition aber schnell.

Neben der Hardware spielt die Software eine wichtige Rolle: Ein Faktor ist die deutlich vereinfachte Administration über ein einziges Interface für alle angeschlossenen Anwendungen. Das erleichtert auch die Automatisierung – mit Hilfe künstlicher Intelligenz oder Machine Learning können Applikationen bis zu 90 % schneller mit Ressourcen bedient werden, die Provisionierung erfordert massiv weniger manuelle Eingriffe und Fehler können selbstständig analysiert und – wenn gewünscht – auch automatisch behoben werden. Mit innovativen Möglichkeiten der Datendeduplizierung lässt sich die Kapazität bis zu einer Ratio von 4:1 erhöhen.

Mit Blick auf die Sicherheit der gespeicherten Daten stehen vor allem zwei Faktoren im Fokus: Technisch bedingte Datenausfälle und Cyberangriffe. Die Technik als Risikofaktor kann in diesem Segment praktisch ausgeklammert werden. Redundante Komponenten und zahlreiche Fehlertoleranzmechanismen sorgen dafür, Ausfallzeiten fast auf Null zu minimieren und die Datenintegrität auch im Falle eines Hardwareausfalls zu gewährleisten. Bei der Einhaltung gängiger Spielregeln wie etwa der Spiegelung in einem Remote-Rechenzentrum garantiert Hitachi Vantara bei seinen Storage-Systemen eine 100-prozentige Datenverfügbarkeit. Gegen Cyberangriffe und Ransomware schützen eine Reihe von Disaster-Recovery-Maßnahmen, von Datenverschlüsselung über automatische Snapshots bis hin zu einer granularen Zugangskontrolle mit individuellen Berechtigungen auf Nutzerebene zur Minimierung des Risikos eines internen Datenmissbrauchs.

Ausblick: Die Zukunft der High-End-Speicherarrays. Wie schon häufiger in der IT beobachtet, schlägt das Pendel auch beim Storage gerade wieder zurück: Nachdem Highend-Storage angesichts von Entwicklungen wie Data Lakes oder Speicher-Pools auf Objektspeicherbasis für viele schon zum alten Eisen zählte, gewinnen aktuell wieder Faktoren wie die TCO, Performance, Sicherheit und Nachhaltigkeit die Oberhand.

Den Anschaffungspreis können Unternehmen mit »Consumption-based«-Modellen wie Hitachis EverFlex umgehen, die Optionen reichen hier bis hin zu einem kompletten Storage-as-a-Service: Zentrale Systeme werden dabei vom Hersteller im Unternehmensrechenzentrum aufgestellt und remote betrieben, dabei werden dem Kunden nur real genutzte Kapazitäten in Rechnung gestellt. Auf diese Weise erhalten Kunden stets die passende Speicherausrüstung, sparen sich aber die Investition, im BWLer-Jargon heißt das dann »OpEx statt CapEx«.

 


Frank Hoerner ist seit März 2019 bei Hitachi Vantara Deutschland als Director Technical Sales EMEA – Germany tätig. Frank hat über 30 Jahren Erfahrung im IT-Bereich, davon knapp 25 Jahre im technischen Vertrieb bei internationalen Software- und Hardware-Unternehmen. Er hat unter anderem bei BMS Software, Netiq sowie Rode & Schwarz Cybersecurity erfolgreich internationale Pre-& Postsales Organisationen geleitet und aufgebaut.

 

[1] https://www.seagate.com/files/www-content/our-story/trends/files/Seagate-WP-DataAge2025-March-2017.pdf

 

Illustration: © Yandong Liu | Dreamstime.com