Enterprise Data Cloud vs. traditionelle Speicherkonzepte

Illustration Absmeier foto freepik ki

Konventionelle Speicherlösungen und Enterprise Data- Cloud-Plattformen im Vergleich: Warum das Speichern von Daten nicht dasselbe ist wie deren optimale Nutzung.

 

Die Unterschiede zwischen dem Konzept von Enterprise Data Clouds (EDCs) und herkömmlichem Speicher gehen weit über technische Details hinaus. Bei Speicherumgebungen geht es nicht nur darum, wo Daten gespeichert werden, sondern auch darum, wie sie organisiert, abgerufen, geschützt und genutzt werden. Kurz gesagt: Die Speicherstrategie wirkt sich direkt auf die Fähigkeit aus, Daten gut zu verwalten. Für Unternehmen, die KI skalieren, ihre Prozesse modernisieren und anpassungsfähig bleiben möchten, kann ein effektives Datenmanagement die gesamte Ausrichtung des Unternehmens prägen. Sowohl EDCs als auch herkömmliche Speicherlösungen zielen darauf ab, wachsende Datenanforderungen zu unterstützen, verfolgen jedoch sehr unterschiedliche Ansätze. Das Verständnis dieser Unterschiede ist entscheidend für die Auswahl der richtigen Grundlage für Ihre Infrastruktur.

 

Markus Grau, Enterprise Architect im Office of the CTO bei Pure Storage, vergleicht traditionelle Speicherlösungen mit dem Enterprise Data Cloud-Konzept:

 

Was herkömmliche Speicherlösungen gut können – und wo sie Schwächen haben

Herkömmliche Speicherlösungen wurden für andere Zeiten entwickelt. Sie funktionierten gut, als die Workloads vorhersehbar waren, die Infrastruktur statisch war und jede Anwendung über ein eigenes System verfügte. In der schnelllebigen, datengesteuerten Welt von heute ist dieses Modell jedoch nicht mehr zeitgemäß.

Herkömmliche Speicherlösungen weisen aus heutiger Sicht einige Schwächen auf:

  • Datenfragmentierung und Silos:
    Daten befinden sich oft in verschiedenen Systemen – On-Prem, in der Cloud oder in verschiedenen Abteilungen. Dies erschwert die Verwaltung und den Überblick. Infolgedessen benötigen Teams länger, um Entscheidungen zu treffen, und verpassen Chancen, Wert aus ihren Daten zu schöpfen.
  • Manuelle Vorgänge:
    IT-Teams verbringen zu viel Zeit mit Aufgaben wie dem Verschieben, Kopieren und Vorbereiten von Daten. Dies hält sie von stärker wertschöpfenden Tätigkeiten ab und erhöht die Fehlerwahrscheinlichkeit. In schnelllebigen Märkten können kleine Fehler zu großen Problemen wie Ausfallzeiten, Datenverlusten oder Compliance-Problemen führen.
  • Unkontrollierte Datenflut:
    Mit wachsenden Datenmengen steigt auch die Anzahl der Kopien, die zur Unterstützung verschiedener Systeme und Teams erstellt werden. Dies erhöht Kosten, Komplexität und Risiken, insbesondere in Bezug auf Sicherheit und Governance.
  • Reaktives Management:
    Bei herkömmlichen Systemen muss die IT-Abteilung oft ständig hinterherhinken und auf Kapazitätsprobleme, Leistungsengpässe und Ausfälle reagieren. Das erschwert die Vorausplanung und die Unterstützung von Innovationen.

 

Legacy-Storage ist wie ein altes Auto, das zwar noch fährt, aber auf der Autobahn nur noch mühsam mithalten kann. Es funktioniert, aber es kann die heutigen Anforderungen wie KI, Hybrid-Cloud und datenorientierte Strategien nicht erfüllen. Die gute Nachricht ist, dass Cloud-Computing bereits viele der Herausforderungen gelöst hat, denen Unternehmen im Bereich Storage gegenüberstehen.

 

Wie Enterprise Data Clouds eine Lösung bieten – bis zu einem gewissen Punkt

Mit Self-Service, APIs und globalem Zugriff hat Cloud-Computing den Standard für moderne IT gesetzt. Diese Ideen bildeten die Grundlage für die Enterprise Data Cloud (EDC).

Eine EDC bietet On-Premises-Systemen Cloud-ähnliche Flexibilität durch:

  • Sicheren Zugriff über Umgebungen hinweg, wodurch die Einhaltung von Vorschriften durch zentralisierte Richtlinien und klare Transparenz vereinfacht wird.
  • Automatisierung manueller, zeitaufwändiger Aufgaben wie Bereitstellung, Backups und Kapazitätsplanung – wodurch Risiken reduziert werden und Teams sich auf wichtigere Aufgaben konzentrieren können.
  • Reduzierung von Datensilos durch die Schaffung einer einheitlichen Zugriffs- und Steuerungsebene, sodass Teams Daten ohne Kopieren oder Isolieren nutzen können, was Entscheidungen beschleunigt und die Governance vereinfacht.

 

Wenn alles wie vorgesehen funktioniert, stellt eine EDC die Daten dort bereit, wo sie benötigt werden. Sie unterstützt zudem mühelos schnellere Entscheidungen, selbst bei komplexen Workloads wie KI.

 

Wo bei EDCs noch Handlungsbedarf besteht

EDCs wurden entwickelt, um die Vorteile der Cloud in lokale Umgebungen zu bringen, mit einer einheitlichen Datenebene, intelligenter Automatisierung und einer serviceähnlichen Erfahrung. Viele frühe Versionen gingen jedoch nicht weit genug. Anstatt neue Systeme zu entwickeln, fügten die meisten Anbieter EDC-Funktionen zu älteren Systemen hinzu. Dies erschwert die Skalierung und Leistung bei steigender Nachfrage. Engpässe blieben bestehen, die Systeme blieben kompliziert, und viele Unternehmen hatten immer noch keinen klaren Überblick über alle ihre Daten.

Was passiert also, wenn Unternehmen moderne Workloads auf Systemen ausführen, die nie dafür ausgelegt waren? Die Daten bleiben stecken. Eine SnapLogic-Umfrage ergab, dass 22 Prozent der IT-Führungskräfte Daten in Systemen gespeichert haben, die sie nicht verschieben können [1]. Weitere 79 Prozent sind auf undokumentierte Datenpipelines angewiesen, an die sie sich nicht heranwagen.

 

Die Infrastrukturlücke schließen

Um eine wirklich integrierte Datenumgebung zu schaffen, gilt es, diese von Grund auf aufzubauen. Nur wenige Anbieter verfolgen diesen Ansatz, noch weniger setzen ihn richtig um. Eine von Grund auf zeitgemäß entwickelte EDC erfüllt die Versprechen dieses Modells, darunter eine einheitliche Datenebene, integrierte Automatisierung und nahtlose Skalierbarkeit. So kann sich die Dateninfrastruktur eines Unternehmens gemeinsam mit den sich wandelnden Geschäftsanforderungen weiterentwickeln.

Ein Abonnement für kontinuierliche Innovation und Upgrades ist eine Möglichkeit, dieses Modell umzusetzen. Es bietet Storage as a Service (STaaS) für Unternehmen, die Geschwindigkeit, Skalierbarkeit und Effizienz benötigen. Was die Energieeffizienz betrifft, verbraucht eine entsprechende All-Flash-Speicherinfrastruktur bis zu 85 Prozent weniger Strom und 77 Prozent weniger Platz als herkömmliche Systeme [2].

Das bedeutet, dass Unternehmen endlich über die Datenspeicherung und -verwaltung verfügen, die sie benötigen, um wettbewerbsfähig zu bleiben, ohne Umstellungen und Unterbrechungen. Dies leistet eine moderne Speicherlösung, die auf einer Grundlage aufgebaut ist, die für alles bereit ist, was die Zukunft bringt. Letztendlich besteht der wahre Vorteil von Daten nicht darin, mehr davon zu haben, sondern sie vollständig nutzen zu können.

 
[1] https://www.snaplogic.com/blog/genai-potential-legacy-tech-data-challenges
[2] https://www.purestorage.com/sustainability.html

 

1757 Artikel zu „Enterprise Data Cloud „

Strategien für Hybrid-Cloud Data Management: Wie Unternehmen zum »Data-Forward Enterprise« werden

Experten für Cloud Data Management [1] erwarten durch die Hybrid-Cloud und damit verbundenen Konzepten der Datensicherung in den kommenden 12 bis 24 Monaten erhebliches Potenzial. Die Spezialisten sehen darin einen wichtigen Aspekt der digitalen Transformation.   Trends in der Technologie Eine kürzlich von HCL und Vanson Bourne durchgeführte Umfrage kam in dieser Hinsicht zu den…

SAP baut souveräne Cloudangebote für Europa als Grundlage für KI-Innovationen aus

SAP bringt jahrzehntelange Erfahrung bei geschäftskritischen Abläufen mit wachsenden Anforderungen an Souveränität, Regulierung und KI-gesteuertes Wachstum zusammen.   Die SAP SE stellt einen umfassenden neuen Ansatz für digitale Souveränität und KI-Innovation in Europa vor. Mit den erweiterten Angeboten des SAP Sovereign Cloud-Portfolios erhalten europäische Kunden künftig Zugang zu einem umfassenden Technologie-Stack, der sowohl die SAP…

Unabhängigkeitserklärung von der Cloud – Colocation schafft IT-Souveränität in unsicheren Zeiten

Die Unsicherheit angesichts der geopolitischen Entwicklung steigt. Militärische Konflikte, politische Allianzen oder neue Zölle stellen für Unternehmen erhebliche Risikofaktoren dar. Organisationen sind gefordert, sich strategisch sicher und IT-souverän aufzustellen – auch um ihrer Daten willen. Wer heute auf lückenlose Verfügbarkeit, rechtssicheren Datenzugriff und langfristige Geschäftskontinuität setzt, sollte digitale Datenspeicherung neu bewerten.

Enterprise Digital Twin: Digitale Zwillinge wachsen über sich hinaus

Exklusiv Digitale Zwillinge galten lange als technisches Hilfsmittel im Engineering – meist als CAD-basierte Modelle einzelner Maschinen oder Komponenten. Ihr Nutzen lag vor allem in der Visualisierung und begrenzten Simulation. Doch mit dem zunehmenden Reifegrad von IoT, Cloud-Plattformen, KI und Simulationstechniken hat sich ihr Potenzial massiv verbessert. Heute sind Digital Twins in der Lage, Daten…

Cloud-Shift für Softwarehersteller: Infrastruktur raus, Skalierung rein

Mit individueller Cloud-Strategie nachhaltige SaaS-Geschäftsmodelle ermöglichen.   Mittelständische Softwarehersteller stehen oft vor der Herausforderung, ihre IT-Infrastruktur in die Cloud zu migrieren – weg von lokalen Servern, hin zu skalierbaren Lösungen. Während jedoch Public-Cloud-Angebote oft komplex, unsicher oder unflexibel sind, fehlt es intern an Knowhow für den eigenen Betrieb in der Private Cloud. Hier bietet sich…

IFS geht Partnerschaft mit Climatiq für Emissionsmanagement in der IFS Cloud ein

Neues Whitepaper untersucht, wie integrierte Nachhaltigkeit Betriebsdaten in umsetzbare Erkenntnisse zu Emissionen verwandelt. IFS, ein Anbieter von Cloud-Enterprise-Software und industriellen KI-Anwendungen, hat eine strategische Partnerschaft mit Climatiq, der Plattform für CO2-Intelligenz, bekannt gegeben. Parallel dazu wird ein neues Modul für das Emissionsmanagement in IFS Cloud eingeführt. Die Einführung des neuen Moduls ist Teil der Strategie…

Volle Kontrolle über die KI: Souveräne Cloud für flexible Entwicklung und sicheren Betrieb

Der Erfolg von KI-Anwendungen steht und fällt mit der Infrastruktur: Leistungsfähige Rechenressourcen, sichere Datenumgebungen und hohe Verfügbarkeit sind entscheidend. Doch standardisierte Public-Cloud-Angebote stoßen an Grenzen – insbesondere, wenn es um Datenschutz, Integrationen oder regulatorische Anforderungen geht. Wer KI nicht nur einsetzen, sondern gestalten will, braucht eine souveräne Umgebung, die sich flexibel anpassen lässt und gleichzeitig…

Cloud-Migration im Finanzsektor: Integration von Innovation, Sicherheit und Compliance

Nach Angaben von Global Market Insights wurde der weltweite Markt für Cloud-Migrationsdienste im Jahr 2024 auf 11,2 Milliarden US-Dollar geschätzt und soll zwischen 2025 und 2034 um 26 % pro Jahr wachsen [1]. Die Migration in die Cloud, selbst in eine hybride Lösung, bringt für Unternehmen sowohl neue Möglichkeiten als auch neue Risiken mit sich.…

Modernes Backup ohne Tape und Cloud ist möglich

Ein vollständiges und sicheres Backup sowie ein zuverlässiges und schnelles Restore sind die Grundlagen zum Schutz vor Datenverlust und den Folgen eines Cyberangriffs – Tape hat hier ausgedient und auch die Public Cloud ist verzichtbar.   Zwei in der Datensicherung eingesetzte Technologien stehen derzeit bei vielen Unternehmen und Behörden auf dem Prüfstand. Bei Tape sind…

Wie Kryptowährung und Blockchain das Cloud Computing revolutionieren

In der sich stetig weiterentwickelnden Welt des Cloud Computing suchen Unternehmen ständig nach innovativen Möglichkeiten, um die Sicherheit zu verbessern, Kosten zu senken und die Betriebsabläufe zu optimieren. Ein solcher Durchbruch ist die Integration von Kryptowährung und Blockchain-Technologie, zwei schnell wachsenden Kräften, die die Landschaft der Cloud-Dienste verändern. Mit der zunehmenden Einführung digitaler Währungen gestalten…

OXG: Wechsel in die Public Cloud in nur sechs Monaten

OXG ist eine der größten Glasfaserallianzen Deutschlands. Um Geschäftsprozesse zu skalieren und weiter wachsen zu können, wechselte das Unternehmen gemeinsam mit Nagarro innerhalb eines halben Jahres in die Public Cloud. Entscheidend für den Projekterfolg war das richtige Mindset und ein flexibles Vorgehen.   Glasfaser ist die Zukunft: Unter diesem Leitsatz baut und vertreibt OXG ein…

Bitkom Cloud Monitor 2025 bestätigt Bedeutung von »Cloud Services Made in Germany«

Bitkom zu den Umfrage-Ergebnissen: »Wirtschaft ruft nach einer deutschen Cloud«.   Die aktuellen Ergebnisse des vor kurzem vorgestellten Bitkom Cloud Report 2025 bestätigen eindrucksvoll, was sich die Initiative Cloud Services Made in Germany bereits seit 2010 auf die Fahnen geschrieben hat: Wenn es um das Thema Rechtssicherheit beim Einsatz von Cloud Computing-Lösungen geht, spielen Cloud…

DataCore CEO Dave Zabrowski zur Übernahme von StarWind durch DataCore

Die Bedeutung von Innovation und kontinuierlicher Verbesserung in der modernen Geschäftswelt ist enorm. Durch die Übernahme von StarWind erweitert DataCore seine Rechenzentrumskompetenz auf die Edge-Umgebung. Dave Zabrowski betont, wie wichtig es ist, sich an veränderte Marktbedingungen anzupassen und neue Technologien zu nutzen. Durch die komplementären Stärken beider Unternehmen lässt sich ein deutlich breiterer Markt schneller…

Direct Liquid Cooling: Der Paradigmenwechsel in der Datacenter-Kühlung

Wie Flüssigkeitskühlung Rechenzentren effizienter, nachhaltiger und zukunftsfähig macht – eine technische und strategische Analyse.   Rechenzentren verschlingen weltweit 1,3 % des globalen Stromverbrauchs [1], ein großer Teil davon für die Kühlung. Moderne KI-Anwendungen verstärken dieses Problem dramatisch: Sie erzeugen bis zu fünfmal mehr Abwärme als herkömmliche Server und bringen traditionelle Luftkühlsysteme an ihre Grenzen. Direct…

Einmal in die Cloud und wieder zurück: Unternehmen wollen wieder mehr Kontrolle über ihre IT-Infrastruktur

Das Thema Cloud ist in fast allen IT-Abteilungen nach wie vor allgegenwärtig. Aber immer häufiger stellt sich auch Ernüchterung ein: Die hohen Erwartungen an Kosteneinsparungen und Komplexitätsreduktion haben sich nicht überall erfüllt – oft ist sogar das Gegenteil eingetreten. Hinzu kommen neue Unsicherheiten durch aktuelle geopolitische Veränderungen und eine neue Wahrnehmung der Bedeutung von digitaler…

KI-Hype trifft auf Realität: Wie steht es um die Data Readiness?

Fast jedes zweite Unternehmen hat Probleme bei KI-Implementierung.   Künstliche Intelligenz (KI) gilt als entscheidender Treiber der digitalen Transformation – doch der Weg zur erfolgreichen Umsetzung ist für viele Unternehmen holpriger als gedacht. Eine aktuelle globale Umfrage von Redpoint im Auftrag von Fivetran zeigt, dass bei 42 Prozent der befragten Unternehmen mehr als die Hälfte…