Data Fabrics: Die heimlichen Helden der digitalen Transformation

Illustration: Absmeier, Michael Gaida

Digitale Transformation. Betriebliche Flexibilität. Workforce Enablement. Diese drei Ziele verfolgen viele Unternehmen – und alle drei werden von riesigen Mengen an Daten angetrieben, die gespeichert und bewegt werden müssen. Die Cloud ist dabei immer häufiger der Weg zum Ziel. Gegenwärtig liegen Daten noch oftmals in Silos, die über ein Unternehmen verteilt oder in Backup-Systemen gefangen sind. Es stellt sich deshalb die Frage, wie sich Daten allen Beteiligten sinnvoll und effektiv zur Verfügung stellen lassen.

 

Wenn es in der IT um Transformationsprozesse geht, dreht sich das Thema früher oder später um Daten. In diesem Zusammenhang gibt es eine Vielzahl an Fragen: Wo liegen sie? Wie werden sie gesammelt? Wo werden sie gespeichert? Wie können sie verarbeitet werden? Welches Format haben sie? Die Beantwortung dieser und weiterer datenbezogener Fragen ist keine einfache Angelegenheit. In vielen Fällen drehen sich die Antworten und Lösungen um die Cloud und jene Vorteile, die sie für große Datenprojekte bietet.

Daten in die Cloud zu übertragen, hat oftmals Priorität, wenngleich nicht immer. Manchmal müssen Daten zunächst zwischen privaten Rechenzentren ausgetauscht werden. Oder sie befinden sich bereits in einer Cloud und müssen in eine andere Cloud verschoben werden. Um die Kompatibilität mit den verschiedenen Architekturen sicherzustellen, müssen Daten oftmals auf ein neues Dateisystem umgestellt werden. Beispielsweise wenn NFS- oder CIF-Dateien umgewandelt werden, um die nativen Dateisysteme der Cloud zu unterstützen.

Eine weitere Herausforderung besteht insbesondere für größere Unternehmen darin, dass die Daten oft in Systemen verschiedener Speicheranbieter mit unterschiedlichen Managementkonsolen, Leistungsstufen und Zugriffskontrollen gespeichert sind. Dadurch wird die Transformation noch komplexer. Die meisten der großen Cloud-Plattformen verfügen deshalb über eigene Tools sowie Lösungen von Drittanbietern, die es ermöglichen, Dateien in ihre jeweiligen Umgebungen zu integrieren. Mit steigenden Datenmengen stoßen diese Anwendungen jedoch an ihre Grenzen.

 

Data Fabric bedeutet ein neues Maß an Freiheit

Ein Ansatz, um Unternehmen bei der Bewältigung der Datentransformation zu unterstützen, ist eine Data Fabric. Dabei handelt es sich um eine Architektur und ein Portfolio von Datenservices, die Endpunkte in On-Premises- und Cloud-Umgebungen miteinander verbinden und mit einheitlichen, übergreifenden Funktionen ausstatten. Dadurch können Daten in den angebundenen Umgebungen einfacher verwaltet werden, was die digitale Transformation beschleunigt.

Für Gartner gehören Data Fabrics zu den »Top 10 Data Analytics Trends«. Laut den Marktforschern »ermöglicht die Data Fabric den reibungslosen Zugriff und die gemeinsame Nutzung von Daten in einer verteilten Datenumgebung. Es ermöglicht ein einheitliches und konsistentes Datenverwaltungssystem, das den nahtlosen Datenzugriff und die Verarbeitung von Daten über ansonsten in Silos untergebrachte Speicher ermöglicht.« Diese Vision des »reibungslosen Zugriffs und der gemeinsamen Nutzung von Daten« bietet Unternehmen die Möglichkeit, ihre Daten effizienter zu nutzen. Der grundlegende Schritt zu diesem Ziel ist die Fähigkeit, Daten von jedem Ort überall hin zu verschieben.

 

Von jedem Ort zu jedem anderen Ort

Um Unternehmen beim Transfer ihrer Daten zu unterstützen, hat NetApp mit Cloud Sync einen schnellen Datenmigrations- und Synchronisations-Service für die Übertragung von Dateien zwischen lokalen und Cloud-Objektspeichern entwickelt. Cloud Sync ist dafür ausgelegt, NFS- oder CIFS-basierte Dateien einfach, sicher und automatisiert zu verschieben. Die Technologie ist bereits als kostenloser Service in die File-Services-Angebote von NetApp eingebettet, die in MS Azure, AWS und Google Cloud verfügbar sind. Cloud Sync steht auch als eigenständiger Service zur Verfügung, den jedes Unternehmen einsetzen kann – unabhängig davon, ob es andere Angebote von NetApp nutzt oder nicht.

Der wichtigste Anwendungsfall ist die Verlagerung von Inhalten in die Cloud. Gleichzeitig gibt es einen wachsenden Bedarf für eine laterale Bewegung zwischen öffentlichen Clouds und zurück in private Rechenzentren. Eines der Merkmale von Cloud Sync ist dabei, dass die Daten nach der Übertragung sowohl an der Quelle als auch am Ziel vollständig nutzbar sind. Basierend auf einem vordefinierten Zeitplan können Daten zudem kontinuierlich synchronisiert werden, indem nur die Deltas verschoben werden. Dadurch wird der Zeit- und Kostenaufwand für die Datenreplikation minimiert. Durch diese Möglichkeiten sind Dienste wie Cloud Sync die heimlichen Helden der digitalen Transformation.

 

Artikel zu „“Data Fabric““

Zentrale Datenplattform und der Golden Record – Ohne Datenqualität kein erfolgreiches Datenmanagement

Oder muss es heißen: Ohne Datenmanagement keine Datenqualität? Es ist das Henne-Ei-Phänomen – das eine kommt ohne das andere nicht aus. Wie können Unternehmen strategisch vorgehen, um ihr Datenmanagement an den immer steigenden Anforderungen auszurichten und dabei ihre Daten in einer verlässlich hohen Qualität für belastbare Analysen zu pflegen?

Datengesteuerte Unternehmen erzielen 70 Prozent mehr Umsatz je Mitarbeiter

Unternehmen, die beim Dateneinsatz führend sind, erzielen 22 Prozent mehr Gewinn und pro Mitarbeiter 70 Prozent mehr Umsatz als ihre Wettbewerber. Trotzdem tragen datengestützte Entscheidungen erst in 38 Prozent der Organisationen zum Geschäftserfolg bei. Zudem vertraut nur jede fünfte Führungskraft den eigenen Daten. Zu diesen Ergebnissen kommt die aktuelle Studie »The data-powered Enterprise: Why Organizations…

So funktionieren Datenintegration und Datenmanagement in der Praxis

Mit modernen Mitteln der Datenintegration und des Datenmanagements können Unternehmen der E-Mobility-Branche komplexe Rückvergütungsprozesse abwickeln und so neue Geschäftsmodelle kreieren. Bei einem Heizungsbauer stellt eine Datenintegrationsplattform als flexible Middleware-Komponente APIs für diverse Webapplikationen bereit. Oder Krankenhäuser kontrollieren darüber die Abrechnungen mit den Krankenkassen und sparen dadurch jährlich sechsstellige Eurobeträge.   Die Beispiele zeigen, welch breiten…

5 Tipps für weniger Kosten in der Hybrid Cloud

Kostenoptimierung und Prozessoptimierung zählen nach wie vor zu den größten Geschäftsherausforderungen von Unternehmen in Deutschland, Österreich und der Schweiz – gleich nach dem Problem, qualifizierte Mitarbeiter zu finden. Das zeigt eine aktuelle Studie von IDC [1]. Diese Herausforderungen spiegeln sich auch in den IT-Prioritäten der Befragten wider. Hier stehen Kosteneinsparung, Kostentransparenz und Kostenkontrolle ganz oben…

Neue Studie zeigt: Data Gravity lässt regionale Datenzentren wachsen

Der Data Gravity Index DGx misst erstmalig die Erstellung, Aggregation und den Austausch von Unternehmensdaten weltweit. Europa ist das globale Gravitationszentrum für Unternehmensdaten und wird seinen Vorsprung bis 2024 weiter ausbauen.   2010 prägte Dave McCrory erstmalig den Begriff der Data Gravity. Er beschrieb damit das Phänomen, dass große Datenmengen Systeme, Anwendungen und Dienste physisch…

Eine Regelung mit Impulswirkung: EU-Richtlinie 2014/55/EU zur elektronischen Rechnungsstellung – Bye, bye Papierrechnung

Den Papierbergen in deutschen Unternehmen geht es an den Kragen: Ab dem 27. November 2020 wird die elektronische Rechnungsstellung und -übermittlung für Zulieferer des Bundes Pflicht. Eine Richtlinie mit großen Potenzialen. Das sollten IT-Verantwortliche und CXOs jetzt wissen.

Branchenweit erstes Verfahren zur Ermittlung der Datengesundheit

Talend Data Fabric ermittelt Verlässlichkeit von Daten und schafft somit mehr Vertrauen in datenbasierte Geschäftsentscheidungen. Talend,  Anbieter im Bereich der Datenintegration und Datenintegrität, stellt ein umfangreiches Update der Talend Data Fabric vor, einer zentralen Plattform, die vollständige, bereinigte und zuverlässige Daten in Echtzeit liefert. Der Schwerpunkt der neuen Version liegt auf erweiterten Funktionen zur Ermittlung…

Das Maß für Hybrid- und Multi-Cloud-Fähigkeit: Hochverfügbare und frei fließende Daten

Spielen Datenmanagement, Speicherbetriebssystem und Flash perfekt zusammen, produziert eine Hybrid- oder Multi-Cloud Mehrwerte. Nötig ist es, den Datenstrom aus lokalen Speicherorten und verschiedenen Clouds hochverfügbar zu machen. Wie das gelingt, zeigen die Lösungen von NetApp.

Die fünf wichtigsten Kriterien für ein Next Generation Data Center

Ein Mikro-Rechenzentrum so gut wie die Cloud.   Unternehmen befinden sich an einem Wendepunkt. Sie müssen neue Wege finden, wie sie Kunden für sich gewinnen. Die Geschäftsentwicklung erfolgt heute nicht mehr linear. Stattdessen können sich Chancen jederzeit aus allen Richtungen auftun. Unternehmen brauchen die Flexibilität, um umgehend reagieren zu können. Mit einem traditionellen Rechenzentrum ist…

CIOs: Hybrid-Cloud-Modelle überwiegen, Unternehmen nutzen Cloud vor allem für Speicher und Backup

  750 europäische IT-Leiter wurden zu Cloud-Einsatz, Sicherheit und der Europäischen Datenschutz-Grundverordnung befragt. NetApp hat die Ergebnisse seiner ersten Marktstudie zum Einsatz von Cloud-Lösungen in Europa veröffentlicht. Die Antworten von 750 CIOs und IT-Leitern in Deutschland, Frankreich und dem Vereinigten Königreich (UK) zeigen, dass die Hybrid Cloud die am häufigsten eingesetzte Cloud-Variante ist: Über die…

Need more Speed? Wo die Reise von Flash-Speichern hingeht

Historisch gesehen ging es bei Flash-Speichern immer nur um Leistung. Sie waren unglaublich teuer und nur für Kunden mit einem dicken Portemonnaie zugänglich. Heute sind die Preise für Flash deutlich gesunken, da sich Storage-Anbieter verstärkt bewährte, hochvolumige Halbleiter-Technologien anderer Wirtschaftszweige zunutze machen und in ihre kosteneffektiven Speichersysteme integrieren. Für Kunden bedeutet Flash damit bezahlbare Geschwindigkeit.…

Speichertrends zur CeBIT: Die (Storage-)Dinosaurier sterben aus

Auf der CeBIT präsentieren internationale IT-Anbieter die neuesten Trends aus der digitalen Welt. Welche diese in Sachen Storage sind, verrät NetApp schon jetzt: Trend #1: HDD-only wird Geschichte Cloud- und SSD-Speichersysteme bedeuten den Untergang für schwerfällige Storage-Dinosaurier – also On-Premise Speicher-Arrays aus der Mainframe-Ära, die ausschließlich mit Festplatten arbeiten. Grund dafür sind die sinkenden Kosten…

Drei-Jahres-Projekt zum Aufbau einer flexibel skalierbaren, hoch-performanten Private-Cloud-Infrastruktur

Das Forschungs- und Innovationsprogramm Horizon 2020 der europäischen Kommission hat eine Summe von 6,7 Millionen Euro für ein Forschungsprojekt bewilligt, bei dem NetApp für die technische Koordination zuständig ist. Die Aufgabe des auf einen Zeitraum von drei Jahren angelegten Projektes ist es, zu ermitteln, welche Faktoren die Netzwerkleistung bei sogenannten On-Premise- und hybriden Cloud-Infrastrukturen abbremsen,…