DAOS und die Höhen und Tiefen von SDS (Software-Defined Storage)

 

Illustration Absmeier foto freepik

»Distributed Asynchronous Object Storage« (DAOS), von Intel im Jahr 2012 von der kleinen Firma »Whamcloud« übernommen, hat eine wechselvolle Geschichte hinter sich, ohne bis heute zu einem eindeutigen Durchbruch am Speichermarkt für Unternehmen gekommen zu sein.

Doch was ist unter »Software-Defined Storage«(SDS) und DAOS genauer zu verstehen? Auf der Web-Seite des Speicherspezialisten »Datacore« finden sich dazu einige Anmerkungen. So heißt es zunächst: »Software-Defined Storage (SDS) ist eine Technologie für die Verwaltung von Datenspeichern, bei der die Funktionen, die für die Bereitstellung von Kapazität, den Schutz von Daten und die Kontrolle der Datenplatzierung verantwortlich sind, bewusst von der physischen Hardware, auf der die Daten gespeichert sind, abgetrennt werden.« SDS ermögliche es auf diese Weise, Speicher-Hardware einfach durch alternative Systeme zu ersetzen, aufzurüsten und zu erweitern, ohne dass dadurch bisher vertraute Betriebsabläufe umgestoßen werden müssen oder wertvolle Investitionen in bisherige Software verloren gehen.

Wenn man diese modernen SDS-Prinzipien mit hardware-gebundenen Designs vergleicht, die Speichervorgänge untrennbar an ein bestimmtes Gerät oder einen bestimmten Hersteller fest anbinden, wird man schnell feststellen, dass jedes Fabrikat und jedes Modell im Prinzip ähnliche Funktionen ausführen. Diese werden aber aus hersteller-spezifischen Motiven heraus so unterschiedlich organisiert und implementiert, dass sie schließlich untereinander nicht mehr kompatibel miteinander sind.

Diese inkompatiblen Prozesse führen dann dazu, dass letztlich kleinere Hardware-Aktualisierungen zu größeren Betriebsüberholungen ausgebaut werden müssen, die durch schmerzhafte Datenmigrationen verzögert werden und schließlich zu kostspieligen Speichersilos führen – zum Vorteil einiger weniger, privilegierter Hersteller.

In ihrer jeweiligen Ausgestaltung verbergen bestehende SDS-Lösungen proprietäre Hardware-Eigenheiten durch eine Schicht von Virtualisierungs-Software. Im Gegensatz zu Hypervisoren, die einen einzelnen Server als mehrere verschiedene virtuelle Maschinen erscheinen lassen, kombiniert SDS verschiedene Speichergeräte in zentral verwalteten Pools miteinander.

Der Umfang eines SDS-Produkts kann sich auf eine kleine Auswahl an Hardware und eine kurze Liste von Funktionen beschränken, insbesondere wenn sie von einem Hardware-Hersteller angeboten werden, der die Einsatzmöglichkeiten bewusst einschränkt. Flexiblere Alternativen von unabhängigen Software-Anbietern unterstützen dagegen eine Vielzahl von Hardware-Auswahlmöglichkeiten und mehrere verschiedene Datendienste.

Schöne neue, kompatible Welt – doch mit einigen Lücken

Das parallele Dateisystem von DAOS soll höhere IOPS (Input/output Operations Per Second) und mehr Bandbreite pro Server liefern als konkurrierende Systeme von Lustre oder WEKA, berichtet die DAOS Foundation. Sie wurde im November 2023 von Argonne National Lab, Enakta Labs, Google, HPE (zusammen mit Cray) und Intel gegründet, um das ursprüngliche parallele Dateisystem von Intel zu unterstützen und im Markt durchzusetzen. Im Jahr 2024 kam dann Vdura hinzu, um DAOS neben seinem PanFS-Dateisystem auf dem AI-Sektor einzusetzen. Das deutsche Leibniz Supercomputing Centre (LRZ) setzt ebenfalls DAOS ein. Vorausgegangen war dieser Entwicklung allerdings, dass Intel ein Jahr vorher im Sommer 2022 sein Optane-Projekt auf der Basis von Storage-Class Memory überraschend einstellte.

Ziel der DAOS Foundation ist es, den Ansatz von DAOS weiter als Open-Source-Projekt zu entwickeln, ohne in die Abhängigkeit von einzelnen Herstellern zu geraten. Seit dem Optane-Desaster ist man vor allem bemüht, das verlorene Vertrauen vieler Anwender neu aufzubauen. Grundsätzliches Ziel ist es, eine Bibliothek von DAOS-Arbeitsprozessen und -Instanzen (hauptsächlich einer Control Plane und einer Engine) mit den Speichergeräten über einen RDMA-Link zu verbinden. Das gilt für verschiedene Schnittstellen auf Basis von File, Block und Object.

DAOS funktioniert auf Basis von mehreren Kunden nebeneinander (»multi-tenant«), wobei die Kunden selbst unterschiedliche Datensätze verwenden können. Die einzelnen Datensätze unterscheiden sich je nach Kapazität, Durchsatz, IOPS-Anteilen und weiteren Eigenschaften – zum Beispiel Kriterien wie Posix-Compliance oder Python-Ebenen.

Die Architektur von DAOS gewann bereits mehrere Preise bei internationalen Computing-Wettbewerben, darunter gegen Systeme von HPE Cray und DDN. DAOS in der Version 2.6 war die letzte auf Intel-Basis, während die neue Version DAOS 2.8 das erste veröffentlichte Community-Projekt sein soll. Geplant ist, sie noch im Laufe diesen Jahres zu veröffentlichen.

Im Jahr 2024 erfolgte bereits die Integration mit der Linux Foundation, was insbesondere Kooperation und Support weiter verbessern soll. Ein weiterer Fokus liegt auf dem Ausbau der Zusammenarbeit mit Google Cloud: Der »Cloud Parallelstore« soll Cloud-Projekte beschleunigen, wie Johann Lombardi, Vorsitzender des Technical Steering Committee (TSC) der DAOS Foundation und Mitarbeiter von HPE, auf der letzten Veranstaltung der »IT Press Tour« im April in London mitteilte.

In einem Artikel im Magazin »ix« findet sich eine treffende Zusammenfassung: »DAOS präsentiert sich als extrem performanter Storage-Stack mit hohem Durchsatz und geringer Latenz, der allerdings ein erhebliches Investment in Hardware erfordert. Der konsequente Einsatz von DPDK, SPDK und PMDK schafft eine pfeilschnelle Basis, die DAOS durch kluge Design-Entscheidungen wie das parallele Schreiben auf Clients sinnvoll aufgreift und nutzt. Mit DAOS steht aber auch ein Elefant im Raum: Intel hat 3D XPoint und Optane 2022 abgekündigt. Das entzieht DAOS eigentlich einen zentralen Baustein aus der Architektur. Allerdings hat das Projekt längst darauf reagiert: Dank diverser Änderungen in der Architektur unterstützt DAOS 2.6 durch das Ausweichen auf schnelle SSDs offiziell den Betrieb ohne Optane-PMem. Später soll es die Meta-Daten direkt im RAM statt in PMem ablegen können. Auf dem Abstellgleis landet DAOS also absehbar nicht.« (ix 10/2024, Seite 65)

Positiv werden folgende Eigenschaften von DAOS bewertet: »Hochperformant, moderne Objektspeicher-Architektur, auch als Block- und File-Storage nutzbar, integrierte Schnittstellen für Hadoop und Apache Spark, latenz-arm durch asynchrone Replikation, nutzt moderne Kernel-Techniken, vorrangig auf NVMe-Laufwerke optimiert.« Dem stehen gegenüber: »Komplexe Einrichtung, setzt teure Hardware voraus, noch nicht gut in Linux-Distributionen integriert.« (a.a.O.)

Ein vorläufiges Résumée der Fortschritte bei DAOS findet sich bei Chris Mellor vom britischen Storage-Spezialisten »Blocks and Files«: »DAOS hat mit seinem Aurora-Supercomputer einen äußerst glaubwürdigen Vorzeigeerfolg erzielt. DAOS ist eine quelloffene HPC-/Supercomputing-Software mit AI-Trainings- und Inferenz-Anstrengungen, die von Entwicklern angenommen werden muss, um weiter zu wachsen. Bestehende HPC-, Supercomputing- und AI-Anwender haben bereits andere Hochleistungssoftware wie zum Beispiel Storage Scale, Lustre, VAST Data, WEKA, BeeGFS oder ThinkParQ übernommen oder sie verwenden Hardware-/Software-Kombinationen wie HPE Cray und DDN. Sie werden DAOS wegen der Umstellungskosten eventuell nicht übernehmen, auch wenn es Open Source ist. Außer es gibt eindeutige Vorteile – wie zum Beispiel verbesserte Performance, niedrigere Kosten oder keinen Vendor Lock-in wie bei vielen anderen Ansätzen.« (https://blocksandfiles.com/2025/04/15/daos-post-optane-resurrection/ )

Hartmut Wiehr, freier Journalist

 

 

 

 

113 Artikel zu „SDS“

Maximale Leistung durch SDS – Immer höhere Akzeptanz von Software-defined Storage

Hochverfügbarkeit und Disaster Recovery stellen für viele Unternehmen nach wie vor die größten Herausforderungen in der IT-Infrastruktur dar. Hinzu kommt die Notwendigkeit, vorhandene und zukünftige IT-Hardware herstellerübergreifend nutzen zu können. Einen passenden Lösungsansatz liefert Software-defined Storage, mit dem sich ein Rechenzentrum der nächsten Generation umsetzen lässt. Eine aktuelle Studie von DataCore Software zeigt aktuelle Entwicklungen im Enterprise-Storage-Markt auf.

Kompass für den Digitalisierungsdschungel: Neuer ERP-Knigge unterstützt bei Strategie, Lösungs- und Anbieterwahl

Umfassender, kostenloser Digitalisierungsbegleiter auf Mittelstandsaugenhöhe inklusive Fragebogen der Universität Potsdam: Welcher ERP-Typ sind Sie?   Die Auswahl eines ERP-Systems ist alles andere als simpel. Daher möchte der neue und aktualisierte ERP-Knigge von godesys Schluss machen mit Unsicherheiten und Informationschaos [1]. In diesem kostenfreien und übersichtlichen Ratgeber finden sich zahlreiche Tipps und Kniffe, die die ERP-Auswahl…

SDS: Unternehmen wollen Software Defined Storage

Studie: Traditionelle Storage-Systeme bremsen Innovation in 94 Prozent der deutschen Unternehmen. Große Mehrheit überzeugt von Software Defined Storage. Traditionelle Storage-Systeme sind zu teuer und zu unflexibel, um für das exponentielle Datenwachstum der digitalen Transformation geeignet zu sein. 89 Prozent der deutschen IT-Verantwortlichen wollen deshalb wechseln, die große Mehrheit (76 %) zu Software Defined Storage (SDS).…

Zukunftssichere IT-Infrastrukturen durch SDS

In der fünften Auflage der jährlich durchgeführten Befragung unter IT-Professionals gibt eine Mehrheit (52 Prozent) an, mit Software-defined Storage (SDS) die Lebensdauer der Speicherhardware verlängern und die Zukunftssicherheit der IT-Infrastruktur gewährleisten zu wollen. Trendthemen wie Big Data, Object Storage oder OpenStack spielen in den Investitionsplanungen der Unternehmen dagegen eine untergeordnete Rolle. Der Bericht 2015 basiert…

DataCore CEO Dave Zabrowski zur Übernahme von StarWind durch DataCore

Die Bedeutung von Innovation und kontinuierlicher Verbesserung in der modernen Geschäftswelt ist enorm. Durch die Übernahme von StarWind erweitert DataCore seine Rechenzentrumskompetenz auf die Edge-Umgebung. Dave Zabrowski betont, wie wichtig es ist, sich an veränderte Marktbedingungen anzupassen und neue Technologien zu nutzen. Durch die komplementären Stärken beider Unternehmen lässt sich ein deutlich breiterer Markt schneller…

Keine Kompromisse beim ERP-System

Christian Biebl: »Ein ERP-System ist eine strategische Investition in die Zukunft.« »Unternehmen sollten bei ERP-Systemen keine Kompromisse eingehen«, empfiehlt Christian Biebl, Geschäftsführer des Stuttgarter ERP-Herstellers Planat. In einer Ära, in der der produzierende Mittelstand mit Lieferkettenproblemen, Fachkräftemangel und dynamischen Märkten kämpft, ist eine maßgeschneiderte ERP-Software essenziell, die exakt den Anforderungen genügt.  In der heutigen Geschäftswelt…

Die Storage-Spreu vom Weizen trennen: viele Lösungen nicht für Unternehmen geeignet

Der Begriff »Enterprise Class« oder »Unternehmenslösung« sollte Lösungen vorbehalten bleiben, die den strengen Anforderungen großer Organisationen gerecht werden. Einige Anbieter behaupten, dass ihre Produkte für Unternehmen geeignet sind, obwohl sie nur eine Architektur mit doppelter Redundanz anbieten, deren Mängel sie mit Clustering- oder Meshing-Technologien zu kompensieren versuchen. Im Gegensatz zur dreifachen Redundanz können diese Ansätze…

Automobilindustrie setzt auf KI sowie Echtzeitfunktionen – und kämpft mit Integration und Vertrauen

KI, OTA-Updates und softwaregetriebene Innovationen gewinnen in der globalen Automobilindustrie rasant an Bedeutung. Doch während OEMs den Übergang zu softwaredefinierten Fahrzeugen vorantreiben, bremsen hohe Kosten, technische Komplexität und mangelndes Vertrauen in sicherheitskritische Systeme den Fortschritt. Das zeigt die aktuelle Branchenumfrage von Wards Intelligence, inzwischen Teil von Omdia, in Zusammenarbeit mit Sonatus [1].   Die Studie…

Verdrängt China die deutschen Automobilhersteller langfristig vom Markt?

Experteneinblick von Joachim Lubsczyk und Paul Rheborg, Alvarez & Marsal   Es sei ein Kampf gegen den Bedeutungsverlust, kommentierten viele Beobachter die Auftritte der deutschen Automobilhersteller bei der Shanghai Auto Show. Anzahl und Produkte der Aussteller verfestigen den Eindruck, dass das Herz der Automobilindustrie sich längst nach China verlagert hat. Bereits 2030 sollen etwa 29…

World of Start-ups: Wie man seine Daten im Unternehmen managt

In diesem Artikel werden fünf innovative Start-ups vorgestellt, die sich auf verschiedene Aspekte des Datenmanagements und der Cloud-Technologie spezialisiert haben. Aquila Clouds bietet Lösungen für das Finanzmanagement in der Cloud, während Fabrix .ai ein AI Data Grid entwickelt hat, um autonome Unternehmen zu unterstützen. Crystal DBA fokussiert sich auf die Optimierung von PostgreSQL-Datenbanken mit Hilfe…

Runter von der Bremse: Genau jetzt ist die Zeit, zu investieren

In wirtschaftlich schwierigen Zeiten wird in vielen Unternehmen reflexartig der Rotstift angesetzt: Überall und ungefiltert wird gekürzt. Doch die Geschichte zeigt: Auf jedes Konjunkturtal folgt ein Aufschwung, erste Anzeichen sind bereits sichtbar. Deshalb ist es klüger, antizyklisch zu handeln – dort zu investieren, wo der größte Hebel für künftiges Wachstum liegt. Und der liegt in…

Elemente einer Datenplattform für KI – Herausforderungen, Chancen und Hype

Das Schlagwort »Plattform« ist seit vielen Jahren in der IT nicht mehr wegzudenken. Eine immense Zahl an Herstellern benutzt diesen Begriff um den Blick von einzelnen Produkten wegzulenken und den Aspekt der »Ganzheitlichkeit« zu betonen. Allerdings bleibt hier vieles oft unklar bzw. vage.  Was hat es mit einer Datenplattform für KI auf sich?   Der…

– Mit Energie in eine nachhaltige Zukunft

Am 22. April begehen wir den Earth Day 2025.   Markus Grau, Enterprise Architect im CTO-Office des Speicheranbieters Pure Storage, schildert seinen Blick auf die Herausforderungen, die gemeistert werden müssen, damit technologischer Fortschritt und eine Schonung der Umwelt keine sich widersprechenden Ziele sind.   Die Welt, in der wir heute leben, hat sich seit dem…

Neuer Ansatz einer Datenspeicherplattform für KI und HPC im großen Maßstab

Für KI-Workloads optimierte All-Flash-basierte Ultra-Scale-Datenspeicherplattformen liefern ausreichenden Speicherdurchsatz und bieten weitreichende Skalierbarkeit.   Mit der zunehmenden Verbreitung von KI-Innovationen erkennen viele Unternehmen schnell den Wert, ihre bestehenden Prozesse durch Modelltraining und Inferenz zu verbessern. Dieser Trend hat die Einführung von KI-Workflows in den Bereichen Vorverarbeitung, Training, Test, Feinabstimmung und Bereitstellung vorangetrieben. Alle diese Teilbereiche der…

IT-Perspektiven: Moderne Storage-Ansätze ohne Kompromisse

Ende Januar 2025 fand die von Philippe Nicolas aus Frankreich organisierte IT Press Tour in San Francisco statt. Hartmut Wiehr war für »manage it« vor Ort und schaute sich vier vorgestellte Unternehmen genauer an.   Nicht alle jungen Unternehmen in der IT-Branche können sofort einen schnellen Durchbruch verzeichnen. So hat auch »Hammerspace« eine kleine Vorgeschichte:…

Speichertechnologie als heimlicher Held der KI-Revolution

Von autonomen Fahrzeugen bis hin zur Genomforschung verschiebt KI die Grenzen des Möglichen – die geeignete Speicherinfrastruktur trägt dazu bei, diese Entdeckungen zu beschleunigen.   Im Wettlauf um die künstliche Intelligenz gibt die Speichertechnologie den Takt vor. Während Algorithmen und Rechenleistung im Rampenlicht stehen, sind es die Speicherinfrastrukturen, die KI-Durchbrüche ermöglichen. Die ersten KI-Bemühungen wurden…

Datenschutz bei Fahrzeugen aller Art – Hoffentlich gut versichert

Seit 2020 gibt es Leitlinien zur Verarbeitung personenbezogener Daten für vernetzte Fahrzeuge und mobilitätsbezogene Anwendungen. Ein Pflichtenheft des Europäischen Datenschutzausschusses (edpd) soll zeigen, wohin die Reise geht. Da es um die Vermeidung von Missbrauchsfällen persönlicher Daten geht, befindet sich die Verordnung vermutlich unter dem Kopfkissen aller einschlägigen Softwarehäuser europaweit. Das klingt nach einem riesigen Papiertiger. Basierend auf der Datenschutzgrundverordnung (DSGVO) sind diese Richtlinien aber durchaus Ernst zunehmen. Ein Fallbeispiel aus der Versicherungswirtschaft soll das illustrieren.

Entwicklung von Maschinensoftware und KI-Modellen mittels Model-Based Design – Software Defined Factories

Software ist bereits heute das Kernelement im Maschinen- und Anlagenbau. Zukünftig wird in der Produktion immer mehr »Software Defined Functionality« zu finden sein – also Funktionen, die auf SPSen oder anderen Industriesteuerungen, Edge Devices und in der Cloud laufen, Maschinenabläufe definieren und kontinuierlich mit neuen Bausteinen erweitert werden. Die Umsetzung ganzer »Software Defined Factories« rückt damit in greifbare Nähe.

Optimismus statt Unsicherheit: Die IT-Modernisierung in der Automobilindustrie kann zum Erfolgsfaktor werden

Die Automobilindustrie beschäftigt hierzulande mehr als 800.000 Menschen [1]. Laut VDA ist Deutschland global gesehen der drittwichtigste Markt für die Branche [2]. Dennoch sieht sie sich derzeit weltweit mit tiefgreifenden Veränderungen konfrontiert. Der Umbruch ist offensichtlich und steht im Einklang mit der CASE-Vision (Connected, Autonomous, Shared, and Electrified) der Zukunft. Doch damit nicht genug: Zusätzlich…

Cloud-Anbieter gesucht? Fünf Fragen für die richtige Auswahl

Die Cloud-Landschaft hat sich in den letzten Jahren stark verändert. Im Wirtschaftsraum Europa, dem Nahen Osten und Afrika (EMEA) setzen Unternehmen vermehrt auf hybride Cloud-Strategien und auf eine Vielfalt von Anbietern. Laut einer Studie von Cloudera kombinieren 70 Prozent der IT-Entscheidungsträger in Deutschland Public Clouds mit Private Clouds und On-Premises-Infrastrukturen, um eine flexible und kosteneffiziente…