Speichertechnologie als heimlicher Held der KI-Revolution

Illustration Absmeier foto freepik ki

Von autonomen Fahrzeugen bis hin zur Genomforschung verschiebt KI die Grenzen des Möglichen – die geeignete Speicherinfrastruktur trägt dazu bei, diese Entdeckungen zu beschleunigen.

 

Im Wettlauf um die künstliche Intelligenz gibt die Speichertechnologie den Takt vor. Während Algorithmen und Rechenleistung im Rampenlicht stehen, sind es die Speicherinfrastrukturen, die KI-Durchbrüche ermöglichen. Die ersten KI-Bemühungen wurden durch die algorithmische Komplexität und Datenknappheit eingeschränkt, aber mit fortschreitender Entwicklung der Algorithmen traten Speicherengpässe auf.

Hochleistungsspeicher ermöglichten Durchbrüche wie GPT-3, das Petabytes an Speicherplatz benötigte. Mit dem Fortschritt der KI stellte jede Innovationswelle neue Anforderungen an die Speicherung. Dies trieb die Weiterentwicklung von Kapazität, Geschwindigkeit und Skalierbarkeit voran, um immer komplexere Modelle und größere Datensätze zu bewältigen.

Speicher – oder Storage – unterstützt nicht nur speziell KI. Die Branche brachte wegweisende Technologien hervor, um die weltweit ständig wachsenden Datenmengen, insbesondere bei KI, effizient und in großem Maßstab zu verwalten. Gerade KI-Anwendungen wie etwa im Bereich des autonomen Fahrens sind auf Storage-Plattformen angewiesen, die in der Lage sind, Petabytes an Sensordaten in Echtzeit zu verarbeiten. Die Genomforschung benötigt ebenso einen schnellen Zugriff auf riesige Datensätze, um Entdeckungen zu beschleunigen. Da KI die Grenzen des Datenmanagements immer weiter verschiebt, stehen herkömmliche Speichersysteme jedoch vor wachsenden Herausforderungen, mit diesen Anforderungen Schritt zu halten. Dies macht den Bedarf an speziell entwickelten Lösungen deutlich.

Wie KI-Workloads herkömmliche Speichersysteme belasten

KI-Anwendungen verwalten Datensätze, die von Terabytes bis zu Hunderten von Petabytes reichen, was die Fähigkeiten herkömmlicher Speichersysteme wie NAS (Network Attached Storage), SAN (Storage Area Network) und veraltetem DAS (Direct Attached Storage) bei Weitem übersteigt. Diese Systeme, die für präzise, transaktionale Workloads/Arbeitslasten wie die Erstellung von Berichten oder das Abrufen bestimmter Datensätze ausgelegt sind, haben mit den aggregationsintensiven Anforderungen der Data Science und den umfassenden, schnellen Zugriffsmustern von KI/ML-Arbeitslasten zu kämpfen. Das Modelltraining, das eine massive, stapelweise Datenabfrage über ganze Datensätze hinweg erfordert, verdeutlicht diese Diskrepanz. Die starren Architekturen, Kapazitätsbeschränkungen und der unzureichende Durchsatz herkömmlicher Infrastrukturen machen sie für den Umfang und die Geschwindigkeit der KI ungeeignet.

Echtzeitanalysen und Entscheidungsfindung sind für KI-Workloads unerlässlich, aber herkömmliche Speicherarchitekturen verursachen häufig Engpässe mit unzureichenden IOPS (Input/Output Operations Per Second), da sie für moderate Transaktionsaufgaben und nicht für die intensiven, parallelen Lese-/Schreib-Anforderungen von KI ausgelegt sind. Darüber hinaus verzögert eine hohe Latenz durch rotierende Festplatten oder veraltete Caching-Mechanismen den Datenzugriff, was die Zeit bis zur Erkenntnis verlängert und die Effizienz von KI-Prozessen verringert.

KI-Systeme verarbeiten sowohl strukturierte als auch unstrukturierte Daten, einschließlich Text, Bilder, Audio und Video, aber herkömmliche Speicherlösungen haben mit dieser Vielfalt zu kämpfen. Sie sind oft für strukturierte Daten optimiert, was zu einem langsamen Abruf und einer ineffizienten Verarbeitung unstrukturierter Formate führt. Darüber hinaus erschweren eine schlechte Indexierung und Metadatenverwaltung die effektive Organisation und Suche in verschiedenen Datensätzen. Herkömmliche Systeme haben auch Leistungsprobleme mit kleinen Dateien, wie sie beim Training von Sprachmodellen üblich sind, da ein hoher Metadaten-Overhead zu Verzögerungen und längeren Verarbeitungszeiten führt.

Die kumulative Wirkung dieser Herausforderungen führt dazu, dass herkömmliche Speicherarchitekturen nicht mit den Anforderungen moderner KI-Workloads Schritt halten können. Ihnen fehlt die Agilität, Leistung und Skalierbarkeit, die erforderlich ist, um die vielfältigen und umfangreichen Datenanforderungen von KI zu unterstützen. Diese Einschränkungen unterstreichen den Bedarf an fortschrittlichen Speicherlösungen, die für die einzigartigen Herausforderungen von KI-Anwendungen ausgelegt sind, wie z. B. schnelle Skalierbarkeit, hoher Durchsatz, geringe Latenz und vielfältige Datenverarbeitung.

Die wichtigsten Speicherherausforderungen der KI

KI-Workloads stellen einzigartige Anforderungen an Speichersysteme, und die Bewältigung dieser Herausforderungen erfordert fortschrittliche Funktionen in den folgenden Bereichen:

  • Einheitliche Datenkonsolidierung:
    Datensilos fragmentieren wertvolle Informationen. Daher ist eine Konsolidierung erforderlich in einer einheitlichen Plattform, die verschiedene KI-Workloads für nahtlose Verarbeitung und Training unterstützt.
  • Skalierbare Leistung und Kapazität:
    Eine robuste Speicherplattform muss verschiedene I/O-Profile verwalten und von Terabyte bis Exabyte skalieren können, um einen Zugriff mit geringer Latenz und hohem Durchsatz zu gewährleisten. Eine unterbrechungsfrei skalierbare Plattform ermöglicht eine nahtlose Erweiterung der KI-Workloads bei steigendem Datenbedarf und sorgt so für einen reibungslosen, unterbrechungsfreien Betrieb.
  • Flexibilität bei der Skalierung nach oben und nach unten:
    Die Verarbeitung von Transaktionszugriffen mit geringer Latenz für Vektordatenbanken und Workloads sowie mit hoher Parallelität für Training und Inferenz erfordert eine Plattform, die beide Funktionen bietet.
  • Zuverlässigkeit und kontinuierliche Verfügbarkeit:
    Da KI für Unternehmen immer wichtiger wird, ist eine Verfügbarkeit von 99,9999 Prozent unerlässlich. Eine Speicherplattform muss unterbrechungsfreie Upgrades und Hardware-Aktualisierungen unterstützen und einen kontinuierlichen Betrieb ohne für Endbenutzer spürbare Ausfallzeiten gewährleisten.

Optimierte Speicherung für die gesamte KI-Pipeline

Effektive Speicherlösungen sind in jeder Phase der KI-Pipeline, von der Datenkuratierung bis hin zum Training und zur Inferenz, unerlässlich, da sie einen effizienten und skalierbaren Betrieb von KI-Workloads ermöglichen. KI-Pipelines erfordern Speicher, der latenzempfindliche Aufgaben nahtlos bewältigen kann, sich an hohe Anforderungen an die Gleichzeitigkeit anpassen lässt, verschiedene Datentypen unterstützt und die Leistung in verteilten Umgebungen aufrechterhält.

In der Phase der Datenkuratierung beginnt die Verwaltung von Datensätzen im Petabyte- bis Exabyte-Bereich mit der Aufnahme (Ingestion). Hierbei muss die Speicherung nahtlos skaliert werden, um massive Datenmengen zu bewältigen und gleichzeitig einen hohen Durchsatz zu gewährleisten.

Echtzeitanwendungen, wie z. B. autonomes Fahren, erfordern Speicher mit geringer Latenz, der eingehende Daten sofort verarbeiten kann. DirectFlash-Module (DFMs) zeichnen sich in diesen Szenarien dadurch aus, dass sie herkömmliche SSD-Architekturen umgehen, um direkt auf NAND-Flash zuzugreifen, und so eine schnellere, konsistentere Leistung mit deutlich reduzierter Latenz bieten. Im Vergleich zu herkömmlichen SSDs und SCM (Storage-Class Memory) bieten DFMs auch eine höhere Energieeffizienz, sodass Unternehmen die Anforderungen großer KI-Workloads erfüllen und gleichzeitig den Stromverbrauch optimieren und eine vorhersehbare Leistung bei hoher Gleichzeitigkeit aufrechterhalten können.

Während der Persistenz müssen Datenspeicherlösungen die langfristige Aufbewahrung und den schnellen Zugriff auf häufig abgerufene Daten unterstützen. Der Verarbeitungsschritt ist entscheidend für die Vorbereitung von Daten für das Training, bei dem der Speicher eine Reihe von Datentypen und -größen effizient verwalten sowie strukturierte und unstrukturierte Daten in Formaten wie NFS, SMB und Objekt verarbeiten muss.

In der KI-Trainings- und Inferenzphase erzeugt das Modelltraining intensive Lese-/Schreib-Anforderungen, die Scale-out-Architekturen nötig machen, um die Leistung über mehrere Nodes hinweg sicherzustellen. Effiziente Checkpointing- und Versionskontrollsysteme sind in dieser Phase von entscheidender Bedeutung, um Datenverluste zu vermeiden. Neben dem Checkpointing stellen neu entstehende Architekturen wie Retrieval-Augmented-Generation-Speichersysteme (RAG) vor einzigartige Herausforderungen. RAG beruht auf der effizienten Abfrage externer Wissensdatenbanken während der Inferenz und erfordert einen Speicher mit geringer Latenz und hohem Durchsatz, der in der Lage ist, gleichzeitige, parallele Abfragen zu verarbeiten. Dies erhöht den Druck auf das Metadatenmanagement und die skalierbare Indexierung und erfordert fortschrittliche Speicherarchitekturen, um die Leistung ohne Engpässe zu optimieren.

Durch die Abstimmung von Speicherlösungen auf die spezifischen Anforderungen jeder Pipeline-Stufe können Unternehmen die KI-Leistung optimieren und die Flexibilität beibehalten, die zur Unterstützung sich entwickelnder KI-Anforderungen erforderlich ist.

Eine moderne Speicherplattform bildet das Rückgrat der KI

Die Modellkomplexität und Datenintensität von KI-Anwendungen nimmt zu und stellt exponentiell steigende Anforderungen an die Speicherinfrastruktur. Herkömmliche Storage-Architekturen können diese Anforderungen nicht erfüllen, sodass die Einführung agiler, leistungsstarker Storage-Lösungen unerlässlich ist. Die symbiotische Beziehung zwischen KI und Speicherplattformen bedeutet, dass Fortschritte im Speicherbereich den KI-Fortschritt nicht nur unterstützen, sondern auch beschleunigen. Für Unternehmen, die gerade erst anfangen, sich mit KI zu beschäftigen, ist Flexibilität von entscheidender Bedeutung. Sie benötigen Speicher, der mit ihren wachsenden Daten- und Rechenanforderungen skaliert werden kann, mehrere Formate (z. B. Datei, Objekt) unterstützt und sich leicht in vorhandene Tools integrieren lässt.

Unternehmen, die in moderne Speicherplattformen investieren, positionieren sich an der Spitze der Innovation. Dies erfordert zunächst eine Bewertung der bestehenden Infrastruktur, um aktuelle Einschränkungen und Bereiche für sofortige Verbesserungen zu identifizieren. Der Bedarf für skalierbare Lösungen macht Plattformen erforderlich, die Flexibilität, hohe Leistung und nahtloses Wachstum bieten. Schließlich gilt es, für zukünftige Anforderungen zu planen, um sicherzustellen, dass sich die Plattform mit den KI-Innovationen weiterentwickelt. Durch die Priorisierung von Speicherplattformen als Kernkomponente der KI-Strategie können Unternehmen neue Möglichkeiten erschließen, kontinuierliche Innovationen vorantreiben und sich in der datengesteuerten Zukunft einen Wettbewerbsvorteil sichern.

Ein Beitrag von Pure Storage

 

5704 Artikel zu „KI Infrastruktur“

Wie man PKI in bestehende Infrastrukturen integriert: 5 Schritte zum Erfolg

Die Einbindung moderner Public Key Infrastructure (PKI) in bestehende Produktionsumgebungen stellt viele Unternehmen vor erhebliche Herausforderungen. Besonders in Brownfield-Umgebungen mit veralteter OT-Hardware und -Software erschweren etablierte Praktiken und Bedenken hinsichtlich der Komplexität die nahtlose Integration innovativer Sicherheitslösungen.   BxC Security, ein Cybersicherheitsunternehmen im Bereich der Operational Technology (OT) und Industrial Internet of Things (IIoT), hat…

IT-Prognosen für 2025 – von KI über Security bis Infrastruktur

Zunehmende Komplexität der IT-Infrastruktur, hohe regulatorische Anforderungen, die permanente Sorge vor Cyberattacken – und das alles bei steigendem Kostendruck: Wie können Unternehmen die wachsenden Herausforderungen 2025 bewältigen? Das sind die wichtigsten Entwicklungen und Notwendigkeiten, die im kommenden Jahr auf deutsche Unternehmen zukommen. NetApps IT-Prognosen für 2025.   Zunehmende Standardisierung Unternehmen werden weiterhin on-premises durch virtualisierte,…

Nutzung von KI im Bereich AEC/Infrastruktur – Intelligenter statt härter arbeiten

KI ermöglicht die Automatisierung von Aufgaben, die Prüfung alternativer Entwürfe, die Verbesserung von Prognosen der Kosten und der Projektdauer, die Verbesserung der Qualität von Leistungen und Projektergebnissen. KI wird die Art und Weise, wie Unternehmen Anlagen entwerfen, bauen und betreiben, verändern. Julien Moutte, Chief Technology Officer bei Bentley Systems erklärt im Interview zudem die entscheidende Rolle der KI bei der Lösung von Herausforderungen in den Bereichen Nachhaltigkeit, Klimaresilienz und -anpassung sowie Kapazitäten und Leistungsfähigkeit der Arbeitskräfte.

Nachhaltigkeit als zentraler Aspekt – Die Zukunft der KI-Infrastruktur wird wahrscheinlich ein Hybridmodell sein

Supermicro bringt Innovationen für die IT-Infrastruktur in den Bereichen Enterprise, Cloud, KI, Metaverse und 5G Telco/Edge oft als Erster auf den Markt. Der Anbieter von IT-Gesamtlösungen im Rack-Scale-Format achtet besonders auf ein umweltfreundliches und energiesparendes Portfolio von Servern, Speichersystemen, Switches und Software. Wir sprachen mit Thomas Jorgensen, Senior Director Technology Enablement bei Supermicro über die Entwicklung und die Marktposition, den KI-Trend und die speziellen Anforderungen an die Infrastruktur, über Nachhaltigkeit, Flüssigkühlungslösungen und die Zukunft von Rechenzentren.

KI-Lösungen: Bewältigung der Herausforderungen bei Infrastrukturprojekten in Europa

Milliardenschwere Megaprojekte sind ein fester Bestandteil der dynamischen Landschaft Europas. Zu den sechzehn größten laufenden Bauprojekten der Welt gehören vier Megaprojekte in Europa, wie 1build, International Construction Magazine und Construction Review festgestellt haben. Der Wert dieser Projekte liegt zwischen 20 und 600 Milliarden USD (ca. 18,8 bis 564 Milliarden EUR).   Die Anzahl und der Umfang der…

Die Zukunft der KI-Infrastruktur wird wahrscheinlich ein Hybridmodell sein

Supermicro bringt Innovationen für die IT-Infrastruktur in den Bereichen Enterprise, Cloud, KI, Metaverse und 5G Telco/Edge oft als Erster auf den Markt. Der Anbieter von IT-Gesamtlösungen im Rack-Scale-Format achtet besonders auf ein umweltfreundliches und energiesparendes Portfolio von Servern, Speichersystemen, Switches und Software. Wir sprachen mit Thomas Jorgensen, Senior Director Technology Enablement bei Supermicro über die…

Die beste Technologie zur Verwaltung der Netzwerkinfrastruktur – Cyberrisiken effizient eindämmen

Unternehmen jeder Größe sehen sich einer wachsenden IT-Bedrohungslandschaft gegenüber. Gleichzeitig steigen die Anforderungen an die Leistungsfähigkeit der Netzwerkinfrastruktur. Bei vielen Unternehmen steht zudem die Migration in die Cloud an. Welche Herausforderungen kommen daher auf Unternehmen zu und wie kann man Effizienz mit Sicherheit verbinden? Darüber haben wir mit Professor Avishai Wool, Mitgründer und CTO von AlgoSec, gesprochen.

Riverty setzt auf skalierbare Exadata-Datenbankinfrastruktur aus der Cloud –
Von On-Premises in die Cloud

Für den effizienten und sicheren Transfer von geschäftskritischen Daten ist der FinTech-Anbieter Riverty auf eine Top-Performance und skalierbare Ressourcen in seiner Data-Warehouse-Infrastruktur angewiesen. Aufgrund stetigen Wachstums und der steigenden Menge an Kundendaten entschloss sich das Unternehmen vom vorhandenen On-Premises-System in die Oracle Cloud Infrastructure zu wechseln. Das Ergebnis: eine Beschleunigung der Laufzeit bei Prozessen um 10 bis 15 Prozent.

Probleme der IT-Infrastruktur: »Das Dreckige Dutzend«

»Das Dreckige Dutzend« ist weit mehr als ein US-Kriegsfilm. Der Begriff ist sehr oft auf verschiedene Weise in verschiedenen Branchen genutzt worden, vom Einzelhandel bis zur Luftfahrtindustrie. Für die IT-Branche hat Eric Herzog, CMO bei Infinidat, eine Liste der »Dreckigen Dutzend« erstellt. Es handelt sich um eine Liste von Problemen der IT-Infrastruktur, die aktuelle Unternehmensimplementierungen…

Der EMEA Netzwerkinfrastruktur Katalog 2021 ist jetzt verfügbar!

Wir freuen uns, Ihnen den neuen EMEA Netzwerkinfrastruktur Katalog 2021 präsentieren zu können, der die bisherigen Netzwerkinfrastruktur Kataloge ersetzt. Er bietet Ihnen einen vollständigen Überblick über unsere Produktfamilien für Rechenzentren, Unternehmens- und Industrienetzwerke, damit Sie Ihre Kunden schnell und einfach mit unseren neuesten Produkten bedienen können. Sie finden Bestseller-Flaggen an den entsprechenden Produkten, um die…

Stiefkind Sekundärspeicher: Return of Investment einer Scale-out-Infrastruktur

Als Sie Ihr letztes Auto gekauft haben, haben Sie da nur auf den Listenpreis abzüglich Schnäppchen-Prämie geachtet, oder haben Sie die Gesamtbetriebskosten betrachtet? Ich habe in der Vergangenheit beim Händler höchstens nach dem Benzinverbrauch gefragt, nicht aber danach, was mich Ölwechsel, neue Reifen und Wischblätter in den ersten fünf Jahren kosten würden.   Wenn Unternehmen…

2025: Wie KI die Regeln der Arbeitswelt neu definiert

Im Jahr 2025 ist künstliche Intelligenz (KI) längst keine Zukunftsvision mehr, sondern ein fester Bestandteil der Wirtschaft. Sie verändert Branchen, prägt die Arbeitswelt neu und beeinflusst die Art, wie Unternehmen mit ihren Kunden interagieren. KI wird zunehmend alltagstauglich und hilft Unternehmen, innovativer zu arbeiten, Abläufe effizienter zu gestalten und wirtschaftlichen Mehrwert zu schaffen. Laut McKinsey…

Fakten statt Fiktion: Was tun gegen KI-Halluzinationen und KI-Bias?

Generative KI ist unglaublich gut darin, Informationen zu recherchieren und aufzubereiten. Unfehlbar ist sie allerdings nicht – sie kann durchaus falsch liegen oder vorurteilsbehaftete Ergebnisse liefern. Doch es gibt Maßnahmen, mit denen Unternehmen das Risiko von Halluzinationen und Bias minimieren können.  Immer mehr Unternehmen setzen generative KI (GenAI) ein, um beispielsweise Mitarbeitern den Zugang zu…

Strukturreformen laut Ökonomen wichtiger als Schulden für Infrastruktur

Aus Sicht führender Ökonominnen und Ökonomen sind neue Schulden für Infrastruktur nicht vordringlich. Das ergab eine Umfrage des ifo Instituts, an der sich 205 Professorinnen und Professoren der Volkswirtschaftslehre beteiligt haben [1]. Wichtiger wären aus Sicht der Befragten Reformen in den Bereichen Bürokratie, Renten-, Energie- und Klimapolitik. »Massive Schulden für Investitionen in die Infrastruktur, wie…

Über 50 Prozent der KI-Anwendungsfälle zeigen bereits messbare Wirkung

Agentic AI wird zum Schlüssel für die Transformation von Geschäftsmodellen. Gezieltes Change Management und aktive Einbindung der Mitarbeiter steigern den Erfolg von KI-Anwendungen um bis zu 18 Prozentpunkte.   Das Infosys Knowledge Institute, ein Forschungszweig von Infosys, einem Anbieter von digitalen Dienstleistungen und Beratung der nächsten Generation, veröffentlicht seine aktuelle und bisher umfangreichste Studie zur…

KI-Agenten sollen durchschnittlich 18 Arbeitsstunden pro Woche einsparen

IT-Verantwortliche in Deutschland vertrauen auf KI-Agenten und investieren mit 2,6 Millionen Euro mehr als britische und US-amerikanische Unternehmen.   Nach einer Umfrage der generativen Integrationsplattform SnapLogic gehen deutsche Führungskräfte im IT-Bereich davon aus, dass KI-Agenten im Durchschnitt 18 Arbeitsstunden pro Woche einsparen könnten [1]. Fast die Hälfte (47 %) vertraut ihnen dabei, so effizient wie…

Wenn KI erwachsen wird: Wie Firmen den Sprung von der Experimentierphase zur unternehmensweiten Skalierung meistern

Die anfängliche Euphorie rund um generative KI stößt inzwischen auf erste Hürden. Zwar wird die Technologie noch immer zu Recht als bahnbrechend für Wirtschaft und Gesellschaft gefeiert – doch zu Beginn des Jahres 2025 kämpfen viele Unternehmen noch damit, ihre ambitionierten KI-Versprechen in greifbaren, unternehmensweiten Mehrwert zu überführen. Der Markt ist sich einig, dass generative…

Die digitale Bewerbung läuft meistens noch ohne KI

In praktisch jedem Unternehmen kann man sich digital bewerben. Zwei Drittel führen Bewerbungsgespräche auch per Videokonferenz. KI wird im Recruiting aber bislang noch kaum verwendet.   Bewerbungsunterlagen per Mail oder über ein Online-Portal erhalten, das ist in deutschen Unternehmen Standard. Im weiteren Bewerbungsverlauf werden aber noch deutlich weniger digitale Tools eingesetzt – und künstliche Intelligenz…

Deutschland und KI – ein schwieriges Verhältnis

Die Entwicklung und Adaption von künstlicher Intelligenz in Deutschland geht einigen viel zu langsam. Ist das wirklich so? Tatsächlich haben wir die KI weder verschlafen noch mutwillig ein- und ausgebremst. Aber es gibt eine Reihe von Besonderheiten, die der Nutzung von KI als Wirtschaftsfaktor nicht förderlich sind.   Länder wie die USA und China gelten…