Daten für KI effizient nutzen: Von der Ingestion bis zur Innovation

foto freepik

Es wird viel über das Training von KI-Modellen geschrieben, aber Datenwissenschaftler verbringen einen Großteil ihrer Zeit mit den Prozessen, die vor und nach dem Modelltraining ablaufen. In all diesen verschiedenen Phasen werden die Daten umgewandelt und erweitert. Um ein effektives und nützliches KI-Modell zu erstellen, müssen die Daten, die dem Modell zugrunde liegen, leicht zu finden, zugänglich, KI-fähig und genau sein. Unternehmen sollten überlegen, wie sie Datenwissenschaftler befähigen, das Datenwachstum nachhaltig zu unterstützen. Angesichts des schnellen Wandels bei KI-Projekten müssen sie sicherstellen, dass sie über die Technologie verfügen, um aktuelle und künftige Anforderungen mit As-a-Service-Lösungen zu erfüllen.

Im Folgenden werden von Pure Storage die sechs Phasen beschrieben, die Daten im Allgemeinen durchlaufen, und einige Überlegungen dazu, wie sich Daten umwandeln und erweitern lassen.

 

  1. Auffinden und Laden von Daten

Befinden sich die Daten in der Cloud, vor Ort, in einer Datenbank, sind sie unstrukturiert oder strukturiert? Wahrscheinlich handelt es sich um eine Kombination aus all diesen Datenquellen, realen Datenquellen, Transaktionsdaten und Daten aus Geschäftsanwendungen. Möglicherweise müssen die Daten in ein Format exportiert werden, das einfacher zu verwenden ist. Dies führt zu einer Vervielfältigung dieser Daten, wenn auch in einem anderen Format. Möglicherweise gilt es, die Daten zudem für die Analyse an einen anderen Ort zu kopieren.

Je nach Anwendungsfall und Knappheit der Quelldaten wollen Wissenschaftler die Daten durch die Generierung synthetischer Daten mitunter »erweitern«. Synthetische Daten lassen sich erstellen, indem man die Quelldaten heranzieht und geringfügige Änderungen vornimmt. Dadurch kann sich die zu speichernde Datenmenge erheblich vergrößern. Ein Hinweis dazu: Es gibt zunehmende Bedenken, dass synthetische Daten das KI-Training »vergiften« können, wenn sie von KI-Modellen generiert wurden, daher ist bei der Betrachtung synthetischer Daten ein gewisses Maß an Skepsis angebracht.

 

  1. Aufbereitung der Daten (Pre-Processing)

Um die Daten nutzbar zu machen, kann es sein, dass sie nicht im richtigen Format vorliegen (oder dass Werte fehlen), was sie für einige Arten von KI unbrauchbar macht. Ebenso gibt es einige Daten, die aus anderen Gründen von der Analyse auszuschließen sind. Je nach Art der KI, für die die Daten vorgesehen sind (z. B. prädiktive KI vs. generative KI), müssen sie möglicherweise auch gekennzeichnet, also mit Metadaten angereichert werden.

Feature-Engineering ist der Prozess der Auswahl und Verbesserung bestimmter Teile der Daten, um die Leistung des Modells zu verbessern. Dies kann dazu führen, dass zusätzliche Metadaten erzeugt werden, die gespeichert werden müssen. Bei der prädiktiven KI müssen zudem einige der Daten vom Training ausgeschlossen und für Tests reserviert werden, um die Ergebnisse des Trainings später zu validieren.

 

  1. Training

In dieser Phase erfolgt der Zugriff hauptsächlich auf die vorverarbeiteten Daten. Während des Trainings wird eine andere Form von Daten erstellt: Dies sind resultierende Modelle sowie Metadateninformationen über diese Modelle und die Daten, auf denen sie trainiert wurden. Kontrollpunkte dienen dabei als Möglichkeit, den Fortschritt zu speichern, bevor das Training abgeschlossen ist. Diese Innovation im Bereich der KI ist nützlich, um das Training teilweise rückgängig zu machen, ohne die gesamte Arbeit wiederholen zu müssen, was wichtig ist, da die GPU-Ressourcen begrenzt sind. Mit diesen Kontrollpunkten wird eine andere Art von Metadaten erstellt.

 

  1. Bewertung des Modells nach dem Training:

Für die prädiktive KI sind die Daten, die zuvor (am Ende der zweiten Phase) für die Tests zur Verfügung gestellt wurden, von Nutzen. Während des Testens werden weitere Metadaten erzeugt, um die Ergebnisse zu messen und zu verfolgen. Bei der generativen KI bedeutet Testen, dass neue Daten erzeugt werden. Oft erfolgt eine Aufbewahrung dieser Daten für weitere Analysen, da Wissenschaftler die Ergebnisse im Laufe der Zeit auf Kohärenz oder Vielfalt vergleichen möchten. In diesem Fall müssen nicht nur die generierten Inhalte gespeichert werden, sondern auch das Feedback der an der Bewertung beteiligten Personen.

 

  1. Einsatz nach dem Training:

Bei prädiktiver KI werden möglicherweise nicht selbst Daten generiert, aber es ist wahrscheinlich, dass die Wissenschaftler überwachen und aufzeichnen wollen, wie und wann das Modell verwendet wurde. Diese Überwachung und Protokollierung erzeugt eine andere Art von Daten, die in einigen Fällen, insbesondere, wenn die KI erklärungsbedürftig ist, ebenso wichtig sind wie die Quelldaten oder das Modell selbst.

Bei generativer KI hängt die Frage, ob der gesamte erstellte Inhalt gespeichert wird, von einer Reihe von Faktoren ab, z. B. davon, wer das Modell verwendet und zu welchem Zweck. Werden Inhalte in einem kundenorientierten Kontext eingesetzt, entscheiden sich Unternehmen oft, alle generierten Inhalte zu speichern, da diese später benötigt werden könnten, wenn beispielsweise Beschwerden auftreten. Dies kann dazu führen, dass viel mehr Daten anfallen als die ursprünglichen Quelldaten, die zum Trainieren des Modells verwendet wurden.

Neuere KI-Optimierungstechniken wie Retrieval-Augmented Generation (RAG) komme zum Einsatz, um die Ergebnisse der generativen KI zu verbessern. Hier erfolgt eine Analyse zusätzlicher Informationen oder Dokumente, die in der Trainingsphase nicht verwendet wurden. Dazu kann es erforderlich sein, die Daten »KI-fähig« zu machen, indem »Vektoren« oder Metadaten für alle Dokumente, die es zu durchsuchen gilt, vorberechnet und gespeichert werden.

 

  1. Wiederholen

Der Aufbau eines KI-Modells ist nicht etwas, das einmal erfolgt, sondern etwas, das ständig weiterentwickelt und verbessert wird. Die obigen Schritte wiederholen sich je nach Situation:

Neue Quelldaten werden erstellt, aus denen das Modell lernen muss, da sie unterschiedliche Muster aufweisen können, wobei Techniken wie die Modellfeinabstimmung zum Einsatz kommen. Bei der Nutzung des KI-Modells kann menschliches Feedback zu den Modellergebnissen wertvolle Informationen liefern, die zur Verbesserung der nächsten Iteration des Trainings nutzbar sind.

Die zyklische Natur der KI wird ebenfalls zusätzliche Daten generieren, da Wissenschaftler möglicherweise nachverfolgen wollen, welche Version eines Modells zu welchen Ergebnissen geführt hat und vielleicht sogar welche Daten für das Training oder die Feinabstimmung verwendet wurden. Code-Repositories und Artefaktspeicher, wie sie in der Welt der Softwareentwicklung üblich sind, werden Teil der Landschaft sein und ihre eigenen Daten erzeugen.

 

Mehr Daten in unterschiedlichen Formaten

Während dieser Reise werden die ursprünglichen Daten vervielfältigt, erweitert, in verschiedenen Formaten gespeichert und mit Metadaten angereichert. Die erzeugten KI-Modelle werden ebenfalls beginnen, eigene Daten und Nutzungsinformationen zu erzeugen. Insgesamt übersteigt die Menge der Daten, Metadaten und Protokollierungsinformationen den Umfang der Daten zu Beginn des Prozesses erheblich und umfasst nun eine Vielzahl unterschiedlicher Formate.

Um sicherzustellen, dass sie den potenziellen Datenwildwuchs in den Griff bekommen und die Nachhaltigkeit im Auge behalten, müssen Unternehmen ihre Datenspeicherung überdenken, um die Wirkung von KI-Projekten zu maximieren. Dazu gehören unter anderem Überlegungen zur Nachhaltigkeit und zu As-a-Service-Modellen.

 

Welche Herausforderung dieser Prozess mit sich bringt

Der mehrstufige Prozess der Aufbereitung und Nutzung von Daten für die KI birgt drei Herausforderungen:

  • Die schiere Menge der erzeugten Daten und die Umweltauswirkungen der Speicherung.
  • Die große Anzahl von Tools, die für eine durchgängige Bearbeitung dieses Prozesses erforderlich sind.
  • Die Komplexität des Umgangs mit sich ständig ändernden Anforderungen.

 

Der Umgang mit großen Datenmengen und die Auswirkungen auf die Nachhaltigkeit

Nicht nur die Daten- und Speicheranforderungen steigen, sondern auch die Komplexität des Umgangs mit ihnen und die Umweltauswirkungen können zunehmen. Durch die Wahl einer Infrastruktur, die den Energieverbrauch senkt und so konzipiert ist, dass sie den Anforderungen der KI besser gerecht wird, können Unternehmen diese Herausforderungen jedoch meistern.

Es ist wichtig zu bedenken, dass es so etwas wie kalte Daten nicht mehr gibt. Bestenfalls handelt es sich um »warme« Daten, die schnell und bedarfsgerecht für Datenwissenschaftler verfügbar gemacht werden müssen. Flash-Speicher ist die einzige Lösung, die dieses Maß an Verfügbarkeit für die unstrukturierten Daten bietet, die KI für ihren Erfolg benötigt. Die Verknüpfung von KI-Modellen mit Daten erfordert eine Speicherlösung, die jederzeit einen zuverlässigen und einfachen Zugriff auf Daten über Silos und Anwendungen hinweg ermöglicht. Genau dies ist mit einer HDD-Speicherlösung oft nicht möglich.

Da sich immer mehr Unternehmen wissenschaftlich fundierte Nachhaltigkeitsziele setzen, müssen sie auch über die Umweltkosten der Speicherung nachdenken. Die Betreiber von Rechenzentren setzen energieeffizientere Technologien ein, um mit speicherhungriger KI fertig zu werden. Das Problem wird nicht dadurch gelöst, dass man es auf andere abwälzt (z. B. auf einen Public-Cloud-Anbieter). Viele Unternehmen werden bald verpflichtet sein, über Scope-3-Emissionen zu berichten, die die vor- und nachgelagerten Umweltkosten umfassen. Die Zusammenarbeit mit einem Anbieter, der den Platz-, Strom- und Kühlungsbedarf für die Speicherung reduzieren kann, ist ein wichtiger Weg, um die Herausforderung der Speicherung wachsender Datenmengen, die aus der KI resultieren, zu bewältigen.

 

Tools zur Unterstützung von Datenwissenschaftlern

Da Datenwissenschaftler so viel Zeit zur Vorverarbeitung und Erkundung von Daten aufwenden, benötigen sie die Tools, Ressourcen und Plattformen, um diese Arbeit effizient und bedarfsgerecht durchzuführen. Python und Jupyter Notebooks sind zu den alltäglichen Sprachen und Tools für Datenwissenschaftler geworden, und die Tools zur Datenaufnahme, -verarbeitung und -visualisierung haben alle eines gemeinsam: Sie können als Container bereitgestellt werden. Die ideale Plattform für Datenwissenschaftler sollte daher all diese Tools unterstützen und es ermöglichen, Container schnell und einfach zu implementieren und auszuführen – und das vor allem auf Self-Service-Basis.

Da laut 451 Research 95 Prozent der neuen Anwendungen in Containern geschrieben werden, ist es für Datenwissenschaftler noch wichtiger geworden, schnellen und einfachen Zugang zu haben. Wird dies nicht ermöglicht, wirkt sich dies negativ auf das Gesamtwachstum eines Unternehmens, die digitale Transformation, den Kundenservice und die Innovation aus. Jeder Bereich eines Unternehmens ist betroffen, wenn Datenwissenschaftler nicht angemessen unterstützt werden.

Führende KI-Organisationen bauen jetzt »Data Science as-a-Service«-Plattformen auf, die viele der oben genannten Tools nutzen und auf einer Softwareinfrastruktur wie Kubernetes basieren. Um erfolgreich zu sein, müssen diese Plattformen jedoch nicht nur die Daten-Frameworks und Tools as-a-Service bereitstellen, sondern auch die Daten selbst, da sonst der Vorteil der Selbstbedienung zunichtegemacht wird. Datenplattformen, die eng mit Kubernetes integriert sind und eine einfache gemeinsame Nutzung, das Kopieren, Checkpointing und Rollback der Daten selbst ermöglichen, sind der Schlüssel zum Erfolg in diesem Bereich.

 

Flexibilität einer As-a-Service-Nutzung

Eine der Hauptsorgen von IT-Organisationen in Bezug auf KI ist die Geschwindigkeit, mit der sich der Markt weiterentwickelt und die den durchschnittlichen Investitionszyklus von Unternehmen weit übersteigt. Neue KI-Modelle, -Frameworks, -Tools und -Methoden tauchen regelmäßig auf, und ihre Einführung kann massive Auswirkungen auf die zugrundeliegenden Software- und Hardwareplattformen haben, die für KI verwendet werden. Dies führt zu ungeplanten Kosten, wenn Änderungen an der zugrundeliegenden Technologie erforderlich sind.

As-a-Service-Verbrauchsmodelle sind ein wirksames Instrument zur Erhöhung der Flexibilität der KI-Plattform. Sie ermöglichen es den Entwicklern, problemlos neue Lösungen zu integrieren oder ihre Infrastruktur zu ändern, um den sich ständig ändernden Anforderungen der Datenwissenschaftler gerecht zu werden. Im Wesentlichen unterstützen sie alle sechs der im ersten Teil dieses Beitrags genannten Schritte.

Darüber hinaus können Unternehmen mit As-a-Service-Modellen ihre Nachhaltigkeitsziele erreichen, indem sie die Energiekosten durch einen geringeren Stromverbrauch besser kontrollieren und nur die Ressourcen nutzen, die zum jeweiligen Zeitpunkt erforderlich sind. Einige Storage-as-a-Service-Angebote werden auch durch SLAs unterstützt, die auch die Stromkosten abdecken, und sie unterstützen Nachhaltigkeitsziele, indem sie Rip-and-Replace-Zyklen und den dabei entstehenden Elektroschrott eliminieren.

 

Lösungen zur Bewältigung von KI-Datenherausforderungen

Der Weg der Daten für KI ist ein Weg der Datenerweiterung. Auf jeder Stufe der KI-Reise werden Daten und Metadaten erstellt und ergänzt. Dies erfordert eine immer umfangreichere Infrastruktur, um die Entwicklung zukünftiger KI zu unterstützen. Data Science as-a-Service ist das, was Datenwissenschaftler wollen, um die Anforderungen der KI zu bewältigen. Das bedeutet, dass sowohl Tools als auch Daten auf Abruf und durch Automatisierung bereitgestellt werden. Um dies zu erreichen, bedarf es der richtigen Software- und Hardwareinfrastruktur in Kombination mit dem richtigen Nutzungsmodell. Dies ist entscheidend, damit das KI-Engagement ein Erfolg wird und ein Unternehmen von der Datenerfassung zur Innovation gelangt.

 

671 Artikel zu „Daten KI Storage“

Supercomputer des KIT ist einer der energieeffizientesten der Welt

Der »Hochleistungsrechner Karlsruhe« (HoreKa), der seit Juni 2021 am Karlsruher Institut für Technologie (KIT) in Betrieb ist, zählt derzeit zu den schnellsten Rechnern Europas. Nach einem kürzlich erfolgten Upgrade belegt er nun außerdem Rang 6 in der halbjährlich erscheinenden Green500-Liste der energieeffizientesten Rechner der Welt. Damit verbessert sich der Supercomputer um sieben Plätze im Vergleich…

Red Hat OpenShift AI erweitert die Flexibilität von prädiktiver und generativer KI in der Hybrid Cloud

Vom lokalen Rechenzentrum über verschiedene Public Clouds bis hin zur Edge bietet Red Hat OpenShift AI neue Funktionen und Anpassungen, mit denen Unternehmen den Boom intelligenter Workloads bewältigen können.   Red Hat, der weltweit führende Anbieter von Open-Source-Lösungen, hat heute Erweiterungen von Red Hat OpenShift AI angekündigt, einer offenen hybriden Plattform für Künstliche Intelligenz (KI)…

Storage-Management: Warum intelligente Self-Services mittelfristig unverzichtbar sind

Das Storage-Management entwickelt sich schnell weiter. Vorangetrieben durch den KI-Boom und die digitale Transformation müssen Rechenzentren ein massives Datenwachstum, beispiellose Anforderungen an die Agilität von Anwendungen, eine steigende Komplexität, einen Mangel an Fachkräften und steigende Energiekosten bewältigen. Es handelt sich weniger um einen Umbruch als um einen perfekten Sturm, was jedoch auch Chancen für Verbesserungen…

Auf dem Weg zur generativen KI – Wie KI-fähig sind die Daten überhaupt?

Mit generativer KI werden Prozesse möglich, die vor kurzem noch undenkbar waren. Kein Wunder, dass sich Unternehmen aller Größen und Branchen deutliche Effizienzsteigerungen und damit Kosteneinsparungen versprechen. Ihr volles Potenzial kann die Technologie jedoch nur entfalten, wenn das Rohmaterial stimmt. Quantität, Qualität und Zugänglichkeit der Daten entscheiden maßgeblich über den Erfolg eines KI-Projekts. Künstliche Intelligenz…

Eine solide Datengrundlage gewährleistet die Transformation des Energiesektors

Bereits heute verfügen Energieunternehmen über Massen an verschiedensten Daten. Doch um effizienter und nachhaltiger zu werden, müssen diese aus Silos befreit und einheitlich aufbereitet werden. Durch die Energiewende werden viel mehr kurzfristige, steuernde Eingriffe notwendig, die nur auf Basis einer optimalen Dateninfrastruktur realisiert werden können. Otto Neuer, Regional VP und General Manager bei Denodo, zeigt,…

KI in der Medizin: Mit Ursache und Wirkung rechnen

Maschinen können mit neuen Verfahren lernen, nicht nur Vorhersagen zu treffen, sondern auch mit kausalen Zusammenhängen umzugehen – Das könnte helfen, Therapien effizienter, sicherer und individueller zu machen, prognostiziert eine internationale Forschungsgruppe – Das Team um LMU-Forscher Stefan Feuerriegel will mit seinen Arbeiten „die Methoden einen Schritt näher an die Praxis bringen“   Künstliche Intelligenz…

Nachfrage nach KI-gestütztem Handel auf neuem Hoch

Neue Studie zeigt: 62 % der deutschen Konsumenten finden, KI verbessert ihr Einkaufserlebnis – ein Anstieg von 13 % im Vergleich zu 2023 [1].   SAP Emarsys kündigt seinen AI Product Finder an, ein neues Tool, das die Art und Weise, wie Marken Produkte empfehlen und ihre Customer Experience personalisieren, verändert. Der neue Product Finder…

Hyperscaler-Markt: Sovereign Cloud und KI führen Provider zu neuem Wachstum

KI-Boom lässt Bedarf an DSGVO-konformen Hyperscaler-Leistungen stark steigen. Zwei neue ISG-Studien zeigen, welche IT-Dienstleister in Deutschland und Europa profitieren werden.   Nach dem Auslaufen der Sonderkonjunktur durch Corona ist Künstliche Intelligenz der Toptreiber für weiteres Wachstum im Hyperscaler-Markt. In Europa und insbesondere auch in Deutschland geht diese Rechnung aber nur auf, wenn Unternehmen ihre KI-Modelle…

Nicht jede KI ist gleich intelligent

KI-Lösungen können nur so wertvoll, einzigartig und nützlich sein, wie Menge, Qualität und Vielfalt der verfügbaren Trainingsdaten. Dies bedeutet für Unternehmen, dass sie jetzt Methoden benötigen, um ihre Daten in einem Workflow zu speichern, der eine Analyse, Katalogisierung und Kennzeichnung all ihrer Daten ermöglicht. Dies erfordert eine End-to-End-Infrastruktur für unstrukturierte Daten, die sich an neue…

Ressourcen, Kreislauf, Energie: Das KIT auf der Hannover Messe 2024

In der AgiProbot-Fabrik arbeiten Forschende am Realisieren der automatisierten Demontage. (Foto: Amadeus Bramsiepe, KIT)   Wie können sich Fabriken autonom an laufend neue Bedingungen anpassen? Wie lässt sich Beton ressourcen- und klimaschonend herstellen? Wie schaffen wir Speicherkapazitäten für den Ausbau erneuerbarer Energien? Das Karlsruher Institut für Technologie (KIT) entwickelt Lösungen für vielfältige Herausforderungen. Unter dem…

Umrüstung der IT-Abteilung als Priorität für den KI-Erfolg

In die Fortbildung investieren, oder die Mitarbeitenden umschulen. Das ist die Frage, die viele Unternehmen sich regelmäßig stellen müssen. Obwohl laut der Society for Human Resource Management (SHRM) 53 % der Unternehmen die Fortbildung und Umschulung ihrer Mitarbeitenden im Jahr 2024 als Priorität ansehen, waren im Jahr 2023 nur 21 % damit zufrieden. Um erfolgreich…

KI und Edge erhöhen die Sicherheit am Arbeitsplatz

Edge Computing und künstliche Intelligenz haben enormes Potenzial für die Industrie und Wirtschaft: Richtig eingesetzt, können Betriebe Produktion und Prozesse effizienter gestalten und ihre Umsätze steigern. Doch gerade im Verbund erhöhen die Technologien auch den Schutz der Mitarbeiter.   Gerade in Industrieanlagen und Fertigungsbetrieben ist die Gefahr für die Mitarbeiter zuweilen extrem hoch. Natürlich kann…

Unternehmen sind (noch) nicht bereit, um generative KI erfolgreich einzuführen

Datensilos und Datenqualität sind (überwindbare) Herausforderungen, wenn IT-Teams weltweit ihre Data Stacks auf generative KI vorbereiten.   Eine neue Studie von Alteryx, der AI Platform for Enterprise Analytics, zeigt, dass Unternehmen aufgrund ihrer Daten noch nicht bereit sind, das Potenzial generativer künstlicher Intelligenz (KI) auszuschöpfen [1]. Die Ergebnisse der Studie »Data Stack Evolution: Legacy Challenges…

Intelligente Fertigung: Deutsche Unternehmen setzen zunehmend auf KI

Der Report »State of Smart Manufacturing« von Rockwell Automation liefert wertvolle Einblicke in Trends, Herausforderungen und Pläne für Hersteller. Hierfür wurden mehr als 1.500 Unternehmen der Fertigungsindustrie aus 17 Ländern befragt, darunter Deutschland, das Vereinigte Königreich (UK), Frankreich, Italien und Spanien. Knapp über 100 der teilnehmenden Firmen kommen aus Deutschland (101).   Unter den vielen…

Supermicro stellt SuperCluster für generative KI-Lösungen vor

  Supermicro, Inc. ein Anbieter von IT-Gesamtlösungen für KI, Cloud, Storage und 5G/Edge, kündigt sein neuestes Produktportfolio an, um den Einsatz von generativer KI zu beschleunigen. Die Supermicro SuperCluster-Lösungen bieten grundlegende Bausteine für die Gegenwart und die Zukunft der Infrastruktur für große Sprachmodelle (Large Language Models, LLM).   Die drei leistungsstarken Supermicro SuperCluster sind jetzt für…

flaschenpost mit Databricks: Endlich genügend Rechenleistung für das Maximum an Datenanalyse

Anlässlich der Data & AI World Tour (DAIWT) baten wir Marco Lohaus, Head of Business Intelligence der Firma flaschenpost SE, über die Zusammenarbeit mit Databricks zu sprechen.   Herr Lohaus, können Sie uns ihr Unternehmen kurz vorstellen? Die flaschenpost startete im Jahr 2016 als erster Onlineshop für die Sofortlieferung von Getränken innerhalb von 120 Minuten…

Komplett datengesteuerte Unternehmen – »Data Analytics betrifft das ganze Unternehmen«

Künstliche Intelligenz ermöglicht die Analyse von Informationen in hoher Geschwindigkeit – doch wie lässt sich die ­Technologie langfristig effizient nutzen? Im Gespräch mit »manage it« betont Jörg Tewes, CEO beim Nürnberger Anbieter von Hochleistungs-Analytics-Datenbanken Exasol, wie wichtig eine leistungsstarke, skalierbare Dateninfrastruktur für den erfolgreichen Einsatz von Data Analytics in Unternehmen ist.

Kostentreiber KI: Strategie-Tipps zur Leistungs- und Kostenoptimierung

Unternehmen nutzen vermehrt künstliche Intelligenz zur Optimierung ihrer operativen Effizienz und Produktinnovation. Eine aktuelle Umfrage des Beratungsunternehmens McKinsey zeigt, dass 40 Prozent der befragten Unternehmen aufgrund der rapiden Fortschritte im Bereich der generativen KI ihre Investitionen in KI-Technologien generell erhöhen wollen [1].   Ein Nachteil des zunehmenden Einsatzes ist jedoch, dass KI – insbesondere generative…

Fünf zentrale KI-Trends für 2024

Die Landschaft der künstlichen Intelligenz (KI) entwickelt sich weiterhin in einem beispiellosen Tempo weiter und verändert Industrien, Gesellschaften und die Struktur des täglichen Lebens. Das Jahr 2024 verspricht nach Meinung von Pure Storage ein entscheidender Moment auf dem Weg zur KI zu werden, geprägt von transformativen Fortschritten, die einen bleibenden Eindruck hinterlassen werden. Jeder dieser…

Rack-Scale-Gesamtlösung für KI-Speicher, um Datenpipelines für High-Performance-KI-Training und KI-Inferenz zu beschleunigen

Schlüsselfertige Datenspeicherlösung für Large Scale KI-Training und -Inferenz – Hunderte von Petabytes in einer Multi-Tier-Lösung unterstützen die für skalierbare KI-Workloads erforderliche enorme Datenkapazität und #Datenbandbreite.   Supermicro, ein Hersteller von IT-Gesamtlösungen für KI, Cloud, Speicherung und 5G/Edge, bringt eine optimierte Full-Stack-Speicherlösung für KI- und ML-Datenpipelines auf den Markt – von der Datenerfassung bis zur hochleistungsfähigen…