Beschleunigung von KI in großem Maßstab – Intelligente Investitionen in die Infrastruktur

Die KI-Architektur muss effektiv skaliert werden, ohne die Kosteneffizienz zu beeinträchtigen. Prozesse und Partnerschaften sind entscheidend.

Da sich Unternehmen in allen Branchen in Data-First-Organisationen wandeln, ist die Notwendigkeit, leistungsfähigere Wege zur Nutzung von Informationen zu finden, einschließlich künstlicher Intelligenz (KI) und anderer Formen datenintensiver, leistungsstarker Datenverarbeitung, klar. Der Umsatz auf dem globalen KI-Markt – Hardware, Software und Dienstleistungen – wird im Jahr 2023 voraussichtlich 500 Milliarden US-Dollar übersteigen, und Investitionen in KI-maßgeschneiderte Hardware sollen laut dem Marktforschungsunternehmen IDC in den nächsten fünf Jahren eine durchschnittliche jährliche Wachstumsrate von 20,5 Prozent verzeichnen. Unternehmen, die heute und in Zukunft zu wenig in ihre IT-Kapazitäten investieren, riskieren ihre Fähigkeit, effektiv auf dem Markt zu konkurrieren.

»Die Gefahr besteht darin, dass Sie es versäumen, kritische Funktionen für das Unternehmen bereitzustellen«, sagt Ashish Nadkarni, IDC Group Vice President und General Manager, Infrastructure Systems, Platforms and Technologies. »Die Differenzierung in Bezug auf Produkte und Dienstleistungen, die Erhaltung der Zukunftssicherheit des Geschäfts – all diese Dinge werden Kopfschmerzen bereiten, und letztendlich wird das bedeuten, dass das Geschäft nicht so gut abschneiden wird, wie es könnte.«

Der Aufbau einer agilen, kostengünstigen Umgebung, die die aktuellen und langfristigen KI-Strategien eines Unternehmens meistert, kann eine Herausforderung sein, und die Auswirkungen von Entscheidungen, die rund um diese Architektur getroffen werden, werden sich überproportional auf die Leistung auswirken. »KI-Fähigkeiten werden wahrscheinlich 10 bis 15 Prozent der gesamten Infrastrukturkosten ausmachen«, sagt Nadkarni. »Aber das Ausmaß der Abhängigkeit des Unternehmens von ihrer Infrastruktur, wird viel höher sein. Wenn sich diese 15 Prozent nicht so verhalten, wie erwartet, wird das Geschäft darunter leiden.«

Experten wie Nadkarni stellen fest, dass Unternehmen zwar cloudbasierte Optionen nutzen können und sollten, um KI-Funktionen zu testen und hochzufahren, aber wenn die Workloads im Laufe der Zeit zunehmen, können die mit der Cloud verbundenen Kosten erheblich steigen. Wenn Workloads skaliert werden oder das Unternehmen die Nutzung von KI erweitert, macht das die On-Premises-Architektur zu einer echten Alternative.

»Jedes Mal, wenn Sie einen Auftrag in der Cloud ausführen, zahlen Sie dafür, während Sie vor Ort, sobald Sie die Infrastrukturkomponenten gekauft haben, Anwendungen mehrmals ausführen können«, erklärt er. »Wenn Unternehmen über solide Anwendungsfälle verfügen und wissen, wie sie diese Infrastruktur für längere Zeit auslasten können, bewegen sie sich in die richtige Richtung, um sicherzustellen, dass der Return on Investment gut ist.«

Guter Prozess – gute Infrastruktur. Unabhängig von der Branche müssen Unternehmen zum Aufbau einer robusten und effektiven KI-Infrastruktur zunächst ihre KI-Anforderungen genau diagnostizieren. Welche geschäftlichen Herausforderungen versuchen sie zu lösen? Welche Formen von Hochleistungsrechenleistung können Lösungen liefern? Welche Art von Training ist erforderlich, um die richtigen Erkenntnisse aus Daten zu gewinnen?

Der Kontext ist wichtig. Die Fabrikautomatisierung unterscheidet sich beispielsweise von Videoverteilung, Risikomodellierung, Lieferkettenoptimierung oder einer Vielzahl anderer Anwendungen, die von KI-Funktionen profitieren. Einzelhändler werden andere Ansprüche haben als Hersteller, während Unternehmen mit umfangreichen Edge-Computing-Umgebungen andere Anforderungen an Daten stellen werden als solche ohne.

 

 

»Es geht darum, die richtige Konfiguration zu finden, die eine optimale Leistung für die Workloads bietet«, betont Michael McNerney, Vice President of Marketing and Network Security bei Supermicro, einem führenden Anbieter von KI-fähigen, leistungsstarken Servern, Managementsoftware und Speichersystemen. »Wie groß ist zum Beispiel Ihr NLP- oder Computer-Vision-Modell? Benötigen Sie ein massives Cluster-KI-Training? Wie wichtig ist es, die geringstmögliche Latenz für Ihre KI-Schlussfolgerungen zu haben? Wenn das Unternehmen keine massiven Modelle hat, bewegt es sich dann in kleinere Modelle, um In-frastruktur und Kosten auf der KI-Seite sowie in den Bereichen Computing, Storage und Networking zu optimieren?«

Ein Beispiel für ein anwendungsoptimiertes System für KI-Training sind Supermicro-GPU-Systeme mit zwei Intel-Xeon-Scalable-Prozessoren der 3. Generation. Diese können bis zu acht Intel-Habana-Gaudi-2-Prozessoren enthalten. Die modularisierte Architektur des Systems hilft dabei, das KI-Infrastrukturdesign für Skalierbarkeit und Energieeffizienz zu standardisieren, trotz komplexer Workloads und Workflow-Anforderungen, wie KI, Datenanalyse, Visualisierung, Simulation und digitale Zwillinge.

Angesichts des Umfangs der Überlegungen und der Reichweite der Investitionen ist Nadkarni der Ansicht, dass die Kommunikation im gesamten Unternehmen von entscheidender Bedeutung ist. »Die erste und beste Methode besteht darin, alle Beteiligten zusammenzubringen, um sicherzustellen, dass jeder gehört wird«, sagt er. »Andernfalls wird das Geschäft leiden, weil die erklärten Ziele nicht mit den Zielen des Infrastrukturdesigns übereinstimmen.«

Von dort aus kann beschleunigtes Computing – die Verwendung spezieller Prozessoren, sogenannte Beschleuniger (accelerator), die mit herkömmlichen Zentraleinheiten (CPUs) zusammenarbeiten und eine weitaus größere Rechenleistung ermöglichen, ohne das System zu verlangsamen – dazu beitragen, einen höheren Wert rund um die KI zu schaffen. »Daten werden sich schneller bewegen, wenn die Hardware optimal für bestimmte Workloads, Rechenanforderungen und Eigenschaften konfiguriert ist«, sagt Matt Kimball, Vice President und Principal Analyst, Data Center, bei Moor Insights. »Beschleuniger sparen Millisekunden von KI-Berechnungen, aber Millisekunden summieren sich zu Sekunden, Minuten, Stunden und Tagen. Wenn Sie versuchen, große Datensätze zu trainieren, hilft die Reduzierung dieser Zeit, schneller an einen Punkt der wertvollen Erkenntnis zu gelangen, was entscheidend ist.«

Partner zur Skalierung von KI. Die heutigen Anforderungen an KI zu erfüllen, sind nur ein Teil der Herausforderung, vor der Unternehmen bei der Entwicklung einer effektiven Strategie für den Einsatz stehen. Unternehmen müssen diese Investitionen tätigen und sie angemessen skalieren, um den Weg für zukünftige Innovationen und Erkenntnisse zu ebnen. Umfragedaten von Omdia im Jahr 2021 zeigen, dass etwa 20 bis 25 Prozent der Unternehmen KI-Projekte über mehrere Geschäftsbereiche hinweg skalieren, gegenüber nur 7 Prozent im Jahr 2020. Während dies immer noch enormen Raum für eine weiter steigende Akzeptanz lässt, deutet das schnelle Wachstum auch darauf hin, dass Unternehmen, die durch KI Wettbewerbsvorteile schaffen oder sogar ausbauen wollen, eher früher als später handeln sollten. Unabhängig von der Branche müssen Unternehmen jedoch erhebliche Herausforderungen meistern, wenn sie Workloads skalieren, um kritische Aufgaben zu optimieren.

Unternehmen müssen hohe Leistungsanforderungen mit entsprechend leistungsfähigen Prozessor-, Speicher- und Netzwerkfunktionen erfüllen und auch Fragen zu physischen Räumlichkeiten beantworten. Wie können Unternehmen sicherstellen, dass Hardware ausreichend mit Strom versorgt und gekühlt wird, da neuere CPUs und GPUs mehr Strom benötigen? Wie können sie Änderungen an physischen Räumen berücksichtigen, wenn mehr Infrastruktur benötigt wird?

»Wir befinden uns in einem ständigen Wandel. Die Workloads, die wir jetzt bereitstellen, sind selbst sehr maßgeschneidert und stellen einzigartige Anforderungen an die Datenverarbeitung«, sagt Kimball. »Das Innovationstempo nimmt weiter zu. Es muss in Plattformen investiert werden, die über die Fähigkeiten, Funktionen und die zugrunde liegende Architektur einen breiten Nutzen bieten, um alles zu unterstützen, von maschinellem Lernen über Cloud-native Plattformen bis hin zu SQL-Umgebungen, die tiefe Analysen ermöglichen.«

Die Schaffung der richtigen Architektur erfordert nicht nur eine ständige Kommunikation zwischen den Geschäftsbereichen, sondern auch sinnvolle Partnerschaften und Koordination mit Technologieanbietern. »Es sind nicht nur ich und mein Hardwareanbieter, ich und mein Softwareanbieter«, bemerkt Kimball. »Jeder Teil der Wertschöpfungskette arbeitet zusammen, um Lösungen zu liefern.« Er fügt hinzu, dass Hersteller wie Supermicro Dienstleistungen anbieten, die helfen, agile, anpassbare und skalierbare Architekturen maßzuschneidern, um die Rechenleistung zu beschleunigen. Die richtige Zusammenarbeit kann Unternehmen dabei helfen, sowohl eine Über- als auch eine Unterbereitstellung von KI-Umgebungen zu vermeiden und damit Effizienz und Wert der KI-Investitionen steigern.

Nadkarni stimmt dieser Aussage zu: »Es ist eine Partnerschaft«, sagt er. »Die kann man nicht im luftleeren Raum ausfüllen.«

 


https://supermicro.com

 

Illustration: © Mabathegreat/shutterstock.com