
Illustration Absmeier foto freepik ki
In vielen industriellen Entwicklungsabteilungen ist es inzwischen Alltag, dass Bauteile oder ganze Systeme erst Monate nach ihrem virtuellen Test zum ersten Mal physisch gebaut werden. Getestet wurde da längst – aber in der Simulation. Der digitale Zwilling hat sich in der Fertigung nicht nur etabliert, er ist Voraussetzung geworden für komplexe, beschleunigte und iterative Entwicklungsprozesse.
Im Zentrum dieser Entwicklung steht das sogenannte Computer-Aided Engineering (CAE) – der rechnergestützte Einsatz physikalischer Simulationen zur Unterstützung der Produktentwicklung. Was als Ergänzung zur Konstruktion begann, ist heute eine treibende Kraft in der Entwicklung technischer Systeme: präzise, automatisierbar und tief in den Gesamtprozess integriert.
Moderne CAE-Umgebungen bilden dabei keine Einzelphänomene mehr ab, sondern modellieren komplexe Wechselwirkungen. Ob Thermik, Struktur, Strömung oder Elektromagnetik – die relevanten physikalischen Effekte greifen ineinander.
Ein typisches Beispiel: Beim Wärmemanagement eines Batteriemoduls im Elektrofahrzeug werden gleichzeitig Kühlmittelfluss, Materialausdehnung, elektrische Verluste und dynamische Lastzyklen simuliert. Diese Multiphysik-Modelle liefern nicht nur technische Absicherung, sondern verschieben auch die Schnittstelle zwischen Konstruktion und Validierung – hin zu einer virtuellen Frühbewertung.
Die damit verbundene Rechenlast ist enorm. Jedes zusätzliche physikalische Modell, jede Verfeinerung des Gitters, jede zeitliche Auflösung treibt die Komplexität in die Höhe.
Während klassische Simulationen mit wenigen hunderttausend Elementen auskamen, arbeiten viele Unternehmen heute mit Modellen, die mehr als 50 Millionen Freiheitsgrade abbilden – bei zeitlich aufgelösten Prozessen, multiplen Parametervarianten und iterativen Optimierungsschleifen.
In der Crash-Simulation etwa werden längst nicht mehr nur Verformungen einzelner Blechteile analysiert. Simuliert wird das Zusammenspiel von Karosseriestruktur, Airbags, Gurtstraffern, Sitzen und Insassendummies – mit Reaktionen auf Millisekundenbasis, inklusive Rotationen, Materialversagen und Rückwirkungen auf benachbarte Komponenten.
Ohne spezialisierte High-Performance-Computing-Infrastrukturen (HPC) sind solche Aufgaben nicht mehr beherrschbar. HPC-Systeme ermöglichen es, Millionen Gleichungen gleichzeitig zu lösen, komplexe Simulationsjobs intelligent zu verteilen und mehrere Varianten in kürzester Zeit durchzurechnen – eine Grundvoraussetzung für jede Form von agiler, digital gestützter Produktentwicklung.
Engineering-Simulation steht damit exemplarisch für die Verschmelzung von Entwicklung, Rechenleistung und Datenmanagement.
Technische Anforderungen und die Rolle von High Performance Computing
Mit der wachsenden Bedeutung virtueller Tests steigen auch die Anforderungen an die technische Infrastruktur – nicht linear, sondern exponentiell. Moderne Engineering-Simulationen beanspruchen Rechenleistung, Speicher und Bandbreite in einem Ausmaß, das klassische IT-Umgebungen schnell überfordert. Was früher auf Workstations erledigt werden konnte, etwa einzelne statische Belastungstests, ist heute zur Ausnahme geworden. Stattdessen dominieren hochauflösende Multiphysik-Modelle, die komplexe Wechselwirkungen über Zeit und Raum hinweg berechnen: Strukturverformungen unter realistischen Lastkollektiven, gekoppelte thermische und mechanische Effekte oder elektromagnetische Felder in dynamischen Systemen.
Diese Simulationen erzeugen gewaltige Datenmengen – oft im Terabyte-Bereich, selbst bei einer einzigen Recheniteration. Kommen Variantenanalysen hinzu, etwa bei der Optimierung von Fahrzeugplattformen oder Maschinenkomponenten, vervielfacht sich das Datenvolumen binnen kürzester Zeit. Die IT-Infrastruktur muss diese Belastungen nicht nur aufnehmen, sondern sie auch ohne Verzögerungen verarbeiten können.
Parallel steigt der Druck auf die Entwicklungszeiten. Nicht nur der Wettbewerb fordert kürzere Innovationszyklen – auch die zunehmende Anwendung inkrementeller Methoden in der Produktentwicklung verlangt schnelle Rückkopplung. Entwürfe werden iterativ optimiert, Modelle laufend angepasst. Simulationen müssen deshalb innerhalb von Tagen oder sogar Stunden durchlaufen werden – eine Herausforderung, die sich nur mit massiv paralleler Rechenleistung bewältigen lässt.
High Performance Computing (HPC) wird damit zur unverzichtbaren Technologie.
Durch die Aufteilung der Rechenlast auf tausende Prozessorkerne lassen sich komplexe Aufgaben deutlich beschleunigen. Moderne CAE-Workloads profitieren dabei nicht nur von CPU-Leistung, sondern auch von spezialisierter Infrastruktur: etwa GPUs zur Beschleunigung numerischer Verfahren, hochperformante Netzwerke zur Minimierung von Latenzen oder parallele Dateisysteme zur schnellen Datenbereitstellung.
Doch hohe Leistung allein reicht nicht aus. HPC-Umgebungen müssen flexibel skalieren – sowohl für große Einzelprojekte als auch für viele parallele Simulationsjobs. Sie müssen mit den Lizenzmodellen spezialisierter CAE-Software kompatibel sein und dürfen keine Engpässe bei Speicher oder Kommunikation erzeugen.
Standortnahe und hybride Infrastrukturkonzepte
Für den Erfolg virtueller Produktentwicklung ist heute nicht nur die Qualität der Simulationsmodelle entscheidend, sondern auch die Architektur der zugrunde liegenden Infrastruktur. Gerade Engineering-Simulationen stellen sehr spezifische Anforderungen – etwa an Latenz, Datenvolumen, Sicherheit und Lizenzmanagement –, denen viele Public-Cloud-Lösungen in der Praxis nicht gerecht werden.
Zwar bieten Public Clouds auf dem Papier nahezu unbegrenzte Skalierbarkeit und flexible Abrechnungsmodelle. Doch große CAE-Workloads stoßen hier schnell an strukturelle Grenzen: Die Übertragung hochaufgelöster Simulationsdaten über öffentliche Netzwerke verursacht Verzögerungen, steigert die Komplexität der Systemintegration und kann zu Sicherheitsrisiken führen. Hinzu kommt, dass viele Cloud-Plattformen nicht auf hochparallele Rechenjobs oder die Lizenzlogik spezialisierter CAE-Anwendungen optimiert sind.
Insbesondere bei vertraulichen Entwicklungsdaten – etwa bei neuen Fahrzeugarchitekturen oder produktionsnahen Algorithmen – ist die Kontrolle über Standort, Zugriff und Infrastruktur nicht verhandelbar. Deshalb setzen immer mehr Unternehmen auf hybride Modelle, die die Rechenflexibilität der Cloud mit der Kontrolle und Effizienz lokaler Systeme kombinieren.
Im Zentrum stehen dabei standortnahe HPC-Cluster, die direkt auf dem Werksgelände (on-premises) oder in dedizierten Co-Location-Zentren betrieben werden. Sie bieten unmittelbaren Zugriff auf Rechenleistung, minimieren Latenzen und sichern die vollständige Datenhoheit. Gleichzeitig lassen sie sich – etwa bei Lastspitzen – gezielt mit Cloud-Ressourcen ergänzen, ohne dass zentrale Daten das eigene System verlassen müssen.
Gerade in global aufgestellten Unternehmen mit verteilten Entwicklungsstandorten entstehen so hochgradig flexible Simulationsumgebungen. Rechenjobs lassen sich über Regionen hinweg koordinieren, Daten bleiben lokal abrufbar, und regulatorische Vorgaben – etwa zu Datenhoheit oder Zugriffskontrolle – werden zuverlässig eingehalten. Damit wird die Infrastruktur nicht nur technischer Möglichmacher, sondern integraler Bestandteil der Simulationsstrategie – und letztlich ein Wettbewerbsfaktor.
Strategischer Einfluss auf die Fertigung
Engineering-Simulation ist längst mehr als ein Werkzeug zur Absicherung technischer Entwürfe – sie wird zum strategischen Hebel für schnellere, effizientere und robustere Entwicklungsprozesse. Virtuelle Tests ersetzen in vielen Fällen physische Prototypen, verkürzen Entwicklungszeiten und schaffen belastbare Entscheidungsgrundlagen, die technische, wirtschaftliche und nachhaltige Aspekte frühzeitig integrieren.
Unternehmen, die ihre Simulationslandschaft auf leistungsfähige und skalierbare IT-Infrastrukturen stützen, erhöhen nicht nur ihre Innovationsgeschwindigkeit, sondern auch ihre Reaktionsfähigkeit: auf neue regulatorische Vorgaben, veränderte Kundenanforderungen oder Störungen in der Lieferkette. Die Voraussetzung dafür ist klar: Nur wer Rechenleistung, Datenzugriff und Softwareintegration als strategische Infrastruktur begreift, kann virtuelle Entwicklung konsequent nutzen – und daraus einen echten Wettbewerbsvorteil ziehen.
Lenovo ist ein Anbieter im Bereich High Performance Computing (HPC) und bietet maßgeschneiderte Lösungen für Unternehmen und Forschungseinrichtungen an. Ein besonderes Augenmerk legt Lenovo auf Energieeffizienz und Nachhaltigkeit. Durch den Einsatz von Wasserkühlungstechnologien wie Lenovo Neptune können Rechenzentren bis zu 40 % Energie im Vergleich zu herkömmlichen luftgekühlten Systemen einsparen. Die HPC-Lösungen von Lenovo finden in vielfältigen Bereichen Andwendung, darunter Bioinformatik, Klimaforschung und Fahrzeugentwicklung. Beispielsweise unterstützt Lenovo die TU Darmstadt beim Ausbau ihres Lichtenberg II Supercomputers, um damit auch den Verbund für Nationales Hochleistungsrechnen (NHR) zu stärken.
167 Artikel zu „HPC“
News | Effizienz | Infrastruktur | Rechenzentrum | Strategien
Neuer Ansatz einer Datenspeicherplattform für KI und HPC im großen Maßstab

Für KI-Workloads optimierte All-Flash-basierte Ultra-Scale-Datenspeicherplattformen liefern ausreichenden Speicherdurchsatz und bieten weitreichende Skalierbarkeit. Mit der zunehmenden Verbreitung von KI-Innovationen erkennen viele Unternehmen schnell den Wert, ihre bestehenden Prozesse durch Modelltraining und Inferenz zu verbessern. Dieser Trend hat die Einführung von KI-Workflows in den Bereichen Vorverarbeitung, Training, Test, Feinabstimmung und Bereitstellung vorangetrieben. Alle diese Teilbereiche der…
News | Produktmeldung | Rechenzentrum
Supermicro X14 Max Performance Server für KI, HPC, Virtualisierung und Edge Workloads jetzt verfügbar

Supermicro, ein Anbieter von IT-Gesamtlösungen für KI/ML, HPC, Cloud, Storage und 5G/Edge, beginnt mit der Auslieferung seiner X14 Max Performance Server basierend auf den neuesten Intel Xeon 6900 Prozessoren. Die neuen Systeme bieten Unterstützung für GPUs der nächsten Generation, 400GbE-Netzwerkschnittstellen, E1.S- und E3.S-Laufwerke, MRDIMMs mit hoher Bandbreite von bis zu 8800 MT/s sowie Direct-to-Chip-Flüssigkeitskühlung. Die Supermicro…
News | Produktmeldung | Rechenzentrum
Supermicro präsentiert auf der SuperComputing 2024 das größte Portfolio an HPC-optimierten Multi-Node-Systemen

Komplett neuer FlexTwin™ und neue SuperBlade®-Generation maximieren Rechendichte mit bis zu 36.864 Kernen pro Rack – mit Direct-to-Chip-Flüssigkeitskühlung und verbesserten Technologien zur Maximierung der HPC-Leistung SAN JOSE, Kalifornien und ATLANTA, 20. November 2024 /PRNewswire/ — SuperComputing Conference — Supermicro, Inc. (NASDAQ: SMCI) , ein Anbieter von IT-Gesamtlösungen für KI/ML, HPC, Cloud, Storage und 5G/Edge, stellt…
News | Infrastruktur | Lösungen | Whitepaper
NFS für HPC? DASE-Architektur für das High Performance Computing und künstliche Intelligenz

Im Windschatten der großen Aufmerksamkeit für künstliche Intelligenz (KI) und dem zunehmend ernsthaften Interesse an Quantencomputing erlebt auch das Thema High Performance Computing (HPC) seinen zweiten Frühling. Einer der limitierenden Faktoren war hierbei die Zugriffsgeschwindigkeit auf Speichermedien. Sven Breuner, Field CTO International bei VAST Data, erläutert, wie die DASE-Architektur hier zum Zuge kommt: »Als ich…
News | Produktmeldung
Supermicro beschleunigt die Bereitstellung von HPC-Clustern für IT-Gesamtlösungen

Effiziente Large-Scale-Cluster aus einem Portfolio von über 30 GPU-Systemen und flüssigkeitsgekühlten Standardlösungen, die CPUs mit bis zu 350 Watt und GPUs mit 500 Watt unterstützen. Super Micro Computer, Anbieter von High-Performance-Computing-, Speicher-, Netzwerklösungen und Green-Computing-Technologie, erweitert seine HPC-Marktreichweite für eine Vielzahl von Branchen durch Innovationen auf System- und Clusterebene. Mit seinen IT-Gesamtlösungen kann Supermicro…
News | Veranstaltungen
Learn about the latest Innovations for AI, Data Sience, HPC, Rendering and more
News | Trends Infrastruktur | Trends Cloud Computing | Cloud Computing | Digitalisierung | Trends 2017 | Infrastruktur | Marketing | Rechenzentrum
K-Computer von Fujitsu auf Platz 1 im HPCG Benchmark-Index

Der K-Computer von Fujitsu hat zum zweiten Mal in Folge den ersten Platz des High Performance Conjugate Gradient (HPCG) Benchmark-Index erreicht. Durch stetiges Verbessern der System- und Anwendungsleistungen hat der Fujitsu K-Computer die Zweitplatzierungen aus den Jahren 2014 und 2015 übertroffen. Für die Benchmark-Auszeichnung wurden alle 82.944 Berechnungsknoten des K-Computer verwendet, um eine Leistung von…
Trends 2025 | News | Trends Wirtschaft | Effizienz | Infrastruktur | Künstliche Intelligenz | Nachhaltigkeit | Rechenzentrum
KI: Energiebedarf von Rechenzentren verdoppelt sich bis 2030

Die Nutzung der künstlichen Intelligenz (KI) verzeichnet derzeit ein rasantes Wachstum. Damit einher gehen ein steigender Energiebedarf, zunehmende Treibhausgas-Emissionen sowie erhöhte Wasser- und Ressourcenverbräuche. Das Öko-Institut hat im Auftrag von Greenpeace Deutschland die Umweltauswirkungen von künstlicher Intelligenz untersucht und eine Trendanalyse bis zum Jahr 2030 erstellt. Der Bericht zeigt auf, wie KI nachhaltiger werden kann…
Trends 2025 | News | Digitalisierung | Favoriten der Redaktion | Künstliche Intelligenz | Strategien | Whitepaper
Nur jeder Vierte überprüft Ergebnisse, die die künstliche Intelligenz generiert

8 von 10 Usern (80 Prozent) sagen, dass künstliche Intelligenz (KI) ihre Bedürfnisse versteht – Deutschland damit Spitzenreiter im internationalen Vergleich. Westlich geprägte Länder schätzen Möglichkeiten der künstlichen Intelligenz deutlich anders ein als User in Asien. Mehrheit fürchtet sich vor negativen Anwendungen von KI, beispielsweise in Form von »Deep Fakes« oder »Fake News«. Acht…
Ausgabe 3-4-2025 | Security Spezial 3-4-2025 | News | IT-Security | Künstliche Intelligenz
KI-Herausforderungen für CISOs und ihre Teams 2025 – Mit KI gegen KI
Ausgabe 3-4-2025 | News | Business | Künstliche Intelligenz
Gravierende Defizite im Bereich Digitalisierung und KI – Manager fühlen sich ohnmächtig
Ausgabe 3-4-2025 | News | Künstliche Intelligenz | Lösungen
Daten und KI für reibungslose Flugabfertigung – Aus Daten abgeleitetes Wissen ist Gold wert
News | Business Process Management | Geschäftsprozesse | Künstliche Intelligenz | Nachhaltigkeit
Wie KI-basierte Software das Nachhaltigkeits-Reporting vereinfacht

In einer Welt, in der Nachhaltigkeit zunehmend an Bedeutung gewinnt, müssen Unternehmen nicht nur ihre finanziellen, sondern auch ihre ökologischen und sozialen Fußabdrücke transparent darstellen. Die Corporate Sustainability Reporting Directive (CSRD) der Europäischen Union fordert Unternehmen dazu auf, umfassende Berichte über ihre Umwelt-, Sozial- und Governance-Leistungen (ESG) zu erstellen [1]. Herausforderungen im Nachhaltigkeits-Reporting Die meisten…
Ausgabe 3-4-2025 | News | Business | Künstliche Intelligenz | Services | Strategien
Ganzheitliches Datenmanagement, um KI-Initiativen erfolgreich voranzutreiben – Vom Datensumpf zum einfach nutzbaren Datenprodukt

An Daten herrscht in den meisten Unternehmen kein Mangel, doch in der Regel sind sie über unzählige Standorte und Systeme verteilt. Zum Training von KI oder für KI-Auswertungen lassen sie sich daher nur schlecht effizient einsetzen. Unternehmen benötigen neue Ansätze, Daten effizient zu verwalten und nutzbar zu machen.
Trends 2025 | News | Künstliche Intelligenz | Whitepaper
AI-Revolution: 78 Prozent fehlt das Vertrauen in autonome Systeme

Governance, Prozessorchestrierung und strategische Planung sind entscheidend für eine erfolgreiche AI-Implementierung – das zeigt die von SS&C Blue Prism durchgeführte Global Enterprise AI Survey 2025. »Die Einführung von AI schreitet rasant voran. Der Erfolg hängt von sorgfältiger strategischer Planung, ethischer Governance und der Bereitschaft der Belegschaft ab«, sagt Rob Stone, Senior Vice President und…
Trends 2025 | News | Cloud Computing | Effizienz | Favoriten der Redaktion | Infrastruktur | Trends 2030 | Nachhaltigkeit | Rechenzentrum
Wie viel Strom brauchen Rechenzentren im Jahr 2030?

Der weltweite Strombedarf von Rechenzentren könnte sich bis 2030 verdoppeln. Das zeigt eine Prognose der Internationalen Energieagentur (IEA). Größter Treiber des steigenden Bedarfs sind so genannte beschleunigte (accelerated) Server. Ihr Strombedarf steigt im Zeitraum von 2025 bis 2030 um 225 Prozent. Diese Hochleistungsserver erbringen durch spezielle Hardware oder Architektur beschleunigte Leistungen und werden oftmals für…
News | Business Process Management | Digitalisierung | Effizienz | Favoriten der Redaktion | Infrastruktur | Künstliche Intelligenz | Strategien
D&A: Drei Schlüsselbereiche für den erfolgreichen KI-Scale-up

Gartner prognostiziert, dass mangelhafte Datenqualität auch 2025 eine der größten Hürden für den Einsatz fortschrittlicher Analytik wie KI bleiben wird. Deshalb sollten sich D&A-Führungskräfte auf drei eng verzahnte Bereiche konzentrieren, um KI-Initiativen in ihren Unternehmen erfolgreich voranzutreiben: Geschäftsergebnisse, D&A-Kompetenzen und kultureller Wandel. »KI verändert die Unternehmensplanung grundlegend, und mehr als die Hälfte der CEOs…
News | Business Process Management | Infrastruktur | Künstliche Intelligenz | Produktmeldung | Rechenzentrum | Services | Strategien
Elemente einer Datenplattform für KI – Herausforderungen, Chancen und Hype

Das Schlagwort »Plattform« ist seit vielen Jahren in der IT nicht mehr wegzudenken. Eine immense Zahl an Herstellern benutzt diesen Begriff um den Blick von einzelnen Produkten wegzulenken und den Aspekt der »Ganzheitlichkeit« zu betonen. Allerdings bleibt hier vieles oft unklar bzw. vage. Was hat es mit einer Datenplattform für KI auf sich? Der…
Trends 2025 | News | Trends Wirtschaft | Künstliche Intelligenz
KI-Investitionen zahlen sich für die Mehrheit der Unternehmen bereits aus

International beziffern bereits zwei Drittel der Unternehmen den Mehrwert generativer KI mit durchschnittlich 1,41 US-Dollar Rendite für jeden investierten Dollar. 88 Prozent der deutschen Unternehmen trainieren ihre LLMs mit eigenen Daten (im Vergleich zu 80 Prozent weltweit). 69 Prozent der deutschen Unternehmen kämpfen mit den Speicher- und Rechenanforderungen für generative KI. Generative KI bringt eine messbare Rendite: 89…
News | Business | Business Process Management | Digitale Transformation | Digitalisierung | Künstliche Intelligenz | Strategien | Tipps
KI ist der Wegbereiter für eine moderne digitale Verwaltung

Wenn es um die digitale Transformation in der öffentlichen Verwaltung geht, rückt künstliche Intelligenz immer stärker in den Fokus. Initiativen und Förderprogramme zeigen, dass die Technologie als Schlüsselfaktor für die Modernisierung massiv an Bedeutung gewinnt – ein Umstand, der jedoch nicht nur Chancen, sondern auch dringenden Handlungsbedarf mit sich bringt. Christof Orth, Director Sales Government,…