Jetzt 25 % Ticketrabatt für »manage it« Leser


Datenzugriff als Flaschenhals: Warum moderne Datenplattformen zur Grundvoraussetzung für KI werden

Illustration Absmeier foto magnific ki

 

  • Der zentrale Engpass für den erfolgreichen Einsatz von KI liegt nicht in den Modellen, sondern in fragmentierten Datenlandschaften und eingeschränktem Datenzugriff.
  • Klassische Speicher‑ und Datenarchitekturen sind für hochparallele KI‑Workloads nicht ausgelegt und bremsen Trainingsdauer, Skalierbarkeit und Wirtschaftlichkeit.
  • Datensilos und fehlende Transparenz erschweren Governance, Compliance und Auditierbarkeit – insbesondere unter DSGVO und AI Act.
  • Moderne Datenplattformen (Data Lake/Lakehouse) schaffen durch Konsolidierung, hohe Performance und automatisierte Governance die Grundlage für produktive KI.
  • Datenarchitektur ist eine Management‑ und keine IT‑Detailfrage: Sie entscheidet darüber, ob KI zum strategischen Produktivitätsfaktor oder zum Kostenrisiko wird.

 

Künstliche Intelligenz entfaltet ihr Potenzial nur dann, wenn Daten schnell, konsistent und regelkonform bereitgestellt werden können. In der Praxis zeigt sich jedoch, dass genau dieser Punkt zum entscheidenden Engpass wird. Viele Unternehmen verfügen über historisch gewachsene Datenlandschaften, in denen Informationen über unterschiedliche Systeme, Abteilungen und Speicherorte verteilt sind. Diese Fragmentierung führt zu langen Wartezeiten, unvollständigen Trainingsdaten und einer insgesamt geringen Effizienz bei der Entwicklung und dem Betrieb von KI‑Modellen. Gleichzeitig steigen die regulatorischen Anforderungen durch DSGVO, den AI Act und interne Compliance‑Regeln, was die Komplexität zusätzlich erhöht.

 

Moderne KI‑Modelle benötigen enorme Datenmengen und eine kontinuierlich hohe I/O‑Leistung. Deep‑Learning‑Architekturen greifen parallel auf große Datenbestände zu und erwarten geringe Latenzen sowie optimierte Zugriffspfade. Klassische Speicherlösungen wie NAS‑ oder SAN‑Systeme sind für solche Workloads nicht ausgelegt. Sie wurden für Office‑Dateien und sequenzielle Zugriffe entwickelt, nicht für verteilte, hochparallele Datenströme, wie sie beim Training und bei der Inferenz von KI‑Modellen auftreten. Die Folge sind Engpässe, die sich direkt auf Trainingsdauer, Modellqualität und Betriebskosten auswirken.

 

Hinzu kommt, dass Datensilos die Konsistenz und Verfügbarkeit von Informationen massiv beeinträchtigen. Daten liegen in ERP‑Systemen, CRM‑Plattformen, Data Warehouses, Fileshares oder Cloud‑Buckets – oft in unterschiedlichen Formaten und mit voneinander abweichenden Berechtigungsstrukturen. Für KI‑Teams bedeutet das: Sie verbringen mehr Zeit mit der Suche, Bereinigung und Integration von Daten als mit der eigentlichen Modellentwicklung. Gleichzeitig erschwert diese Fragmentierung die Einhaltung regulatorischer Vorgaben, da Transparenz über Datenflüsse und Zugriffspfade fehlt.

 

Moderne Datenplattformen setzen genau hier an. Sie konsolidieren Daten aus verschiedenen Quellen, vereinheitlichen Metadaten, automatisieren Governance‑Prozesse und stellen gleichzeitig hohe Datendurchsätze bereit. Data‑Lake‑ oder Lakehouse‑Architekturen ermöglichen es, strukturierte und unstrukturierte Daten gemeinsam zu verwalten und für KI‑Workloads bereitzustellen. Verteilte Dateisysteme und NVMe‑basierte Speicherlösungen sorgen dafür, dass GPU‑Cluster mit der erforderlichen Geschwindigkeit versorgt werden. Gleichzeitig schaffen Data Catalogs und automatisierte Klassifizierungsmechanismen die Grundlage für Compliance und Auditierbarkeit.

 

Für Unternehmen bedeutet das, dass sie ihre Datenarchitektur strategisch weiterentwickeln müssen. Kurzfristig empfiehlt sich eine umfassende Dateninventur, um Transparenz über Datenquellen, Formate und Zugriffsrechte zu gewinnen. Mittelfristig sollten zentrale Datenplattformen aufgebaut, ETL‑Prozesse automatisiert und Storage‑Systeme modernisiert werden. Langfristig führt kein Weg an einer unternehmensweiten Datenarchitektur vorbei, die klare Verantwortlichkeiten, standardisierte Schnittstellen und eine durchgängige Governance etabliert. Nur so lassen sich KI‑Workloads zuverlässig, sicher und skalierbar betreiben.

 

Der Engpass liegt also nicht in den Modellen, sondern in der Datenbasis. Unternehmen, die weiterhin auf fragmentierte Datenlandschaften und veraltete Speichertechnologien setzen, werden KI nur punktuell und ineffizient nutzen können. Moderne Datenplattformen sind daher keine optionale Ergänzung, sondern die Voraussetzung für schnelle Trainingszyklen, regulatorische Sicherheit, Skalierbarkeit und nachhaltige Datenqualität. Datenarchitektur wird damit zum strategischen Fundament jeder KI‑Roadmap – und entscheidet darüber, ob KI im Unternehmen zum Produktivitätsmotor oder zum Kostenfaktor wird.

Albert Absmeier & KI

 

 

Moderne Datenplattformen werden zur Grundvoraussetzung für KI 

Künstliche Intelligenz hat sich in Unternehmen vom Experimentierfeld zur produktiven Schlüsseltechnologie entwickelt. Doch während Modelle, Frameworks und Rechenleistung rasant voranschreiten, bleibt ein Faktor oft unterschätzt – und wird zunehmend zum limitierenden Engpass: der Datenzugriff. KI Modelle benötigen nicht nur große Datenmengen, sondern auch kontinuierlich hohen Durchsatz, geringe Latenzen und eine konsistente Datenqualität. Gleichzeitig steigen die regulatorischen Anforderungen durch DSGVO, AI Act und interne Governance Regeln. Viele Unternehmen stehen damit vor einem strukturellen Problem: Ihre Datenarchitektur ist nicht für KI gebaut.

Dieser Artikel zeigt, warum Datenzugriff zum Flaschenhals wird, welche technischen Ursachen dahinterstehen und welche konkreten Maßnahmen Unternehmen ergreifen müssen, um KI Projekte skalierbar, compliant und performant umzusetzen.

 

  1. Warum Datenzugriff zum Flaschenhals wird

1.1. KI benötigt extrem hohe I/O Leistung

Moderne Modelle – insbesondere Deep Learning und generative KI – verarbeiten Millionen bis Milliarden Parameter. Das Training erfordert:

  • parallelen Zugriff auf große Datenmengen
  • sequentielle und zufällige Lesezugriffe
  • hohen Durchsatz (GB/s bis TB/s)
  • geringe Latenzen

Klassische Storage Systeme (NAS, SAN, File Server) sind dafür nicht ausgelegt.

1.2. Datensilos verhindern konsistente Datenbereitstellung

In vielen Unternehmen liegen Daten verteilt über:

  • ERP Systeme
  • CRM Plattformen
  • Data Warehouses
  • Fileshares
  • Cloud Buckets
  • Schatten IT

Diese Fragmentierung führt zu:

  • inkonsistenten Datenständen
  • redundanten Kopien
  • fehlender Transparenz
  • komplexen ETL Prozessen

Für KI bedeutet das: lange Wartezeiten, unvollständige Trainingsdaten und hohe Fehleranfälligkeit.

1.3. Regulatorische Anforderungen erhöhen die Komplexität

DSGVO, AI Act und branchenspezifische Vorgaben verlangen:

  • Datenklassifizierung
  • Zugriffskontrollen
  • Löschkonzepte
  • Auditierbarkeit
  • Datenminimierung

Ohne zentrale Datenplattformen wird Compliance zum manuellen Kraftakt.

 

  1. Warum ältere Speichersysteme nicht ausreichen

2.1. Limitierter Datendurchsatz

Legacy Storage ist für Office Workloads optimiert – nicht für KI Pipelines. Typische Probleme:

  • Engpässe bei parallelen Zugriffen
  • fehlende horizontale Skalierung
  • I/O Bottlenecks bei großen Dateien
  • hohe Latenzen bei Random Reads

2.2. Fehlende Optimierung für KI Workloads

KI benötigt:

  • verteilte Dateisysteme
  • parallele Datenströme
  • GPU-optimierte Datenpfade
  • Caching Mechanismen
  • Streaming-fähige Datenpipelines

Ältere Systeme bieten das nicht.

2.3. Hoher Administrationsaufwand

Manuelle Datenbereitstellung führt zu:

  • Fehlern
  • Verzögerungen
  • Sicherheitsrisiken
  • Intransparenz

KI-Teams verbringen oft mehr Zeit mit Datenorganisation als mit Modelltraining.

 

  1. Moderne Datenplattformen als Lösung

Moderne Datenplattformen kombinieren:

  • Data Lake / Lakehouse-Architekturen
  • verteilte Dateisysteme (z. B. Lustre, GPFS, Alluxio)
  • Cloud-native Storage-Layer
  • automatisierte Governance-Mechanismen
  • hohe I/O-Leistung für GPU-Cluster

Sie konsolidieren Daten aus verschiedenen Quellen und stellen sie KI-Modellen in der erforderlichen Geschwindigkeit bereit.

 

  1. Konkrete Tipps für Unternehmen

4.1. Kurzfristige Maßnahmen (0–3 Monate)

  1. Dateninventur durchführen
  • Welche Daten liegen wo?
  • Welche Formate?
  • Welche Zugriffsrechte?
  1. Datensilos identifizieren und priorisieren
  • Wo entstehen Engpässe?
  • Welche Systeme sind kritisch für KI?
  1. I/O Benchmarking durchführen
  • Durchsatz messen
  • Latenzen analysieren
  • Engpässe sichtbar machen
  1. Governance-Quick-Wins umsetzen
  • Rollen & Rechte vereinheitlichen
  • Datenklassifizierung starten
  • Schatten-IT reduzieren

4.2. Mittelfristige Maßnahmen (3–12 Monate)

  1. Aufbau einer zentralen Datenplattform
  • Data Lake oder Lakehouse
  • einheitliche Metadatenverwaltung
  • automatisierte Datenpipelines
  1. Einführung eines Data Catalogs
  • Transparenz über Datenquellen
  • Suchbarkeit
  • Compliance Dokumentation
  1. Storage-Modernisierung
  • NVMe-basierte Systeme
  • verteilte Dateisysteme
  • GPU-optimierte Datenpfade
  1. Automatisierung der Datenbereitstellung
  • ETL/ELT-Pipelines
  • Streaming Daten
  • Self Service Zugriff für KI Teams

4.3. Langfristige Maßnahmen (12–36 Monate)

  1. Aufbau einer unternehmensweiten Datenarchitektur
  • klare Datenmodelle
  • standardisierte Schnittstellen
  • Data Mesh oder Data Fabric
  1. Integration von KI optimierten Speichertechnologien
  • Tiered Storage
  • Object Storage mit hohem Durchsatz
  • Edge to Cloud Pipelines
  1. Vollständige Compliance Automatisierung
  • DSGVO-konforme Datenflüsse
  • Audit Trails
  • automatisierte Löschkonzepte
  1. Datenkultur etablieren
  • Data Literacy
  • Verantwortlichkeiten
  • Governance Gremien

 

  1. Fazit: Datenarchitektur entscheidet über KI Erfolg

Der Engpass liegt nicht in den Modellen – sondern in der Datenbasis. Unternehmen, die weiterhin auf fragmentierte Datenlandschaften und Legacy-Storage setzen, werden KI nur punktuell und ineffizient nutzen können.

  • Moderne Datenplattformen sind kein »Nice to have«, sondern die Voraussetzung für:
  • schnelle KI-Trainingszyklen
  • regulatorische Sicherheit
  • Skalierbarkeit
  • Kosteneffizienz
  • nachhaltige Datenqualität

Wer KI ernsthaft einsetzen will, muss seine Datenarchitektur modernisieren – strukturiert, strategisch und mit klaren Prioritäten.

Albert Absmeier & KI

 

7680 Artikel zu „KI Infrastruktur“

Cloud-Rückführung: Optimierung der Infrastruktur für KI im großen Maßstab

  Cloud‑Rückführung ist kein Rückzug aus der Public Cloud, sondern eine strategische Neuausrichtung hin zu optimierten Hybrid‑ und On‑Prem‑Architekturen, um KI im großen Maßstab effizient zu betreiben. Bei der Skalierung von KI erweisen sich Daten‑ und Speicherinfrastrukturen zunehmend als kritische Engpässe – oft ebenso relevant wie die Verfügbarkeit von GPUs. Insbesondere Objektspeicher spielt dabei eine…

Enterprise-KI auf souveräner Cloud-Infrastruktur: Modelloffene Ansätze für regulierte Umgebungen

Der Einsatz generativer künstlicher Intelligenz (KI) in Unternehmen gewinnt zunehmend an Bedeutung. Gleichzeitig stehen Organisationen – insbesondere in Europa – vor der Herausforderung, Anforderungen an Datenschutz, regulatorische Konformität und technologische Unabhängigkeit mit dem Wunsch nach innovativen KI-Anwendungen zu vereinbaren. Vor diesem Hintergrund rücken modelloffene Plattformen und souveräne Cloud-Infrastrukturen verstärkt in den Fokus.   Ein aktuelles…

Vorbereitung auf offensive KI: Neue Anforderungen an die Sicherheitsbewertung von IT‑Infrastrukturen

Die rasante Entwicklung offensiver künstlicher Intelligenz verändert die Bedrohungslandschaft für Unternehmen grundlegend. Autonome Systeme sind inzwischen in der Lage, digitale Umgebungen selbstständig zu analysieren, Schwachstellen zu identifizieren und Exploits nahezu ohne menschliches Zutun zu entwickeln. Dadurch verkürzen sich Entwicklungs- und Angriffszyklen erheblich – von ehemals Monaten auf teilweise nur noch wenige Tage. Klassische Sicherheitsansätze geraten…

Vertiv industrialisiert KI-Bereitstellung mit digital orchestrierter Infrastruktur 

Die werkseitig integrierte, digital validierte Infrastruktur Vertiv OneCore reduziert die Komplexität der Bereitstellung vor Ort und beschleunigt die Termintreue trotz immer strengerer Bauauflagen. Vertiv industrialisiert die KI-Bereitstellung und kooperiert für bessere Skalierbarkeit mit Hut 8.   Vertiv, ein weltweit agierender Anbieter für kritische digitale Infrastrukturen, gibt eine bedeutende Weiterentwicklung im Bereich der Bereitstellung von Rechenzentren…

Souveräne KI braucht souveräne Infrastruktur

Wie Betreibermodelle die Lücke zwischen Innovation und Kontrolle schließen. Künstliche Intelligenz ist ein entscheidender Wettbewerbsfaktor, aber die Nutzung von Public-Cloud-Modellen birgt für regulierte Branchen und Unternehmen mit sensiblen Daten erhebliche Risiken. Die Lösung liegt in hybriden Ansätzen, die physische Kontrolle mit professionellem Betrieb verbinden und so den Weg für eine sichere, souveräne KI-Nutzung ebnen.  …

Netzwerkinfrastrukturmanagement: Fünf Best Practices, um operative Exzellenz im Netzbetrieb zu erreichen

Das effektive Management ihrer Netzwerkinfrastruktur ist für lokale sowie globale Telekommunikationsanbieter oder Data-Center-Betreiber zu einem kritischen Business-Faktor geworden. Besonders nach vielen Akquisitionen oder vor dem Hintergrund ambitionierter Wachstumspläne sind sie gefordert, ihre Strategien neu zu bewerten, um ihre meist (zu) komplex gewordene Infrastruktur effektiv steuern, skalieren und zukunftssicher aufstellen zu können. Mit den richtigen Ansätzen…

Cloud-Infrastrukturdienste: Keine wolkigen Umsätze

Rund 107 Milliarden US-Dollar Umsatz wurden laut Synergy Research Group im dritten Quartal 2025 mit Cloud-Infrastrukturdiensten erwirtschaftet. Hochgerechnet könnte das Marktvolumen für das Gesamtjahr auf etwa 413 Milliarden US-Dollar steigen – das entspräche einem Plus von 25 Prozent. Zum Vergleich: 2017 waren es noch weniger als 50 Milliarden US-Dollar. Dabei hatte sich das Wachstum bis…

Datenverfügbarkeit und Dateninfrastruktur entscheiden über KI-Erfolg

Große Unternehmen liegen beim Aufbau KI-fähiger Infrastrukturen vorn.   NetApp, Experte für Intelligent Data Infrastructure, hat eine neue weltweite Studie von IDC zur KI-Reife in Unternehmen vorgestellt [1]. Die zweite jährliche Erhebung zeigt eine deutliche Veränderung in der unternehmerischen Herangehensweise an künstliche Intelligenz (KI): Um aktuelle sowie künftige KI-Modelle zu unterstützen, priorisieren die fortschrittlichsten Unternehmen…

Delta und Siemens stärken ihre Zusammenarbeit, um die Energieinfrastruktur von Rechenzentren im KI- und Cloud-Zeitalter zu optimieren

Delta, Anbieter von Energie- und intelligenten, nachhaltigen Lösungen, und Siemens Smart Infrastructure haben eine globale Partnerschaft geschlossen, um vorgefertigte, modulare Energielösungen zu liefern, die die Bereitstellung von Rechenzentrumsinfrastruktur beschleunigen und gleichzeitig die CAPEX deutlich reduzieren. Die Kooperation verschafft Hyperscalern und Colocation-Anbietern einen strategischen Vorteil im wettbewerbsintensiven KI- und Cloud-Computing-Markt – mit höchster Leistungsfähigkeit, Energieeffizienz und…

Mit KI-Observability gegen Alert Fatigue und Blind Spots in hybriden Multi-Cloud-Infrastrukturen

Security Operations Center (SOC) stehen aus mehreren Gründen unter Dauerstress. Die Komplexität heutiger IT-Landschaften – hybride Multi-Cloud-Infrastrukturen – führt zu einem Mangel an konsistenter und vollständiger Visibilität. Herkömmliche Tools wie Network Detection and Response (NDR) oder Cloud Native Application Protection Platforms (CNAPP) lösen dieses Problem jeweils nur teilweise. NDR lassen sich nicht über Cloud-Anbieter hinweg…

KI-Echtzeit-Lagebild stärkt Schutz kritischer Infrastrukturen

Integration heterogener Datenströme in rollenbasiertes Dashboard überwacht sensible IT-Umgebungen kontinuierlich. KI-gestützte Prognosen und Handlungsempfehlungen. Fachlich übertragbar auf andere essenzielle Versorgungssysteme. Telekom-Lösung in Kooperation mit dem Universitätsklinikum Bonn.   Cyberattacken, Systemausfälle oder unentdeckte Schwachstellen – in hochvernetzten Organisationen wie gerade im Gesundheitswesen können solche Störungen dramatische Folgen haben. Entscheidend ist, jederzeit den Überblick zu behalten, in…

Peering: Der unterschätzte Erfolgsfaktor der KI-Infrastruktur

Während KI ins Zentrum der Wertschöpfung rückt, bleibt eine zentrale Herausforderung oft unbeachtet: die Latenz – und damit die Zeit, die bei einer Datenübertragung vergeht. Denn: Rechenleistung und intelligente Algorithmen allein reichen in der KI-Ökonomie nicht aus. Entscheidend ist die Geschwindigkeit, mit der sich Daten übertragen lassen. »KI wird nur dann flächendeckend funktionieren, wenn die…

Wer KI richtig wertschätzen will, muss in die zugrundeliegende Infrastruktur investieren

Ein Kommentar von Jeff Wittich, Chief Product Officer bei Ampere. Anlässlich des AI Appreciation Day schenkt die Tech-Branche weltweit dem Thema künstliche Intelligenz mehr Aufmerksamkeit. Dabei rücken häufig jedoch nur die erstaunlichen Fähigkeiten der Technologie ins Rampenlicht der Feierlichkeiten – von autonomen Systemen und Sprachmodellen bis hin zu Echtzeitentscheidungen. Vielmehr beginnt die Wertschätzung für KI…

Der KI-Goldrausch hat begonnen – MSP plus KI für Infrastruktur-Erfolg und Wachstum

In den 2020er Jahren haben wir im Bereich künstliche Intelligenz einen Wendepunkt erreicht. Was lange Zeit nur theoretisch diskutiert wurde – Chancen wie Risiken – ist nun Realität. Generative KI-Tools revolutionieren Content-Erstellung, Datenanalyse und Softwareentwicklung. Die Marktdynamik spiegelt diese Entwicklung wider: Der KI-Markt soll von 93 Milliarden US-Dollar im Jahr 2020 auf über 826 Milliarden…

Deutschland im KI-Wettlauf: Chancen nutzen, Risiken minimieren, Infrastrukturen bereitstellen

Künstliche Intelligenz (KI) ist die Schlüsseltechnologie für Innovationen, Effizienz und Wettbewerbsfähigkeit. Wie können deutsche Unternehmen die Chancen von KI nutzen, mutig voranschreiten und bestehende Hürden bei der breiten Umsetzung überwinden? Auf dem 14. Frankfurter Symposium für Digitale Infrastruktur am 22.05.2025 in der Union Halle wurden diese Themen gerade diskutiert und konkrete Handlungsempfehlungen erarbeitet. Dabei standen…

Finanzdienstleister kämpfen mit KI-Herausforderungen an Datenmanagement und -infrastruktur

Eine aktuelle Umfrage zeigt, dass 84 % der Führungskräfte katastrophale Datenverluste befürchten, weil KI die Infrastruktur überlastet. 41 % Prozent geben an, dass KI bereits ein kritischer Teil ihrer Arbeit ist.   Die rasanten Fortschritte im Bereich der künstlichen Intelligenz (KI) stellen traditionelle Dateninfrastrukturen vor nie dagewesene Herausforderungen und zwingen Unternehmen im Banken-, Finanzdienstleistungs- und…

Wie man PKI in bestehende Infrastrukturen integriert: 5 Schritte zum Erfolg

Die Einbindung moderner Public Key Infrastructure (PKI) in bestehende Produktionsumgebungen stellt viele Unternehmen vor erhebliche Herausforderungen. Besonders in Brownfield-Umgebungen mit veralteter OT-Hardware und -Software erschweren etablierte Praktiken und Bedenken hinsichtlich der Komplexität die nahtlose Integration innovativer Sicherheitslösungen.   BxC Security, ein Cybersicherheitsunternehmen im Bereich der Operational Technology (OT) und Industrial Internet of Things (IIoT), hat…

IT-Prognosen für 2025 – von KI über Security bis Infrastruktur

Zunehmende Komplexität der IT-Infrastruktur, hohe regulatorische Anforderungen, die permanente Sorge vor Cyberattacken – und das alles bei steigendem Kostendruck: Wie können Unternehmen die wachsenden Herausforderungen 2025 bewältigen? Das sind die wichtigsten Entwicklungen und Notwendigkeiten, die im kommenden Jahr auf deutsche Unternehmen zukommen. NetApps IT-Prognosen für 2025.   Zunehmende Standardisierung Unternehmen werden weiterhin on-premises durch virtualisierte,…

Nutzung von KI im Bereich AEC/Infrastruktur – Intelligenter statt härter arbeiten

KI ermöglicht die Automatisierung von Aufgaben, die Prüfung alternativer Entwürfe, die Verbesserung von Prognosen der Kosten und der Projektdauer, die Verbesserung der Qualität von Leistungen und Projektergebnissen. KI wird die Art und Weise, wie Unternehmen Anlagen entwerfen, bauen und betreiben, verändern. Julien Moutte, Chief Technology Officer bei Bentley Systems erklärt im Interview zudem die entscheidende Rolle der KI bei der Lösung von Herausforderungen in den Bereichen Nachhaltigkeit, Klimaresilienz und -anpassung sowie Kapazitäten und Leistungsfähigkeit der Arbeitskräfte.

Nachhaltigkeit als zentraler Aspekt – Die Zukunft der KI-Infrastruktur wird wahrscheinlich ein Hybridmodell sein

Supermicro bringt Innovationen für die IT-Infrastruktur in den Bereichen Enterprise, Cloud, KI, Metaverse und 5G Telco/Edge oft als Erster auf den Markt. Der Anbieter von IT-Gesamtlösungen im Rack-Scale-Format achtet besonders auf ein umweltfreundliches und energiesparendes Portfolio von Servern, Speichersystemen, Switches und Software. Wir sprachen mit Thomas Jorgensen, Senior Director Technology Enablement bei Supermicro über die Entwicklung und die Marktposition, den KI-Trend und die speziellen Anforderungen an die Infrastruktur, über Nachhaltigkeit, Flüssigkühlungslösungen und die Zukunft von Rechenzentren.

KI-Lösungen: Bewältigung der Herausforderungen bei Infrastrukturprojekten in Europa

Milliardenschwere Megaprojekte sind ein fester Bestandteil der dynamischen Landschaft Europas. Zu den sechzehn größten laufenden Bauprojekten der Welt gehören vier Megaprojekte in Europa, wie 1build, International Construction Magazine und Construction Review festgestellt haben. Der Wert dieser Projekte liegt zwischen 20 und 600 Milliarden USD (ca. 18,8 bis 564 Milliarden EUR).   Die Anzahl und der Umfang der…

Die Zukunft der KI-Infrastruktur wird wahrscheinlich ein Hybridmodell sein

Supermicro bringt Innovationen für die IT-Infrastruktur in den Bereichen Enterprise, Cloud, KI, Metaverse und 5G Telco/Edge oft als Erster auf den Markt. Der Anbieter von IT-Gesamtlösungen im Rack-Scale-Format achtet besonders auf ein umweltfreundliches und energiesparendes Portfolio von Servern, Speichersystemen, Switches und Software. Wir sprachen mit Thomas Jorgensen, Senior Director Technology Enablement bei Supermicro über die…

Die beste Technologie zur Verwaltung der Netzwerkinfrastruktur – Cyberrisiken effizient eindämmen

Unternehmen jeder Größe sehen sich einer wachsenden IT-Bedrohungslandschaft gegenüber. Gleichzeitig steigen die Anforderungen an die Leistungsfähigkeit der Netzwerkinfrastruktur. Bei vielen Unternehmen steht zudem die Migration in die Cloud an. Welche Herausforderungen kommen daher auf Unternehmen zu und wie kann man Effizienz mit Sicherheit verbinden? Darüber haben wir mit Professor Avishai Wool, Mitgründer und CTO von AlgoSec, gesprochen.

Riverty setzt auf skalierbare Exadata-Datenbankinfrastruktur aus der Cloud –
Von On-Premises in die Cloud

Für den effizienten und sicheren Transfer von geschäftskritischen Daten ist der FinTech-Anbieter Riverty auf eine Top-Performance und skalierbare Ressourcen in seiner Data-Warehouse-Infrastruktur angewiesen. Aufgrund stetigen Wachstums und der steigenden Menge an Kundendaten entschloss sich das Unternehmen vom vorhandenen On-Premises-System in die Oracle Cloud Infrastructure zu wechseln. Das Ergebnis: eine Beschleunigung der Laufzeit bei Prozessen um 10 bis 15 Prozent.

Probleme der IT-Infrastruktur: »Das Dreckige Dutzend«

»Das Dreckige Dutzend« ist weit mehr als ein US-Kriegsfilm. Der Begriff ist sehr oft auf verschiedene Weise in verschiedenen Branchen genutzt worden, vom Einzelhandel bis zur Luftfahrtindustrie. Für die IT-Branche hat Eric Herzog, CMO bei Infinidat, eine Liste der »Dreckigen Dutzend« erstellt. Es handelt sich um eine Liste von Problemen der IT-Infrastruktur, die aktuelle Unternehmensimplementierungen…

Der EMEA Netzwerkinfrastruktur Katalog 2021 ist jetzt verfügbar!

Wir freuen uns, Ihnen den neuen EMEA Netzwerkinfrastruktur Katalog 2021 präsentieren zu können, der die bisherigen Netzwerkinfrastruktur Kataloge ersetzt. Er bietet Ihnen einen vollständigen Überblick über unsere Produktfamilien für Rechenzentren, Unternehmens- und Industrienetzwerke, damit Sie Ihre Kunden schnell und einfach mit unseren neuesten Produkten bedienen können. Sie finden Bestseller-Flaggen an den entsprechenden Produkten, um die…

Stiefkind Sekundärspeicher: Return of Investment einer Scale-out-Infrastruktur

Als Sie Ihr letztes Auto gekauft haben, haben Sie da nur auf den Listenpreis abzüglich Schnäppchen-Prämie geachtet, oder haben Sie die Gesamtbetriebskosten betrachtet? Ich habe in der Vergangenheit beim Händler höchstens nach dem Benzinverbrauch gefragt, nicht aber danach, was mich Ölwechsel, neue Reifen und Wischblätter in den ersten fünf Jahren kosten würden.   Wenn Unternehmen…

Wer KI-Agenten einstellt, muss sie auch führen

Bei der Einführung von KI-Agenten sollte man nicht wie bei einem Chatbot-Projekt denken, sondern eher wie beim Onboarding eines neuen, hochprivilegierten Mitarbeiters. Sonst können aus digitalen Helfern unkontrollierbare Akteure werden.   Digitale Mitarbeiter mit großen Chancen – und großen Rechten Unternehmen holen sich gerade digitale Mitarbeiter ins Haus – und das ist eine enorme Chance.…

Wirtschaftsexperten sehen Regulierung in Deutschland als Wachstumsbremse für KI

Wirtschaftsexpertinnen und -experten aus Deutschland sind besonders skeptisch, wie stark künstliche Intelligenz zum Wirtschaftswachstum beitragen wird. Das zeigt ein Vergleich der weltweiten Expertenschätzungen im Rahmen des Economic Expert Survey (EES) von EconPol und ifo Institut [1]. Die Befragten in Deutschland nehmen an, dass der KI-Wachstumseffekt in fünf Jahren nur insgesamt 1,5 Prozentpunkte betragen wird, also…

Aufstrebende Technologien für 2026: KI beschränkt sich nicht mehr auf digitale Arbeitsabläufe

Der Wechsel von KI in die physische Welt hat bereits spürbare Auswirkungen auf die Verbraucher.   Forrester hat den Bericht »The Top 10 Emerging Technologies In 2026« veröffentlicht , der einen entscheidenden Wandel in der KI von digitalen Experimenten hin zur realen Transformation hervorhebt [1]. KI bewegt sich über Software hinaus in physische Umgebungen –…

Wenn Simulation zur Plattformfrage wird: Wie AI Solver den Betrieb von HPC-Infrastrukturen verändern

Simulation wird zur Plattformfrage: Durch die gleichzeitige Nutzung klassischer HPC‑Simulationen und AI Solver entstehen neue Anforderungen an Architektur, Betrieb und Ressourcensteuerung im Rechenzentrum. Ressourcenkonflikte im Tagesbetrieb: Parallel laufende Simulations‑, Trainings‑ und Inferenzjobs konkurrieren um GPUs, Storage und I/O‑Leistung – Engpässe entstehen weniger durch Kapazität als durch fehlende Trennung und Koordination. Daten und Scheduling als kritische…

KI‑Cyberangriffe nehmen zu, Governance und Know-how hinken hinterher

Begrenzte Transparenz bei KI‑Cyberangriffen: 35 % der europäischen Unternehmen können nicht beurteilen, ob sie bereits von KI‑gestützten Cyberangriffen betroffen waren – ein Zeichen für erhebliche Defizite in Erkennung und Monitoring. Steigende Bedrohung bei sinkender Erkennungsfähigkeit: KI‑gestützte Phishing‑ und Social‑Engineering‑Angriffe sind deutlich schwerer zu erkennen (71 %), das Vertrauen in klassische Sicherheitsmethoden nimmt ab. Größte wahrgenommene Risiken durch…

Data Security Posture Management: Datensicherheit mit KI – Sensible Informationen automatisch finden und schützen

Moderne DSPM-Lösungen verschaffen Unternehmen Transparenz über ihre sensiblen Daten und die Risiken, denen sie ausgesetzt sind. Eine Schlüsselrolle spielt dabei KI: Sie ermöglicht es, große und verteilte Datenbestände weitgehend automatisiert zu klassifizieren.

Komplexreduzierte Fertigung: Wie KI-Agenten den Wandel in der Industrie vorantreiben werden

Die Fertigungsindustrie befindet sich im Wandel, und dieser Wandel wird maßgeblich durch den Einsatz von künstlicher Intelligenz (KI) vorangetrieben. Mit der kontinuierlichen Weiterentwicklung von AI Agents vollzieht sich eine technologische Transformation, die nicht nur die Art und Weise verändert, wie Produkte gefertigt werden, sondern auch, wie Unternehmen in ihrer Gesamtheit operieren. Doch während der technologische…

Responsible by Design – KI-Systeme bestmöglich vor Bedrohungen schützen

Künstliche Intelligenz ist zum Nervensystem moderner Unternehmen geworden – und zugleich zu einer neuen Angriffsfläche für Cyberkriminelle, die Daten, Modelle und Schnittstellen gezielt manipulieren. KI-Sicherheit ist heute strategische Führungsaufgabe und »Verantwortung durch Design« zum entscheidenden Wettbewerbsvorteil für vertrauenswürdige KI.

Das Silicon Valley der 6G-Technologie: Wie Finnland die Ära der kabellosen KI einläutet

6G verbindet Konnektivität mit künstlicher Intelligenz und sensorischen Fähigkeiten. Finnische End-to-End-Kompetenz: Einzigartiges Ökosystem deckt die gesamte Wertschöpfungskette vom Chip bis zur Infrastruktur ab. Chance für deutsche Unternehmen: ideale Testbedingungen und Mitentwicklung zukünftiger Geschäftsmodelle und Standards.   Während vielerorts der Fokus auf dem Ausbau von 5G liegt, stellt Finnland bereits die Weichen für die nächste Generation…