Wie künstliche Intelligenz Rechenzentren beeinflusst

Künstliche Intelligenz hat die Science-Fiction längst verlassen und ist – mehr oder weniger unbemerkt – Teil unseres Alltags geworden. Diese Entwicklung bleibt auch für Rechenzentren nicht ohne Folgen – sie könnten einerseits von KI profitieren, müssen aber andererseits andere Architekturen aufweisen. Die richtige Verkabelung spielt dabei eine entscheidende Rolle.

Schon 1968 hielt künstliche Intelligenz (KI) Einzug in Hollywood, mit HAL 9000, dem mitfühlenden Computer an Bord des Discovery One Raumschiffs in »2001: A Space Odyssee«. Auch autonome Fahrzeuge konnte man im Kino sehen, lange bevor die Tests der KI-gestützten Modelle auf der Straße begonnen haben – unter anderem in »Total Recall« von 1990. KI ist längst ein Bestandteil unseres Alltags geworden: Ohne groß nachzudenken, fragen wir das Smartphone nach dem Wetter, lassen virtuelle Assistenten die Lieblingsmusik spielen und verfolgen Neuigkeiten auf den sozialen Medien, ausgewählt nach unseren Interessen. Auch abseits des privaten Umfeldes wird auf KI gesetzt: für schnelle Übersetzungen, zur Gesichtserkennung, bei der Diagnose von Krankheiten oder im Kampf gegen den Drogenhandel. Und die Bedeutung von KI wird wachsen – Gartner sagt voraus, dass das Geschäft mit KI bis 2022 einen Wert von 3,9 Billionen US-Dollar erreicht haben wird.

Diese Entwicklung setzt riesige Datenströme voraus und produziert sie selbst. Für die Rechenzentren, die Knotenpunkte der digitalen Welt, bleibt das nicht ohne Folgen.

 

KI kann Energiekosten im Rechenzentrum senken

Wie der Mensch können auch Rechenzentren von KI – oder genauer gesagt maschinellem Lernen (ML) – profitieren. Im Jahr 2014 hat Google ein ML-Projekt gestartet, um zu prüfen, ob sich der Stromverbrauch in Rechenzentren optimieren lässt. Das Ergebnis war beeindruckend: Am Teststandort konnte der Energieverbrauch für die Kühlung um 40 Prozent verringert werden. Die sogenannte Power Usage Effectiveness (PUE), die angibt wie effizient Rechenzentren Energie nutzen, nahm in Folge dessen einen Allzeit-Bestwert an. Google setzt dieses Verfahren inzwischen auch an anderen Standorten erfolgreich ein und es dürfte nur eine Frage der Zeit sein, bis andere Technologiekonzerne folgen.

KI hat also definitiv Vorteile für Rechenzentren – aber die Datenströme stellen eine enorme Herausforderung dar. So werden allein für das Training des Chinesisch-Spracherkennungs-Modells von Baidu vier Terabyte Trainingsdaten und gleichzeitig 20 Exaflops Rechenleistung benötigt.

 

Server-Kommunikation muss auch in Ost-West-Richtung stattfinden

Man muss kein Hellseher sein, um zu wissen, dass die Datenmenge mit jedem weiteren KI-gestützten Modell wachsen wird und dies die Anforderungen an die Rechenzentrumsarchitektur verändert. So wäre es zwar durchaus möglich, ML-Modelle auf einem Rechner laufen zu lassen, aber in der Regel wird das immense Datenaufkommen auf mehrere Rechner verteilt. Dabei müssen Latenzen oder Störungen möglichst vermieden werden und die Bandbreite, mit der die verteilten Instanzen kommunizieren, muss ausreichend groß sein. Einfache Spine-and-Leaf-Architekturen, die auf verschiedenen Layern basieren, können da nicht mithalten. Traditionelle 3-Tier-Netzwerke nutzen Core, Aggregat und Edge Switching, um die verschiedenen Server innerhalb eines Rechenzentrums zu verbinden. Dieser Inter-Server-Traffic wird dabei in Nord-Süd-Richtung übertragen. Mit den hohen Anforderungen und Abhängigkeiten, die KI und ML ins Spiel bringen, werden mehr 2-Tier-Spine-Leaf-Architekturen genutzt, auf denen die Server in Ost-West-Richtung miteinander kommunizieren.

 

Verkabelung – Singlemode oder Multiplex?

Glasfaserkabel sind bereits der de facto Standard für die Datenübertragung, da sie herkömmlichen Kupferkabeln hinsichtlich Geschwindigkeit und Dichte weit überlegen sind. Doch welche Technologie kann die neuen Anforderungen durch KI am besten bewältigen?

Seit die IEEE im Jahr 2010 Übertragungsraten von 40G und 100G zugelassen hat, existiert eine Vielzahl konkurrierender Lösungen, die es den Verantwortlichen nicht immer leicht macht. Was früher eine einfache Entscheidung zwischen Short und Long Reach war, umfasst heute viel mehr Optionen: man muss sich entscheiden, ob man entweder zwei Fasern unter Verwendung von standardgenehmigten oder proprietären, nicht interoperablen WDM-Techniken und von Standards anerkannten oder Multi-Source-Vereinbarungen (MSAs) und Techniken für parallel-optische Übertragung mit acht Fasern (vier für die Übertragung, vier für den Empfang) oder 20 Fasern (10 für die Übertragung, 10 für den Empfang) nutzen möchte. Alle Varianten haben ihre Vor- und Nachteile, im KI Umfeld haben Singlemode Fasern mit parallel-optischer Übertragung die Nase vorn.

 

Drei Gründe für Singlemode-Fasern und parallel-optische Übertragung

Zunächst spielen die Faktoren Kosten und Distanz eine Rolle: Parallel-optische Lösungen dominieren den Markt, daher sind sie günstiger und schneller verfügbar als WDM-Lösungen. Sie unterstützen zudem geringere Distanzen, so dass kostenintensive Zusatzanschaffungen, um die Laser zu kühlen, nicht nötig sind. Auch wenn die Fußballfeld-großen Serverfarmen vermuten lassen, dass die Distanzen immer größer werden, zeigen Analysen, dass selbst dort die durchschnittliche Distanz 165 Meter noch nicht überschritten hat. Zudem benötigt die parallel-optische Übertragung über Singlemode-Fasern weniger Strom als eine WDM-Lösung und ist damit günstiger im laufenden Betrieb eines Rechenzentrums.

Der Hauptvorteil der parallel-optischen Übertragung liegt in der Flexibilität: Rechenzentrums-Architekten haben beispielsweise die Möglichkeit, einen 40G-Hochgeschwindigkeits-Switchport in vier 10G-Serverports zu zerlegen. Dieses Verfahren bietet große Skalierbarkeit, da so auch die Anzahl der Gehäuse und Höheneinheiten im Netzwerkschrank deutlich reduziert werden kann. Stromkosten lassen sich auf diese Weise um bis zu 30 Prozent für den Einsatz von Singlemode-Fasern senken und auch der Platzbedarf verringert sich merklich.

Auch die einfache Migration spricht für diese Variante: Die Technologie-Roadmaps der großen Switch- und Transceiver-Hersteller zeigen, dass ihre Kunden einfach auf die nächste Stufe der Datenübertragung migrieren können, wenn diese verfügbar ist, ohne die Glasfaserinfrastruktur auszutauschen. Bei einer 2-faser basierten Infrastruktur hingegen können sie nicht sicher sein, ob eine entsprechende WDM-Optik bereits verfügbar ist, wenn sie auf 100G oder höhere Geschwindigkeiten migrieren möchten. Businesschancen, die an die Leistungsfähigkeit des Rechenzentrums geknüpft sind, ziehen dann vielleicht ungenutzt vorüber.

Zusammengefasst lässt sich festhalten: KI hat das Potenzial, unsere Welt nachhaltig zu verändern – aber ohne entsprechende Rechenzentren werden viele Visionen, die manch einer aus Hollywood kennt, nie umgesetzt werden. Ein engmaschiges Glasfasernetz, verbunden mit ausreichender Bandbreite und die Kommunikation in Ost-West-Richtung stellen eine wichtige Grundlage für das zukunftsfähige Rechenzentrums-Design dar. Singlemode-Fasern und parallel-optische Übertragung bieten in einem KI-Umfeld die besten Möglichkeiten.

Tony Robinson, Corning Incorporated

 

970 search results for „Rechenzentrum“

Datenmanagement: Schutz und Sicherheit im Rechenzentrum

Egal ob infolge von Hardware- oder Softwarefehlern, menschlichem Versagen oder einem Viren- oder Hackerangriff, die Gründe für einen möglichen Datenverlust in Unternehmen sind vielfältig. Doch noch immer realisieren viele nicht die Gefahr eines Datenausfalls oder -verlustes. Der IT-Sicherheitsspezialist Datarecovery aus Leipzig hat Ende 2018 in einer Studie herausgefunden, dass 29 Prozent der Unternehmen ihre Daten…

Equinix weitet seine Interconnection- und Rechenzentrumsdienstleistungen auf Hamburg aus

Mit Kauf des Gebäudes wird die Platform Equinix zur Unterstützung der Digital-Edge-Strategie um vierten Markt in Deutschland erweitert.   Equinix, globaler Anbieter von Interconnection- und Rechenzentrumsdienstleistungen eröffnet in diesem Jahr sein erstes Rechenzentrum in Hamburg. Rund 36 Millionen US Dollar investiert Equinix in den Kauf sowie in den Um- und Ausbau des neuen Rechenzentrums »HH1«…

Vier Ansatzpunkte für den Einsatz von künstlicher Intelligenz im Rechenzentrum

Unter den vielen Möglichkeiten, wie künstliche Intelligenz (AI = Artificial Intelligence) in Rechenzentren genutzt werden kann, gibt es momentan vier Anwendungsbereiche, in denen sich der Einsatz von AI besonders anbietet: das Regulieren von Stromverbrauch und Kühlung, das Infrastrukturmanagement, die IT-Sicherheit (inklusive physischem Zugriff) sowie die IT-Automatisierung. Daher kann jedes Rechenzentrum in unterschiedlichem Maße von AI…

Services sind im Rechenzentrum essenziell – Digitale Infrastruktur erfordert technisch versierte Spezialisten

Die Entwicklungszyklen der IT werden immer kürzer. Viele Rechenzentren können mit dieser dynamischen Entwicklung nicht mithalten. Aktive und passive Komponenten müssen erweitert, respektive erneuert werden. Dabei rückt auch die Verkabelungs-Infrastruktur stärker in den Fokus. Maßgeschneiderte Servicedienstleistungen helfen, klare Strukturen zu schaffen und unterstützen die Kunden.

Generationswechsel im Rechenzentrum – das Potenzial konvergierter Infrastrukturen

Rechenzentren haben sich hinsichtlich Platzbedarf und Komplexität weiterentwickelt, aber nicht notwendigerweise auch im Hinblick auf Skalierbarkeit und Leistungsfähigkeit. Für viele kleine und mittelständische Unternehmen ist die Beschaffung und Verwaltung einer IT-Infrastruktur mitunter eine große Herausforderung. Da viele Anwendungen oft über Jahre unabhängig voneinander eingeführt werden, entstehen isolierte IT-Infrastrukturen, die alle gewartet und verwaltet werden müssen.…

Cloud Computing oder Outsourcing-Leistungen aus dem Rechenzentrum – Welches ist das beste Sourcing-Modell?

Die Cloud eignet sich für Standardleistungen mit wenig Anpassungen. Sind mehr Individualität in Anwendungen und Supporttiefe sowie branchenbezogene Betriebsvorgaben und Zertifizierungsstandards gefordert, ist Outsourcing das geeignete Modell. Es gibt jedoch jede Menge Zwischenlösungen.

Neue Speichertechnologien im Rechenzentrum – für höhere Energieeffizienz bei neuen KI-Anwendungsfällen

Die Speicherinfrastruktur im Rechenzentrum wurde jahrelang mit herkömmlicher Hardware umgestaltet. Neue, datenintensive Anwendungen für künstliche Intelligenz (KI) und maschinelles Lernen (ML) sorgen nun aber für einen stark steigenden Energiebedarf. Hier sind neue Ideen gefragt. Eine Option für deutlich effizientere, auch für High-End-Workloads geeignete Lösungen – ist All-Flash-basierter Objektspeicher. Dazu erklärt Markus Grau, Principal Systems Engineer…

Microsoft zieht endlich nach und baut eigene Rechenzentrumskapazitäten in Deutschland auf – Besser zu spät als nie

Intelligente Microsoft-Cloud-Lösungen sollen bald direkt aus Deutschland aus den Händen bzw. der Verantwortung von Microsoft lieferbar sein. Bislang ging dies nur über den Umweg der Microsoft Deutschland Cloud bzw. die Betriebshoheit von T-Systems. Microsoft investiert nun also doch noch in weitere regionale Rechenzentren, um näher an die Kunden und deren Wünsche heranzurücken. Neben Deutschland sind…

In nur neun Monaten zur neuen IT-Infrastruktur – Rechenzentrums-Container von Rittal

ene‘t ist ein auf die Energiebranche spezialisiertes IT-Systemhaus. Mit einer selbst entwickelten Software und den stets aktuellen Daten zum Strom- und Gasmarkt kalkulieren Erzeuger, Netzbetreiber und Versorger die bestmöglichen Endverbraucherpreise. Das rasante Wachstum von ene‘t machte den Neubau eines Rechenzentrums in Rekordzeit notwendig.

Hocheffizient und sicher – State-of-the-Art-Rechenzentrum im Atombunker

Ein Foto aus dem Jahre 1944 zeigt eine Bombenwüste – die Stadt nur noch Schutt und Asche. Einzige Ausnahme ein Hochbunker, unbeschädigt trotzte er den schwersten Fliegerangriffen. Damals bewahrte der achtstöckige Hochbunker menschliches Leben. Nun bewahrt er die Substanz menschlicher Geschäftstätigkeit, digitale Daten. Einblicke in die Planung zeigen: Es entstand in ihm eines der sichersten Data Center Deutschlands, wenn nicht Europas.

Infografik: Das Rechenzentrum im Wandel

Eine neue Infografik zeigt, dass der Schutz sensibler Daten ein Schlüsselfaktor bei der derzeitigen Transformation der Rechenzentren ist. Zur dieser Transformation gehören Trends wie Software Defined Datacenter und Networking (SDDC, SDN), Hyperconvergence und hybride Cloud. Laut einer Studie von Bitdefender, für die 150 deutsche IT-Entscheider in Unternehmen mit Rechenzentren und mindestens 1000 PCs befragt wurden,…

Backup, Archiv und DevOps: Durch die Cloud Herausforderungen im Rechenzentrum reduzieren

Die Einbindung der öffentlichen Cloud in die IT-Umgebung ist häufig sinnvoll, wobei verschiedene Aspekte zu beachten sind. Eine oft sehr schwierige Aufgabe in Rechenzentren ist die Integration neuer Technologien in altgediente Systeme. Früher oder später sind alle noch so bewährten Techniken überholt oder werden redundant. Sie stehen dann nicht mehr als überschaubare »Box« oder als…