Prototyp des The-Machine-Projekts: Weltweit erste Arbeitsspeicher-zentrische Computer-Architektur

foto-hewlett-packard-labs_innovative-technology

foto (c) hewlett-packard-labs_innovative-technology

Memory-Driven Computing ist eine Computer-Architektur, bei der nicht der Prozessor, sondern der Arbeitsspeicher im Zentrum steht. Mit dieser Architektur lässt sich eine bisher nicht erreichte Leistung und Effizienz erzielen.

Der HPE-Prototyp ist ein Meilenstein des Forschungsprogramms mit dem Namen »The Machine«, mit dem das Unternehmen die grundlegende Architektur transformiert, auf der Computer seit 60 Jahren aufbauen.

Laut Gartner wird die Zahl der digital vernetzten Geräte bis 2020 auf 20,8 Milliarden ansteigen und eine noch nie dagewesene Menge an Daten produzieren. Das Datenvolumen wächst dabei deutlich schneller als die Fähigkeit, die Daten mit aktuellen Computer-Architekturen zu verarbeiten, zu speichern, zu verwalten und zu sichern.

»Wir haben einen großen Meilenstein mit unserem Forschungsprojekt ›The Machine‹ erreicht – einem der größten und komplexesten Forschungsprojekte in unserer Firmengeschichte«, sagt Antonio Neri, Executive Vice President und General Manager der Enterprise Group bei HPE. »Mit diesem Prototyp haben wir das Potenzial des Memory-Driven Computings demonstriert und gleichzeitig die Tür für sofortige Innovationen geöffnet. Unsere Kunden und die gesamte Industrie werden von diesen Fortschritten profitieren, indem wir unser Streben nach wegweisenden Technologien fortsetzen.«

Der Prototyp ist seit Oktober in Betrieb und zeigt, wie die Bausteine der neuen Architektur zusammenarbeiten. HPE hat damit Folgendes demonstriert:

  • Rechnerknoten greifen auf einen gemeinsamen Pool von Fabric Attached Memory zu;
  • ein optimiertes Linux-Betriebssystem läuft auf einem maßgeschneiderten System-on-a-Chip (SOC);
  • Photonik/Optische Datenübertragung, einschließlich der neuen X1-Photonics-Module, ist online und funktionsfähig; und
  • neue Entwicklungswerkzeuge, die eine Fülle an nicht-flüchtigem Arbeitsspeicher nutzen können.

Während der Entwicklungsphase des Prototyps wurde mithilfe von Simulationen errechnet, dass die neue Architektur im Vergleich zu heutigen Computern eine bis zu 8.000-mal schnellere Verarbeitungsgeschwindigkeit bei zahlreichen Workloads erzielt. HPE erwartet ähnliche Resultate, wenn die Kapazität des Prototyps um weitere Knoten und weiteren Arbeitsspeicher erweitert wird.

Das Machine-Forschungsprojekt wird zudem den Fokus auf das sogenannte Exascale Computing legen – dabei handelt es sich um Hochleistungsrechner, die künftig eine Trillion Rechenoperationen in der Sekunde ausführen sollen. HPEs Memory-Driven-Computing-Architektur ist hoch skalierbar, von winzigen IoT-Geräten bis Exascale. Damit ist sie eine ideale Grundlage für eine große Bandbreite an rechen- und datenintensiven Workloads, einschließlich Big Data Analytics.

Markteinführung von Memory-Driven Computing

HPE möchte die Technologien, die im Rahmen der The-Machine-Forschung entwickelt wurden, schnell in neuen und in bereits existierenden Produkten auf den Markt bringen. Diese Technologien lassen sich in vier Kategorien einteilen: Nichtflüchtiger Speicher, Netzwerk (Fabric, einschließlich Photonik), Ökosystem-Aktivierung und Sicherheit.

Nichtflüchtiger Speicher

HPE arbeitet weiter daran, Byte-adressierbaren nichtflüchtigen Speicher auf den Markt zu bringen und plant diesen bereits 2018/19 vorzustellen. Mit Technologien aus dem The-Machine-Projekt wurde auch HPE Persistent Memory entwickelt – ein Schritt auf dem Weg zu Byte-adressierbarem, nichtflüchtigem Speicher, der darauf abzielt, die Leistung von DRAM und gleichzeitig die Kapazität und Beständigkeit von traditionellem Speicher zu bieten. Persistent Memory wurde in den Servern ProLiant DL360 und DL380 Gen9 eingeführt.

Fabric (einschließlich Photonik)

Im Rahmen der Photonik-Forschung hat HPE seine Produkte zukunftssicher ausgerüstet, beispielsweise können die Synergy-Systeme, die im kommenden Jahr verfügbar sein werden, in Zukunft mit Photonik/optischen Technologien arbeiten. Bereits 2018/19 plant HPE, Photonik in weitere Produktlinien, einschließlich des Storage-Portfolios, zu integrieren. Das Unternehmen plant weiterhin, Fabric Attached Storage auf den Markt zu bringen, basierend auf dem Hochleistungs-Interconnect-Protokoll, das von dem kürzlich gegründeten Gen-Z-Konsortium entwickelt wird, bei dem HPE Mitglied ist.

Ökosystem-Aktivierung

In Sachen Software für Memory-Driven Systems wurde bereits einiges auf den Weg gebracht. Dieses Jahr hat HPE eine Zusammenarbeit mit Hortonworks/Spark gestartet, um Software für Memory-Driven Computing auf den Markt zu bringen. Seit Juni 2016 hat das Unternehmen außerdem Code-Pakete auf Github zur Verfügung gestellt, um Programmierer mit der neuen Memory-Driven Architecture vertraut zu machen. HPE plant, den Code innerhalb des nächsten Jahres in bereits existierende Systeme zu integrieren und wird die nächste Generation von Analytics-Lösungen und -Anwendungen 2018/19 herausbringen. Als Mitglied des Gen-Z-Konsortiums wird HPE zudem Ökosystem-Technologien und Spezifikationen dieses Konsortiums in den nächsten Jahren in eine Reihe von Produkten integrieren.

Sicherheit

Mit dem Prototyp demonstriert HPE eine neue, sichere Hauptspeicher-Vernetzung entsprechend der Überzeugung, dass Sicherheit in sämtlichen Hardware- und Software-Schichten integriert sein muss. HPE plant, diese Strategie nächstes Jahr mit weiteren Hardware-Sicherheitsfunktionen weiterzuverfolgen, gefolgt von neuen Software-Sicherheitsfunktionen in den nächsten drei Jahren. Ab 2020 plant das Unternehmen, diese Lösungen zusammen mit weiteren Sicherheitstechnologien zu kombinieren, die sich derzeit im Entwicklungsstadium befinden.

Discover Livestream: Verfolgen Sie die Meg Whitman Keynote und andere Vorträge live, jeweils Dienstag und Mittwoch zwischen 15 und 17 Uhr: https://community.hpe.com/t5/Discover-Insider/Watch-Discover-2016-London-LIVE/ba-p/6917934#.WDv2raO1KUl
Über die Seite sind darüber hinaus bereits ab Dienstagvormittag zahlreiche weitere Discover Sessions online abrufbar.

Neue Hochsicherheitsarchitektur: Rechenzentrum wird zum »Stealth Data Center«

SAP S/4HANA: Das Ende der Softwarearchitektur des 20. Jahrhunderts

Architektur der Speicherlandschaft – Spannende Zeiten für Storage

Tiefenanalyse der digitalen DNA: datengetriebene Agilität als Erfolgsfaktor

Studie: Nur wenige Unternehmen haben umfassende IoT-Strategie

Steuerung der emergenten Architektur in großen Scrum-Vorhaben

Open Source als herausragende Architektur und Innovationstreiber

Vernachlässigte IT-Architektur erschwert Digitalisierung der Banken

Die vier wichtigsten Skills für Digitalisierungsprojekte

Weitere Artikel zu

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.