„The Machine“ mit 160 TB RAM

Von Klaus Manhart am 16. Juni 2017
Mit „The Machine“ hat HPE einen Computer speziell für die Verarbeitung großer Datenmengen angekündigt. Jetzt wurde ein zweiter Prototyp mit sagenhaften 160 TB Arbeitsspeicher vorgestellt.

Hewlett Packard Enterprise (HPE) entwickelt mit dem Projekt "The Machine" eine völlig neue Computer-Architektur, bei der nicht mehr der Prozessor, sondern der Arbeitsspeicher im Mittelpunkt steht. Das bei dem Projekt verwendete Memory-Driven Computing ist speziell für Big-Data-Bedürfnisse optimiert. Ineffizienzen in der Interaktion zwischen Arbeitsspeicher, Plattenspeicher und Prozessoren sollen dadurch vermieden werden - die benötigte Zeit für die Lösung komplexer Probleme reduziert sich von Tagen auf Stunden, Stunden auf Minuten und von Minuten auf Sekunden.

Der jetzt im Frühjahr 2017 vorgestellte Prototyp hat 160 Terabyte (TB) Arbeitsspeicher und ist in der Lage, das Fünffache aller Bücher der Library of Congress an Daten gleichzeitig zu bearbeiten - etwa 160 Millionen Bücher. Vorher war es nie möglich gewesen, Datensätze dieser Größe in einem System mit einheitlichem Arbeitsspeicher vorzuhalten und zu bearbeiten.

Gigantischer Arbeitsspeicher

Basierend auf dem aktuellen Prototyp erwartet HPE, dass die Architektur leicht bis zu einem System mit einheitlichem Arbeitsspeicher in Exabyte-Größe skaliert werden kann und darüber hinaus bis zu einem nahezu grenzenlosen Arbeitsspeicher mit 4.096 Yottabyte. Zum Vergleich: Das ist das 250.000-fache des aktuellen Gesamtdatenbestands auf der Welt. Damit können zum Beispiel die Daten aller autonomen Fahrzeuge weltweit oder die Daten der gesamten Weltraumforschung gleichzeitig analysiert werden.

"Der nächste große wissenschaftliche Durchbruch, bahnbrechende Innovationen und Technologien verstecken sich in Sichtweite hinter den Datenbergen, die wir jeden Tag erzeugen", so Meg Whitman, CEO von HPE. "Um dieses Versprechen wahr werden zu lassen, können wir uns nicht auf die Technologien der Vergangenheit verlassen. Wir brauchen einen Computer, der speziell für das Zeitalter von Big Data erschaffen wurde."