RZ: hyperkonvergent und softwaredefiniert

Von Dietmar Müller am 11. Januar 2017
Die Industrie 4.0 ist nicht aufzuhalten, mit markanten Folgen für Rechenzentren. Diese müssen auf den immer höheren Grad an Vernetzung in Fertigungshallen und Büros reagieren – am besten mit hyperkonvergenten Netzen.

Experten sagen uns, dass die in der Industrie 4.0 in unwahrscheinlichem Maße anwachsenden Datenberge am besten mittels neuer Softwarelösungen verarbeitet werden können. Damit ist der Weg frei für Software-defined Data Center, obgleich diese heutzutage erst in rudimentärer Form vorliegen.

Hyperkonvergente Systeme sind die logische Fortsetzung dessen, was wir als konvergente Infrastruktur bezeichnet haben. Konvergente Infrastrukturen zeichnen sich dadurch aus, dass die verschiedenen Bestandteile eines Data Center übersichtlich dargestellt werden. Diese verschiedenen Hardware-Bestandteile werden dabei immer noch individuell verwaltet. Die Folge: Kommen im Zuge der digitalen Transformation und der zunehmenden Vernetzung neue, dynamische Workloads ins Spiel, droht ein Systeminfarkt. Insofern macht es wenig Sinn, alte Hardwarebestandteile durch immer neue zu ersetzen - Unternehmen bauen so nur neue Insellösungen und Silos.

Rechenzentren müssen sich an die neuen dynamischen Workloads anpassen

Die Lösung liegt im Upgrade von Rechenzentren auf ein neues, zeitgemäßes Niveau. Die Administration muss hardwareunabhängig und softwarebasiert möglich sein, um bei geringem Administrationsaufwand ein hohes Maß an Flexibilität und Performance zu ermöglichen. Die Herausforderung besteht dabei in der weitestmöglichen Abstraktion von Hardware und Software - ohne weite Wege zu implizieren: "In hyperkonvergenten Infrastrukturen stellt jeder Knoten einen autonomen, aber redundanten Bestandteil eines eng vermaschten Netzes an Ressourcen dar, bei dem Speicher und Rechenkern zwar virtualisiert aber eng gekoppelt sind. Der Flash-basierte Speicher kann daher direkt angesprochen werden, ohne dass langsame Netzwerkverbindungen Flaschenhälse verursachen", erläutert Maximilian Hille von Crisp Research.

Software in hyperkonvergenten Systemumgebungen machen aber nicht nur die Verwaltung der verschiedenen Komponenten einfacher, sie erlaubt auch den Umgang mit viel größeren Datenmengen als vorher möglich - der Kombination von Distributed File Systems und ähnlichen Technologien zur Kompression, Reduplikation und Verwaltung der Daten sei Dank.

Geringerer Implementierungsaufwand durch "Plug and Play"

Hyperkonvergente Systeme liegen in erster Linie als fertige Appliances vor, die sich problemlos in bestehende Racks einsetzen lassen. So mancher Hersteller spricht in diesem Falle von einem "Data Center in a Box", weil Server, Netzwerk, Speicher sowie Backup und Desaster Recovery in einer einzigen Einheit zusammengefasst werden. Der Analyst Hille berichtet davon, dass Administratoren solche Komponenten nach dem "Plug and Play"-Prinzip nutzen können. Klar ist auch, dass solche vorgefertigten, hyperkonvergenten Systeme keine großen Anforderungen in Bezug auf Implementierung und Konfiguration stellen, insbesondere im direkten Vergleich mit herkömmlichen Architekturen.

Ein Beispiel für eine solche Appliance ist das System HPE Hyper Converged 380 mit Intel Xeon E5-Prozessoren mit 6 bis 18 Kernen und 65 bis 145 Watt. Es kombiniert HPE ProLiant DL380 Server, VMware Virtualisierungssoftware und HPE Managementsoftware und ermöglicht den Einsatz einer VM mit nur fünf Klicks. Zudem ist das HPE Hyper Converged 380 die ideale Virtualisierungsplattform, die auf eine Private und Hybrid Cloud erweitert werden kann.

Auch HPE Hyper Converged 250 ist ein vorkonfigurierter, integrierter und virtualisierter Infrastruktur-Baustein, der innerhalb von nur 15 Minuten einsatzbereit ist. Sie wurde für die Verarbeitung einer Vielzahl an Workloads optimiert - von On-Demand-IT-Infrastruktur bis VDI (Virtual Desktop Infrastructure).

Von hyperkonvergenten Infrastrukturen zum Software-defined Data Center

Hyperkonvergenz stellt einen ziemlich neuen Trend dar - erfahrungsgemäß wird sie sich in den Jahren vor uns anpassen und Phasen des Wandels durchlaufen. Vermutlich werden zusätzliche Funktionalitäten und Techniken integriert werden. Im Augenblick ist sie so bedeutsam, weil sie hilft, das Rechenzentrum zu konsolidieren und die Verwaltung der IT-Infrastruktur zu vereinfachen. Somit stellen sie einen ersten, aber entscheidenden Schritt hin zum komplett Software-definierten Data Center (SDDC) dar.

Die auf dem HPE OneView Management basierenden HPE Hyper Converged Systeme ermöglichen den Weg zum Software-definierten Rechenzentrum, in der Terminologie von HPE "Composable Infrastructure" genannt, da es IT-Ressourcen nach Bedarf einsetzt. Das passiert mithilfe zusammenstellbarer Infrastrukturlösungen, die IT Rechen-, Speicher- und Fabric-Ressourcen zu gemeinsam genutzten Pools zusammenfassen und diese bedarfsabhängig zuweisen.

Durch Software-definierte Intelligenz und eine einzige einheitliche API kann die "Composable Infrastructure" Ressourcen nach Bedarf dynamisch bereitstellen. Abhängig von den geschäftlichen Anforderungen kann die IT für bestimmte Anwendungen optimierte Rechen-, Speicher- und Networking-Blöcke zusammenstellen. Dank der "Composable Infrastructure" können Unternehmen gegenüber den Fachabteilungen als Service Provider auftreten. Das beschleunigt die Bereitstellung von IT-Services, verbessert die Anwendungsleistung und steigert die IT-Effizienz.

Die HPE Synergy Systeme kombinieren flexible Ressourcen-Pools, Software-definierte Intelligenz sowie eine einheitliche Programmierschnittstelle. HPE sieht darin eine neue Systemkategorie, die traditionelle IT-Umgebungen für Clouds öffnet.