RZ: hyperkonvergent und softwaredefiniert

Von Dietmar Müller am 11. Januar 2017
Die Industrie 4.0 bahnt sich immer mehr ihren Weg – das führt zu einem Umbruch in der Rechenzentrumsbranche: Das Internet of Things (IoT) als Fundament der Industrie 4.0 benötigt hyperkonvergente Netze, um Daten aus Fabrikhallen und anderen Gebäuden einzufangen.

Am einfachsten wäre es, diese Infrastrukturen allesamt per Software zu verwalten - was aber noch auf Hindernisse stößt. Nichtsdestoweniger ist damit der Weg für Software-defined Data Center gebahnt, wenngleich heute noch wenig davon zu sehen ist.

Ein hyperkonvergentes System ist die konsequente Weiterführung der Philosophie der konvergenten Infrastruktur. In konvergenten Umgebungen fassen die Betreiber von IT-Infrastrukturen, die einzelnen Komponenten des Rechenzentrums so zusammen, dass sie "auf einen Blick" übersehbar sind. Trotzdem musste die verteilte Hardware weiterhin separat verwaltet und betrieben werden. Solche IT-Landschaften der Unternehmen werden beim Betrieb neuer dynamischer Workloads - entstanden durch die breite Digitalisierung der Geschäftsprozesse und Geschäftsmodelle - schnell in die Knie gezwungen. Der ständige Ausbau der Architektur-Landschaft um neue "alte" Komponenten erscheint vor diesem Hintergrund nicht sinnvoll. Denn dies würde lediglich neue Insellösungen und Silos schaffen.

Rechenzentren müssen sich an die neuen dynamischen Workloads anpassen

Folglich, sagt Maximilian Hillevon Crisp Research analog zu den Analysten von Gartner, sei es auch erforderlich, die Rechenzentren auf ein neues Niveau zu heben. Diese müssten hohe Flexibilität und Performance versprechen und sich gleichzeitig software-basiert und hardware-unabhängig administrieren lassen, um den Aufwand für die IT-Abteilung in einem überschaubaren Maß zu halten. Die Herausforderung liege im hohen Abstraktionsgrad zwischen den Hardware-Komponenten und der intelligenten Software-Schicht zur Administration von Infrastruktur sowie auch der Datenbestände auf der Plattform: "In hyperkonvergenten Infrastrukturen stellt jeder Knoten einen autonomen, aber redundanten Bestandteil eines eng vermaschten Netzes an Ressourcen dar, bei dem Speicher und Rechenkern zwar virtualisiert aber eng gekoppelt sind. Der Flash-basierte Speicher kann daher direkt angesprochen werden, ohne dass langsame Netzwerkverbindungen Flaschenhälse verursachen", so Hille.

Neben dem vereinfachten Handling der Infrastruktur, stelle die Software-Schicht einen weiteren elementaren Mehrwert dar. Denn die Kombination von Distributed File Systems und artverwandten Technologien zur Kompression, Reduplikation und effizienten Verwaltung der Daten ermögliche es, deutlich größere Datenmengen effizient zu verarbeiten.

Geringerer Implementierungsaufwand durch "Plug and Play"

Diese hyperkonvergenten Architekturen werden hauptsächlich als fertige Appliances geliefert und können von Unternehmen oder auch Service Providern in Standard-Racks eingesetzt werden. Ein entsprechendes System kann als eine Art "Data Center in a Box" betrachtet werden, sind doch Server, Netzwerk, Speicher sowie Backup und Desaster Recovery in einer einzigen Hardware verbaut. Damit ergibt sich Hille zufolge für die Anwender eine "Plug and Play"-Erfahrung beim Einsatz der Systeme. Der Implementierungs- und Konfigurationsaufwand der Systeme sei gegenüber dem Aufbau einer komplett eigenen vergleichbaren Architektur daher gering.

Ein Beispiel für eine solche Appliance ist das System HPE Hyper Converged 380 mit Intel Xeon E5-Prozessoren mit 6 bis 18 Kernen und 65 bis 145 Watt. Es kombiniert HPE ProLiant DL380 Server, VMware Virtualisierungssoftware und HPE Managementsoftware und ermöglicht den Einsatz einer VM mit nur fünf Klicks. Zudem ist das HPE Hyper Converged 380 die ideale Virtualisierungsplattform, die auf eine Private und Hybrid Cloud erweitert werden kann.

Auch HPE Hyper Converged 250 ist ein vorkonfigurierter, integrierter und virtualisierter Infrastruktur-Baustein, der innerhalb von nur 15 Minuten einsatzbereit ist. Sie wurde für die Verarbeitung einer Vielzahl an Workloads optimiert - von On-Demand-IT-Infrastruktur bis VDI (Virtual Desktop Infrastructure).

Von hyperkonvergenten Infrastrukturen zum Software-defined Data Center

Hyperkonvergente Infrastrukturen sind ein junges Thema. Wie schon andere Techniken zuvor, wird sich auch die Hyperkonvergenz in den kommenden Jahren entwickeln, und es werden neue Funktionen hinzukommen. Zurzeit geht es vorrangig darum, das Rechenzentrum zu konsolidieren und die Verwaltung der IT-Infrastruktur zu vereinfachen. Hyperkonvergente Infrastrukturen sind dabei die Antwort der Rechenzentren auf Industrie 4.0 - zugleich stellen sie aber lediglich einen ersten Schritt hin zum komplett Software-definierten Data Center (SDDC) dar.

Im Gegensatz zum Software-defined Networking, das noch überwiegend auf Hardware basiert, werden für ein SDDC die Netzwerkressourcen tatsächlich von der zugrundeliegenden Hardware getrennt. Das Prinzip ist von virtuellen Maschinen bekannt: Das virtualisierte Netzwerk ist ein Softwarecontainer, der den verbundenen Workloads logische Netzwerkkomponenten zur Verfügung stellt, wie etwa logische Switches, Router, Firewalls und VPNs sowie einen logischen Lastausgleich.

Ressourcen nach Bedarf dynamisch bereitstellen

Die auf dem HPE OneView Management basierenden HPE Hyper Converged Systeme ermöglichen den Weg zum Software-definierten Rechenzentrum, in der Terminologie von HPE "Composable Infrastructure" genannt, da es IT-Ressourcen nach Bedarf einsetzt. Das passiert mithilfe zusammenstellbarer Infrastrukturlösungen, die IT Rechen-, Speicher- und Fabric-Ressourcen zu gemeinsam genutzten Pools zusammenfassen und diese bedarfsabhängig zuweisen.

Durch Software-definierte Intelligenz und eine einzige einheitliche API kann die "Composable Infrastructure" Ressourcen nach Bedarf dynamisch bereitstellen. Abhängig von den geschäftlichen Anforderungen kann die IT für bestimmte Anwendungen optimierte Rechen-, Speicher- und Networking-Blöcke zusammenstellen. Dank der "Composable Infrastructure" können Unternehmen gegenüber den Fachabteilungen als Service Provider auftreten. Das beschleunigt die Bereitstellung von IT-Services, verbessert die Anwendungsleistung und steigert die IT-Effizienz.

Die HPE Synergy Systeme kombinieren flexible Ressourcen-Pools, Software-definierte Intelligenz sowie eine einheitliche Programmierschnittstelle. HPE sieht darin eine neue Systemkategorie, die traditionelle IT-Umgebungen für Clouds öffnet.