Zum Hauptinhalt Zur Navigation

Cloud Computing: Hyperkonvergenz packt das ganze Rechenzentrum in eine Kiste

Die stetige wachsende Verbreitung von Cloud-Technologie stellt Admins vor immer neue Herausforderungen. Mit Hyperconverged, einer Art Alles-in-einem-Lösung von Hardware und Cloud-Software, soll das einfacher werden. Golem.de erklärt den Ansatz und stellt die Angebote führender Hersteller vor.
/ Manuel Kuck
20 Kommentare News folgen (öffnet im neuen Fenster)
Komplizierte Eigenlösungen im Rechenzentrum sollen durch Hyperkonvergenz überwunden werden. (Bild: Dennis van Zuijlekom/Flickr.com)
Komplizierte Eigenlösungen im Rechenzentrum sollen durch Hyperkonvergenz überwunden werden. Bild: Dennis van Zuijlekom/Flickr.com / CC-BY-SA 2.0

Der Betrieb von Rechenzentren ist in den vergangenen Jahren deutlich komplizierter geworden. Cloud Computing und Container dominieren die eingesetzte Technik. Ebenso übernimmt Software inzwischen meist Arbeit, für die vor Jahren noch dedizierte Hardware genutzt wurde. Es wird immer schwieriger, alle eingesetzten Systeme lauffähig zu halten und dabei nicht die Übersicht zu verlieren. Helfen soll die hyperkonvergente Infrastruktur – eine Alles-in-einem-Lösung für dieses Problem, die seit rund anderthalb Jahren als sehr vielversprechend gehandelt wird.

Hyperkonvergenz setzt den konvergenten Infrastruktur-Gedanken fort, ist also eine virtuelle Rechnerarchitektur, die sich nahtlos in Computing-, Storage-, Netzwerk- und Virtualisierungsressourcen integriert. Bei dem "Data Center in a Box" sind Server, Netzwerk, Speicher sowie Backup und das Desaster-Recovery zusammen verbaut und vor allem stark aufeinander abgestimmt. HCI-Systeme stellen darüber hinaus die notwendige Software noch stärker in den Mittelpunkt, so dass alle Komponenten wie ein einziges System verwaltet werden.

Doch solche Systeme stoßen auch an ihre Grenzen und sind nicht für jedes Unternehmen das Richtige. Anbieter sind neben bekannten Unternehmen für klassische Rechenzentrumstechnik wie HPE oder Cisco auch neue spezialisierte Firmen wie Simplivity oder Nutanix. Ihre Lösungen basieren auf ähnlicher Hardware, ihnen liegen aber ganz unterschiedliche Strategien zugrunde.

Einfacher für Admins

Allen gleich ist, dass durch den HCI-Ansatz sowohl die Kompatibilität als auch die Verwaltung vereinfacht werden, eben weil die einzelnen Bausteine aufeinander abgestimmt sind. Virtuelle Maschinen und Anwendungen lassen sich so besser zu gleichartigen Landschaften zusammenfassen. Dadurch werden unerwünschte Nebenerscheinungen der Virtualisierung wie der I/O-Blender-Effekt bei mehreren physikalischen Hosts auf einem Speichermedium vermindert. Auch sollen durch die konsolidierte Steuerung alle Komponenten zentral verwaltet, überwacht und administriert werden können. Da die gesamte Hardware von einem Hersteller kommt, erleichtert das im Problemfall theoretisch auch die Fehlersuche.

Einige Hersteller fügen dem noch spezielle Optimierungsmöglichkeiten wie die Maximierung der Effizienz von Datenströmen in Wide Area Networks (WAN) hinzu. Hierzu gehören Konzepte wie die Deduplizierung von Daten für geringere Zugriffszeiten. Redundante Datensätze sollen so vermieden werden, die bei einem Backup über mehrere Knoten hinweg weitere Kopien anfertigen und dadurch unnötig Kapazitäten blockieren.

Ähnliche Hardware, unterschiedliche Strategien

Der Kerngedanke bei HCI ist, wie erwähnt, die einfache Einsetzbarkeit und Kompatibilität. Daher wird in der Regel keine spezialisierte Hardware wie ASIC- oder FPGA-Chips benötigt, sondern die x86-Architektur als Standard verwendet. Nahezu alle Anbieter im Hyperkonvergenz-Bereich nutzen aktuelle Intel-Xeon-E5-Prozessoren, je nach Mainboard-Konfiguration auch als Dual-CPU. Die tatsächliche Anzahl der Prozessorkerne, die Größe des Arbeitsspeichers oder der Speichermedien können je nach Hersteller individuell ausgewählt werden.

Dennoch gibt es große Unterschiede in der Produktpalette, die Rückschlüsse auf die Strategie des Herstellers zulässt. Nutanix' NX-Serie(öffnet im neuen Fenster) verfügt etwa über sechs verschiedene Modelle, die auf verschiedene Einsatzszenarien zugeschnitten sind, von kleineren Systemen als Server für Zweigniederlassungen (ROBO) oder leichte Desktopvirtualisierung bis zur komplett auf Flashspeicher basierenden High-End-Lösung für minimale Latenzen im gesamten Speicherumfeld. Als Partner von Dell liefert Nutanix auch die Softwarearchitektur für die Dell-XC-Server.

Ähnlich geht auch Simplivity mit seinen vier Omnicube-Modellen(öffnet im neuen Fenster) vor, die dem potenziellen Anwender ebenfalls bereits erste Hilfe bei der auf sein Umfeld angepassten Konfiguration bieten sollen. Zusätzlich dazu bietet Simplivity auch spezielle Varianten an, die sich mit den Cisco-UCS-C-Series- und Lenovo-System-x3650-M5-Serverracks kombinieren lassen und damit Hyperkonvergenz für diese Architekturen quasi als "Add-on" bieten sollen.

Cisco ist bisher einen etwas eigenwilligen Sonderweg gegangen. Bis vor kurzem bot das Unternehmen HCI-Lösungen auf Basis der UCS-Server in Kombination mit Erweiterungen von Anbietern wie VMware oder Simplivity an, um weiterhin das maximale Kapital aus seiner Serverplattform zu schlagen. Seit März hat das Unternehmen nun auch zwei vollständig hyperkonvergierte Modelle in der Hyperflex-(öffnet im neuen Fenster) HX-Reihe im Programm, die entweder als Standalone oder zusammen mit vorhandenen UCS-Racks betrieben werden können.

The Benefits of Hyper-converged Infrastructure (Herstellervideo)
The Benefits of Hyper-converged Infrastructure (Herstellervideo) (03:58)

HPE(öffnet im neuen Fenster) greift ebenfalls auf Bewährtes zurück, die beiden Varianten der Hyper-Converged-Lösung unterscheiden sich vor allem durch die zugrundeliegende Basis, entweder HPE-Apollo-Server oder HPE-Proliant-Basis, und sollen als Blockbausteine für den Virtual-Machine-Einsatz oder speziell für die "Cloud in a Box"-Anwendung dienen.

Verwaltungssoftware kommt vom Hersteller

Entsprechend des Mantras der Vereinfachung und Automatisierung bietet jeder Hersteller seine eigenen Verwaltungswerkzeuge an. Ob Nutanix Prism, Simplivity Omniview oder HP Oneview, dem Administrator soll der Betrieb und die Überwachung der Server möglichst simpel und aus einer umfassenden Perspektive gestattet werden – auch im Rechnerverbund.

Hier zeigt sich eine der größten Differenzen zwischen den Anbietern, die entsprechend der von ihnen bevorzugten Verwaltungsstruktur verschieden große Clusterkonfigurationen zulassen. Etwas verwirrend ist dabei, dass es keine einheitliche Nomenklatur gibt und die logischen Einheiten daher entweder als Pool, Datacenter oder Federation bezeichnet werden. Es ist deshalb sinnvoll, sich eher an der maximalen Knotenzahl zu orientieren.

Allerdings gibt es auch dabei gravierende Abweichungen im Konzept. Sowohl Simplivity als auch Cisco sehen jedes Gerät als einzelnen Knoten an, während Nutanix bis zu vier Server pro Knoten definiert, HPE hingegen bis zu vier Knoten pro System oder Server.

Hardwareersatz auf Wunsch innerhalb von wenigen Stunden

Entsprechend ihrer Philosophie als umfassender Dienstleister bieten alle Hersteller umfangreichen Support in mehreren Servicestufen an. Bei HPE und Cisco handelt es sich hierbei mehr oder minder um eine Fortsetzung ihrer bisherigen Supportoptionen für Rechenzentren. Es gilt insofern zu beachten, dass bei einigen Anbietern die unteren Supportstufen allerdings auf die regulären Geschäftszeiten vor Ort beschränkt sind, Simplivity bietet etwa erst ab dem Business-Critical-Plan rund um die Uhr Hilfe bei Problemen.

Auch wer Hardware bei Ausfällen schnellstmöglich ersetzt haben will, kann einen entsprechenden Serviceplan wählen. Die Option, neue Geräte innerhalb von wenigen Stunden auszutauschen (Cisco bietet Ersatz in bis zu zwei Stunden an), ist bei allen Herstellern vorhanden. Natürlich gilt diese Angabe nur, wenn sich der Kunde innerhalb eines bestimmten Umkreises vom nächsten Servicepartner befindet.

Die Kehrseite des Box-Konzeptes

Früher oder später wird jede Infrastruktur erweitert und HCI-Systeme versprechen durch ihre lineare Skalierbarkeit geringere Bereitstellungszeiten, da bei Bedarf einfach ein weiteres Modul hinzugefügt werden kann. Konfiguration und Deployment erfolgen dabei weitestgehend automatisch, was ein wenig an den "Plug-and-Play"-Gedanken erinnert.

Sofern der Einsatz also im Bereich Hochverfügbarkeit und damit Ausfallsicherheit oder in der Virtualisierung von an gängige Speichernetze und Netzwerkinfrastruktur gehängte Server angesiedelt wird, spielen HCI-Lösungen hier ihre Stärken aus. Beim Ausfall von physikalischen Servern mussten bisher die Daten der virtuellen Instanzen auf einen neuen physikalischen Server migriert werden. Nun können sie automatisch auf den neu eingefügten Knoten verschoben werden.

Lineare Skalierbarkeit bedeutet aber auch, dass immer alle Komponenten (also auch CPUs und RAM) hinzugefügt werden. Dies erscheint logisch, da der bei HCI vorgesehene hohe Grad an Virtualisierung über Virtual Storage Appliances (VSAs) entsprechende Ressourcen in Form von Prozessorleistung und Arbeitsspeicher benötigt, um sinnvoll Funktionen wie Deduplikation betreiben zu können.

Eventuell ist diese boxweise Erweiterung aber nicht unbedingt nötig. Bei Unternehmen mit rasch wachsender IT-Infrastruktur geht häufig als Erstes der Speicher zur Neige. Hier stößt das Prinzip der Hardware-in-a-Box-Philosophie also an seine Grenzen, denn in der Regel kann nicht einfach mehr Storage hinzugefügt werden.

Insofern wird die versprochene Vereinfachung der Verwaltung durch eine Einschränkung von Wahlmöglichkeiten erkauft. Der Betreiber muss sich darauf verlassen, dass die ihm angebotenen Optionen des jeweiligen Anbieters für seine Zwecke auch auf Dauer für seine Zwecke funktionieren werden. Von den verglichenen Anbietern versucht einzig Cisco mit seiner Kombination aus UCS-Blade- und Hyperflex-Server, beide Aspekte soweit möglich zu bedienen und bietet einzeln skalierbaren Speicher.

Vendor Lock-in auch bei HCI nicht aus der Welt

Die Abhängigkeit von beziehungsweise Anbindung an bestimmte IT-Anbieter ist seit langem eines der größten Bedenken von Unternehmen. Sobald die Entscheidung für eine bestimmte Lösung gefallen ist, ist die komplette Infrastruktur auf die Architektur dieses Anbieters eingeschossen.

Dieser Lock-in-Effekt ist im HCI-Bereich bei weitem nicht so omnipräsent wie etwa im Mainframe-Sektor. In der Theorie bergen virtualisierte Umgebungen in Kombination mit darauf abgestimmtem Storage sogar das Potenzial, die Interoperabilität von Speicherverwaltungsarchitekturen und damit die einfache Integration von verschiedenen Herstellern zu ermöglichen. Diese Fähigkeit wird aber, wenn überhaupt, nur sehr beschränkt genutzt und viele Hersteller binden den Betreiber nach wie vor an seine Hardware.

Auch softwareseitig gibt es Einschränkungen – besonders bei der Hypervisor-Unterstützung. Der Hypervisor steuert als übergeordnete Instanz den simultanen Betrieb der virtuellen Maschinen/Gastsysteme und verwaltet deren Ressourcenzuteilung nach Bedarf in der virtuellen Umgebung. Im traditionellen Anwenderumfeld kann ein Administrator normalerweise frei entscheiden, welchen Hypervisor er verwenden will.

Bei den HCI-Anbietern hingegen bleibt nur die Wahl dessen, was der Anbieter für das Sinnvollste erachtet. Cisco unterstützt zum Beispiel nur vSphere. Simplivity hat kürzlich zu vSphere auch Support für den Windows-spezifischen Hyper-V angekündigt. HPE bietet sein 380er-Modell rein auf vSphere an, bei der 250er-Serie gibt es getrennte Varianten für vSphere und Hyper-V, die sich auch hardwareseitig deutlich unterscheiden und daher nicht kombinierbar sind. Nutanix unterstützt vSphere, Hyper-V und die Linux-basierte Kernel-based Virtual Machine (KVM), seit 2015 allerdings über den proprietären Acropolis Hypervisor (AHV), gewissermaßen eine neue Stufe von Software-Lock-in.

In Zeiten, da neue Abstraktionsmöglichkeiten wie Containerformate neue Optionen eröffnen und damit die Langzeitbindung an bestimmte Vollsystemvirtualisierungen wie VMware, Hyper-V und KVM ohnehin infrage stellen, erscheinen diese Einschränkungen eher archaisch und stehen dem versprochenen Fortschritt durch HCI eigentlich entgegen.

Die Stärken von Konvergenz richtig einschätzen

Wie bereits vorab angesprochen, sind HCI-Lösungen keine Allzweckwaffe. Ihre Stärken liegen in der Hochverfügbarkeit von Daten und der Virtualisierung. Hyperkonvergenz will nicht in jeder Ressource Spitzenleistungen hervorbringen, sondern möglichst homogene, solide Performance über weite Flächen hinweg.

Das Potenzial bei HCI liegt also im einfachen Deployment und Erweiterungen, auch wenn diese durch das Boxed-Prinzip und den Mangel an Entscheidungsfreiheiten des Betreibers erkauft werden müssen. Das Konzept eignet sich daher gut für Unternehmen, die mehrere Niederlassungen mit möglichst geringem Aufwand mit VDI-Lösungen und Serveranbindungen bereitstellen wollen. Oder für kleine Firmen mit verhältnismäßig hohem Infrastrukturbedarf, die aber das entsprechend benötigte Personal zur Administration dieser Kapazitäten im klassischen Rechenzentrumsbetrieb nicht aufbringen können.

Umgang mit Hardwareressourcen ist entscheidend

Wer hingegen spezialisierte Workloads hat oder extreme Rechenleistung benötigt (etwa bei Renderfarmen), eventuell in Kombination mit sehr hohen Lese- und Schreibraten oder massivem Datendurchsatz, wird vermutlich momentan noch wenig Nutzen aus Hyperkonvergenz ziehen können. Inwieweit diese Limitierung an Ressourcenkonfiguration also tatsächlich ein Problem darstellt, hängt demnach stark von der spezifischen Situation beim jeweiligen Kunden ab.

Zum gegenwärtigen Zeitpunkt ist daher noch nicht abzusehen, ob Hyperkonvergenz mehr Hype oder tatsächlich eine langfristige Umwälzung bringen wird. Daher wird der Markt für HCI-Lösungen auf absehbare Zeit weiterhin vielen Veränderungen ausgesetzt sein. Fest steht: Der Teilbereich ist noch jung und muss weiter reifen. Bis sich hyperkonvergente Infrastrukturen ihren Platz im "IT-Mainstream" geschaffen haben, werden sie also sicherlich noch viel Diskussionsstoff bieten.


Relevante Themen