Das Netzwerk wird weniger starr
Servervirtualisierung ist längst in der breiten Masse angekommen. Laut einer Spiceworks-Befragung aus dem Jahre 2016 setzen mehr als drei Viertel der Befragten in ihrem Unternehmen auf Servervirtualisierung. Somit ist die flexible Bereitstellung von virtuellen Servern für die meisten Unternehmen Alltag. Mehrere Hundert Server stehen bei Bedarf nach wenigen Minuten produktiv zur Verfügung und können ebenso schnell wieder ausgebucht werden.
Obwohl klassische Netzwerke bei dieser Entwicklung nicht mehr mithalten können, bauen die meisten Unternehmen noch immer auf traditionelle Netzwerk-Infrastrukturen der etablierten Hersteller wie Cisco, Juniper oder Hewlett Packard Enterprise. Um Kompatibilitätsproblemen vorzubeugen, setzen Unternehmen in der Regel auf hochgradig homogenisierte Netzwerk-Infrastrukturen einzelner Hersteller. Diese Umgebungen funktionieren in sich gut, zeichnen sich aber oft durch lange Innovationszyklen aus und offenbaren Schwierigkeiten in Bezug auf Agilität und Flexibilität.
So bleibt beispielsweise der Automatisierungsgrad zum Deployment auf der Netzwerkinfrastruktur vergleichsweise gering. Bei einer im Rahmen dieses Artikels durchgeführten Ad-hoc-Umfrage unter 37 Praktikern, die mit dem Betrieb oder der Planung von Netzwerk-Infrastrukturen betreut sind, gaben 42 Prozent an, das Configuration Management noch vollständig manuell durchzuführen. Dies führt dann beispielsweise bei der Inbetriebnahme virtueller Server zu Problemen, wenn passend zum Server-Deployment notwendige Einstellungen zu VLANs, Ports, Routing und Redundanzprotokollen vorzunehmen sind. Vor diesem Hintergrund verwundert es auch wenig, dass die Befragten nur für die Konfiguration von VLANs bei einer dreistufigen Netzwerkinfrastruktur im Durchschnitt bereits 50 Minuten benötigen.
Durch die homogenen Infrastrukturen und die proprietären Bündel aus Netzwerk-Hard- und -Software begeben sich Unternehmen zweifelsohne in eine Abhängigkeit. Die Wechselbarriere ist hoch, da gemischte Infrastrukturen stets einen Mehraufwand in der Administration bedeuten und häufig ein Schulungsbedarf auf Seiten der Mitarbeiter besteht. Die Hersteller sind sich dieses Lock-in-Effekts durchaus bewusst, was sich entsprechend in der Preisgestaltung niederschlägt. Man kennt dieses Vorgehen von Kaffeepads und -kapseln oder Druckerpatronen.
Entkopplung als Chance
PCs und Server sind offen und flexibel. So lassen sich identische Geräte problemlos mit unterschiedlichen Betriebssystemen betreiben. Dass ein Hardwarewechsel zu einem anderen Hersteller auch zwangsläufig ein anderes Betriebssystem bedingt - heute eher ungewöhnlich. Wo ständen wir nun, wenn IBM 1981 nicht die Spezifikationen für seinen "IBM-PC" veröffentlicht hätte und in den Rechenzentren dieser Welt noch ausschließlich teure und proprietäre Mainframes ihre Arbeit verrichten würden? Eine definitive Aussage fällt schwer, doch vermutlich hätte sich die IT längst nicht so schnell und kostengünstig entwickelt.
Die Entkopplung von Hard- und Software ist für uns im PC- und Server-Umfeld vollkommen normal. Die Vorteile liegen auf der Hand: Man unterliegt nicht mehr in gleichem Maße einem Lock-in, sondern hat eine viel größere Auswahl an Hard- und Software. Dies mindert den Einfluss der einzelnen Hersteller, beschleunigt Innovationen, führt zu besseren Produkten und drückt die Preise. Durch Open Networking kommt dieser Wandel auch in den Netzwerkbereich, wodurch Netzwerkgeräte effektiv zu Servern mit vielen Netzwerkschnittstellen mutieren. Durch diese Angleichung von Netzwerkgeräten und Servern ergeben sich nicht unerhebliche Skaleneffekte, da dieselben Tools zur Serverautomatisierung und -verwaltung nun auch bei Netzwerkgeräten Anwendung finden können. Zwei der bekanntesten Vertreter sind Puppet und Chef.
Auch traditionelle, proprietäre Netzwerkbetriebssysteme basieren zumeist auf Unix/Linux. Erst durch "vollwertige" Linux-Betriebssysteme ergeben sich jedoch neue Freiheiten und Möglichkeiten, die zuvor nur von Servern bekannt waren. So lassen sich problemlos beliebige Anwendungen auf der Netzwerkhardware ausführen. Auch die Nutzung von Containern, beispielhaft sei hier Docker erwähnt, wäre denkbar. Durch diese Flexibilität bieten sich Open-Networking-Geräte auch als Underlay für "klassische" SDN-Setups an, da sich die unterstützten SDN-Protokolle einfach per Software nachrüsten lassen.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Linux auf dem Switch: Freiheit kann ganz schön kompliziert sein! | Wahl zwischen White- und Brite-Boxes und beim Support |
Danke, dachte dafür macht man das im Endeffekt.
Nein, Open Networking hat mit OpenWRT, welches auf Soho-Geräte abzielt, nichts zu tun.
Das kann man so nicht sagen. Im normalen Unternehmenseinsatz sind die Netze eher simpel...
korrekt, aber das wird sich ändern.