Kubernetes: Machine-Learning-Framework Kubeflow wird stabil
Die Werkzeugsammlung Kubeflow soll es einfach ermöglichen, komplizierte Machine-Learning-Aufgaben mit Kubernetes aufzusetzen. Das Projekt erreicht nun die wichtige Version 1.0.

Das auf der Kubernetes aufbauende Kubeflow ist in Version 1.0 erschienen. Das nehmen die Entwickler zum Anlass, um einige zentrale Komponenten zu definieren, die künftig als fester Bestandteil des Machine-Learning-Werkzeugkastens betrachtet werden. Dazu zählen das zentrale Dashboard, der Jupyter Notebook Controller und die Web-App.
Hinzu kommen die Tensorflow- und Pytorch-Operatoren, das Tool kfctl sowie der Profile Controller und das zugehörige User Interface, um mehrere Nutzer zu verwalten. Zu den Machern von Kubeflow 1.0 gehören laut einem aktuellen Blogpost mittlerweile rund 30 Organisationen und Unternehmen. Hunderte Contributor arbeiten an dem Machine-Learning-Projekt mit.
Der Blogpost erklärt zudem, wie ein typischer vierteiliger Trainingszyklus in Kubeflow abläuft. Er besteht aus Entwicklung, Build-Prozess, Training und Deployment. Jupyter eignet sich, um die Modelle zu entwickeln. Über Fairing, Kubeflows Python-SDK, lassen sich Container dann für Kubernetes bauen. Es folgt das Training selbst, für das Entwickler Custom Resources (CRs) für Kubernetes definieren. Schließlich kommt als vierte Komponente KFServing zum Einsatz. Die Serverless-Lösung hilft, die entwickelten Maschine-Learning-Modelle auf unterschiedlichen Frameworks zu veröffentlichen.
Version 1.0 bietet dabei über das Werkzeug kfctl zugleich eine einfache Möglichkeit, Kubeflow auszuliefern. Das läuft, zusammen mit dem eben erwähnten KFServing, auf einer Architektur, die aus mehreren Schichten besteht. Kubernetes bildet die Basis auf der dann Istio läuft (Service Mesh), worauf Knative (Serverless-Plattform) läuft.
Arbeitsplatz für Data Scientists
Jupyter ist hingegen häufig das Werkzeug der Wahl für Data Scientists und lässt sich beim Bau der Modelle mit den Kubernetes-Diensten verbinden. Für ihr Arbeitspensum erhalten die Entwickler jeweils eigene Namespaces, denen die Kubernetes-Admins auch die passenden Ressourcen inklusive Quotas zuweisen.
Neue Notebooks lassen sich über passende Docker-Images einfach ergänzen. Für das Training selbst können Tensorflow und Pytorch über die Kubernetes-Operator genutzt werden. Zum Überwachen des Trainings steht Tensorboard bereit. Weitere Details für Kubeflow-Nutzer, die den Praxiseinsatz erklären, aber auch geplante Funktionen auflisten, liefert der anfangs erwähnte Blogpost.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed