Abo
  • Services:

Serverless Computing: Mehr Zeit für den Code

Weniger Verwaltungsaufwand und mehr Automatisierung: Viele Entwickler bauen auf fertige Komponenten aus der Cloud, um die eigenen Anwendungen aufzubauen. Beim Serverless Computing verschwinden die benötigten Server unter einer dicken Abstraktionsschicht, was mehr Zeit für den eigenen Code lässt.

Artikel von Valentin Höbel veröffentlicht am
In der Serverless-Cloud ist die Hardware-Konfiguration aus Sicht der Entwickler nicht mehr wichtig.
In der Serverless-Cloud ist die Hardware-Konfiguration aus Sicht der Entwickler nicht mehr wichtig. (Bild: Montage Martin Wolf/Golem.de)

Entwickler, die ihre Anwendungen in einer Cloud-Umgebung unterbringen möchten, können aus einer Vielzahl von Anbietern und Modi wählen. Wer die Möglichkeit hat, nutzt immer häufiger sogenanntes Serverless Computing, oft auch Serverless Infrastructure oder auch Function as a Service (FaaS) genannt. Hinter diesen verwirrenden Begriffen versteckt sich ein Cloud-Computing-Modell, welches die Abstraktion zwischen physikalischer Hardware und dem genutzten Angebot auf die Spitze treibt und dadurch sehr viele Probleme abnimmt.

Die eher klassisch anmutende Nutzungsvariante des Serverless Computing sieht vor, dass Entwickler ihre Anwendungen bei einem Provider hochladen und zur Verfügung gestellte Funktionen oder Module einbetten. Diese sorgen dafür, dass die Aufgaben mit der eigentlichen Workload an den Anbieter ausgelagert werden.

Weitaus fortgeschrittener läuft es ab, wenn die Anwendung komplett auf Basis der zur Verfügung gestellten Funktionen aufgebaut wird. Demnach steuert der Entwickler Code-Schnipsel in einer vom Provider unterstützten Programmiersprache bei, die auf vordefinierte Ereignisse auf eine bestimmte Art und Weise reagieren (Event-driven).

In allen Fällen sind die anbieterseitigen Funktionen in der Regel zustandslos, was theoretisch eine beliebige Skalierung der Drittkomponenten ermöglicht. Für die Nutzung dieser Funktionen ist kein direkter Zugriff auf die Server oder Hardware notwendig, man arbeitet also im übertragenen Sinne ohne Server, also serverless.

Serverless als größtmögliche Abstraktion

Stellenmarkt
  1. Bosch Gruppe, Leipzig
  2. Bosch Gruppe, Abstatt

Die Grenze zwischen Serverless Computing und PaaS (Platform as a Service) ist dabei fließend: Während ersteres Modell typischerweise den Upload von Code vorsieht, der sich nahtlos in eine Art Cloud-Framework einbetten soll, geht man beim Plattformbetrieb davon aus, dass Entwickler vollständige Anwendungen hochladen. Der Anbieter stellt womöglich nach Baukastenprinzip Apps wie Datenbanken oder E-Mail-Server zur Verfügung, womit der Entwickler sich seinen Software-Stack in einer meist grafisch ansprechenden Umgebung zusammenklicken kann. Die eigentliche Funktionalität der Hauptanwendung aber liefert der Entwickler bitteschön selbst: Alle Anwendungen im Stack wollen orchestriert und vom Nutzer administriert sowie bei Bedarf skaliert werden. Entwickler benötigen hierfür sowohl anbieterspezifisches Knowhow als auch Wissen rund um die eingesetzten Tools. Genauso wie beim Serverless Computing bezahlt er meist in verbrauchter Rechenzeit oder in verbrauchten Ressourcen (vCPUs, vRAM, vDisk).

  • Mögliche Anwendung von FaaS laut Alibaba Cloud (Quelle: Alibaba Cloud)
  • Mögliche Anwendung von FaaS laut Alibaba Cloud (Quelle: Alibaba Cloud)
  • Der lange Weg von der Legacy-Anwendung hin zu Microservices und FaaS (Quelle: Swisscom)
  • Abgrenzung IaaS, CaaS, PaaS und FaaS (Quelle: Alibaba Cloud)
  • Logische Architektur von OpenWhisk (Quelle: Apache.org)
Abgrenzung IaaS, CaaS, PaaS und FaaS (Quelle: Alibaba Cloud)

Wer mutig ist und sich gerne mit der Administration von Systemen auseinandersetzt, rollt nicht nur Apps aus wie bei PaaS, sondern verwaltet gleich eine eigene Infrastruktur in der Cloud. Infrastructure as a Service (IaaS) stellt unter anderem gekapselte Teilinfrastrukturen, bestehend aus VMs, Storage und virtuellen Netzen, zur Verfügung. All diese Komponenten wollen aufgesetzt, konfiguriert und miteinander verzahnt werden. Wenn die eigene Anwendung besonders stark frequentiert wird, skaliert der Entwickler die Ressourcen nach oben und setzt die nächsten Systeme auf, die er dann erneut in die bestehende Infrastruktur einbettet. Das eigene Programm läuft auf den zahlreichen VMs, die in der Regel über Ressourcen-Pools (Anzahl vCPUs, vRAM und vDisk insgesamt) abgerechnet werden. Oft ist es dabei egal, ob die verfügbaren Ressourcen genutzt werden - man zahlt immer für den gesamten Pool (oder die aktuellen VMs). Die Verwaltung der IaaS geschieht meist über eine grafische Oberfläche, wobei der Entwickler nur selten um die CLI herumkommt, wenn etwa Komponenten konfiguriert werden müssen.

Als Entwickler wird man durch die Steuerungsoberfläche des Cloud-Anbieters weniger gefordert, man benötigt aber umfangreiches Wissen im Bereich Systemadministration und ist regelmäßig mit der Pflege der Infrastruktur beschäftigt. Sehr erfahrene Cloud-Administratoren nutzen meist Automatisierungswerkzeuge wie Saltstack oder Ansible, um die Betreuung der Infrastruktur etwas weniger zeitintensiv zu gestalten. Der Entwickler hingegen, der möglichst schnell seine Anwendung online bringen möchte, schreckt womöglich vor der Anschaffung des notwendigen Knowhows zurück und setzt deshalb auf die größtmögliche Abstraktion des Serverless Computing.

Der Pfad in die Serverless Cloud ist holprig 
  1. 1
  2. 2
  3. 3
  4. 4
  5. 5
  6. 6
  7.  


Anzeige
Blu-ray-Angebote
  1. (u. a. 3 Blu-rays für 15€, 2 Neuheiten für 15€)

flauschi123 06:19 / Themenstart

BPM Systeme koennen das seit Jahrzehnten. AWS Stepfunctions sind auch nur eine kleine...

logged_in 09. Nov 2018 / Themenstart

Hast Du dich schon mal mit Skalierung auseinandergesetzt? Wo du um Kubernetes nicht umher...

ThomasSV 09. Nov 2018 / Themenstart

Seit in irgendeiner (IMO Gartner-) Studie stand, dass man damit irrsinnig Geld spart...

Kommentieren


Folgen Sie uns
       


Amazons Echo Plus (2018) - Test

Der neue Echo Plus von Amazon liefert einen deutlich besseren Klang als alle bisherigen Echo-Lautsprecher. Praktisch ist außerdem der eingebaute Smart-Home-Hub. Der integrierte Temperatursensor muss aber noch bessser in Alexa integriert werden. Der neue Echo Plus ist zusammen mit einer Hue-Lampe von Philips für 150 Euro zu haben.

Amazons Echo Plus (2018) - Test Video aufrufen
Dark Rock Pro TR4 im Test: Be Quiet macht den Threadripper still
Dark Rock Pro TR4 im Test
Be Quiet macht den Threadripper still

Mit dem Dark Rock Pro TR4 hat Be Quiet einen tiefschwarzen CPU-Kühler für AMDs Threadripper im Angebot. Er überzeugt durch Leistung und den leisen Betrieb, bei Montage und Speicherkompatiblität liegt die Konkurrenz vorne. Die ist aber optisch teils deutlich weniger zurückhaltend.
Ein Test von Marc Sauter

  1. Dark Rock Pro TR4 Be Quiets schwarzer Doppelturm kühlt 32 Threadripper-Kerne

KEF LSX angehört: Neue Streaming-Lautsprecher mit voluminösem Klang
KEF LSX angehört
Neue Streaming-Lautsprecher mit voluminösem Klang

Mit dem LSX hat der britische Edellautsprecherhersteller KEF ein für seine Größe überraschend voluminös klingendes Streaming-Lautsprecherset vorgestellt. Bei einer ersten Hörprobe sind uns die gut getrennten Frequenzen und die satten Tiefen positiv aufgefallen - der Preis scheint uns gerechtfertigt.
Ein Hands on von Tobias Költzsch

  1. Videostreaming Warner plant Konkurrenz für Netflix und Disney
  2. Streaming Netflix erzeugt 15 Prozent des globalen Downloads
  3. Streaming Plex macht seine Cloud dicht

Agilität: Wenn alle bestimmen, wo es langgeht
Agilität
Wenn alle bestimmen, wo es langgeht

Agiles Arbeiten ist, als ob viele Menschen gemeinsam ein Auto fahren. Aber wie soll das gehen und endet das nicht im Riesenchaos?
Von Marvin Engel

  1. Software-Entwickler CDU will Online-Weiterbildung à la Netflix
  2. Bundesagentur für Arbeit Ausbildungsplätze in der Informatik sind knapp
  3. IT-Jobs "Jedes Unternehmen kann es besser machen"

    •  /