Anzeige: Einstieg ins Data Engineering mit Apache Spark

Im Bereich Data Engineering hat sich Apache Spark zum Standard entwickelt. Ein Zwei-Tage-Workshop der Golem Akademie erleichtert Big-Data-Einsteigern die Arbeit mit dem mächtigen Werkzeug.

Sponsored Post von Golem Akademie veröffentlicht am
Anzeige: Einstieg ins Data Engineering mit Apache Spark
(Bild: Rene Böhmer, unsplash.com)

Apache Spark ist eines der am schnellsten wachsenden Frameworks, wenn es um Anwendungen im Big-Data-Bereich geht. Der Data-Engineering-Standard ermöglicht das Einladen, Transformieren und Abspeichern von Daten für nachgelagerte Aufgaben - unabdingbar beim Machine Learning und im Analytics-Kontext.

Flexibel, erweiter- und skalierbar

Das Open-Source-Framework der Apache Foundation verfügt über eine Reihe von Adaptern zu Datenquellen wie relationale Datenbanken, NoSQL oder Streams. Zu den weiteren Vorteilen von Spark zählen flexible und erweiterbare Transformationsmöglichkeiten sowie eine gute horizontale Skalierbarkeit im Cluster. Die Ausführung einzelner Prozesse macht es möglich, dass Spark für die Verarbeitung kleinerer Datenmengen zum Einsatz kommen kann.

Das Update auf Version 3.1.1 hat Apache Spark für Kubernetes verfügbar gemacht. Damit ist es nicht mehr notwendig, für die Nutzung des Frameworks ein Hadoop-System vorzuhalten. Spark ist aber dennoch nicht ganz einfach verwendbar. Big-Data-Neulingen erleichtert der Workshop "Data Engineering mit Apache Spark" am 29. und 30. November 2021 den Einstieg.

Erste Schritte mit Apache Spark

Trainer Kaya Kupferschmidt bringt Teilnehmenden typische Einsatzumgebungen von Apache Spark näher und stellt die von dem Framework genutzte native Programmiersprache Scala vor. Die Aufbereitung von Daten zur weiteren Verwendung, das Data Engineering, ist ein weiterer Schwerpunkt. Der zweitägige Onlineworkshop soll Softwareentwickler in die Lage versetzen, erste Schritte mit Apache Spark zu gehen.

Der Kurs richtet sich an ETL-Entwickler, Data Engineers und Data Scientists, die mit Apache Spark arbeiten möchten. Ein eigener Hadoop-/Spark-Cluster, auf den per Web-Browser oder SSH zugegriffen werden kann, steht Teilnehmenden für die praktischen Übungen zur Verfügung. Im Anschluss an den Workshop erhalten Teilnehmende ein Zertifikat, das die erfolgreiche Teilnahme bescheinigt.

Der Kurs

Data Engineering mit Apache Spark: 29.-30. November 2021, online

Eine Übersicht über alle Trainings findet sich unter karrierewelt.golem.de.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed

    •  /