Zum Hauptinhalt Zur Navigation

Workflow-Automatisierung: Was KI-Agenten bei n8n bringen

Die Plattform n8n hat aktuell eine hohe Aufmerksamkeit – wegen KI-Agenten. Was hat n8n hier zu bieten?
/ Thorsten Müller
8 Kommentare News folgen (öffnet im neuen Fenster)
Bei n8n arbeiten klassische Workflow-Automatisierungen und KI-Agenten gut zusammen. (Bild: u_an64dh40g2/Pixabay)
Bei n8n arbeiten klassische Workflow-Automatisierungen und KI-Agenten gut zusammen. Bild: u_an64dh40g2/Pixabay

Wer sich aktuell auf Reddit umschaut oder – wie der Autor – in die entsprechende Bubble gerutscht ist, kommt um n8n nicht herum. Die Plattform, mit der man Arbeitsabläufe automatisieren kann, ist nicht neu. Gegründet im Jahr 2019 in Berlin, lässt sie sich als Clouddienst nutzen oder per Docker-Container auf der eigenen Infrastruktur (g+) .

In diesem Jahr sind KI-Funktionen dazugekommen, beispielsweise die Nutzung lokaler oder cloudbasierter Large-Language-Modelle (LLMs) und die Einbindung sogenannter KI-Agenten. Wer sich für n8n und mögliche Einsatzszenarien interessiert, wird auf Golem unter anderem hier (g+) fündig. Wir haben uns speziell die KI-Funktionen angesehen und ausprobiert, was sie für die Arbeit mit n8n bringen.

Was ist n8n?

Die Plattform n8n richtet sich nicht primär an Entwickler, sondern vor allem an Menschen, die im (Unternehmens-)Alltag Abläufe über eine einfache Oberfläche automatisieren wollen. Zu dem Zweck können diverse Schritte miteinander verbunden werden.

Die Funktionen lassen sich über Integrationen fast beliebig erweitern. Auf der Webseite(öffnet im neuen Fenster) sind zum Zeitpunkt des Schreibens des Artikels über 1.100 Integrationen gelistet. Beliebt sind unter anderem die Integration von Google Sheets, KI-Agenten, Slack, Discord, Microsoft SQL. Der Name n8n ist die geschrumpfte Version von nodemation: der Anfangs- und Endbuchstabe und die acht Zeichen dazwischen – wie auch bei i18n (internationalization) und k8s (kubernetes).

Das aktuelle Interesse an n8n könnte daran liegen, dass das Unternehmen aufgrund großzügiger Sponsoren mittlerweile einen Wert von 2,4 Milliarden US-Dollar hat . Die Großzügigkeit der Sponsoren könnte an den im Jahr 2025 eingeführten KI-Funktionen in n8n liegen. Für diesen Unternehmenswert sollten die KI-Funktionen aber ein echter – Achtung Buzzword – Gamechanger sein.

Die (Open-Source)-Lizenz

n8n veröffentlicht seinen Quellcode auf Github und versteht sich als offene Plattform. Allerdings verwendet es keine der klassischen Open-Source-Lizenzen. In der Readme des zugehörigen Github-Repositories steht als Beschreibung "Fair-code workflow automation platform" .

Den Begriff "Open," wie "Open Source" , findet man auf der Seite nicht. Stattdessen zeigt der Abschnitt mit Informationen zu Lizenzen auf fair-code(öffnet im neuen Fenster) sowie auf die eigene "Sustainable Use License" und die "n8n Enterprise License" .

Mehr als 144.000 Sterne auf dem entsprechenden Github-Repository sprechen jedoch für ein hohes Interesse und für Dankbarkeit aus der Community.

KI mit LLM und Agenten

n8n kann cloudbasierte LLMs wie ChatGPT, Claude, Gemini und weitere in Workflows einbinden. Das eröffnet die Möglichkeit, dass einzelne Schritte im Ablauf auf Textverständnis, Zusammenfassung und Textgenerierung zurückgreifen können. Wer in seinen Workflows Daten verarbeitet, die nicht durch Clouddienste verarbeitet werden sollen oder dürfen, kann auch auf lokale LLMs wie Ollama, Qwen (g+) oder Mistral zurückgreifen. Es gibt viele Möglichkeiten, letztlich liegt es an den persönlichen Anforderungen und Datenschutzgegebenheiten.

Neben klassischen LLM-Funktionen bietet n8n die Nutzung von KI-Agenten. Das macht es spannend, aber mein Wissen darüber ist eher gering. Während die Nutzung von ChatGPT und Co. mittlerweile zum täglichen Standardwerkzeug zählt, ist die praktische Anwendung von KI-Agenten für mich noch neu.

Was sind KI-Agenten?

Klassische Chatbots beantworten eine spezifische Frage oder lösen eine Aufgabe, die im Prompt möglichst präzise beschrieben wurde und sind dann fertig. Je nach Kontext – bei n8n "memory" genannt – können Chatbots sich auch an vorherige Informationen erinnern und diese in Antworten berücksichtigen.

Allerdings können Chatbots keine Live-Informationen generieren oder standardmäßig zusätzliche Informationen aus dem Internet oder anderen Werkzeugen beziehen. Ein KI-Agent, der Internetzugriff als Werkzeug hat, kann diese Lücke schließen.

Bei einer Veranstaltung hat ein Speaker mal einen KI-Agenten mit einem neuen Praktikanten vergleichen. Das ist natürlich gewagt und vielleicht etwas hochgegriffen, aber im Kern trifft es das zu: Auch einer Praktikantin oder einem Praktikanten gibt man eine Aufgabe, Zugriff auf Werkzeuge, zeigt, wie alles zu verwenden ist, und lässt sie oder ihn dann machen.

Der Praktikant muss recherchieren und Lösungen finden, das Ergebnis mit dem gewünschten Ergebnis vergleichen und möglicherweise Alternativen ausprobieren. So ungefähr soll ein KI-Agent auch seine Arbeit verrichten. Erst wenn Praktikant oder KI-Agent nicht weiterkommen, sollen sie menschliche Unterstützung aktiv anfragen.

Wie kann n8n genutzt werden und was kostet es?

n8n steht je nach Zielgruppe und technischem Interesse in vielfältigen Ausführungen zur Verfügung.

SaaS

Wer direkt loslegen und sich nicht mit der Installation und dem Betrieb von n8n auf der eigenen und lokalen Infrastruktur beschäftigen möchte, kann sich hier(öffnet im neuen Fenster) für den Service (SaaS) registrieren und erhält eine Instanz unter dem Namen ᐸBenutzernameᐳ.app.n8n.cloud zur Verwendung. Man startet mit einer kostenfreien Testphase von 14 Tagen.

Lokal/On-Prem

Wer n8n auf eigener Infrastruktur betreiben möchte, dem empfiehlt der Hersteller eine container- oder dockerbasierte Variante. Die Dokumentation von n8n macht einen ordentlichen Eindruck und ermöglicht technisch versierten Anwendern eine gute Schritt-für-Schritt-Installation.

Die Preise listet der Hersteller hier(öffnet im neuen Fenster) auf, generell spielt die maximale Anzahl an Ausführungen eine Rolle. Es gibt keine Flatrate, sondern es wird teilweise beschränkt, wie viele Ausführungen durchgeführt werden.

Eine zusätzliche Begrenzung auf Basis der ausgeführten Schritte existiert nicht. Das bezieht sich übrigens nicht nur auf SaaS, sondern je nach Tarif auch auf die Ausführungen einer On-Prem-Installation (siehe FAQ auf n8n). Das bedeutet auch, dass On-Prem-Installationen täglich im Datenaustausch mit n8n stehen, um mögliche Lizenz- und Nutzungsstatistiken sowie Beschränkungen auszutauschen.

  • Starter: nur SaaS, 24 Euro, begrenzt auf 2.500 Workflowausführungen
  • Pro: nur SaaS, 60 Euro, begrenzt auf 10.000 Workflowausführungen
  • Business: On-Prem, 800 Euro, begrenzt auf 40.000 Workflowautomatisierungen
  • Enterprise: keine pauschalen Aussagen; muss individuell mit dem Vertrieb besprochen werden
  • Start-up-Plan: vergleichbar mit Business, mit 50 Prozent Rabatt, sofern weniger als 20 Mitarbeiter im Start-up sind
  • Community Edition: Das ist die Version, die wir uns anschauen werden; genaue Informationen gibt es hier(öffnet im neuen Fenster) .

Für welche Variante man sich interessiert und ob die Grenzen der Ausführungen relevant werden, muss man individuell bewerten.

Lokale Installation, Konfiguration mit Docker

Laut Hersteller verfügt die Community Edition über "almost the complete feature set of n8n." Die Einschränkungen werden hier(öffnet im neuen Fenster) aufgelistet, unter anderem fehlen Single-Sign-On-Funktionen mit Security Assertion Markup Language (SAML) oder Lightweight Directory Access Protocol (LDAP).

Um die Komplexität aus möglichen Installationsvarianten noch zu strapazieren, kann man sich entscheiden, seine On-Prem-Community-Installation bei n8n zu registrieren. Man erhält dann eine nicht ablaufende Lizenz und bekommt Zugriff auf einige weitere Funktionen. Auch diese Liste zeigt die oben genannte Seite an.

Die Installation wird hier nicht im Detail beschrieben, da sie mit der Dokumentation einfach umzusetzen ist. Eine passende Postgresql-Datenbank wird als Container per Docker-Compose direkt mitinstalliert. Da es in diesem Artikel schwerpunktmäßig um KI-Funktionen gehen soll, verwende ich das sogenannte Self-hosted AI Starter Kit(öffnet im neuen Fenster) . Das dockerbasierte Kit beinhaltet n8n, Ollama, Qdrant und PostgreSQL.

Workflow in der Praxis

Nach der Installation kann man sich auf seiner lokalen n8n-Instanz einloggen und beginnen, den ersten (KI-)Workflow zu erstellen. Wenn die notwendige Kreativität fehlt, was mit KI in einem Workflow machbar ist, kann man sich hier(öffnet im neuen Fenster) etwas Inspiration holen.

Ein n8n-Workflow kann auch verschiedene Schritte klassisch lösen oder bedarfsweise per KI/LLM. Wenn ein Schritt beispielsweise lautet, eine eingehende Mail auf gewisse Kriterien zu prüfen, dürfte das für KI zwar machbar sein, ist aber deutlich rechenaufwendiger als gewisse Faktoren klassisch zu prüfen, beispielsweise per regulärem Ausdruck.

Vielleicht lässt man sich auch jeden Morgen eine Statusmail von n8n schicken, die die Inhalte aus Kalender, Postfach und einer To-do-Anwendung beinhaltet und zusammenfasst – gerne noch mit einer zufälligen Info aus Wikipedia am Ende. Vielleicht möchte man auch einen Workflow, der auf eingehende Mails reagiert und bei dem der KI-Agent ein LLM wie Llama oder ChatGPT nutzt, um Informationen aus der Mail zu ziehen. Mit den Informationen soll dann auf weitere Tools oder Quellen zugegriffen werden, um auf Basis der zusammengeführten Informationen schließlich Einträge in eine Tabelle schreiben zu können.

Es gibt also Trigger, die einen Workflow starten. Das kann eine manuelle Ausführung sein oder eine zeitliche Steuerung. Es können http-basierte Webhooks sein oder eine Chatnachricht, die von einem LLM bearbeitet wird. Aufgrund vieler Integrationen kann n8n per API-Schnittstellen auf viele Daten und Informationen aus Drittsystemen zugreifen. Die Integration von LLMs ermöglicht ein Verständnis von Zusammenhängen oder vom Zusammenfassen textueller Informationen.

Sobald man einen KI-Agenten in seinen Workflow integriert, kann man die System Message definieren – quasi das Mindset des KI-Agenten definieren. Standardmäßig wird hier festgelegt, dass n8n ein hilfsbereiter Assistent sein soll, das kann aber nach eigenen Wünschen angepasst werden.

Beispielsweise habe ich meine Zeitzone auf Berlin gesetzt und wollte, dass mein KI-Agent das aktuelle Datum kennt. Üblicherweise kennen LLMs nur trainierte Daten und verfügen nicht über dynamische Informationen wie ein aktuelles Datum. Auch Informationen, die in vorherigen Schritten des Workflows bereits ermittelt wurden, können dem Agenten als Wissen mitgegeben werden.

"Morgen ist der heutige Tag"

Gerade das Wissen um das aktuelle Datum kann bei vielen Prozessen wichtig sein. Man kann dem KI-Agenten auch das Tool Date & Time zuweisen. Es benötigt keine separate Konfiguration und mit seiner Hilfe hat KI die passende Information. Fragt man per KI Chat in n8n mit Ollama ganz simpel nach dem aktuellen Datum und hat die Information nicht im System Prompt mitgegeben, kann die Antwort fast philosophisch werden: "Welcher Tag ist morgen? Morgen ist der heutige Tag."

Während der Entwicklung kann man jeden einzelnen Schritt eines Workflows ausführen und sieht Loginformationen und JSON-Ergebnisse des Prozessschritts. Hat man einen Teil seines Workflows zusammengestellt, kann man auch den Ablauf als Ganzes ausführen und sich die Ergebnisse anschauen, getrennt nach Prozessschritt.

Ist man mit dem Workflow zufrieden, kann man den Ablauf rechts oben in der Oberfläche von inaktiv auf aktiv setzen. Ab dem Moment übernimmt n8n die Ausführung abhängig vom gewählten Trigger zum Start des Prozesses.

Fazit

n8n ist eine mächtige Plattform, um Arbeitsabläufe zu automatisieren. Dafür muss man kein Programmierer sein, sondern benötigt primär die Anforderungen der zu automatisierenden Prozesse.

Der derzeitige Hype um n8n kommt durch die Integration von KI-Funktionen wie Cloud- und lokalen LLMs sowie den Funktionen von KI-Agenten zustande. Größere Aufgaben können diese eigenständiger erledigen, sofern sie auch Zugriff auf Drittsysteme per APIs haben.

Trotz vieler Erweiterungen und Möglichkeiten wirkt die Nutzung von n8n aufgeräumt. Aufgrund guter Dokumentation ist die Nutzung schnell erlernbar. Durch die Nutzung lokaler LLMs können auch Workflows mit Daten erstellt werden, die man Cloudanbietern nicht gerne anvertrauen möchte.

Wer größere Workflows mit häufigen und vielen Ausführungen plant, sollte sich die Lizenzbedingungen anschauen. Unabhängig davon, ob man n8n als Clouddienst oder lokal On-Prem betreibt, gibt es Restriktionen bezüglich der maximal ausführbaren Workflows.

Thorsten Müller beschäftigt sich als IT-Enthusiast mit Open-Source-Software, insbesondere rund um offene Sprachtechnologien (Sprachassistenten, Spracherkennung und Sprachsynthese). Sein Wissen teilt er in Open-Voice-Communitys, auf Youtube und auf seinem Twitter-Account(öffnet im neuen Fenster) .


Relevante Themen