KI-Agenten und LLMs für Entwickler: Spielzeug oder Wundermittel?

Künstliche Intelligenz in der Softwareentwicklung ist längst Normalität, doch neue KI-Entwicklungsumgebungen mit sogenannten AI Agents übertreffen alles Bisherige. In diesem Artikel schauen wir uns beispielhaft Cursor(öffnet im neuen Fenster) genau an - ohne Schwarzmalerei oder übertriebenen Optimismus.
Wir erklären, wie sich die KI-Agenten von Large Language Models (LLM) abgrenzen und welche Aufgabe der Mensch in der Entwicklung behält.
Mehr als nur Autovervollständigung
Cursor AI ist keine simple Extension für Visual Studio Code (VSCode). Es geht eigene Wege und bringt seine eigene Variante per Fork von VSCode. Seine Mission: Entwickler produktiver machen - und dabei vergleichbar gut oder sogar besser sein als die klassischen KI-Erweiterungen wie Github Copilot.
Cursor bietet weitreichende Funktionen, von der Codevervollständigung bis hin zu projektübergreifenden Agenten inklusive Terminal-Kommandos. Es punktet mit Inline-Code-Anpassungen und einer Composer-Funktion, die im Chat- oder Agent-Modus betrieben werden kann.
Dabei gilt: Es können unterschiedliche KI-Modelle eingebunden werden. Die Bedienung ist denkbar einfach: Modell wechseln, Task erledigen, fertig.











Vertrauen ist gut, Privacy-Modus ist besser
State-of-the-Art-Modelle wie Gemini 2.0 Flash Thinking Experimental oder das neueste Claude-3.7-Modell werden in Cursor oft blitzschnell integriert. Alternativ können eigene API-Keys von OpenAI, Anthropic oder Google eingebunden werden - perfekt für Unternehmen, die ihre Daten nicht überall verstreuen wollen.











Wer Wert auf Datenschutz legt, aktiviert den Privacy-Modus. In diesem Fall werden keine Prompts oder Codeausschnitte gespeichert, geschweige denn für KI-Training verwendet. Ohne diesen Schutz landen Telemetriedaten und Code Snippets auf den Servern. Ein Blick in die Cursor-Privacy-Richtlinien(öffnet im neuen Fenster) lohnt sich.











Der Composer: projektübergreifende Produktivität
Während der Chatmodus gut für einzelne Dateien funktioniert, legt der Composer im Agent-Modus noch einen drauf. Damit lassen sich Aufgaben definieren, die mehrere Dateien oder ganze Projekte betreffen.











Zum Beispiel erstellen und verlinken wir eine neue Page und implementieren dabei das MVVM-Pattern: "Setze es mittels MVVM-Pattern." Der Clou: Wir erhalten eine Vorschau ähnlich einer Merge-Ansicht. Jede Änderung kann überprüft und einzeln oder gesammelt übernommen werden.
Kontext ist King
Der Erfolg von Large Language Models (LLMs) hängt entscheidend vom Kontext ab. Ein Trick ist zum Beispiel, bei den Systemprompts mit Rollendefinitionen wie etwa "App-Entwickler im Bereich .NET" die Ergebnisse zu verbessern.
Daneben gibt es neben einer zentralen Vorgabe noch sogenannte Cursor Rules(öffnet im neuen Fenster) . Diese können sich auf unterschiedliche Themengebiete im Projekt beziehen (Framework-spezifisch, Codestyle/Architektur oder UI-Vorgaben). So können sie auch dateispezifisch auf Basis einer Dateiendung zugeordnet werden.
Es existiert dazu mittlerweile eine Reihe von(öffnet im neuen Fenster) Cursor-Rules-Sammlungen(öffnet im neuen Fenster) zu unterschiedlichen Themenfeldern.











Dazu gehören Dokumentationslinks: Offizielle SDK- oder Library-Dokumentationen können indexiert und genutzt werden.











Mithilfe direkter Referenzen lassen sich mit @ Dateien, Pull-Requests oder externe Webquellen referenzieren.











Eine besondere Funktion: Mit Cursor lassen sich Benutzeroberflächen auf Basis von Screenshots generieren.
Ein Beispiel: Ein Boarding-Pass-Layout wird in XAML umgesetzt, lediglich das QR-Code-Bild muss nachträglich eingebunden werden. Logik und dynamische Inhalte? Die bleiben dem Entwickler überlassen. Aber auch hier hilft wieder der Composer.











Wie steht es mit der Qualität?
Gute Frage. Meine Antwort nach gut einem Jahr fast täglicher Verwendung: Man muss es differenziert sehen. Die kurze Antwort: Ein 80-zu-20 Prozent-Verhältnis zugunsten der KI ist definitiv möglich. Je nach Kontext und Prompt wird schon sehr viel korrekter Code erstellt oder angepasst. Der neue Agent Mode in Kombination mit den neuen Sprachmodellen treiben die Qualität und Grenze immer weiter vor sich her.
Bei der Erstellung von UI-Code (in meinem App-Umfeld XAML-Code oder Dart-Code) wird mir ein sehr großer Anteil der Arbeit abgenommen. Aber natürlich muss nachgearbeitet und vor allem verstanden werden, was da erzeugt wurde, um gegebenenfalls den Prompt zu optimieren oder die manuellen Restarbeiten durchzuführen.
Mein persönlicher Favorit für die Codeerstellung ist das LLM Claude von Anthropic(öffnet im neuen Fenster) . Natürlich hängt dies aber auch immer von der Programmiersprache, den Aufgaben und der technischen Umgebung ab. Docker-Konfiguration ist anders als Webentwicklung. Das Gute bei Cursor ist gerade, dass man sehr einfach und schnell die verschiedenen LLMs wechseln kann. Der Markt der LLMs ist bekannterweise sehr dynamisch, es werden ständig neue Modelle veröffentlicht (siehe Deepseek).
Agenten: die Spinne im Netz
Neben Inline-Hilfe und dem komplexeren Chat ist auch eine Agenten-Funktion in Cursor integriert. Doch was genau ist ein Agent und wie grenzt er sich von den Large Language Models (LLM) ab ?
Fangen wir mit einer kurzen Definition an, die direkt das Verhältnis klar macht: Ein Agent ist ein autonomes System, das Aufgaben ausführt, Ziele verfolgt und in einer Umgebung agiert. Es kann Entscheidungen treffen, planen und handeln - oft unter Verwendung eines LLMs als eine seiner Komponenten.
Funktionsweise
1. KI-Agent:
- kann mehrere KI-Modelle und Werkzeuge kombinieren
- interagiert mit der Umgebung (z. B. durch APIs, Robotik oder Software)
- kann lernen, Pläne anpassen und sich weiterentwickeln
- hat oft eine langfristige Speicher- und Lernfähigkeit.
2. LLM:
- arbeitet hauptsächlich mit Text (Ein- und Ausgabe)
- beantwortet Fragen und verarbeitet Informationen aus seinem Training
- ist statisch und benötigt externe Steuerung, um gezielt zu handeln.
3. Beispiel für die Nutzung:
- KI-Agent: ein digitaler Assistent, der Aufgaben verwaltet, Mails verschickt, Termine koordiniert und eigenständig Entscheidungen trifft
- LLM: ein Sprachmodell wie GPT, das Texte generiert, Fragen beantwortet oder Inhalte zusammenfasst
4. Zusammenspiel
- Ein KI-Agent kann ein LLM als Denkmodul nutzen, um Texte zu verstehen oder zu generieren.
- Aber ein LLM allein ist kein vollständiger Agent, da es ohne externe Kontrolle keine autonomen Aktionen ausführt.
Zusammengefasst: Ein LLM ist ein Werkzeug zur Sprachverarbeitung. Ein KI-Agent nutzt ggf. ein LLM als Teil einer umfassenderen Architektur, um Aufgaben auszuführen.
Bei Cursor kann der Agent Terminal-Befehle erstellen (Ausführung nach Wunsch manuell), aber auch Fehler erkennen und diese iterativ beheben. Ein Beispiel wäre das Erstellen virtueller Python-Umgebungen über Paketinstallationen bis zur Initialisierung ganzer Projekte. Aber Vorsicht: Ein "Undo" gibt es im Terminal nicht (immer).
Hier ein schönes Beispiel, wie auf Basis der Systemprompt-Vorgaben ( "Nutze das MVVM-Pattern" ) entsprechende Terminal-Kommandos generiert werden (NuGet-Paket installieren und ViewModels-Ordner anlegen):











Dabei kann man zwischen individueller Bestätigung und dem sogenannten Yolo-Modus wählen, bei dem alle Terminal-Kommandos ohne Rückfrage ausgeführt werden. Man kann zwar gefährliche Commands wie rm -rf / oder das generelle Löschen von Dateien ausschließen, aber ungefährlich ist dieser Modus definitiv nicht. Es ist auch möglich, externe Quellen via MCP-Server ( Model Context Protocol(öffnet im neuen Fenster) von Anthropic) anzubinden.











Was kostet der Spaß?
Der Pro Plan von Cursor(öffnet im neuen Fenster) kostet 20 US-Dollar pro Monat, Business 40 US-Dollar pro Monat. Das Tool bietet eine Testphase und abgestufte Abomodelle. Die Begrenzung der Anzahl an Prompts variiert je nach Plan.
Bei dem Pro-Modell ist zu beachten, dass man nur 500 Anfragen für Premium-Modelle (GPT 4, GPT 4o, Claude 3.5, Sonnet usw.) zur Verfügung hat. Wem das nicht reicht, der muss zum Business-Modell greifen.
Ich nutze das Pro-Abomodell von Cursor für 20 US-Dollar im Monat und bin bisher noch nie an irgendwelche Grenzen gekommen. Ein Wechsel der LLMs verringert diese Grenzen weiter. Aber das muss am Ende nach einer normalen Arbeitsphase jeder für sich selbst entscheiden.
KI statt Entwickler?
Was bedeuten KI-Agenten nun für die zukünftige Rolle von uns Entwicklern? Mark Zuckerberg macht es vor: Bei Meta übernimmt KI angeblich die Aufgaben von Mid-Level-Entwicklern(öffnet im neuen Fenster) . Besonders berühmt ist die Aussage von Jensen Huang von Nvidia(öffnet im neuen Fenster) geworden, der postuliert hat, dass es in Zukunft nicht mehr notwendig sein werde, Programmieren zu lernen.
Auf der anderen Seite sieht das Sam Altman, der Chef von Open AI, nicht ganz so deutlich. Er sagt, Programmieren lernen sei immer noch sinnvoll. Klar ist: Wir Entwickler werden in Zukunft kaum ohne die Unterstützung von AI Agents auskommen. Solche Tools gilt es zu beherrschen, die Grenzen zu erkennen und fachlich einzuordnen, geeignete Prompts zu erstellen und die Restaufgaben kompetent zu schließen. Denn stößt die KI an ihre Grenzen, sind wir weiter gefragt.
Die Grenzen der KI
- Fehleranfälligkeit: KI produziert nicht nur Gutes. Entwickler müssen Fehler finden, verstehen und korrigieren.
- Kreativität: Technologieauswahl, Architektur und die Auswahl der Bibliotheken kann KI nicht eigenständig entscheiden.
- Kommunikation: Die besten Prompts entstehen aus klaren Anforderungen. Doch wer holt diese vom Kunden ab?
Fazit: KI reduziert den manuellen Aufwand - und das ist eine gute Sache. Entwicklern bleibt mehr Zeit für kreative, strategische und zwischenmenschliche Aufgaben. Der Beruf stirbt nicht, er wandelt sich.
Marco Seraphin ist seit gut 23 Jahren als freiberuflicher Entwickler und Trainer tätig. Seit 2013 entwickelt er mobile Apps.



