DeepL Write: Brauchen wir jetzt noch eine menschliche Lektorin?
"Bessere Texte im Handumdrehen" verspricht Deepl Write. Noch korrigiert die KI ohne Unterscheidung zwischen Verbessern und Verschlimmbessern - vielversprechend ist das Tool trotzdem.

Die maschinelle Übersetzung von DeepL gilt seit Jahren als eines der besten Onlinesprachtools. Heute veröffentlichte das Kölner Unternehmen sein zweites KI-Produkt. DeepL Write baut auf der etablierten Technologie des Übersetzers auf und soll "selbst feinste kontextuelle Nuancen" erkennen und "Unterstützung für jeden Zweck und für jedes sprachliche Ausgangslevel" bieten, heißt es in der Pressemitteilung.
- DeepL Write: Brauchen wir jetzt noch eine menschliche Lektorin?
- Entwicklung first, Monetarisierung second
Golem.de hat die Betaversion von DeepL Write bereits vorab getestet und dabei festgestellt, dass man der KI - wie bei anderen Generatoren auch - trotz guter Ergebnisse nicht immer blind vertrauen sollte. Eine Aussage, der DeepL-Gründer und CEO Jaroslaw Kutylowski im Interview selbst zustimmt.
Denn dass DeepL Write Lektorinnen oder Textchefs bei Online-Medien wie Golem.de zeitnah ersetzen wird, glaubt Kutylowski nicht. "Ich sehe DeepL Write genauso wie den Übersetzer als unterstützende Funktion", sagte er im Gespräch mit uns. Auch Übersetzer seien bislang nicht arbeitslos geworden, obwohl es den DeepL Translator seit 2016 und Google Translate sogar schon seit 2006 gibt.
Wann ersetzt die KI den Menschen?
DeepL Write, das neue Produkt des KI-Start-ups, wird vorerst nur für deutsche und englische Texte angeboten und lässt sich kostenlos nutzen. Wer den Übersetzer von DeepL bereits verwendet hat, findet sich in der Bedienoberfläche gleich zurecht: In das linke Eingabefeld kommt der Originaltext, eine Sekunde später erscheint rechts eine Variante mit Änderungsvorschlägen.
Einige dieser Änderungsvorschläge sind gut, wenn zum Beispiel in der Pressemitteilung von DeepL selbst das sperrige "sprachliche Ausgangslevel" zum "Sprachniveau" vereinfacht oder das vom menschlichen Autor weiter unten in diesem Artikel falsch übersetzte "projiziert" zu "prognostiziert" korrigiert. Darüber hinaus sind die Vorschläge oft hilfreich, um der eigenen Kreativität bei Wortwiederholungen mit ein paar KI-generierten Ideen auf die Sprünge zu helfen.
Wenn aus einem korrekten "Sinn ergeben" wie in einem unserer Tests das umgangssprachliche "Sinn machen" wird, sägt DeepL Write eher an den Nerven eines menschlichen Lektors als Stress abzubauen. Als Unterstützung bei der Überarbeitung durch einen Menschen ist DeepL Write aber schon in der Betaversion durchaus geeignet, gerade bei einer eher holprig formulierten Textvorlage.
"Obwohl maschinelle Übersetzer in den letzten Jahren immer populärer wurden, gab es weiterhin eine Koexistenz von menschlichen Übersetzern und diesen Tools", sagt Kutylowski. Beim Übersetzer habe man allerdings beobachten können, dass er "besonders häufig dort genutzt wird, wo vorher gar nicht übersetzt wurde". Das heißt, die KI-Tools ersetzen keinen menschlichen Übersetzer, sondern helfen dort aus, wo es vorher keinen gab.
Entsprechend soll DeepL Write dort sprachliche Verbesserungen ermöglichen, wo vorher kein zweites Augenpaar über einen Text gegangen ist. "Wenn ich eine E-Mail an die Schule meiner Kinder schreibe, vertraue ich dem Tool", sagt Kutylowski.
Fehler machen Menschen auch
Über sprachliche Schönheit lässt sich streiten, über inhaltliche Fehler nicht. Hier zeigt sich bei DeepL Write eine Schwachstelle, die auch in der Debatte um ChatGPT schon zutage kam: Künstliche Intelligenz versteht nicht wirklich, worüber sie schreibt, sondern imitiert nur (mit einer zugegebenermaßen hohen Trefferquote) Muster echter Sprache.
Beim Überarbeiten einer Meldung über eine Abmahnung des Bundeskartellamts schlug DeepL Write vor, aus Google den "Mutterkonzern" zu machen - dabei ist das nicht Google, sondern Alphabet. Es ist eine subtile Anpassung, die leicht zu übersehen ist, aber dennoch in der Sache falsch.
"Man kann Fehler weder beim Übersetzer noch bei DeepL Write komplett vermeiden", sagt Kutylowski, als wir ihn auf unsere Testergebnisse ansprechen. Für journalistische Texte solle man dem Tool ohnehin nicht blind vertrauen: "Auch ein menschliches Team kann Fehler machen", sagt Kutylowski. Diese Problematik gebe es bei automatisierten Übersetzungen genauso. Auch da könne das Ergebnis mal besser und mal schlechter sein, wie Kutylowski sagt. Letztendlich müsse immer auf den konkreten Anwendungsfall geschaut werden.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Entwicklung first, Monetarisierung second |
- 1
- 2
Witzig auch in diesem Kontext ist die Annahme, dass es nur "Ein Echtes Deutsch" gibt...
Ich versteh die moralische Panik hinter "Sinn machen" nicht wirklich. Sprache verändert...
Was mir anhand eines Beispieltextes aufgefallen ist: DeepL hat aus allen Gedankenstrichen...
DeepL hat zumindest gezeigt, dass in dem Segment Qualität oft wichtiger ist als Qualität...
Kommentieren