Zum Hauptinhalt Zur Navigation

Künstliche Intelligenz: KI will rock you

Ein Beatles-Song auf Knopfdruck? Kein Problem. Hip-Hop-Beats in Sekunden? Bitte sehr. Künstliche Intelligenz wird kreativ – und könnte die Musikbranche verändern.
/ Eike Kühl (Zeit Online)
4 Kommentare News folgen (öffnet im neuen Fenster)
Von KI erstellte Musik ist bereits möglich. (Bild: Pixabay)
Von KI erstellte Musik ist bereits möglich. Bild: Pixabay / CC0 1.0

Mein erster selbstgemachter Hip-Hop-Beat trifft den Zeitgeist der Soundcloud-Rapper: klare, helle Drums, eine melancholische Synthesizer-Melodie und ein Bass, der gemächlich vor sich hin pocht. Je öfter ich ihn höre, desto mehr nicke ich zufrieden mit dem Kopf. Gleichzeitig weiß ich: "Selbstgemacht" ist schlicht gelogen. Der Beat kommt aus der Software von Amper Music(öffnet im neuen Fenster) . Komponiert hat ihn eine künstliche Intelligenz (KI) innerhalb weniger Sekunden im Browser.

Kreativität und die Fähigkeit, Kunst zu erschaffen, das war bisher Menschen vorbehalten. Der Archäologe Ian Hodder nannte Kreativität einst den "Raum zwischen der materiellen Wirklichkeit und der Vorstellungskraft, in dem Intelligenz, Anpassungsfähigkeit und Problemlösungen aufeinander treffen" . Gleichzeitig ist Kreativität auch ein soziales Phänomen, tief verflochten mit Beziehungen, Kulturen und Erfahrungen.

Daddy's Car – von KI komponiertes Lied
Daddy's Car – von KI komponiertes Lied (03:00)

Man könnte sagen: Kreativität ist all das, was ein Computer nicht ist. Doch durch die Entwicklungen im Bereich der künstlichen Intelligenz bröckelt diese Annahme. In der Fotografie und Videobearbeitung hat KI bereits Einzug erhalten. Die Musikindustrie könnte als Nächstes dran sein – und dabei nicht nur Arbeitsplätze kosten, sondern auch am Selbstverständnis einer ganzen Kreativbranche rütteln.

"Die Entwicklung künstlicher Intelligenz ist wie ein Tsunami, der langsam auf uns zurollt" , sagt die amerikanische Sängerin Taryn Southern im Gespräch mit Zeit Online. Statt den Aufprall abzuwarten, stellt sie sich der Veränderung. Southern hat das demnächst erscheinende Album I AM AI aufgenommen. Es wurde fast ausschließlich mit der Software von Amper komponiert. Für Southern, die sich selbst auch als "VR-Angelist" und "Kryptoenthusiastin" bezeichnet, sei es vor allem eine "kreative Herausforderung" gewesen, sagt sie.

Amper verspricht Kompositionen auf Knopfdruck. Wer die noch in der Betaphase befindliche Software nutzt, muss lediglich einige Parameter vorgeben: Welches Genre soll es sein (Hip-Hop, Pop, Rock, Folk), welche Stimmung soll der Song haben (traurig, fröhlich, aufgeregt) und wie lang soll er sein. Anschließend erstellt die KI eine einmalige Melodie. Die Details, was etwa den Klang des Schlagzeugs oder des Synthesizers angeht, können direkt im Browser noch im Detail angepasst und verändert werden.

Wirklich komplette Lieder erzeugt die Software aber nicht. Für I AM AI nahm Southern die Vorschläge von Amper deshalb nur als Ausgangspunkt. Wenn die Software einen Beat komponiert hatte, der ihr gefiel, passte sie ihn an und brachte ihn in eine richtige Songstruktur mit Vers, Chorus und Bridge. Am Ende kamen dann die Texte. "In Sachen Instrumentierung ist Amper schon ziemlich gut" , sagt Southern, "aber mit Songstruktur hat die KI noch ihre Probleme und es fehlen noch viele Funktionen." Für die Sängerin bietet Amper vor allem neue Experimentiermöglichkeiten. Der Ablauf von der Idee zum fertigen Lied sei aber letztlich gar nicht so anders, als wenn sie mit einem Produzenten im Studio sitze, sagt sie.

Die Suche nach Klängen, die es noch nicht gibt

Amper aus New York ist eines von zahlreichen Startups, die an der Schnittstelle von Musikproduktion und künstlicher Intelligenz arbeiten. In London gibt es Jukedeck, in Berlin sitzt Melodrive, aus San Francisco stammt Humtap, aus Australien kommt Popgun, und auch Google unterhält mit Magenta ein internes Startup, das Kunst mit KI erschaffen will.

Während sich Jukedeck und Amper an der Funktionsweise traditioneller Musikproduktion orientieren, ermöglicht Humtap, Songs zu erstellen, indem die Nutzer eine Melodie in ihr Smartphone summen oder trommeln. Popgun entwickelt eine KI namens Alice, die in Echtzeit mit den Musikern komponieren und dabei etwa eine Klaviermelodie vervollständigen kann. Ein Magenta-Projekt versucht, verschiedene Instrumente zu kreuzen – und somit Klänge zu ermöglichen, die es zuvor nicht gab.

Wenn die Musik an ihre Grenzen stößt

Möglich macht all das nicht ausschließlich, aber vor allem das sogenannte Deep Learning: Mit Datenbanken bestehender Musik trainiert, mit Informationen über Noten, Klangfarben und Rhythmus ausgestattet, beginnt ein künstliches neuronales Netzwerk, von selbst neue Verbindungen zu schaffen. Gleichzeitig bekommt es gesagt, welche dieser Verbindungen auch gut klingen, schließlich sollen sie nicht bloß Krach erzeugen. Die Kreativität entsteht dadurch, dass die Algorithmen nicht nur nach vorgegebenen Mustern eine Melodie erzeugen, was Computer schon seit Jahrzehnten können (frühe Experimente in computergenerierter Musik datieren ins Jahr 1956). Vielmehr lernen sie, eigenständig neue Kombinationen und Melodien zu erschaffen – wie ein Musiker, der im Studio jammt.

Schon jetzt sind die Ergebnisse für die meisten Menschen kaum mehr von einem von Menschen komponierten Song zu unterscheiden. Das Lied Daddy's Car des von der EU mitfinanzierten Startups Flow Machines ist ein dreiminütiger Popsong im Stil der Beatles. Bis auf den Gesang wurde er ausschließlich von einer künstlichen Intelligenz komponiert. Liefe Daddy's Car im Radio, würde er ebenso wenig auffallen wie Break Free von Taryn Southern.

Neue Musik für neue Anwendungen

Ist es also nur noch eine Frage der Zeit, bis der erste Top Hit in den Charts von einer KI kommt? Denkbar wäre es, aber vielen Startups geht es gar nicht darum, mit ihren Algorithmen die traditionelle Musikproduktion auf höchstem Niveau zu ersetzen und damit Musiker und Produzenten überflüssig zu machen. Ihr Ziel ist es zum einen, die Musik zu demokratisieren. Nutzer von Youtube oder sozialen Medien wie Snapchat könnten die Angebote nutzen, um ihren Inhalten einen individuellen Soundtrack zu verpassen, ohne sich mit Urheberrechten herumschlagen zu müssen. Zum anderen kann KI in Anwendungen eingesetzt werden, in denen lineare Musik an ihre Grenzen stößt.

Das glaubt Valerio Velardo, einer der Gründer von Melodrive in Berlin, welches sich auf "adaptive Musik" konzentriert, die nicht linear ist, sondern sich an ihre Umwelt und deren Veränderungen anpasst. Szenarien wären etwa interaktive Medien oder Kunstinstallationen, in denen die Musik auf die Bewegungen der Besucher reagiert. Oder VR-Videos und Videospiele. So ist es denkbar, dass der Soundtrack eines Egoshooters auf das Verhalten und die Gesundheit der Spielfigur reagiert. Das könnte die Immersion in virtuellen Welten im Vergleich zu einem statischen Soundtrack verstärken.

Velardo ist überzeugt, dass Computer eines Tages Musik erschaffen können, die der von Menschen in nichts nachsteht. Doch trotz wichtiger Entwicklungen in den vergangenen Jahren sei dieser Zeitpunkt noch weit entfernt. "Musik lässt sich in Einzelteile zerlegen und analysieren, die Bausteine neu zusammensetzen" , sagt der ausgebildete Musiker im Gespräch mit Zeit Online. Doch das führe derzeit lediglich zu einer "explorativen Kreativität" : Die Software erkundet neue Wege in bekannten Gebieten. Entscheidend sei der Weg hin zu einer "transformativen Kreativität" : Etwas zu erschaffen, was sowohl für die Software selbst als auch die Musikkultur neu ist.

Bis es soweit ist, werden noch Jahre vergehen, glaubt Velardo. Zum einen fehle es noch an umfassenden Datensätzen, die Musik in all ihren Facetten, Stilen und Eigenarten für eine künstliche Intelligenz lesbar machten. Zum anderen benötige die Branche ein besseres Bild davon, wie Musik eigentlich funktioniere: "Es gibt nur eine Handvoll Menschen, die wirklich beide Sprachen, also sowohl KI als auch Musik sprechen" , sagt Velardo. Eine der größten Herausforderungen sei es, tatsächliche Musiker in die Entwicklung einzubeziehen.

Kreativität im Superheldenanzug

Womit sich die Frage stellt, inwiefern die Musikbranche von den Entwicklungen im KI-Bereich eigentlich bedroht ist. "Künstliche Intelligenz wird Jobs kosten, in vielen Bereichen, und das macht verständlicherweise den Menschen Angst", sagt die Musikerin Taryn Southern. Sie selbst begreife die Automatisierung aber nicht als Gefahr, sondern als Chance: Musiker verbrächten viel Zeit mit mühsamen, sich wiederholenden Aufgaben. So wie Computer schon jetzt viele dieser Aufgaben übernähmen, könne auch KI künftig zum Einsatz kommen. Statt die Kreativität zu ersticken, könnte KI sie sogar noch entfachen, neue Möglichkeiten und Arbeitsabläufe einführen.

Auch Valerio Velardo sieht KI nicht als ein Ersatz für Musiker und Produzenten, sondern als ein zusätzliches Werkzeug und, mehr noch, als einen "kreativen Partner" : "KI ist wie ein Superheldenanzug, den man anziehen kann und mit dem plötzlich Dinge möglich sind, die es vorher nicht waren." Was auch bedeutet, dass in dem Anzug weiterhin ein Mensch steckt. Am Selbstverständnis des Musikers ändert sich nichts – sofern man die Technik als Partner und nicht als Gefahr versteht.

KI ergänzt und ersetzt nicht

Die Fotografie bietet sich als Vergleich an: Dank Smartphones und Diensten wie Instagram ist die Fotografie demokratisierter denn je. Deshalb gibt es aber nicht weniger professionelle Fotografen. Im Gegenteil, viele Profis haben die neue Technik für sich entdeckt. Und in der Musikbranche hat etwa die Einführung der Software Auto-Tune, die automatisch Tonhöhen korrigiert, talentierte Sänger nicht überflüssig gemacht – auch wenn es vor 20 Jahren ähnlich viel Unbehagen gab wie heute im Angesicht von KI (Christina Aguilera trug einst ein T-Shirt mit der Aufschrift "Auto-Tune is for pussies" ).

"Wir müssen uns von der Idee verabschieden, dass Kreativität diese heilige, von Gott gegebene Eigenschaft der Menschen ist" , sagt Velardo. Die Entwicklung kreativer, künstlicher Intelligenz mag noch am Anfang stehen, doch bereits jetzt hat sie einen Fuß in den anfangs von Ian Hodder erwähnten Raum zwischen Wirklichkeit und Vorstellungskraft gesetzt. Die zweite, die soziale Komponente der Kreativität, dürfte die nächste und ungemein höhere Hürde sein. "Wenn Menschen miteinander musizieren, entsteht eine Magie, auf die ich nicht verzichten möchte" , sagt Taryn Southern. Jedenfalls noch nicht.


Relevante Themen