Die Hohe Fünf mit Mathias Liegmal – Wird Künstliche Intelligenz Rapper*innen ersetzen?

Künstliche Intelligenz

Als Mathias Liegmal auf das Buch “Der Bestseller-Code” von Jodie Archer und Matthew L. aufmerksam wurde, befriedigte ihn die darin erwähnte Begründung nicht, weshalb KI – Künstliche Intelligenz – Autor*innen zukünftig nicht ersetzen könne. Laut dem Buch sei KI lediglich Analysator für Erfolgschancen eines Romans, aber kein Verfasser. Davon wollte sich Mathias Liegmal selbst überzeugen und stieß auch auf das Thema KI in Bezug auf Film und Musik. Letztlich veröffentlichte er am 11. August sein Buch “Wenn der Computer zum Künstler wird“. In diesem begründet er, inwiefern künstliche Intelligenz, Big Data und Algorithmen bereits unbemerkt die Kreativbranche revolutionieren und bewertet, ob der Einsatz bis zur Überhandnahme von KI in den nächsten Jahren unsere Realität werden könnte. Im Rahmen unserer Hohen Fünf beantwortet uns Mathias Liegmal Fragen zum Thema KI in der Rapindustrie. Sind Rapper*innen bald ersetzbar? Wo wurde bereits ohne unseres Wissens KI benutzt? Was sind Gefahren und was Chancen von KI in der Musikwelt? 

 

Gibt es bereits bekannte Songs, die überwiegend durch KI entstanden sind?

Es gibt zwei Songs, die in den Medien relativ viel Aufmerksamkeit bekommen haben. Da wäre zum einen Daddy’s Car, das soundtechnisch ein bisschen an die Beatles erinnert. François Pachet, der die zugrunde liegende KI namens Flow Machines entwickelt hat, arbeitet mittlerweile übrigens für Spotify. Ansonsten hat der Song „Jack Park Canny Dope Man“ Anfang dieses Jahres noch für Aufsehen gesorgt. Er basiert auf Songs von Travis Scott, weshalb der Artist den Namen Travis Bott trägt. Die Lyrics sind zwar teilweise etwas unsinnig, aber alles in allem ist das Ergebnis schon recht beeindruckend. Wenn wir allerdings auf die Charts gucken, dann wäre da vor allem Not Easy von Alex Da Kid mit X Ambassadors, Elle King und Wiz Khalifa zu nennen. Alex Da Kid hat dafür mit IBM zusammengearbeitet, deren KI namens Watson erfolgversprechende Akkordfolgen und Themen ermittelt hat. Auf dieser Grundlage hat Alex Da Kid dann den Song produziert.

 

 

Welche Probleme siehst du in der Anwendung von Deepfakes (einer KI-Technik zur Imitation von Stimmen) zur Verwendung von KI gemachten Songs? 

Mögliche Probleme gibt es bei Deepfakes haufenweise, denn es gibt schon erstaunlich gut gefälschte Videos. Donald Trump hat beispielsweise mal eins verbreitet, das allem Anschein nach eine politische Gegnerin im betrunkenen Zustand gezeigt hat, aber eben gefälscht war. Parallel dazu gibt es inzwischen auch sehr gute Methoden zur Imitation von Stimmen. Dadurch wird es für die gezeigten Personen immer schwieriger, zu beweisen, dass ein Video eine Fälschung ist. Auch für den Gegenbeweis gibt es zwar mittlerweile entsprechende KI-Systeme, aber langfristig gerät man da in so eine Art Wettrüsten. Als Positivbeispiel fällt mir da ein Musikvideo wie „Selfmade Legenden“ von Favorite und Kollegah ein. Favorite war ganz offensichtlich bei diesem Videodreh gar nicht anwesend – mit aus einer ausgereiften Deepfake-Technik hätte man das recht gut vertuschen können.

 

 

Welche Auswirkungen durch KI sind auf den Livesektor zu erwarten? 

Es gibt eine Sängerin namens Miku Hatsune, die in Japan ganze Hallen füllt. Der Witz daran ist, dass sie kein Mensch aus Fleisch und Blut, sondern lediglich ein Hologramm ist, das auf die Bühne projiziert wird. Einige kennen diese Methode vielleicht schon durch den Tupac-Auftritt auf dem Coachella-Festival. Die Lieder, die Miku Hatsune performt, werden von Fans erstellt, die dafür die Software Vocaloid2 benutzen – es gibt inzwischen über 100.000 Songs mit ihrer Stimme. Nun muss man allerdings bedenken, dass Japan schon ein etwas anderer Kulturkreis ist. Man müsste, wie schon gesagt, erst noch schauen, ob ein*e offensichtlich künstlicher Musiker*in von den Hörer*innen akzeptiert wird. Allerdings hängt Rap meines Erachtens sehr viel stärker am Faktor Authentizität als andere Genres. So etwas wie Schnappi oder den Crazy Frog gab es im Rap deshalb vermutlich auch noch nicht.

  

 

Was empfindest du als Gefahren und was als Chancen von KI für die Rap Branche? 

Als Chance empfinde ich auf jeden Fall die Möglichkeit, Wege einzuschlagen, die die Vielfalt fördern können. Wenn eine KI Musik produziert, dann ist es durchaus möglich, dass sie Ansätze wählt, die einem Menschen vielleicht niemals in den Sinn gekommen wären. Auch könnte auf diese Weise eine Schreibblockade überbrückt werden, indem die KI als Stichwortgeber agiert. Je näher wir jedoch der Perfektion kommen, umso leichter könnten menschliche Künstler ersetzt werden: Computer schlafen nicht, wollen keinen Urlaub machen, kosten keine Sozialabgaben und haben keine privaten Probleme, die sie in ihrem kreativen Schaffen hindern. Sie verstricken sich auch nicht in irgendwelche Geschichten, die zu negativer PR führen und dann von der Plattenfirma ausgebügelt werden müssen. Im besten Fall kann es dazu führen, dass wir Musik beziehungsweise die menschliche Faszination für Musik besser verstehen. Welche Harmonien, welche Melodien, welche Instrumente, Klänge, Stimmen und Texte sprechen Menschen besonders an? Aus wirtschaftlicher Sicht klingt das doch also schon sehr verlockend – es könnte aber sehr viele Musiker*innen den Job kosten und vor allem auch diese gewisse Magie zerstören, die mit der Musik immer irgendwie einhergeht. Interviews, Filme, Biografien, das ganze Drumherum wäre irgendwie hinfällig. Die gesamte Musik könnte langfristig betrachtet in einer Art Einheitsbrei enden. Diese Diskussion wird ja aktuell schon aufgrund von Playlisten und den dazugehörigen Algorithmen geführt. Ich persönlich denke aber, dass diese Befürchtungen etwas übertrieben sind. Der Einsatz von KI kann durchaus auch dazu führen, dass Erfolgsformeln entdeckt werden, die bisher noch gar eine Anwendung finden, und er könnte auch dazu beitragen, dass Nischenmusik wieder rentabler wird. 

 

Sind Rapper*innen in Zukunft überhaupt noch relevant, wenn ihr Job auch von KIs ausgeführt werden kann? 

Auf den ersten vollumfänglichen KI-Musiker werden wir wohl noch eine Weile warten müssen. Vorerst wird KI vermutlich eher als Ideen-Geber zum Einsatz kommen, während der Mensch dann als Kurator fungiert, der auswählt und vollendet. Ein bisschen so wie Kanye, der von Studio zu Studio geht, sich besonders vielversprechende Songskizzen seiner Co-Producer*innen herauspickt und sie dann zu Ende denkt. Auch „Daddy’s Car“ musste noch von einem Musikproduzenten ausproduziert werden. Sollte es einmal dazu kommen, dass eine KI tatsächlich den gesamten künstlerischen Prozess übernehmen kann, kommt es wohl vor allem auf die Frage an, ob die Fans diesen Entstehungsprozess akzeptieren – oder ob sie die Illusion eines Künstler*innen-Genies benötigen, das sich im Studio die Nächte um die Ohren schlägt. Das würde dann in so einer Art Milli-Vanilli-Rapperin münden und die Ghostwriter*innen-Diskussion auf ein ganz neues Level hieven.

The following two tabs change content below.

Erzähl Digger, erzähl

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.