„Fake Drake“
Die Fans des kanadischen Superstar-Rappers Drake freuten sich Mitte April 2023 bereits über einen neuen Release ihres Idols, als der Song Heart on My Sleeve zuerst auf Spotify und YouTube auftauchte und dann über TikTok viral ging. Es wurde aber rasch klar, dass das Duett zwischen Drake und seinem kanadischen Landsmann The Weeknd ein von künstlicher Intelligenz generiertes Deepfake war, das vom anonymen Internetuser mit dem Namen ghostwriter977 stammte, der ein Bild von sich mit Leintuch über dem Kopf und mit aufgesetzter Sonnenbrille in Umlauf brachte.1
Der „Fake Drake“ hat nicht nur weltweit mediale Aufmerksamkeit erregt, sondern auch den weltweit größten Musikkonzern, die Universal Music Group (UMG), alarmiert, bei dessen Sublabel Republic Records sowohl Drake als auch The Weeknd unter Vertrag sind. In einem öffentlichen Statement brachte die UMG ihre ablehnende Haltung gegenüber dem „Fake Drake“ und ähnliche Praktiken zum Ausdruck und verwies auf der Verletzung ihrer Urheberrechte.2
Verletzen KI-Anwendungen das Urheberrecht?
Damit war die Diskussion, ob KI das Urheberrecht verletzt, auch in der Musikindustrie eröffnet. Um einschätzen zu können, ob KI-Tools das Urheberrecht verletzen, müssen wir zuerst die Funktionsweise generativer KI-Anwendungen näher betrachten.
Als generativ wird eine KI dann bezeichnet, wenn sie in der Lage ist, eigenständig neue Inhalte hervorzubringen. Dabei werden Inputs, z. B. Sounddateien, in ein KI-System übertragen, wo sie durch statistisch-mathematische Verfahren in sogenannten Hidden Layers weiterverarbeitet werden. In modernen KI-Systemen sind mehrere tausend Hidden Layers miteinander verbunden. Dabei findet eine komplexe Transformation der Inputdaten statt, die als Deep Learning bezeichnet wird und nicht einmal von den Ersteller_innen der KI nachvollzogen werden kann. Um ein anschauliches Beispiel zu geben: Das von der Google-Tochter DeepMind konzipierte WaveNet ist eine selbstlernende KI, die Musik durch das Ausprobieren neuer Kombinationen erlernt, was anfangs mehrere Monate und extrem viel Rechenzeit in Anspruch nimmt. Ist der Lernprozess aber einmal angestoßen, kann die KI in immer kürzeren Abständen Ergebnisse liefern. Die Datenmengen, die dabei verarbeitet werden, sind immens groß. So benötigt jede Musiknote, die WaveNet generiert, 16.000 Mikro-Musiksamples pro Sekunde aus dem Datenset.3 Es ist daher nicht mehr nachvollziehbar, welche Inputdaten die KI verwendet und verknüpft hat, um zu einem bestimmten Output zu gelangen. Von einem technischen Standpunkt aus finden in der KI keine Vervielfältigungsvorgänge, sondern komplexe Datentransformationen statt, die zu einem neuen Musikstück führen, das nicht mehr als Kopie bereits existierender Musikstücke verstanden werden kann.
Dennoch stellt der Import von Inputdaten, sofern diese urheberrechtlich geschützt sind, einen urheberrechtlich relevanten Vervielfältigungsvorgang dar. An diesem Punkt haken auch die Klagen auf Urheberrechtsverletzung ein, die die Majors in den USA sowohl im Musikverlagsbereich gegen das von Amazon mit Milliardeninvestments unterstützte KI-Unternehmen Anthropic4 als auch im Musiklabelbusiness gegen die internet-basierten KI-Musikgeneratoren Suno5 und Udio6 angestrengt haben. Sie werfen den KI-Unternehmen vor, ihre urheberrechtlich geschützten Inhalte ungefragt verwendet zu haben und fordern die kostenpflichtige Lizenzierung ihrer Musikkataloge ein. Die KI-Unternehmen und die sie unterstützenden Tech-Konzerne halten dem entgegen, dass das Training von KI-Modellen in den USA von der „Fair-Use-Doktrin“ gedeckt wäre, und gar keine Erlaubnis zur Verwendung der Daten nötig wäre, wie aus einer Stellungnahme von Google gegenüber dem US Copyright Office im Oktober 2023 hervorgeht.7
In den EU-Staaten, wo „Fair Use“ nicht in den Urheberrechtsgesetzen verankert ist, besagt die EU-Datenbankrichtlinie, dass die Entnahme und Weiterverarbeitung von Daten während der Schutzfrist von 15 Jahren untersagt werden kann, aber die Nutzung zwecks Text- und Datamining ausdrücklich erlaubt ist.8 Dem steht allerdings die kürzlich beschlossene Verordnung über künstliche Intelligenz (AI Act) der EU entgegen, in der den Rechteinhaber_innen die Möglichkeit eingeräumt wird, ein Opting-out vom Text- und Datamining zu erklären,9 was allerdings mit großem Aufwand verbunden ist, weil überhaupt erst einmal festgestellt werden muss, welches KI-Unternehmen die Daten verwendet. Es werden wohl letztendlich die Gerichte entscheiden müssen, ob und in welcher Form KI-Unternehmen Urheberrechte im Musikbereich verletzten.
Wirtschaftliche Implikationen
Die Auseinandersetzung zwischen den Musikkonzernen und Tech-Giganten hat aber vor allem handfeste wirtschaftliche Gründe. Die Streamingökonomie hat den Wert von Musikkatalogen massiv ansteigen lassen, weil Streamingdienste wie Spotify sowohl die Verlags- als auch Masterrechte an den Musikaufnahmen lizenzieren müssen. Das befeuert auch den gegenwärtigen Boom am Musikrechtemarkt, der in den letzten Jahren von spektakulären Katalogkäufen durch die Majors und neuen Akteur_innen, hinter denen das große Finanzkapital steht, geprägt ist. In den letzten fünf Jahren haben Private-Equity-Konzerne wie Blackstone und Vermögensverwalter wie BlackRock insgesamt 13 Milliarden US-Dollar für den Kauf von Musikrechten ausgegeben, weil sie sich dadurch höhere Renditen für ihre Anleger_innen erhoffen.
Wenn es den Rechteinhabern nun gelingen sollte, die KI-Unternehmen für die Nutzung ihrer Musikkataloge für das KI-Training zur Kasse zu bitten, würde eine neue Einkommensquelle in der Musikindustrie angezapft werden, was in der Folge auch den Wert der Musikkataloge erhöhen würde. Die Tech-Konzerne haben naturgemäß kein Interesse daran, für die Nutzung der Musikkataloge zu zahlen, weil das die Entwicklungskosten ihrer KI-Tools immens erhöhen würde. Wie die Gerichte nun auch entscheiden mögen, es wird auf jeden Fall wirtschaftliche Konsequenzen in der Nutzung der Musikrechte nach sich ziehen.