In einer Welt, in der Künstliche Intelligenz immer stärker in kreative Prozesse eingreift, fragen sich viele Musiker, wie sie ihre Werke vor ungewollter Nachahmung schützen können. Gerade generative KI-Modelle lernen schnell und gründlich aus bestehender Musik – oft ohne Rücksicht auf künstlerische Urheberschaft. Dieser Artikel soll eine mögliche Schutzmaßnahme zeigen, die nicht nur eigene Musik vor KI schützen, sondern auch KI-Modelle gezielt schaden könnte.

KI-Modelle lernen aus riesigen Mengen an Musikdaten, indem sie statistische Muster und musikalische Strukturen in Audioaufnahmen analysieren. Dieser Lernprozess erfolgt in mehreren Schritten: Zunächst werden Musikstücke in maschinenlesbare Formate überführt, etwa durch Umwandlung in Spektraldaten oder durch Extraktion musikalischer Merkmale wie Tonhöhe, Rhythmus, Instrumentierung und Harmonie. Anschließend nutzen neuronale Netzwerke diese Informationen, um Zusammenhänge zwischen Klangmustern und stilistischen Eigenschaften zu erkennen.

Über viele Trainingszyklen hinweg entwickelt das Modell ein tiefes Verständnis davon, wie verschiedene Musikstile klingen, wie Melodien aufgebaut sind oder welche Klangfarben typisch für bestimmte Genres sind.
So können Tools wie Suno.ai schließlich eigenständig neue Musik generieren, die stilistisch und strukturell echten Kompositionen ähnelt.
Die rasante Entwicklung generativer KI wirft jedoch rechtliche und ethische Fragen auf. Aktuell ist der Schutz künstlerischer Werke durch bestehende Urheberrechtsgesetze oft unzureichend, wenn es um KI-generierte Inhalte geht. Viele Systeme, wie Suno.ai oder MusicLM, greifen auf öffentlich verfügbare Musikdaten zurück, jedoch ohne die Zustimmung der ursprünglichen Urheber.
Zwar darf KI in vielen Ländern zu Forschungszwecken auf solche Daten zugreifen, doch ob daraus generierte Werke rechtlich als eigenständig oder abgeleitet gelten, ist oft unklar. Diese Grauzone führt zu Unsicherheit bei Künstlern, die befürchten, dass ihre kreativen Werke von Maschinen kopiert und verwertet wird. Entsprechend wächst der Ruf nach klaren gesetzlichen Regelungen, die Urheberrechte auch im Zeitalter der Künstlichen Intelligenz wirksam schützen.
Adversarial Noise
Neue Entwicklungen bieten jedoch einen möglichen Lösungsansatz, um Kunst vor KI zu schützen. Adversarial Noise ist eine Art von künstlich erzeugtem Rauschen, das in Daten wie Bildern, Audios oder Texten eingebettet werden kann und dabei für den Menschen kaum oder gar nicht wahrnehmbar ist. Obwohl dieses Rauschen visuell oder akustisch keine spürbare Veränderung hervorruft, wird es von KI-Modellen sehr wohl registriert. Sie erkennt die versteckte Störung und erhält einen ganz anderen Input, als wir Menschen.
Dadurch kann die KI verwirrt oder in die Irre geführt werden. Ein Bild einer Katze kann für die KI plötzlich wie ein Hund wirken oder ein Gemälde komplett unlesbar scheinen. Menschen nehmen Bilder mit Adversarial Noise jedoch ganz normal auf.
Hier ein Beispiel für Adversarial Noise für einfache Bilder. Durch eine leichte Störtextur, die für Menschen quasi unsichtbar ist, kann die KI das eigentliche Bild nicht mehr wiedererkennen.

Diese gezielten Störungen nutzen die hohe Sensibilität von neuronalen Netzwerken aus, die oft auf kleinste Muster oder statistische Merkmale reagieren. Für das menschliche Gehirn haben diese Muster keine Bedeutung. Zahlreiche Künstler haben ihre Bilder und Fotos bereits mit Adversarial Noise ‘beschichtet’, damit KI-Modelle den eigentlichen Input nicht analysieren können.
HarmonyCloak – Musik vor KI schützen
Hier kommt HarmonyCloak ins Spiel – ein neuartiges Schutzsystem, das Musiker vor der unautorisierten Nutzung ihrer Werke durch generative KI-Modelle schützt. Das Prinzip ist ganz ähnlich wie bei der Adversarial-Noise-Methode für Bilder und Fotos. HarmonyCloak fügt Musikstücken gezielt erzeugtes, für Menschen unhörbares Rauschen hinzu, das verhindert, dass KI-Modelle aus diesen Daten lernen können. Während die Musik für menschliche Hörer unverändert klingt, wird sie für KI-Modelle unverständlich, wodurch eine Nachahmung oder stilistische Replikation verhindert wird.
Beispielsweise können durch solche Frequenzen falsche Instrumente simuliert werden. Eine KI könnte die neunte Symphonie von Beethoven analysieren und stattdessen ein Heavy-Metal-Konzert erkennen. Oder eine akustische Gitarre als Mundharmonika wahrnehmen. Auf der HarmonyCloak-Website sind hierfür einige praktische Beispiele gelistet, die teilweise wirklich lustig sind.
Adversarial Noise als Offensive
Diese Methode kann nicht nur die eigene Musik vor KI schützen, sondern wirkt auch präventiv gegen die Weiterentwicklung generativer KI-Modelle. Da solche Systeme kontinuierlich aus jedem neuen Input lernen und ihre Modelle entsprechend anpassen, kann eine gezielte Störung wie HarmonyCloak weitreichende Folgen haben. Die KI analysiert die manipulierte Musik falsch und integriert fehlerhafte Informationen in ihr Trainingsmodell. Dadurch verschlechtert sich nicht nur die Qualität zukünftiger generierter Inhalte, sondern das Modell wird gezielt in die Irre geführt. Wie ein Domino-Effekt wirkt dieser Mechanismus, um die Nachahmung künstlerischer Werke langfristig zu verhindern.
Neben HarmonyCloak entstehen derzeit auch andere Schutzsysteme, die auf einem ähnlichen Prinzip basieren. Ein Beispiel ist Nightshade von der University of Chicago. Es nutzt gezielte Verzerrungen, um KI-Modelle in die Irre zu führen und so eine stilistische Nachahmung zu verhindern. Ziel hierbei ist, dass die betroffenen Modelle langfristig an Qualität verlieren sollen. Aus derselben Forschungseinrichtung stammt Glaze, das speziell für digitale Kunstwerke wie Bilder und Illustrationen entwickelt wurde. Weitere Modelle werden entwickelt, um der rapiden Entwicklung von KI mitzuhalten.
“Poison-Pilling” der Musik
Aufmerksam gemacht über diese Methode wurden wir durch den Content-Creator Benn Jordan. In einem ausführlichen Video erklärt er die Technologie hinter diesen Modellen und macht sie anhand anschaulicher Beispiele fest. Sein Video ist sehr empfehlenswert und bietet einen umfangreichen Überblick, über die Thematik.
Benn Jordan verwendet für diese gezielte Form der Störung den Begriff ‘Posionify’. Damit beschreibt er den Vorgang, bei dem KI-Modelle durch den Einsatz von Adversarial Noise bewusst mit fehlerhaften Informationen „vergiftet“ werden. Ziel ist es nicht nur, die eigene Musik vor dem Lernen durch KI zu schützen, sondern auch, die Qualität der Modelle selbst aktiv zu verschlechtern. Poisonify ist somit eine Art digitale Selbstverteidigung, bei der Künstler die KI gewissermaßen mit ihren eigenen Waffen schlagen.
Der Schutz künstlerischer Werke vor KI ist keine ferne Zukunftsfrage, sondern längst Teil des digitalen Alltags. Mit Methoden wie HarmonyCloak können Künstler jetzt auf die ‘künstlerische’ Entwicklung der KI und der Zukunft der Musik Einfluss nehmen.