Anzeige

Adversarial Noise: Wie man Musik vor generativer KI schützen kann

In einer Welt, in der Künstliche Intelligenz immer stärker in kreative Prozesse eingreift, fragen sich viele Musiker, wie sie ihre Werke vor ungewollter Nachahmung schützen können. Gerade generative KI-Modelle lernen schnell und gründlich aus bestehender Musik – oft ohne Rücksicht auf künstlerische Urheberschaft. Dieser Artikel soll eine mögliche Schutzmaßnahme zeigen, die nicht nur eigene Musik vor KI schützen, sondern auch KI-Modelle gezielt schaden könnte.

© Shutterstock/ solarseven

KI-Modelle lernen aus riesigen Mengen an Musikdaten, indem sie statistische Muster und musikalische Strukturen in Audioaufnahmen analysieren. Dieser Lernprozess erfolgt in mehreren Schritten: Zunächst werden Musikstücke in maschinenlesbare Formate überführt, etwa durch Umwandlung in Spektraldaten oder durch Extraktion musikalischer Merkmale wie Tonhöhe, Rhythmus, Instrumentierung und Harmonie. Anschließend nutzen neuronale Netzwerke diese Informationen, um Zusammenhänge zwischen Klangmustern und stilistischen Eigenschaften zu erkennen.

© Wikimedia Commons/ Benlisquare – Spektrogramm einer KI-generierten Bossa Nova

Über viele Trainingszyklen hinweg entwickelt das Modell ein tiefes Verständnis davon, wie verschiedene Musikstile klingen, wie Melodien aufgebaut sind oder welche Klangfarben typisch für bestimmte Genres sind.

© Wikimedia Commons/ Benlisquare – KI-generierte Bossa Nova

So können Tools wie Suno.ai schließlich eigenständig neue Musik generieren, die stilistisch und strukturell echten Kompositionen ähnelt.

Die rasante Entwicklung generativer KI wirft jedoch rechtliche und ethische Fragen auf. Aktuell ist der Schutz künstlerischer Werke durch bestehende Urheberrechtsgesetze oft unzureichend, wenn es um KI-generierte Inhalte geht. Viele Systeme, wie Suno.ai oder MusicLM, greifen auf öffentlich verfügbare Musikdaten zurück, jedoch ohne die Zustimmung der ursprünglichen Urheber.

Zwar darf KI in vielen Ländern zu Forschungszwecken auf solche Daten zugreifen, doch ob daraus generierte Werke rechtlich als eigenständig oder abgeleitet gelten, ist oft unklar. Diese Grauzone führt zu Unsicherheit bei Künstlern, die befürchten, dass ihre kreativen Werke von Maschinen kopiert und verwertet wird. Entsprechend wächst der Ruf nach klaren gesetzlichen Regelungen, die Urheberrechte auch im Zeitalter der Künstlichen Intelligenz wirksam schützen.

Adversarial Noise

Neue Entwicklungen bieten jedoch einen möglichen Lösungsansatz, um Kunst vor KI zu schützen. Adversarial Noise ist eine Art von künstlich erzeugtem Rauschen, das in Daten wie Bildern, Audios oder Texten eingebettet werden kann und dabei für den Menschen kaum oder gar nicht wahrnehmbar ist. Obwohl dieses Rauschen visuell oder akustisch keine spürbare Veränderung hervorruft, wird es von KI-Modellen sehr wohl registriert. Sie erkennt die versteckte Störung und erhält einen ganz anderen Input, als wir Menschen.

Dadurch kann die KI verwirrt oder in die Irre geführt werden. Ein Bild einer Katze kann für die KI plötzlich wie ein Hund wirken oder ein Gemälde komplett unlesbar scheinen. Menschen nehmen Bilder mit Adversarial Noise jedoch ganz normal auf.

Hier ein Beispiel für Adversarial Noise für einfache Bilder. Durch eine leichte Störtextur, die für Menschen quasi unsichtbar ist, kann die KI das eigentliche Bild nicht mehr wiedererkennen.

© Wikimedia Commons: Joshuaclymer

Diese gezielten Störungen nutzen die hohe Sensibilität von neuronalen Netzwerken aus, die oft auf kleinste Muster oder statistische Merkmale reagieren. Für das menschliche Gehirn haben diese Muster keine Bedeutung. Zahlreiche Künstler haben ihre Bilder und Fotos bereits mit Adversarial Noise ‘beschichtet’, damit KI-Modelle den eigentlichen Input nicht analysieren können.

HarmonyCloak – Musik vor KI schützen

Hier kommt HarmonyCloak ins Spiel – ein neuartiges Schutzsystem, das Musiker vor der unautorisierten Nutzung ihrer Werke durch generative KI-Modelle schützt. Das Prinzip ist ganz ähnlich wie bei der Adversarial-Noise-Methode für Bilder und Fotos. HarmonyCloak fügt Musikstücken gezielt erzeugtes, für Menschen unhörbares Rauschen hinzu, das verhindert, dass KI-Modelle aus diesen Daten lernen können. Während die Musik für menschliche Hörer unverändert klingt, wird sie für KI-Modelle unverständlich, wodurch eine Nachahmung oder stilistische Replikation verhindert wird.

Beispielsweise können durch solche Frequenzen falsche Instrumente simuliert werden. Eine KI könnte die neunte Symphonie von Beethoven analysieren und stattdessen ein Heavy-Metal-Konzert erkennen. Oder eine akustische Gitarre als Mundharmonika wahrnehmen. Auf der HarmonyCloak-Website sind hierfür einige praktische Beispiele gelistet, die teilweise wirklich lustig sind.

Adversarial Noise als Offensive

Diese Methode kann nicht nur die eigene Musik vor KI schützen, sondern wirkt auch präventiv gegen die Weiterentwicklung generativer KI-Modelle. Da solche Systeme kontinuierlich aus jedem neuen Input lernen und ihre Modelle entsprechend anpassen, kann eine gezielte Störung wie HarmonyCloak weitreichende Folgen haben. Die KI analysiert die manipulierte Musik falsch und integriert fehlerhafte Informationen in ihr Trainingsmodell. Dadurch verschlechtert sich nicht nur die Qualität zukünftiger generierter Inhalte, sondern das Modell wird gezielt in die Irre geführt. Wie ein Domino-Effekt wirkt dieser Mechanismus, um die Nachahmung künstlerischer Werke langfristig zu verhindern.

Neben HarmonyCloak entstehen derzeit auch andere Schutzsysteme, die auf einem ähnlichen Prinzip basieren. Ein Beispiel ist Nightshade von der University of Chicago. Es nutzt gezielte Verzerrungen, um KI-Modelle in die Irre zu führen und so eine stilistische Nachahmung zu verhindern. Ziel hierbei ist, dass die betroffenen Modelle langfristig an Qualität verlieren sollen. Aus derselben Forschungseinrichtung stammt Glaze, das speziell für digitale Kunstwerke wie Bilder und Illustrationen entwickelt wurde. Weitere Modelle werden entwickelt, um der rapiden Entwicklung von KI mitzuhalten.

“Poison-Pilling” der Musik

Aufmerksam gemacht über diese Methode wurden wir durch den Content-Creator Benn Jordan. In einem ausführlichen Video erklärt er die Technologie hinter diesen Modellen und macht sie anhand anschaulicher Beispiele fest. Sein Video ist sehr empfehlenswert und bietet einen umfangreichen Überblick, über die Thematik.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Benn Jordan verwendet für diese gezielte Form der Störung den Begriff ‘Posionify’. Damit beschreibt er den Vorgang, bei dem KI-Modelle durch den Einsatz von Adversarial Noise bewusst mit fehlerhaften Informationen „vergiftet“ werden. Ziel ist es nicht nur, die eigene Musik vor dem Lernen durch KI zu schützen, sondern auch, die Qualität der Modelle selbst aktiv zu verschlechtern. Poisonify ist somit eine Art digitale Selbstverteidigung, bei der Künstler die KI gewissermaßen mit ihren eigenen Waffen schlagen.

Der Schutz künstlerischer Werke vor KI ist keine ferne Zukunftsfrage, sondern längst Teil des digitalen Alltags. Mit Methoden wie HarmonyCloak können Künstler jetzt auf die ‘künstlerische’ Entwicklung der KI und der Zukunft der Musik Einfluss nehmen.

Hot or Not
?
2504 Musik Vor KI Schutzen 1260x756 V01 Bild

Wie heiß findest Du diesen Artikel?

Kommentieren
Schreibe den ersten Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.
Für dich ausgesucht
10.000 neue KI-Songs täglich: So geht Deezer gegen KI-Musik vor
News

Der Musik-Streaming-Dienst Deezer ver&ouml;ffentlichte in der vergangenen Woche ein Statement &uuml;ber KI-Inhalte auf ihrer Plattform. Angeblich werden hier jeden Tag etwa 10.000 vollst&auml;ndig KI-generierte Lieder hochgeladen &ndash; das entspricht ca. 10 % der neuen Inhalte. Deezer versucht nun gezielt mit neuen Tools gegen diese KI-Welle vorzugehen. Bereits 2023 hatte Deezer angek&uuml;ndigt, t&auml;uschend echte &bdquo;Deepfake-Vocals&ldquo; sowie &hellip; <a href="https://www.bonedo.de/artikel/adversarial-noise-wie-man-musik-vor-ki-schuetzen-kann/">Continued</a>

10.000 neue KI-Songs täglich: So geht Deezer gegen KI-Musik vor Artikelbild

Der Musik-Streaming-Dienst Deezer veröffentlichte in der vergangenen Woche ein Statement über KI-Inhalte auf ihrer Plattform. Angeblich werden hier jeden Tag etwa 10.000 vollständig KI-generierte Lieder hochgeladen – das entspricht ca. 10 % der neuen Inhalte. Deezer versucht nun gezielt mit neuen Tools gegen diese KI-Welle vorzugehen.

"Es bringt heutzutage keinen Spaß, Musik zu machen", sagt der CEO eines KI-Musik-Unternehmens
News

Mikey Shulman, CEO und Gr&uuml;nder von Suno AI, sprach im 20VC-Podcast &uuml;ber seine Sicht auf die heutige Musikwelt. Sein Unternehmen, das eine KI-Plattform zur automatischen Musikgenerierung entwickelt hat, m&ouml;chte die H&uuml;rden des Musikmachens abbauen. Shulman ist &uuml;berzeugt, dass viele Menschen keine Freude daran haben, ein Instrument zu erlernen oder Musik selbst zu produzieren. Die von &hellip; <a href="https://www.bonedo.de/artikel/adversarial-noise-wie-man-musik-vor-ki-schuetzen-kann/">Continued</a>

"Es bringt heutzutage keinen Spaß, Musik zu machen", sagt der CEO eines KI-Musik-Unternehmens Artikelbild

Mikey Shulman, CEO und Gründer von Suno AI, sprach im 20VC-Podcast über seine Sicht auf die heutige Musikwelt. Sein Unternehmen, das eine KI-Plattform zur automatischen Musikgenerierung entwickelt hat, möchte die Hürden des Musikmachens abbauen. Shulman ist überzeugt, dass viele Menschen keine Freude daran haben, ein Instrument zu erlernen oder Musik selbst zu produzieren. Die von Suno entwickelte KI soll genau hier ansetzen und den Zugang zur Musik für alle erleichtern.

Bonedo YouTube
  • Behringer JT mini Demo (no talking)
  • Walrus Audio QI Etherealizer with Twisted Electrons TWISTfm
  • Sire Marcus Miller GB5-5: Beautiful acoustic bass sound! #shorts #bass #siremarcusmiller #sirebass