Do.. Jan. 1st, 2026
Ist dein neuer Lieblingskünstler authentisch? So erkennst du es.

Ein neuer Song gewinnt an Zugkraft, und wie Kylie Minogue berühmt sang, erweist er sich als schwer aus dem Kopf zu bekommen.

Dies wirft jedoch Fragen auf: Was, wenn der Titel von einem Roboter komponiert wurde oder der Künstler selbst eine Schöpfung der künstlichen Intelligenz (KI) ist? Sollten Streaming-Plattformen verpflichtet werden, KI-generierte Musik zu kennzeichnen? Und ist es letztendlich wichtig, ob die Musik gefällt?

Eine kürzlich durchgeführte Umfrage zeigte, dass 97 % der Teilnehmer nicht in der Lage waren, zwischen KI-generierter und von Menschenhand geschaffener Musik zu unterscheiden. Dennoch gibt es subtile Hinweise für diejenigen, die wissen, wo sie suchen müssen.

Hier ist eine kurze Anleitung.

KI-Musik erlangte im letzten Sommer Bekanntheit, nachdem der Band The Velvet Sundown vorgeworfen wurde, KI-generiert zu sein, was zu ihrem viralen Ruhm führte.

Obwohl sie kein Plattenlabel hatten und nur eine minimale Präsenz in den sozialen Medien aufwiesen, sammelte die Band schnell Hunderttausende monatliche Hörer auf Spotify, nachdem sie in rascher Folge zwei Alben veröffentlicht hatte, was in der Musikgemeinschaft Misstrauen erregte.

Die Band wies die Behauptungen zunächst zurück, bezeichnete sich später aber als synthetisches Projekt, „das von menschlicher kreativer Leitung geleitet und mit Unterstützung künstlicher Intelligenz komponiert, vertont und visualisiert wurde“.

Sie bezeichneten das Projekt als „künstlerische Provokation“ und nicht als Täuschung, aber viele Fans fühlten sich irregeführt.

Internetnutzer stellten die stark bearbeiteten Fotos der Band in Frage, die generische Hintergründe und einen markanten orangefarbenen Filter aufwiesen.

Darüber hinaus gab es keine Beweise für Live-Auftritte, keine Fan-Rezensionen und einen Mangel an Konzertfotos oder -videos. Die Bandmitglieder hatten keine Interviews gegeben und schienen keine individuellen Social-Media-Konten zu haben.

Die Untersuchung der realen und Online-Präsenz eines Künstlers kann eine nützliche Methode zur Überprüfung sein. Experten weisen jedoch darauf hin, dass es aufgrund der rasanten technologischen Entwicklung immer schwieriger wird, KI-generierte Musik zu erkennen.

Dennoch gibt es subtile Anzeichen, auf die Hörer achten können.

LJ Rich, die vor etwa fünf Jahren mit der Erstellung von KI-Musik begann, erinnert sich, dass frühe KI-Systeme jeweils nur drei Sekunden Musik erzeugen konnten und etwa 10 Stunden benötigten, um eine Minute Audio zu produzieren.

Heute kann ein ganzes Lied schnell mit einer einzigen Eingabeaufforderung generiert werden, was zu einer von Branchenexperten beschriebenen „Explosion“ von KI-Musik auf Streaming-Plattformen führt, die oft als „Slop“ bezeichnet wird.

Ein formelhaftes Gefühl – angenehm, aber ohne Tiefe oder emotionale Resonanz – kann auf eine KI-Beteiligung hindeuten, sagt die Musikerin und Technologie-Rednerin, ebenso wie Gesang, der sich angestrengt anfühlt.

KI-Songs neigen dazu, konventionellen Strophe-Refrain-Strukturen zu folgen und weisen oft keine befriedigenden Abschlüsse auf. Rich merkt an, dass KI eher grammatikalisch korrekte Texte produziert, während einige der denkwürdigsten von Menschenhand geschriebenen Texte manchmal unzusammenhängend sein können.

Denken Sie an Alicia Keys‘ „concrete jungle where dreams are made of“ oder die Verwendung von doppelten Negationen durch die Rolling Stones in „(I Can’t Get No) Satisfaction“.

„Wenn es sich nicht emotional anfühlt, ist das ein wichtiger Indikator“, fährt die ehemalige BBC Click-Moderatorin fort. „Erzeugt es die Spannung und Entspannung, die für die Musik, die wir lieben, grundlegend ist? Erzählt es eine Geschichte?“

Ein weiteres verräterisches Zeichen ist unrealistische Produktivität. Prof. Gina Neff vom Minderoo Centre for Technology and Democracy an der Universität Cambridge verweist auf den Fall eines Künstlers, der des Einsatzes von KI verdächtigt wurde, nachdem er mehrere ähnlich klingende Alben gleichzeitig veröffentlicht hatte.

Ihre Songs ähnelten einem Mashup von 80er-Rockbands – „Klassiker der Rockmusik, die in einen Mixer geworfen wurden“.

„Dies mag für viele als Hintergrundmusik geeignet sein, aber es wird nicht die Superstars der Zukunft hervorbringen, die sich auf die Vergangenheit beziehen, aber dann etwas völlig Neues schaffen“, fährt sie fort.

Ein Song, der fast zu perfekt klingt und subtile Unvollkommenheiten und Variationen vermissen lässt, kann ebenfalls ein Warnsignal sein.

Dies kann sich in makellosem Gesang und übermäßig polierter Produktion äußern, so Tony Rigg, Berater der Musikindustrie und Dozent für Musikindustriemanagement an der University of Lancashire.

Er fügt hinzu, dass ungewöhnliche Phrasierung, unnatürliche emotionale Vermittlung und generische oder sich wiederholende Texte ebenfalls Hinweise sein können.

„KI hat noch keinen Herzschmerz erlebt… Sie erkennt Muster“, erklärt er. „Was Musik menschlich macht, ist nicht nur der Klang, sondern die Geschichten dahinter.“

Es ist auch wichtig, genau auf den Gesang zu hören. KI-Gesänger klingen oft leicht verschwommen, und Konsonanten und Plosive (harte Laute wie „p“ und „t“) können ungenau sein. Sogenannte „Geist“-Harmonien, bei denen Hintergrundgesang zufällig erscheint und verschwindet, können ebenfalls vorhanden sein.

Rigg warnt jedoch, dass diese Anzeichen „Hinweise, nicht Beweise“ sind, und räumt ein, dass es für Gelegenheitszuhörer nicht immer einfach ist, KI-generierte Musik zu erkennen.

Neben der Generierung vollständiger Songs wird KI auch von etablierten Künstlern als Werkzeug zur Erweiterung ihrer Kreativität eingesetzt.

Derzeit gibt es keine Verpflichtung – oder standardisierte Methode – für Künstler, offenzulegen, ob und wie sie KI einsetzen.

Einige sind transparent: Die Beatles beispielsweise nutzten maschinelles Lernen, um John Lennons Stimme von einer Kassettenaufnahme aus den 1970er Jahren zu isolieren, was es ihnen ermöglichte, „Now and Then“, ihren „letzten Song“, im Jahr 2023 zu veröffentlichen.

Künstler wie Imogen Heap und Timbaland haben sogar KI-Personas erstellt und Singles unter ihren Namen veröffentlicht.

Letzten Monat veröffentlichte Heap den Song „Aftercare“ mit ihrem KI-Modell ai.Mogen, das mit ihrer Stimme trainiert wurde.

Sie entwickelte das Sprachmodell ursprünglich als Chatbot – ein „verzweifelter Versuch“, eine Flut von Nachrichten und Anfragen, auch von Fans, zu bewältigen –, aber es wurde seitdem in mehreren Songs verwendet, so dass Heap an mehr Kooperationen teilnehmen kann, als sie sonst Zeit dafür hätte.

Obwohl sie zugibt, dass „es anders klingt, wenn man meine Stimme wirklich kennt“, hat sie viel Mühe investiert, um die KI-Version menschlich klingen zu lassen, und glaubt, dass die meisten Hörer sie nicht unterscheiden könnten.

Heap versucht nicht, Hörer zu täuschen – ai.Mogen wird als Mitwirkende an dem Titel genannt.

Sie hofft, dass Hörer sich mit dem Song verbunden fühlen, ohne zu merken, dass ein Teil des Gesangs von ihrem KI-Modell gesungen wird, und dass sie alle vorgefassten negativen Ideen oder Bedenken, die sie gegenüber KI haben, überdenken.

„Ich hoffe, dass die Leute zuhören, es nicht merken und darin Frieden finden“, sagt sie der BBC.

Sie stellt klar, dass sie nicht gegen die Verwendung von KI zur Erstellung von Musik ist, aber es ist nichts, was sie bisher ausgiebig erforscht hat.

Heap plädiert für mehr Transparenz in Bezug auf die Elemente, die zu einem Song beitragen, und wie KI eingesetzt wurde.

Sie zieht eine Parallele zur Lebensmittelkennzeichnung und betont, dass „wir das für Musik brauchen, und wir brauchen das für KI“.

Derzeit sind Streaming-Plattformen nicht gesetzlich verpflichtet, KI-generierte Songs zu kennzeichnen, obwohl es immer mehr Forderungen nach obligatorischen Angaben gibt.

Im Januar startete Deezer ein KI-Erkennungstool, gefolgt von einem System in diesem Sommer, das KI-generierte Musik markiert.

Deezer behauptet, dass sein Erkennungssystem Titel identifizieren kann, die mit den gängigsten KI-Musikproduktionswerkzeugen erstellt wurden, und es erweitert aktiv seine Fähigkeit, Musik zu erkennen, die mit anderen Werkzeugen produziert wurde. Das Unternehmen gibt an, dass das Risiko von falsch positiven Ergebnissen – die fälschliche Identifizierung von von Menschenhand geschaffener Musik als KI-generiert – sehr gering ist.

Diese Woche berichtete das Unternehmen, dass ein Drittel (34 %) der auf seine Plattform hochgeladenen Inhalte vollständig KI-generiert waren – etwa 50.000 Titel pro Tag.

Manuel Moussallam, Forschungsdirektor von Deezer, erklärt, dass sein Team zunächst skeptisch war, als das Erkennungstool so viele Titel markierte, „ziemlich überzeugt, dass wir ein Problem hatten“.

Das Tool markierte schnell The Velvet Sundown – die Band, die im Sommer viral ging – als „100 % KI-generiert“.

Auch andere Plattformen haben kürzlich Initiativen angekündigt, um die Transparenz zu erhöhen.

Im September kündigte Spotify an, dass es im Laufe dieses Jahres einen neuen Spamfilter einführen wird, um „böse Akteure“ zu identifizieren und zu verhindern, dass „Slop“ den Hörern empfohlen wird. Im vergangenen Jahr hat die Plattform mehr als 75 Millionen Spam-Titel entfernt.

Spotify unterstützt auch ein System, das von einem Branchenkonsortium namens DDEX entwickelt wurde, um es Künstlern zu ermöglichen, anzugeben, wo und wie KI in einem Titel eingesetzt wurde. Diese Informationen werden in den Metadaten enthalten sein und in seiner App angezeigt.

Spotify gibt an, dass seine Bemühungen von der Erkenntnis getrieben werden, dass die Hörer mehr Informationen wünschen, sowie von der Verpflichtung, „das Vertrauen zu stärken“.

„Es geht nicht darum, Künstler zu bestrafen, die KI verantwortungsvoll einsetzen, oder Titel herabzustufen, weil sie Informationen darüber preisgeben, wie sie entstanden sind.“

Wenn Sie ein begeisterter Fan eines neuen Künstlers geworden sind, spielt die Verwendung von KI dann eine Rolle?

Einige argumentieren, dass das Vorhandensein von KI irrelevant ist – das Engagement basiert auf Genuss, und wenn Musik gefällt, erfüllt sie ihre primäre Funktion.

Andere sind der Ansicht, dass Musikfans die Möglichkeit haben sollten, fundierte Entscheidungen über ihre Musikauswahl zu treffen.

Künstler haben ernsthafte Bedenken hinsichtlich der Auswirkungen von KI geäußert, und Hunderte von Musikern, darunter Dua Lipa und Sir Elton John haben gegen die Verwendung ihrer Songs beim Training von KI-Tools protestiert.

Für LJ Rich wirft die Verwendung von KI in der Musik zahlreiche „seltsame und schöne ethische Fragen“ auf, die noch nicht beantwortet sind.

„Wenn die Musik einem die Nackenhaare aufstellt, spielt es dann eine Rolle, ob eine KI sie geschrieben hat oder nicht?“

Im September gab der liberale Abgeordnete und parlamentarische Staatssekretär für Kriminalitätsbekämpfung, Vince Gasparro, das Verbot „im Namen“ der kanadischen Regierung bekannt.

Der leitende Forscher glaubt, dass die Maschine „neue Einblicke“ in das menschliche Verhalten „bieten wird“.

The Maccabees, Two Door Cinema Club, The Wombats, CMAT und The Libertines werden alle im Jahr 2026 spielen.

Die kanadische Sängerin wird am Freitagabend der fünftägigen Veranstaltung als Headlinerin auftreten, wenn diese im Juli nächsten Jahres zurückkehrt.

Der Musiker war für Hits wie You Can Get It If You Really Want und I Can See Clearly Now bekannt.

Von ProfNews