Una nuova canzone sta guadagnando terreno e, come cantava notoriamente Kylie Minogue, si sta dimostrando difficile da estirpare dalla mente.
Tuttavia, questo solleva delle domande: cosa succederebbe se la traccia fosse composta da un robot, o se l’artista stesso fosse una creazione dell’intelligenza artificiale (IA)? Le piattaforme di streaming dovrebbero essere tenute a identificare la musica generata dall’IA? E, in definitiva, importa se la musica è piacevole?
Un recente sondaggio ha indicato che il 97% dei partecipanti non è stato in grado di distinguere tra musica generata dall’IA e musica creata da esseri umani. Tuttavia, esistono indicatori sottili per coloro che sanno dove cercare.
Ecco una breve guida.
La musica AI ha guadagnato importanza la scorsa estate a seguito di accuse secondo cui la band The Velvet Sundown era generata dall’IA, portando alla loro fama virale.
Nonostante la mancanza di una casa discografica e una presenza minima sui social media, la band ha rapidamente accumulato centinaia di migliaia di ascoltatori mensili su Spotify dopo aver pubblicato due album in rapida successione, suscitando sospetti all’interno della comunità musicale.
Inizialmente negando le accuse, la band in seguito si è descritta come un progetto sintetico “guidato dalla direzione creativa umana e composto, doppiato e visualizzato con il supporto dell’intelligenza artificiale”.
Hanno inquadrato il progetto come una “provocazione artistica” piuttosto che un inganno, ma molti fan si sono sentiti ingannati.
Gli utenti di Internet hanno messo in discussione le foto pesantemente modificate della band, caratterizzate da sfondi generici e un filtro arancione distintivo.
Inoltre, non c’erano prove di esibizioni dal vivo, nessuna recensione dei fan e una carenza di foto o video di concerti. I membri della band non avevano rilasciato interviste e sembrava che non avessero account individuali sui social media.
Indagare sulla presenza reale e online di un artista può essere un metodo utile per la verifica. Tuttavia, gli esperti suggeriscono che la tecnologia in rapido avanzamento sta rendendo sempre più difficile discernere la musica generata dall’IA.
Tuttavia, rimangono segnali sottili di cui gli ascoltatori possono essere consapevoli.
LJ Rich, che ha iniziato a creare musica AI circa cinque anni fa, ricorda che i primi sistemi AI potevano generare solo tre secondi di musica alla volta, richiedendo circa 10 ore per produrre un minuto di audio.
Oggi, un’intera canzone può essere generata rapidamente con un singolo prompt, portando a quella che gli esperti del settore descrivono come un'”esplosione” di musica AI, spesso definita “slop”, sulle piattaforme di streaming.
Una sensazione formulistica – piacevole ma priva di profondità o risonanza emotiva – può indicare il coinvolgimento dell’IA, afferma il musicista e relatore tecnologico, così come le voci che sembrano tese.
Le canzoni AI tendono ad aderire a strutture convenzionali di strofa-ritornello e spesso mancano di conclusioni soddisfacenti. Rich osserva che l’IA ha maggiori probabilità di produrre testi grammaticalmente corretti, mentre alcuni dei testi scritti dall’uomo più memorabili a volte possono mancare di coerenza.
Si consideri “giungla di cemento dove si fanno i sogni” di Alicia Keys o l’uso di doppie negazioni da parte dei Rolling Stones in “(I Can’t Get No) Satisfaction”.
“Se non sembra emozionante, questo è un indicatore significativo”, continua l’ex presentatore di BBC Click. “Crea la tensione e il rilascio che è fondamentale per la musica che amiamo? Racconta una storia?”
Un altro segno rivelatore è la produttività non realistica. La prof.ssa Gina Neff, del Minderoo Centre for Technology and Democracy dell’Università di Cambridge, indica il caso di un artista che era sospettato di utilizzare l’IA dopo aver pubblicato contemporaneamente diversi album dal suono simile.
Le loro canzoni assomigliavano a un mashup di band rock degli anni ’80 – “successi rock classici che erano stati messi in un frullatore”.
“Questo può essere adatto come musica di sottofondo per molti, ma non creerà le superstar del futuro che attingono al passato ma poi creano qualcosa di completamente nuovo”, continua.
Una canzone che sembra quasi troppo perfetta, priva di sottili imperfezioni e variazioni, può anche essere un campanello d’allarme.
Questo potrebbe manifestarsi come voci impeccabili e una produzione eccessivamente raffinata, secondo Tony Rigg, consulente dell’industria musicale e docente di gestione dell’industria musicale presso l’Università del Lancashire.
Aggiunge che anche un fraseggio insolito, una consegna emotiva innaturale e testi generici o ripetitivi possono essere indizi.
“L’IA non ha ancora sperimentato il dolore… Riconosce gli schemi”, spiega. “Ciò che rende la musica umana non è solo il suono, ma le storie dietro di essa”.
È anche importante ascoltare attentamente le voci. I “cantanti” AI spesso suonano leggermente impastati e le consonanti e le occlusive (suoni duri come “p” e “t”) possono essere imprecise. Si possono anche presentare le cosiddette armonie “fantasma”, in cui le voci di sottofondo appaiono e scompaiono in modo casuale.
Tuttavia, Rigg avverte che questi segni sono “indizi, non prove”, riconoscendo che non è sempre facile per gli ascoltatori occasionali rilevare la musica generata dall’IA.
Oltre a generare canzoni complete, l’IA viene utilizzata anche da artisti affermati come strumento per aumentare la loro creatività.
Attualmente, non esiste alcun obbligo – o metodo standardizzato – per gli artisti di divulgare se e come stanno utilizzando l’IA.
Alcuni sono trasparenti: i Beatles, ad esempio, hanno utilizzato l’apprendimento automatico per isolare la voce di John Lennon da una registrazione su cassetta degli anni ’70, consentendo loro di pubblicare “Now and Then”, soprannominata la loro “ultima canzone”, nel 2023.
Artisti come Imogen Heap e Timbaland hanno persino creato personaggi AI e pubblicato singoli con i loro nomi.
Il mese scorso, Heap ha pubblicato la canzone “Aftercare” con il suo modello AI, ai.Mogen, che è stato addestrato sulla sua voce.
Inizialmente ha sviluppato il modello vocale come un chatbot – un “disperato tentativo” di gestire un flusso di messaggi e richieste, compresi quelli dei fan – ma da allora è stato presentato in diverse canzoni, consentendo a Heap di partecipare a più collaborazioni di quante ne avrebbe altrimenti il tempo.
Anche se ammette che “suona diverso se conosci davvero la mia voce”, ha investito uno sforzo significativo per far suonare umana la versione AI e crede che la maggior parte degli ascoltatori non sarebbe in grado di distinguerla.
Heap non sta tentando di ingannare gli ascoltatori – ai.Mogen è accreditato come co-contributore alla traccia.
La sua speranza è che, se gli ascoltatori si connettono con la canzone senza rendersi conto che parte delle voci sono cantate dal suo modello AI, possano riconsiderare qualsiasi idea negativa o preoccupazione preconcetta che hanno sull’IA.
“Spero che le persone ascoltino, non si rendano conto e trovino la pace in questo”, dice alla BBC.
Chiariarisce che non è contraria all’uso dell’IA per creare musica, ma non è qualcosa che ha ancora esplorato a fondo.
Heap sostiene una maggiore trasparenza riguardo agli elementi che contribuiscono a una canzone e a come è stata utilizzata l’IA.
Tracciando un parallelo con l’etichettatura degli alimenti, afferma che “ne abbiamo bisogno per la musica e ne abbiamo bisogno per l’IA”.
Attualmente, le piattaforme di streaming non sono legalmente obbligate a etichettare le canzoni generate dall’IA, nonostante le crescenti richieste di comunicazioni obbligatorie.
A gennaio, Deezer ha lanciato uno strumento di rilevamento dell’IA, seguito da un sistema quest’estate che tagga la musica generata dall’IA.
Deezer afferma che il suo sistema di rilevamento può identificare le tracce realizzate utilizzando gli strumenti di creazione musicale AI più diffusi e sta attivamente espandendo la sua capacità di rilevare la musica prodotta con altri strumenti. La società afferma che il rischio di falsi positivi – identificare erroneamente la musica creata dall’uomo come generata dall’IA – è molto basso.
Questa settimana, la società ha riferito che un terzo (34%) dei contenuti caricati sulla sua piattaforma era interamente generato dall’IA – circa 50.000 tracce al giorno.
Manuel Moussallam, direttore della ricerca di Deezer, afferma che il suo team era inizialmente scettico quando il rilevatore ha contrassegnato così tante tracce, “abbastanza convinti di avere un problema”.
Lo strumento ha rapidamente contrassegnato The Velvet Sundown – la band che è diventata virale durante l’estate – come “100% generata dall’IA”.
Altre piattaforme hanno recentemente annunciato iniziative per migliorare la trasparenza.
A settembre, Spotify ha annunciato che avrebbe implementato un nuovo filtro antispam entro la fine dell’anno per identificare i “cattivi attori” e impedire che “slop” venga raccomandato agli ascoltatori. Nell’ultimo anno, la piattaforma ha rimosso più di 75 milioni di tracce spam.
Spotify sta anche supportando un sistema, sviluppato da un consorzio del settore chiamato DDEX, per consentire agli artisti di indicare dove e come è stata utilizzata l’IA in una traccia. Queste informazioni saranno incluse nei metadati e visualizzate sulla sua app.
Spotify afferma che i suoi sforzi sono guidati da un riconoscimento del desiderio degli ascoltatori di maggiori informazioni, nonché da un impegno a “rafforzare la fiducia”.
“Non si tratta di punire gli artisti che usano l’IA in modo responsabile o di declassare le tracce per aver divulgato informazioni su come sono state realizzate”.
Se sei diventato un fan devoto di un nuovo artista, l’uso dell’IA ha importanza?
Alcuni sostengono che la presenza dell’IA sia irrilevante – il coinvolgimento si basa sul divertimento e, se la musica è piacevole, serve alla sua funzione primaria.
Altri sostengono che i fan della musica dovrebbero avere la possibilità di prendere decisioni informate sulle loro scelte di ascolto.
Gli artisti hanno espresso serie preoccupazioni sull’impatto dell’IA e centinaia di musicisti, tra cui Dua Lipa e Sir Elton John, hanno protestato contro l’uso delle loro canzoni nell’addestramento degli strumenti di IA.
Per LJ Rich, l’uso dell’IA nella musica solleva numerose “strane e belle questioni etiche” che rimangono irrisolte.
“Come se la musica fa drizzare i capelli sulla nuca, importa se l’ha scritta un’IA o no?”
A settembre, il deputato liberale e segretario parlamentare per la lotta alla criminalità Vince Gasparro ha annunciato il divieto “a nome” del governo canadese.
Il ricercatore principale ritiene che la macchina “offrirà nuove prospettive” sul comportamento umano.
The Maccabees, Two Door Cinema Club, The Wombats, CMAT e The Libertines suoneranno tutti nel 2026.
Il cantante canadese sarà il protagonista del venerdì sera dell’evento di cinque giorni quando tornerà a luglio del prossimo anno.
Il musicista era noto per successi come You Can Get It If You Really Want e I Can See Clearly Now.
