La BBC sta intraprendendo un’azione legale contro Perplexity, una società americana di intelligenza artificiale, sostenendo che il suo chatbot riproduce contenuti della BBC parola per parola senza autorizzazione.
La BBC ha formalmente chiesto a Perplexity di cessare l’utilizzo dei suoi contenuti, di cancellare le copie esistenti e di offrire un risarcimento finanziario per l’utilizzo passato. Questa è la prima azione legale della BBC contro una società di intelligenza artificiale.
Perplexity ha risposto affermando che le rivendicazioni della BBC sono una prova degli sforzi della BBC per proteggere il presunto monopolio illegale di Google, senza approfondire il collegamento.
La minaccia legale della BBC, recapitata in una lettera all’amministratore delegato di Perplexity, Aravind Srinivas, cita violazione del copyright e violazione delle condizioni d’uso della BBC.
La BBC indica una sua ricerca che rivela imprecisioni in diversi chatbot popolari di intelligenza artificiale, incluso Perplexity AI, in particolare per quanto riguarda la riepilogazione di notiziari della BBC. Questo, sostiene la BBC, danneggia la sua reputazione e erode la fiducia del pubblico.
L’aumento di popolarità dei chatbot e dei generatori di immagini di intelligenza artificiale dal lancio di ChatGPT ha sollevato preoccupazioni sull’utilizzo non autorizzato di contenuti esistenti.
Molti modelli di intelligenza artificiale generativa utilizzano vaste quantità di dati web raccolti tramite web scraping, una pratica che spinge gli editori britannici a chiedere una maggiore protezione del copyright.
La Professional Publishers Association (PPA) fa eco a queste preoccupazioni, evidenziando la minaccia per l’industria editoriale britannica derivante dalla raccolta illegale di contenuti da parte delle piattaforme di intelligenza artificiale.
Sebbene molte organizzazioni utilizzino “robots.txt” per limitare l’accesso dei bot, la conformità è volontaria e i bot spesso ignorano queste direttive. La lettera della BBC afferma che, nonostante il blocco dei crawler di Perplexity, la società continua a violare “robots.txt”.
Il Sig. Srinivas in precedenza aveva negato di ignorare le istruzioni “robots.txt” e Perplexity sostiene di non utilizzare i contenuti dei siti web per il pre-addestramento dei modelli di intelligenza artificiale.
Il chatbot di intelligenza artificiale di Perplexity, commercializzato come “motore di risposta”, sintetizza informazioni da diverse fonti, sebbene consigli agli utenti di verificarne l’accuratezza. Un precedente incidente ha coinvolto Apple che ha sospeso una funzione di intelligenza artificiale che generava falsi titoli di notizie della BBC dopo le lamentele della BBC.
Iscriviti alla nostra newsletter Tech Decoded per seguire le principali notizie e tendenze tecnologiche del mondo. Fuori dal Regno Unito? Iscriviti qui.