Mer. Gen 14th, 2026
Le implicazioni di nuove leggi e indagini per i deepfake di Grok AI

“`html

Qui è raffigurato l’autore su un molo nel Dorset la scorsa estate.

In particolare, due di queste immagini sono state generate utilizzando Grok, lo strumento di intelligenza artificiale sviluppato da Elon Musk e reso disponibile per l’uso pubblico.

L’output dell’IA è sorprendentemente convincente. Sebbene l’autore non abbia mai indossato la tuta da sci gialla o la giacca rossa e blu raffigurate – la fotografia centrale è l’originale – le immagini generate sollevano preoccupazioni sulla prova dell’autenticità di fronte a tali falsificazioni realistiche.

Grok è stato oggetto di critiche per la sua capacità di generare immagini non autorizzate e sessualmente esplicite di donne.

I rapporti indicano che lo strumento ha prodotto immagini di individui in bikini e, in alcuni casi, raffigurazioni più esplicite, basate sui suggerimenti degli utenti, con risultati condivisi pubblicamente sulla piattaforma di social media X.

Inoltre, le prove suggeriscono che l’IA è stata utilizzata anche per generare immagini sessualizzate di bambini.

In risposta alla diffusa condanna, Ofcom, l’autorità di regolamentazione online del Regno Unito, ha annunciato un’indagine urgente per stabilire se Grok ha violato le leggi britanniche sulla sicurezza online.

Il governo ha esortato Ofcom ad accelerare la sua indagine.

Tuttavia, per mantenere la credibilità ed evitare accuse di soffocamento della libertà di parola – una critica comune rivolta all’Online Safety Act – Ofcom deve condurre un’indagine approfondita e imparziale.

Il recente silenzio di Elon Musk sulla questione suggerisce un riconoscimento della gravità della situazione.

Tuttavia, ha anche accusato il governo britannico di cercare “qualsiasi scusa” per la censura.

I critici sostengono che questa difesa è inadeguata in questo caso.

“Spogliare le persone nelle foto con l’IA non è libertà di parola, è abuso”, sostiene Ed Newton Rex, un importante attivista.

“Quando ogni foto che una donna pubblica di se stessa su X attrae immediatamente risposte pubbliche in cui è stata spogliata fino a un bikini, qualcosa è andato molto, molto storto.”

Date le complessità, l’indagine di Ofcom sarà probabilmente prolungata, richiedendo ampie deliberazioni e potenzialmente mettendo alla prova la pazienza sia dei politici che del pubblico.

Questa indagine rappresenta un momento cruciale non solo per l’Online Safety Act britannico, ma anche per l’autorità di regolamentazione stessa.

Il fallimento non è un’opzione.

Ofcom ha affrontato in precedenza critiche per la mancanza di potere esecutivo. L’Online Safety Act, sviluppato per anni, è entrato in vigore completamente solo l’anno scorso.

Ad oggi, sono state emesse sei multe, la più grande delle quali è di 1 milione di sterline, e solo una è stata pagata.

Inoltre, l’Online Safety Act non affronta esplicitamente i prodotti di IA.

Mentre la condivisione di immagini intime non consensuali, inclusi i deepfake, è attualmente illegale, richiedere a uno strumento di IA di generare tali immagini non lo è.

Questo sta per cambiare. Il governo promulgherà una legge questa settimana per criminalizzare la creazione di queste immagini.

Il Regno Unito prevede anche di emendare la legislazione esistente attualmente in esame in Parlamento, rendendo illegale per le aziende fornire gli strumenti utilizzati per crearle.

Queste disposizioni, precedenti all’Online Safety Act, fanno parte del Data (Use and Access) Act.

Nonostante i numerosi annunci del governo, l’applicazione è stata ritardata fino ad ora.

L’annuncio di oggi riflette un governo determinato a contrastare le critiche secondo cui la regolamentazione è troppo lenta, mostrando la sua capacità di agire in modo decisivo quando necessario.

Le implicazioni si estendono oltre Grok.

La nuova legge potrebbe porre sfide per i proprietari di altri strumenti di IA in grado di generare immagini simili.

L’applicazione rimane una questione chiave. Le azioni di Grok sono venute alla luce perché il suo output è stato condiviso pubblicamente su X.

Se uno strumento viene utilizzato privatamente, con gli utenti che eludono le protezioni e condividono contenuti solo con individui consenzienti, come verranno rilevate le violazioni?

Se X dovesse essere ritenuto colpevole di aver violato la legge, Ofcom potrebbe imporre una multa fino al 10% del suo fatturato mondiale o 18 milioni di sterline, a seconda di quale sia il maggiore.

Ofcom potrebbe persino cercare di bloccare Grok o X nel Regno Unito, una mossa che potrebbe avere significative ripercussioni politiche.

Al vertice sull’IA a Parigi lo scorso anno, il vicepresidente JD Vance ha messo in guardia contro i paesi stranieri che regolano le società tecnologiche statunitensi.

Il suo pubblico, compresi numerosi leader mondiali, è rimasto in silenzio.

Le aziende tecnologiche mantengono una notevole influenza all’interno della Casa Bianca e hanno investito pesantemente nell’infrastruttura di IA nel Regno Unito.

Il paese può permettersi di alienarle?

Iscriviti alla nostra newsletter Tech Decoded per seguire le principali notizie e tendenze tecnologiche del mondo. Fuori dal Regno Unito? Iscriviti qui.

La presentatrice Jess Davies afferma che il governo del Regno Unito è stato “lento” nella creazione di leggi sui deepfake dell’IA.

I parlamentari stanno lasciando X in seguito alle segnalazioni secondo cui la sua funzione AI Grok viene utilizzata per creare immagini sessualizzate.

Gli analisti affermano che l’accordo sarà probabilmente accolto con favore dai consumatori, ma riflette il fallimento di Apple nello sviluppare i propri strumenti di intelligenza artificiale.

Attualmente è illegale condividere deepfake, ma la legge contro la loro creazione non è ancora entrata in vigore.

Il membro dell’assemblea dell’Irlanda del Nord Cara Hunter definisce il sito di social media di proprietà di Elon Musk un “disgrazia”.

“`