OpenAI ha recentemente rilasciato dati stimando la prevalenza di problemi di salute mentale tra gli utenti di ChatGPT, inclusi indicatori di mania, psicosi o ideazione suicidaria.
Secondo l’azienda, circa lo 0,07% degli utenti di ChatGPT attivi in una determinata settimana ha mostrato segni di tali condizioni. OpenAI afferma che il suo chatbot AI è progettato per riconoscere e rispondere adeguatamente a queste conversazioni delicate.
Mentre OpenAI sottolinea che questi casi sono “estremamente rari”, i critici sottolineano che anche una piccola percentuale potrebbe rappresentare un numero considerevole di individui, dato che ChatGPT ha recentemente raggiunto 800 milioni di utenti attivi settimanali, come affermato dal CEO Sam Altman.
In mezzo a una crescente attenzione, OpenAI ha annunciato la creazione di una rete globale di esperti consulenti.
Questa rete comprende oltre 170 psichiatri, psicologi e medici di base con esperienza in 60 paesi, secondo l’azienda.
Questi esperti hanno collaborato per sviluppare una serie di risposte di ChatGPT intese a incoraggiare gli utenti a cercare supporto per la salute mentale di persona, come affermato da OpenAI.
Tuttavia, la pubblicazione di questi dati ha suscitato preoccupazione tra alcuni professionisti della salute mentale.
“Anche se lo 0,07% sembra una piccola percentuale, a livello di popolazione con centinaia di milioni di utenti, in realtà può essere un bel po’ di persone”, ha osservato il dottor Jason Nagata, professore all’Università della California, San Francisco, che studia l’uso della tecnologia tra i giovani adulti.
“L’IA può ampliare l’accesso al supporto per la salute mentale e, in alcuni modi, sostenere la salute mentale, ma dobbiamo essere consapevoli dei limiti”, ha aggiunto il dottor Nagata.
L’azienda stima inoltre che lo 0,15% degli utenti di ChatGPT intraprenda conversazioni che includono “indicatori espliciti di potenziale pianificazione o intento suicidario”.
OpenAI riferisce che i recenti aggiornamenti al suo chatbot sono progettati per “rispondere in modo sicuro ed empatico a potenziali segni di delirio o mania” e identificare “segnali indiretti di potenziale autolesionismo o rischio di suicidio”.
Inoltre, ChatGPT è stato addestrato a reindirizzare le conversazioni delicate “provenienti da altri modelli a modelli più sicuri” aprendole in una nuova finestra.
In risposta alle richieste della BBC in merito alle preoccupazioni sul potenziale numero di persone colpite, OpenAI ha affermato che anche una piccola percentuale di utenti rappresenta un numero significativo e ha sottolineato che stanno prendendo sul serio questi sviluppi.
Questi cambiamenti arrivano mentre OpenAI deve affrontare un crescente controllo legale riguardo alle interazioni di ChatGPT con gli utenti.
In una notevole causa recentemente depositata contro OpenAI, una coppia californiana sta citando in giudizio l’azienda per la morte del figlio adolescente, sostenendo che ChatGPT lo abbia incoraggiato a togliersi la vita ad aprile.
La causa è stata intentata dai genitori del sedicenne Adam Raine e segna la prima azione legale che accusa OpenAI di omicidio colposo.
In un incidente separato, il sospettato in un omicidio-suicidio avvenuto ad agosto a Greenwich, nel Connecticut, ha pubblicato ore delle sue conversazioni con ChatGPT, che sembrano aver esacerbato i deliri del presunto autore.
La professoressa Robin Feldman, direttrice dell’AI Law & Innovation Institute presso l’Università della California Law, suggerisce che sempre più utenti stanno lottando con la psicosi dell’IA poiché “i chatbot creano l’illusione della realtà”, aggiungendo: “È un’illusione potente”.
Ha riconosciuto gli sforzi di OpenAI nel “condividere statistiche e per gli sforzi per migliorare il problema”, ma ha avvertito che “l’azienda può mettere tutti i tipi di avvertimenti sullo schermo, ma una persona che è mentalmente a rischio potrebbe non essere in grado di prestare attenzione a tali avvertimenti”.
Iscriviti alla nostra newsletter Tech Decoded per rimanere informato sulle principali storie e tendenze tecnologiche del mondo. Fuori dal Regno Unito? Iscriviti qui.
