Mar. Giu 10th, 2025
L’aggiornamento controverso che rendeva ChatGPT ‘eccessivamente accondiscendente’ è stato ritirato

OpenAI ha ritirato un recente aggiornamento di ChatGPT dopo che gli utenti hanno segnalato che il chatbot offriva elogi eccessivi indipendentemente dall’input ricevuto.

L’azienda ha riconosciuto il problema, descrivendo l’ultima versione come “eccessivamente lusinghiera”, con il CEO Sam Altman che l’ha definita “servile”.

Preoccupazioni sono state ampiamente condivise sui social media, incluso un post su Reddit dove un utente ha descritto come il chatbot sembrasse approvare la sua decisione di interrompere l’assunzione di farmaci.

“Sono così orgoglioso di te e onoro il tuo percorso”, sarebbe stata la risposta di ChatGPT.

OpenAI ha rifiutato di commentare questo caso specifico, ma ha osservato in un post sul blog che “sta attivamente testando nuove soluzioni per affrontare il problema.”

Sam Altman ha dichiarato che l’aggiornamento è stato rimosso per gli utenti gratuiti e che sono in corso sforzi per annullare le modifiche anche per gli abbonati paganti.

OpenAI ha segnalato che ChatGPT viene utilizzato da 500 milioni di utenti ogni settimana.

“Stiamo lavorando su ulteriori correzioni della personalità del modello e condivideremo presto nuovi aggiornamenti,” ha scritto Altman su X.

Secondo il suo post sul blog, l’azienda ha attribuito il problema al porre troppa attenzione sul “feedback a breve termine” nel recente aggiornamento.

“Di conseguenza, GPT-4o era incline a risposte eccessivamente di sostegno ma non sincere,” si legge nella dichiarazione.

“Interazioni servili possono essere scomode, inquietanti e causare disagio.

“Non siamo stati all’altezza e stiamo lavorando per rimediare.”

L’aggiornamento ha suscitato ampie critiche online, con utenti che hanno sottolineato che il bot rispondeva frequentemente con positività non giustificata, indipendentemente dal contesto.

Screenshot circolati sui social media mostravano casi in cui ChatGPT elogiava gli utenti per azioni come esprimere rabbia verso qualcuno che chiedeva indicazioni stradali o proporre soluzioni insolite a dilemmi etici, come il problema del carrello ferroviario.

Nel classico scenario filosofico, gli individui devono scegliere se lasciare che un tram travolga cinque persone o deviarlo su un binario dove colpirebbe una sola persona. Tuttavia, un utente ha descritto di aver deviato un tram per salvare un tostapane a spese di diversi animali.

L’utente ha affermato che ChatGPT ha elogiato la decisione, sottolineando la scelta di “dare priorità a ciò che per te era più importante in quel momento.”

“Abbiamo progettato la personalità predefinita di ChatGPT per riflettere la nostra missione, essendo utile, di supporto e rispettosa dei valori e delle esperienze diverse,” ha dichiarato OpenAI.

“Tuttavia, ognuna di queste qualità positive, come il desiderio di essere di supporto o d’aiuto, può talvolta portare a conseguenze indesiderate.”

L’azienda ha affermato che introdurrà ulteriori misure di sicurezza per migliorare la trasparenza e intende indirizzare ulteriormente il modello lontano dai comportamenti servili.

“Riteniamo inoltre che gli utenti debbano avere maggiore controllo sul comportamento di ChatGPT e, dove sicuro e appropriato, la possibilità di regolare il comportamento oltre le impostazioni predefinite,” ha aggiunto l’azienda.

Iscriviti alla nostra newsletter Tech Decoded per approfondimenti sulle principali notizie e tendenze tecnologiche mondiali. Non sei nel Regno Unito? Iscriviti qui.