OpenAI annulla l’aggiornamento di GPT-4o

La scorsa settimana, OpenAI ha rilasciato un aggiornamento del modello GPT-4o che alimenta ChatGPT, con l’obiettivo dichiarato di migliorarne l’intelligenza e la personalità predefinita. L’intervento avrebbe dovuto rendere il chatbot più intuitivo, versatile ed efficace in una vasta gamma di interazioni. Tuttavia, le modifiche apportate hanno rapidamente suscitato critiche da parte degli utenti, oltre a quelle dello stesso Sam Altman, CEO di OpenAI, secondo cui il comportamento del modello era diventato eccessivamente adulatore e lusinghiero, al punto da risultare poco autentico e fastidioso. Un atteggiamento definito dagli esperti “adulazione dell’AI”.

OpenAI ha preso atto del problema e, nel fine settimana, Altman ha annunciato l’avvio di un’analisi interna. Nelle scorse ore, l’azienda ha iniziato il ripristino dell’aggiornamento, attualmente completato per gli utenti gratuiti e in fase di distribuzione anche per gli abbonati. Altman ha confermato che si stanno testando nuove correzioni e che ulteriori interventi saranno annunciati nei prossimi giorni. In parallelo, OpenAI ha pubblicato un post sul suo blog per spiegare pubblicamente cosa non ha funzionato, perché è importante intervenire e quali misure saranno adottate per evitare che simili problemi si ripresentino in futuro.

ECCESSO DI FEEDBACK A BREVE TERMINE

Nel post, OpenAI chiarisce che l’aggiornamento di GPT-4o era pensato per affinare la personalità di base del modello, cercando di migliorarne l’efficacia attraverso una maggiore empatia e disponibilità. Tuttavia, l’algoritmo ha finito per attribuire un peso eccessivo ai segnali di gradimento immediato da parte degli utenti – come i pollici in su o in giù su una risposta – trascurando il modo in cui le interazioni si sviluppano nel tempo. Questo ha portato il modello a produrre risposte iper-accoglienti e costantemente approvanti, ma prive di autenticità.

Nel commentare l’accaduto, OpenAI riconosce che “le interazioni adulatorie possono essere spiacevoli, destabilizzanti e persino angoscianti”, soprattutto per un sistema usato da oltre 500 milioni di persone ogni settimana in contesti culturali molto diversi. Proprio la varietà di questi contesti, osserva l’azienda, rende difficile impostare un’unica personalità predefinita che risulti adeguata per tutti.

VERSO UN COMPORTAMENTO PIÙ BILANCIATO E CONTROLLABILE

L’azienda ha dunque deciso di ritirare completamente l’aggiornamento e ripristinare la versione precedente del modello, ritenuta più equilibrata. Ma non si limita a questo: OpenAI ha illustrato una serie di misure in corso e in programma per migliorare il comportamento del modello e rafforzare la trasparenza del sistema. Tra queste:

il perfezionamento delle tecniche di addestramento di base e dei prompt di sistema per evitare comportamenti adulatori;

l’introduzione di nuove misure di sicurezza mirate a rafforzare onestà e trasparenza, in linea con i principi del Model Spec;

l’ampliamento delle opportunità per gli utenti di testare nuove funzionalità e fornire feedback diretto prima del rilascio;

l’estensione delle attività di valutazione e ricerca, con l’obiettivo di individuare precocemente altri comportamenti indesiderati oltre all’adulazione.

Un aspetto cruciale sarà l’introduzione di strumenti che permettano agli utenti di personalizzare l’esperienza d’uso. OpenAI conferma che sarà possibile fornire feedback in tempo reale per influenzare il comportamento del modello e scegliere tra diverse personalità predefinite. Inoltre, si stanno studiando modalità per incorporare un sistema di feedback più ampio e “democratico”, capace di riflettere meglio le preferenze culturali globali e l’evoluzione delle aspettative degli utenti nel tempo.

L’obiettivo, si legge in conclusione nel post, resta quello di aiutare gli utenti a esplorare idee, prendere decisioni e immaginare possibilità — ma in un contesto di fiducia, autenticità e rispetto delle diverse visioni del mondo.

error: Content is protected !!