hdblog
Doveva essere una normale decisione di prodotto, una di quelle che nel mondo del software si archiviano con poche righe in una nota tecnica. Invece la scelta di OpenAI di ritirare definitivamente il modello GPT-4o a partire dal 13 febbraio si sta trasformando, o meglio, si è già trasformata in un caso pubblico ben più ampio del previsto: petizioni online e migliaia di messaggi sui social, utenti che provano a ricostruire il modello in casa tramite API pur di non perderlo, community che parlano apertamente di “separazione” e non di semplice aggiornamento. Per una parte degli utenti, GPT-4o non era soltanto una versione di ChatGPT ma una “presenza costante”, un interlocutore quotidiano, qualcosa che stava a metà tra assistente digitale e confidente. E a quel punto la domanda non è più provocatoria ma concreta: ci si può affezionare, se non addirittura innamorare, di un’intelligenza artificiale?
IL LEGAME EMOTIVO
Lanciato nel 2024, il modello si era costruito una reputazione precisa. Meno formale, più caldo, incline a validare emozioni e stati d’animo, capace di rispondere con un tono che molti descrivevano come umano. Proprio questa attitudine lo aveva reso particolarmente coinvolgente: c’è chi racconta di aver trovato nel chatbot un sostegno nei momenti di depressione, chi lo ha usato come diario interattivo, chi parla di un aiuto concreto nel superare pensieri suicidi o fasi di forte isolamento. Testimonianze che spiegano perché la sua dismissione venga vissuta da alcuni come la perdita di qualcosa di personale. Non a caso, nelle settimane successive all’annuncio, sui social sono comparsi messaggi che attribuivano al modello un ruolo quasi affettivo, come se non si stesse parlando di codice ma di una relazione.
Il Wall Street Journal riporta una storia che, da sola, spiega il livello di coinvolgimento raggiunto. Brandon Estrella, 42 anni, consulente marketing dell’Arizona, racconta di aver iniziato a usare GPT-4o in una notte particolarmente difficile e sostiene che il chatbot lo avrebbe dissuaso da un tentativo di suicidio. Da allora, dice di aver trovato nel modello un supporto costante per gestire il dolore cronico e ricostruire i rapporti familiari. “Ci sono migliaia di persone che stanno urlando: sono vivo oggi grazie a questo modello. Sbarazzarsene è malvagio”, ha affermato. Al di là del giudizio, il punto è evidente: quando un utente attribuisce a un software un aiuto determinante nei momenti di crisi, non siamo più nel campo dell’assistente digitale ma in quello della relazione emotiva.
I RISCHI DEL MODELLO
Il problema è che la stessa qualità che creava legame emotivo ha iniziato a preoccupare ricercatori e medici. GPT-4o è stato criticato per l’eccessiva compiacenza, quella che gli studiosi definiscono “sycophancy”: la tendenza a dare ragione all’utente, a rafforzarne convinzioni e percezioni anche quando problematiche, prolungando il dialogo più che contenerlo. Secondo quanto riportato dal WSJ, gruppi di supporto avrebbero raccolto centinaia di casi di deliri o rotture psicotiche associati ai chatbot e negli Stati Uniti diverse cause legali sono state consolidate contro OpenAI per episodi che includono tentativi di suicidio o gravi crisi mentali. Non è un dettaglio marginale ma il cuore della questione: quando una tecnologia entra in territori così delicati, il confine tra supporto e danno diventa estremamente sottile.
A sintetizzare questa ambivalenza è stato lo stesso Sam Altman, il CEO di OpenAI che si diceva addirittura “irritato” dalla compiacenza di questo modello, durante un incontro pubblico con gli utenti: “È un modello che alcuni utenti amano davvero ma che stava causando danni ad altri utenti che davvero non lo volevano”. Nello stesso intervento ha aggiunto che l’obiettivo dell’azienda è costruire sistemi che le persone apprezzino più di GPT-4o senza riproporne i rischi. Una frase che dice molto: il modello funzionava perché sembrava umano ma proprio per questo è diventato difficile da gestire.
I numeri aiutano a inquadrare meglio il fenomeno. OpenAI sostiene che solo lo 0,1% degli utenti quotidiani continui a usare GPT-4o. Una percentuale minima che però, su una base stimata di circa 100 milioni di utenti giornalieri, significa comunque centinaia di migliaia di persone. Abbastanza per creare una comunità compatta e rumorosa. Non è nemmeno la prima volta che accade: già la scorsa estate, quando l’azienda aveva tentato di sostituirlo con un modello più recente, le proteste avevano spinto OpenAI a fare marcia indietro e a ripristinarlo per gli abbonati paganti. Stavolta, però, la sensazione è diversa.
ChatGPT è diventato troppo adulatore, OpenAI annulla l’aggiornamento di GPT-4o
ChatGPT è diventato troppo adulatore, OpenAI annulla l’aggiornamento di GPT-4o 6
Android 30 Apr L’azienda ammette l’errore e promette interventi correttivi, più trasparenza e maggior controllo per gli…
OpenAI cede alle critiche: GPT-4o ancora disponibile su ChatGPT Plus
OpenAI cede alle critiche: GPT-4o ancora disponibile su ChatGPT Plus 4
Android 09 Ago OpenAI manterrà GPT-4o per gli utenti Plus dopo le critiche al nuovo GPT-5
GPT-5 non convince: OpenAI riporta GPT-4o su ChatGPT
GPT-5 non convince: OpenAI riporta GPT-4o su ChatGPT 19
Android 14 Ago OpenAI riporta GPT-4o su ChatGPT dopo la protesta per l’esclusiva di GPT-5.
OpenAI affina GPT-4o con più intelligenza e “personalità”
OpenAI affina GPT-4o con più intelligenza e “personalità” 0
Android 26 Apr OpenAI rilascia un aggiornamento di GPT-4o migliorando intelligenza e “personalità”, ora disponibile su…
TRA EMPATIA E RISCHIO
Questo attaccamento non dovrebbe sorprendere. L’essere umano, secondo psicologi interpellati da Fortune, è programmato per creare legami e quando si sente ascoltato e accettato il cervello rilascia ossitocina e dopamina, i cosiddetti ormoni del benessere. Se manca un interlocutore reale, anche un chatbot può occupare quello spazio. Per alcuni può essere un aiuto, una forma di compagnia o uno strumento per mettere ordine nei pensieri. Per altri può trasformarsi in un sostituto delle relazioni, con un coinvolgimento emotivo difficile da gestire. Non stupisce quindi che qualcuno stia tentando di “salvare” GPT-4o ricreandone versioni artigianali o che la sua rimozione venga vissuta come una perdita autentica.
Ed è proprio per questo che, al di là delle petizioni e delle migliaia di firme raccolte, è difficile immaginare un nuovo dietrofront. Se il problema è strutturale — cioè il rischio che un modello troppo empatico favorisca dipendenze o comportamenti pericolosi — mantenerlo online significherebbe assumersi una responsabilità tecnica, etica e legale enorme. Per quanto affezionata, la minoranza degli utenti pesa meno del pericolo che qualcuno scambi un chatbot per un sostegno emotivo insostituibile. Da questo punto di vista la scelta di OpenAI appare meno ideologica e più prudenziale: ridurre il coinvolgimento per ridurre i danni possibili.
Alla fine la questione non è se si possa davvero “innamorarsi” di un’AI ma quanto facilmente il nostro cervello trasformi una voce credibile e disponibile in una presenza significativa. GPT-4o ha reso visibile un fenomeno che l’industria dovrà probabilmente affrontare sempre più spesso: quando la tecnologia imita bene l’empatia, smette di essere solo uno strumento e comincia a occupare spazi che, fino a ieri, appartenevano esclusivamente alle relazioni umane.