OpenAI ha annunciato un nuovo rinvio della modalità adulti per ChatGPT, una funzionalità che avrebbe permesso agli utenti verificati di accedere a contenuti espliciti. L’azienda ha già spostato in precedenza il lancio e questa volta non ha indicato una data precisa per la pubblicazione. OpenAI ha motivato il rinvio spiegando di voler concentrare risorse su sviluppi ritenuti più utili per una platea più ampia.
La decisione mette in luce tensioni di carattere tecnico, etico e legale legate alla gestione dei contenuti sensibili nei modelli generativi. La modalità adulti solleva questioni su verifica dell’età, moderazione automatica, responsabilità legale e possibili abusi. L’articolo esamina le motivazioni ufficiali, gli ostacoli pratici e le controversie interne emerse durante il percorso del progetto.
OpenAI non ha fornito una nuova tempistica e ha comunicato che fornirà aggiornamenti quando saranno disponibili.
Le priorità dichiarate da OpenAI
Dopo aver comunicato che non ha fornito una nuova tempistica, un portavoce di OpenAI ha spiegato le ragioni del rinvio della modalità adulti. L’azienda ha deciso di concentrare risorse e tempo su funzioni ritenute di maggiore impatto per un numero più elevato di utenti.
Tra le attività indicate figurano il miglioramento dell’intelligenza del modello, l’ampliamento delle personalità offerte e lo sviluppo di un comportamento dell’assistente più proattivo. Secondo il portavoce, tali interventi richiedono ulteriori test e investimenti per garantire un’esperienza al contempo convincente e sicura.
OpenAI ha inoltre sottolineato che la complessità tecnica e le implicazioni di sicurezza della funzione giustificano un impegno prolungato.
L’azienda ha promesso aggiornamenti non appena saranno disponibili nuovi elementi sullo stato dei lavori.
Finestra temporale e promesse iniziali
Dopo la comunicazione che non erano disponibili nuove tempistiche, l’azienda aveva annunciato una pubblicazione a breve termine. Tuttavia, ogni promessa è stata seguita da un rinvio e gli aggiornamenti ufficiali si sono succeduti senza data certa.
La roadmap è stata ricalibrata più volte per rispondere a problemi emersi durante i test e a priorità operative. I ritardi sono stati motivati con riferimenti a verifiche tecniche e a valutazioni sulla sicurezza del prodotto. In questa fase, il team ha privilegiato controlli qualitativi per mitigare rischi reputazionali e legali.
Ostacoli tecnici e sistema di verifica dell’età
Dopo aver privilegiato controlli qualitativi, il team segnala che il principale ostacolo resta la realizzazione di un sistema di verifica dell’età affidabile.
Non è sufficiente l’autodichiarazione; servono meccanismi capaci di conformarsi alle normative internazionali sulla tutela dei minori e di impedire l’accesso agli utenti non autorizzati. OpenAI sta valutando soluzioni che combinano controlli basati su intelligenza artificiale e verifiche documentali, ma l’implementazione globale richiede robustezza tecnica e garanzie sulla privacy. Anche i vincoli giuridici e le differenze tra ordinamenti rendono complessa la standardizzazione dei processi di verifica.
Rischio di contenuti illeciti
Il modello può generare, involontariamente, contenuti illegali o non conformi alle linee guida. La calibratura dei filtri e delle regole di generazione richiede ingegneria avanzata. Il sistema deve distinguere richieste lecite da potenziali abusi. Occorre ridurre sia i falsi negativi sia i falsi positivi. Questo equilibrio tecnico è difficile da ottenere e giustifica la cautela dell’azienda.
Questioni legali, reputazionali e dibattito interno
Il contesto legale e reputazionale è altrettanto rilevante. OpenAI è coinvolta in più cause che riguardano la sicurezza degli utenti e l’impatto psicologico dei prodotti. Questi profili aumentano il rischio di aprire nuovi fronti normativi. Le polemiche su servizi concorrenti hanno alzato l’attenzione pubblica sui pericoli dell’AI porn problem e del deepfake. In azienda il dibattito interno verte sul compromesso tra innovazione e tutela dell’immagine. La scelta prevalente è procedere per passi, con test interni e consultazioni con le autorità competenti, prima di estendere nuove funzionalità.
Controversie e gestione del personale
Fonti giornalistiche hanno documentato tensioni interne relative alla gestione del personale e alle pratiche aziendali. Un ex dipendente ha dichiarato di essere stato licenziato dopo aver sollevato preoccupazioni sul benessere mentale degli utenti e sull’accessibilità di contenuti sensibili ai minori.
Questi episodi illustrano il conflitto tra responsabilità etiche e obiettivi commerciali. La dinamica interna contribuisce alla cautela dell’azienda nelle scelte operative e nelle tempistiche di rilascio di nuove funzionalità.
Implicazioni per il mercato e possibili scenari futuri
Il rinvio non esclude che la modalità adulti possa essere introdotta in un secondo momento. Tuttavia, rende imprescindibile il rafforzamento della governance, degli standard di moderazione e del confronto con i regolatori.
Le decisioni di OpenAI potrebbero fungere da riferimento per il settore, influenzando policy di moderazione, requisiti di verifica dell’età e pratiche di trasparenza. Tra gli aspetti chiave si segnalano la definizione di criteri tecnici verificabili e la tracciabilità delle scelte algoritmiche.
Per ora l’azienda proseguirà con test interni e consultazioni istituzionali prima di qualsiasi estensione della funzionalità. Il prossimo sviluppo atteso riguarda l’adozione di standard condivisi con autorità e partner industriali.
Il prossimo sviluppo atteso riguarda l’adozione di standard condivisi con autorità e partner industriali. Rimane centrale la capacità di conciliare l’autonomia degli adulti con la protezione dei minori e la responsabilità sociale. Questa sfida costituisce un banco di prova per la credibilità degli sviluppatori di intelligenza artificiale e per la fiducia degli utenti.
Cosa resta da monitorare
Gli osservatori devono monitorare tre elementi essenziali: l’evoluzione dei sistemi di verifica, gli aggiornamenti tecnici sul comportamento del modello e le interazioni con le autorità regolatorie. Solo progressi misurabili in queste aree permetteranno di valutare se e quando la funzione potrà essere resa disponibile. Tra gli sviluppi attesi figurano audit indipendenti e l’adozione di standard operativi condivisi con partner istituzionali.

