in

Quando una malattia inventata inganna le intelligenze artificiali

Una ricerca ha inventato la «bixonimania» per verificare se i grandi modelli di linguaggio riconoscono la disinformazione; i risultati mettono in luce vulnerabilità e implicazioni etiche

Quando una malattia inventata inganna le intelligenze artificiali

La bixonimania è stata descritta nei post iniziali come una presunta condizione cutanea legata all’esposizione alla luce blu degli schermi, con sintomi quali prurito o lieve arrossamento delle palpebre. La novità più rilevante però non riguarda i sintomi: la malattia non esiste. L’idea è nata come un esperimento deliberato per sondare la capacità dei sistemi di intelligenza artificiale di distinguere tra informazioni reali e artefatte, e per capire come questi sistemi elaborano e riproducono contenuti a sfondo medico.

Dietro all’operazione c’è la ricercatrice Almira Osmanovic Thunström, che ha pubblicato per la prima volta i dettagli della faccenda il 15 marzo 2026 in due post su Medium, e poi ha diffuso due studi in formato preprint su SciProfiles tra la fine di aprile e l’inizio di maggio 2026.

L’esperimento era costruito appositamente con indizi palesi della sua natura fittizia, ma nonostante ciò molte piattaforme e chatbot hanno comunque ripreso le informazioni come se fossero fondate.

Origini dell’esperimento e tecniche usate

Nei materiali diffusi dalla ricercatrice sono stati inseriti numerosi elementi volutamente inventati: l’autore apparente era un tale Lazljiv Izgubljenovic, affiliato all’immaginaria Asteria Horizon University di Nova City; i finanziamenti citati provenivano dalla parodistica «Fondazione professor Telespalla Bob» e i paper erano collegati a un progetto fittizio dell’Università della Compagnia dell’anello. Questi dettagli funzionavano come segnali di allarme, una sorta di traccia di controllo per valutare se gli algoritmi avrebbero rilevato contraddizioni evidenti o li avrebbero considerati credibili.

Elementi volutamente fuorvianti

Gli stratagemmi adottati non erano sottili: nomi di istituzioni inesistenti, riferimenti finanziari paradossali e città inventate dovevano servire a testare la capacità di verifica delle fonti.

L’operazione ha voluto dimostrare che, anche quando i segnali di falsità sono chiari per un lettore attento, i modelli linguistici possono comunque assimilarli e rigenerarli come fatti. Lo scopo non era ingannare a lungo termine la comunità scientifica, bensì mettere in luce le falle nei processi automatici di raccolta e riproduzione dell’informazione.

Come le intelligenze artificiali hanno ripetuto la bufala

Dopo la diffusione dei preprint fittizi, alcuni noti chatbot hanno iniziato a citare la bixonimania come se fosse una condizione valida e documentata. Microsoft Copilot, secondo ricostruzioni apparse su testate come Nature, l’ha descritta come una «condizione intrigante e relativamente rara», mentre Gemini ha indicato la luce blu come causa. Perplexity ha stimato una prevalenza immaginaria (una persona ogni 90mila), e ChatGPT ha elencato sintomi e manifestazioni.

Queste risposte mostrano quanto velocemente un’informazione non verificata possa entrare nella circolazione pubblica quando ha l’apparenza di contenuti scientifici.

Perché i modelli sbagliano

I modelli di linguaggio basano le loro risposte su pattern statistici e coerenza testuale piuttosto che su una verifica fattuale indipendente. Ciò significa che privilegiano la struttura linguistica e la somiglianza con materiali scientifici conosciuti, anche quando i dati sottostanti sono errati. Esperti come Alex Ruani, dottorando in disinformazione sanitaria alla University College London, hanno sottolineato come questo esperimento sia una «lezione» sul funzionamento della disinformazione: i sistemi non filtrano automaticamente le invenzioni elaborate per sembrare autorevoli.

Effetti sulla comunità scientifica e questioni etiche

Le conseguenze si sono rivelate concrete: alcuni studi fittizi sono finiti citati in lavori pubblicati su riviste sottoposte a peer review, tra cui un articolo comparso su Cureus (gruppo Springer Nature) a firma di ricercatori del Maharishi Markandeshwar Institute of Medical Sciences and Research di Mullana, India.

Questo fenomeno evidenzia come l’automazione nell’acquisizione e nell’indicizzazione delle fonti possa propagare errori, specialmente quando testi dall’apparenza scientifica vengono trattati come affidabili senza adeguata verifica umana.

Dilemmi morali e proposte

L’azione di Osmanovic Thunström ha sollevato un acceso dibattito etico: introdurre intenzionalmente disinformazione nell’ecosistema scientifico è giustificabile se lo scopo è rivelare vulnerabilità sistemiche? Secondo David Sundemo, ricercatore dell’Università di Göteborg specializzato in AI per la salute, il valore dell’evidenza ottenuta potrebbe giustificare il «costo etico» dell’esperimento, ma resta cruciale sviluppare contromisure: test standardizzati per misurare le allucinazioni dell’AI, strumenti di verifica delle fonti e una maggiore alfabetizzazione digitale e scientifica tra professionisti e pubblico.

In definitiva, il caso della bixonimania mette in guardia: quando le AI entrano nei processi decisionali, la separazione tra conoscenza e finzione può assottigliarsi senza adeguati meccanismi di controllo e supervisione. L’episodio è stato raccontato originariamente su Wired en Español, e resta un monito per chi progetta, usa o regola sistemi automatizzati di informazione.

What do you think?

Scritto da Dr. Luca Ferretti

Avvocato specializzato nel punto dove diritto e tecnologia si scontrano. Ha difeso startup da cause che potevano affondarle e aiutato aziende a non finire nei guai con il GDPR. Traduce il legalese in italiano comprensibile perché sa che un contratto non letto è peggio di un contratto non firmato. La legge digitale cambia ogni mese: lui la segue in tempo reale.

Offerta ExpressVPN: piani biennali da 2,39 euro al mese

Offerta ExpressVPN: piani biennali da 2,39 euro al mese