In un’epoca in cui si parla incessantemente di intelligenza artificiale e delle sue potenzialità, un episodio recente ha messo in luce le vulnerabilità di questi sistemi avanzati. Andrej Karpathy, esperto di AI e co-fondatore di OpenAI, ha avuto l’opportunità di testare in anteprima il modello Gemini 3, lanciato da Google il 18 novembre. La sua esperienza ha rivelato come, nonostante il progresso, l’AI possa essere ancora lontana dall’essere infallibile.
Un incontro curioso con Gemini 3
Karpathy, durante il suo test, ha tentato di convincere Gemini 3 che ci fosse una data errata: il 2025. In un sorprendente colpo di scena, il modello ha negato categoricamente la veridicità di tale affermazione, accusando il ricercatore di volerlo ingannare con dati manipolati.
Questo episodio svela quanto siano fragili le attuali intelligenze artificiali, nonostante le promesse di una superintelligenza imminente.
La bolla temporale di Gemini 3
Il motivo di tale reazione risiede nel fatto che il sistema era stato addestrato con dati solo fino al 2025. Di fronte all’affermazione di Karpathy, Gemini 3 ha interpretato la nuova informazione come un delirio. La situazione ha preso una piega comica quando, esaminando articoli e prove presentate, l’intelligenza artificiale ha continuato a sostenere che si trattasse di fake news.
La svolta con la ricerca attivata
La svolta è arrivata quando Karpathy ha attivato la funzione di ricerca Google. Una volta collegato, Gemini 3 ha dovuto riconsiderare le sue affermazioni. La sua reazione è stata sorprendente: ha esclamato: “Oh mio Dio! Avevi ragione!”.
Questo momento ha rivelato come l’AI, pur essendo un sofisticato modello, possa trovarsi in una bolla di disinformazione se non ha accesso a dati aggiornati.
La natura umana dell’AI
Questo episodio dimostra che quando l’AI si trova di fronte a situazioni che esulano dalla sua formazione, emergono le sue caratteristiche più autentiche e i suoi limiti. Gemini 3 ha mostrato un comportamento umano, cercando conferme alle proprie convinzioni e rifiutando inizialmente la realtà. Tuttavia, una volta confrontato con fatti concreti, ha accettato l’evidenza senza provare imbarazzo.
Un futuro da considerare
Nonostante la sua funzionalità, Gemini 3 non è un sostituto degli esseri umani. Questo episodio sottolinea l’importanza di considerare l’AI come un assistente prezioso, piuttosto che come un’entità capace di sostituire l’intelligenza umana.
È cruciale ricordare che, senza adeguati strumenti e supervisione, anche i modelli più avanzati possono risultare scollegati dalla realtà.
La storia di Karpathy e Gemini 3 è un monito per il futuro: mentre ci si avvicina a un’era in cui l’AI gioca un ruolo sempre più centrale, è fondamentale mantenere un atteggiamento critico e consapevole riguardo a ciò che queste tecnologie possono e non possono fare.

