Intelligenza artificiale, OpenAI si prepara ai rischi catastrofici: creato un team

OpenAI ha creato un nuovo team che dovrà monitorare i rischi catastrofici associati all’intelligenza artificiale.

OpenAI si prepara ai rischi dell'intelligenza artificiale

OpenAI ha creato un nuovo team che dovrà monitorare i rischi catastrofici associati all’intelligenza artificiale, cercando di proteggere le persone. I rischi legati a questa nuova tecnologia potrebbero essere davvero devastanti.

Intelligenza artificiale, OpenAI si prepara ai rischi catastrofici: creato un team

OpenAI ha creato un nuovo team che avrà il compito di “monitorare, valutare, prevedere e proteggerci dai rischi catastrofici” che un’intelligenza artificiale evoluta potrebbe portare all’umanità. Il gruppo, che è stato chiamato Preparedness, è guidato da Aleksander Madry, ex direttore del Center for Deployable Machine Learning del MIT. Questo team dovrà supervisionare i prodotti OpenAI in modo da comprendere se la loro evoluzione stia prendendo una piega benefica per l’umanità oppure possa comportare dei rischi molto gravi. “Riteniamo che i modelli di intelligenza artificiale, che supereranno le capacità attualmente presenti nei modelli esistenti più avanzati, abbiano il potenziale per apportare benefici a tutta l’umanità.

Ma comportano anche rischi sempre più gravi. Dobbiamo assicurarci di disporre della comprensione e delle infrastrutture necessarie per la sicurezza dei sistemi di intelligenza artificiale altamente capaci” ha scritto OpenAI in un post.

Intelligenza artificiale: cosa intende OpenAI con rischi catastrofici?

OpenAI ha citato alcune categorie specifiche, come la capacità dell’intelligenza artificiale di persuadere e ingannare gli uomini, ambiti come la sicurezza informatica ma anche minacce di carattere chimico, biologico, radiologico e nucleare, fino ad arrivare alla capacità di questa tecnologia di replicarsi e adattarsi in modo autonomo. Nonostante OpenAI abbia fondato il suo business su questa tecnologia, il CEO Sam Altman è un famoso “AI doomsayer”, ovvero pensa che lo sviluppo dell’intelligenza artificiale sia un problema molto serio per l’uomo, tanto da arrivare a parlare di rischio di “estinzione”.

Altman è convinto che un’intelligenza superiore a quella umana potrebbe arrivare entro un decennio e non è detto che sarà benevola. Per questo bisogna essere preparati, in modo da limitarla il più possibile.

0 Commenti
Inline Feedbacks
View all comments

What do you think?

Scritto da Chiara Nava

marcello mancini

Al leadership forum 2023 un messaggio di fiducia dai business thinker mondiali: la crisi ci rende più resilienti

L'intelligenza artificiale facilita la navigazione su Google Maps

Google Maps, l’intelligenza artificiale facilita la navigazione: i cambiamenti