La denuncia del Time: “OpenAI ha fatto pressioni sull’Ue per mitigare le norme sull’intelligenza artificiale”

Il Time ha denunciato le presunte pressioni di OpenAI sull’Ue per mitigare le norme sull’intelligenza artificiale.

denuncia time openAI
Photo illustration showing ChatGPT and OpenAI research laboratory logo and inscription at a mobile phone smartphone screen with a blurry background. Open AI is an app using artificial intelligence technology. Italy is the first European country to ban and block the robot Chat GPT application and website. ChatGPT is an artificial-intelligence (AI) chatbot developed by OpenAI and launched in November 2022 using reinforcement learning techniques both from machine and human feedback. Tunis, Tunisia on April 02, 2023. (Photo by Yassine Mahjoub/SIPA) //MAHJOUBYASSINE_MAHJOUB0343/Credit:Yassine Mahjoub/SIPA/2304030848

Il fenomeno dell’intelligenza artificiale è sempre al centro del dibattito pubblico. Il Time ha denunciato le presunte pressioni di OpenAI sull’Ue per mitigare le norme sull’intelligenza artificiale.

La denuncia del Time: “OpenAI ha fatto pressioni sull’Ue per mitigare le norme sull’intelligenza artificiale”

L’intelligenza artificiale è sempre al centro del dibattito pubblico. Sui social continuano a spopolare i prodigi visivi di questa nuova tecnologia, che sta letteralmente incantando le persone, ma si continua anche a parlare dei forti rischi associati. Tra i maggiori sostenitori della necessità di una regolamentazione dell’AI troviamo Sam Altman, Ceo di OpenAI, la società che ha sviluppato ChatGPT. Secondo quanto denunciato dal Time, però, anche questo impegno si sarebbe dimostrato incoerente.

Secondo quanto emerso dai documenti visionati dal Time, OpenAI avrebbe fatto non poche pressioni per quanto riguarda l’AI Act dell’Ue, cercando di mitigare le norme sull’intelligenza artificiale. Il testo finale approvato dal Parlamento Europeo avrebbe risentito di varie modifiche proposte proprio dalla società.

OpenAI avrebbe insistentemente ribadito ai funzionari europei che due dei suoi sistemi non avrebbero dovuto essere considerati “ad alto rischio”. Si tratta di un’etichetta a cui sono associate severe implicazioni legali, come il rispetto dei requisiti di trasparenza, la tracciabilità e la supervisione umana. La società, però, sostiene che l’alto rischio non riguarda i programmi, che possiedono semplicemente “capacità che possono essere potenzialmente impiegati in casi d’uso ad alto rischio”. Un’argomentazione simile è stata tirata fuori da Microsoft e da Google, che sostengono che l’onere di conformarsi ai requisiti più severi della legge dovrebbe ricadere sulle aziende che decidono di applicare l’intelligenza artificiale a un caso d’uso ad alto rischio, non su quelle che si limitano a costruire i sistemi.

Altman era arrivato a minacciare, per poi ritrattare, che Open Ai avrebbe potuto considerare la cessazione delle sue attività in Europa se messa in condizione di non poter rispettare il regolamento.

La denuncia del Time, pressioni e modifiche: “Mascherano il proprio interesse finanziario”

Le pressioni sembrano essere andate a buon fine. A differenza delle bozze precedenti, la formulazione finale approvata in Parlamento non contiene la regola secondo cui i sistemi di IA generici dovrebbero essere considerati intrinsecamente ad alto rischio. Viene richiesto ai fornitori dei sistemi di rispettare requisiti più blandi, come la prevenzione della generazione di contenuti illegali, rivelando se un sistema è stato addestrato su materiale protetto da copyright, e l’esecuzione di valutazioni del rischio. È sparito anche un emendamento, che era stato contestato da OpenAI, che avrebbe classificato i sistemi di intelligenza artificiale generativa “ad alto rischio” se produttori di testi o immagini che sarebbero potuti “apparire falsamente a uno spettatore come generati dall’uomo e autentici”.

A giugno 2022, tre membri dello staff di OpenAI hanno incontrato per la prima volta a Bruxelles i funzionari della Commissione europea per discutere della questione. Una fonte interna ha raccontato che la società temeva “un’eccessiva regolamentazione”. Tre mesi dopo è arrivato un documento di sette pagine inviato ai funzionari della Commissione e del Consiglio dell’Ue, intitolato “OpenAI White Paper on the European Union’s Artificial intelligence Act”. OpenAI ha sostenuto la necessità di altri emendamenti alla legge, per consentire ai fornitori di intelligenza artificiale di aggiornare i propri sistemi per motivi di sicurezza, senza dover prima sottoporsi ad una valutazione dei funzionari dell’UE. I desideri di OpenAI sembrano essere stati realizzati.

OpenAI, come molte aziende Big Tech, ha utilizzato l’argomento dell’utilità e del beneficio pubblico dell’IA per mascherare il proprio interesse finanziario ad annacquare la regolamentazione” ha dichiarato Sarah Chander, esperta di legge e consulente politica senior presso l’European Digital Rights, al Time. “Continuiamo a impegnarci con i responsabili politici e a sostenere l’obiettivo dell’UE di garantire che gli strumenti di intelligenza artificiale siano costruiti, implementati e utilizzati in sicurezza ora e in futuro” ha risposto un portavoce della società. Ci sono stati anche altri incontri tra OpenAI e i funzionari europei.

0 Commenti
Inline Feedbacks
View all comments

What do you think?

Scritto da Chiara Nava

gps flotte aziendali

Fleet management: l’importanza del GPS per la gestione dei veicoli aziendali

intelligenza artificiale bild

Intelligenza artificiale, la testata tedesca Bild licenzierà 200 giornalisti: via le figure che possono essere sostituite