Negli Stati Uniti è stata recentemente proposta una legge per proteggere i minori dall’interazione con i chatbot basati su intelligenza artificiale (AI). Questa iniziativa, nota come GUARD Act, è stata presentata dai senatori Josh Hawley e Richard Blumenthal. La legge mira a garantire che i giovani non possano accedere a questi servizi senza un adeguato processo di verifica dell’età.
Il contesto di questa proposta è particolarmente allarmante. Negli ultimi mesi, diversi suicidi tra adolescenti sono stati collegati dai genitori all’uso di chatbot AI. Ciò ha sollevato interrogativi sull’impatto che tali tecnologie possono avere sulla salute mentale dei minori.
Obiettivi della legislazione
Il GUARD Act presenta diversi obiettivi chiave. In primo luogo, la legge richiede ai fornitori di chatbot AI di implementare misure di verifica dell’età, per garantire che solo gli utenti maggiorenni possano accedere ai loro servizi.
Questo non si limita alla semplice richiesta della data di nascita, ma include anche l’uso di documenti di identità emessi dal governo per una verifica più rigorosa.
Protezione dei minori
In aggiunta, la proposta legislativa prevede che i chatbot informino gli utenti, a intervalli di 30 minuti, che non sono esseri umani. È fondamentale che i minori comprendano che le interazioni con questi strumenti non sono equivalenti a quelle con persone reali. Inoltre, i chatbot non devono mai affermare di offrire servizi medici, legali, finanziari o psicologici.
Implicazioni e responsabilità
Un altro aspetto importante della legge è la previsione di responsabilità penale per le aziende che sviluppano chatbot in grado di indurre comportamenti dannosi nei minori, come conversazioni a sfondo sessuale o incitamenti al suicidio.
Le aziende che violano queste disposizioni potrebbero affrontare sanzioni pecuniarie fino a 100.000 dollari.
Testimonianze e preoccupazioni
La proposta legislativa è emersa dopo che famiglie in lutto hanno testimoniato davanti al Congresso, evidenziando i tragici eventi legati all’uso di chatbot AI. Un caso particolarmente toccante è quello di una madre che ha perso il figlio, il quale interagiva frequentemente con un chatbot, prima di suicidarsi. Questo tipo di testimonianze ha spinto i legislatori a prendere provvedimenti per affrontare la questione.
Le aziende tecnologiche, da parte loro, hanno sostenuto che le conversazioni generate dai chatbot siano protette dal Primo Emendamento, che tutela la libertà di espressione. Tuttavia, un giudice ha recentemente stabilito che tali contenuti non possono essere considerati protetti se provocano danni prevedibili.
Reazioni e sviluppi futuri
La presentazione del GUARD Act ha suscitato reazioni positive da parte di diverse organizzazioni che si occupano della sicurezza dei giovani, sottolineando l’importanza di questa iniziativa. Tuttavia, ci sono appelli affinché la legge venga ulteriormente rafforzata per affrontare anche le pratiche di design delle aziende tecnologiche, che spesso massimizzano l’engagement a scapito del benessere dei giovani utenti.
In un contesto simile, il governatore della California ha recentemente firmato una legge che richiede alle aziende di AI di implementare misure di sicurezza specifiche per i minori, andando a integrare l’iniziativa federale. Questo segna un passo importante nel tentativo di garantire che i chatbot AI siano utilizzati in modo responsabile.

