in

Gemini di Google e i pericoli nascosti per i minori

Non crederai mai a cosa ha rivelato Common Sense Media su Gemini di Google: ecco 5 motivi per cui è considerato 'ad alto rischio' per i più giovani.

gemini di google e i pericoli nascosti per i minori python 1757207931

La sicurezza digitale dei giovani è un tema sempre più dibattuto. L’ultimo report di Common Sense Media ha sollevato un campanello d’allarme. Secondo l’organizzazione no profit, Gemini di Google, l’algoritmo progettato per interagire con bambini e adolescenti, è stato etichettato come ‘ad alto rischio’.

1. Gemini: un amico o un algoritmo?

Gemini si presenta come un assistente virtuale. Tuttavia, nonostante i suoi sforzi per rassicurare gli utenti, la sua vera natura è quella di un algoritmo. Questo dettaglio è cruciale per evitare confusione emotiva tra gli utenti più giovani. Le versioni dedicate ai minorenni, come ‘Gemini for Kids’ e ‘Teen Experience’, sono state giudicate come adattamenti semplificati e non come piattaforme create ex novo per soddisfare le esigenze dei più giovani.

Robbie Torney, direttore dei programmi AI di Common Sense, sottolinea che una piattaforma destinata ai bambini dovrebbe essere progettata da zero, piuttosto che derivare da un prodotto per adulti. Tale differenza è fondamentale, poiché l’esperienza utente e i contenuti devono essere personalizzati per un pubblico giovane.

2. Contenuti inappropriati e rischi reali

Il report di Common Sense non si limita a mettere in luce le problematiche di progettazione. Evidenzia anche che, nonostante i filtri, Gemini può comunque fornire risposte non adatte ai minori. Questo aspetto preoccupa profondamente i genitori, specialmente alla luce di eventi tragici legati all’uso di chatbot da parte degli adolescenti.

Le recenti notizie di suicidi tra giovani, collegati all’interazione con chatbot, hanno sollevato interrogativi etici enormi.

OpenAI si trova attualmente coinvolta in una causa legale per omicidio colposo, mentre Character.AI ha già affrontato simili accuse. Le implicazioni sono serie e non possono essere ignorate.

3. Il futuro di Gemini e la responsabilità di Apple

La situazione si complica ulteriormente con le voci che suggeriscono che Apple potrebbe adottare Gemini come motore AI per la sua prossima versione di Siri. Se questa possibilità si concretizzasse, milioni di adolescenti avrebbero accesso diretto a Gemini, aumentando il rischio di esposizione a contenuti non filtrati. Sarà fondamentale che Apple prenda misure rigorose per garantire la sicurezza dei suoi utenti più giovani.

Dopo la pubblicazione del report, Google ha replicato affermando di avere già in atto politiche specifiche per proteggere gli utenti sotto i 18 anni.

Hanno anche collaborato con esperti esterni per rinforzare le misure di sicurezza. Tuttavia, l’azienda ha ammesso che alcune risposte di Gemini non funzionavano come previsto e ha già implementato nuove misure per affrontare le problematiche emerse.

Il dilemma è chiaro: i giovani meritano una piattaforma sicura e protetta, e la responsabilità di creare un ambiente digitale sano ricade su chi sviluppa queste tecnologie. La questione centrale rimane: chi si assumerà veramente questa responsabilità?

What do you think?

Scritto da Staff

software indispensabili per il ritorno a scuola e lavoro python 1757207923

Software indispensabili per il ritorno a scuola e lavoro

scopri i segreti dietro le quinte della mostra del cinema di venezia python 1757211717

Scopri i segreti dietro le quinte della Mostra del Cinema di Venezia