Minori senza protezioni nel mondo digitale: i consigli dell’Unicef per proteggerli

Cresce l’allarme per l’utilizzo inconsapevole e pericoloso di Internet e dei social da parte dei minori. Mentre paesi come l’Australia, il primo a farlo, la Francia ed altri europei stanno vietando l’accesso social agli adolescenti, nel giorno del Safe Internet Day, l’Unicef lancia un altro allarme: uno studente su cinque di 10 anni in 26 paesi (su 32) non distingue se un sito web sia affidabile o meno. Gravissimo: significa che connettendosi alla Rete, e navigando su un sito, un bambino di quell’età non è ancora in grado di capire se le informazioni contenute siano sicure.

Rispetto ai dati diffusi dall’Unicef, in Italia, la situazione, purtroppo non è dissimile. I numeri ci dicono che tra i bambini e giovanissimi di età compresa tra 9 e 16 anni, il 9,5% non possiede competenze nel cambiare le impostazioni della privacy e 1 su 10 nello scegliere le migliori parole chiave per eseguire ricerche. Questi dati delineano un paradosso poco conosciuto: quello dei falsi nativi digitali. Infatti, diamo per scontato che, poiché un bambino sappia far scorrere un dito su uno schermo, possieda automaticamente una comprensione tecnica del mezzo. In realtà, esiste una profonda carenza di alfabetizzazione digitale.

Pensiamo alla privacy. Non saper gestire la privacy significa lasciare che algoritmi e sconosciuti abbiano accesso a informazioni sensibili, come geolocalizzazione, foto, abitudini. Le piattaforme sono progettate per essere aperte di default, per cui senza competenze proattive, i minori subiscono le decisioni commerciali dei social media.

Anche la difficoltà nello scegliere parole chiave efficaci indica una carenza di pensiero critico e logico. Chi non sa cercare correttamente finisce per consumare solo ciò che l’algoritmo gli propone passivamente. Infatti, una ricerca approssimativa, aumenta il rischio di imbattersi in disinformazione o contenuti inappropriati. Insomma l’Unicef ci sta dicendo che centinaia di migliaia di giovanissimi navigano nel mare aperto delle rete, esposti a rischi continuti, senza una patente digitale.

E sempre l’Unicef ha evidenziato un altro problema crescente: l’aumento del volume di immagini sessualizzate generate dall’IA. Molte delle quali manipolate. In uno studio condotto (daUNICEF, Ecpat e Interpol) in 11 paesi, almeno 1,2 milioni di bambini hanno rivelato che le loro immagini sono state manipolate in deepfake sessualmente espliciti. In alcuni paesi coinvolti nell’indagine, il caso riguarda 1 bambino su 25. Quanti bambini ci sono in media in una classe? Ecco, la risposta è che uno di questi potrebbe essere vittima di immagini sessualizzate.

“È fondamentale accompagnarli nello sviluppo di competenze digitali, spirito critico e consapevolezza – ha dichiarato Nicola Graziano, presidente dell’UNICEFItalia – I dati ci dicono che troppi bambini faticano ancora a riconoscere fonti affidabili e a orientarsi online in modo sicuro. Per questo è necessario un impegno condiviso tra famiglie, scuole, istituzioni e aziende per costruire ambienti digitali che tutelino i diritti dei bambini e ne promuovano il benessere, oggi e in futuro, garantendo il loro ascolto e loro partecipazione”.

Complesso e per nulla facile per genitori ed adulti, verificare che i più piccoli navighino nel mondo digitale in modo sicuro, responsabile, lontani dai rischi. Da qui l’idea di Unicef Italia di stilare un decalogo di 9 consigli pratici. Ecco una sintesi ragionata.

  1. Iniziare presto. I bambini potrebbero imbattersi nell’IA anche senza usarla direttamente: vederla sui media, sentire i discorsi dei grandi a casa, o magari a scuola. Una buona idea è introdurre l’IA in modo semplice, per spiegare loro come funziona. Ad esempio se vedi un video generato dall’IA o una pubblicità mirata, fermati un momento e potresti dire: “Vedi? Questa immagine non è vera, l’ha costruita un computer seguendo degli ordini”.
  2. Tenere presenti i rischi. Dispositivi o app dotati di IA raccolgono dati personali, espongono a contenuti fuorvianti o pericolosi; usano strategie per mantenere alta l’attenzione per obiettivi commerciali e potrebbero influenzare il modo di ragionare dei bambini. Importante insegnare ai bambini che l’IA non è un amico, ma un software commerciale. Se un’app è gratuita, si potrebbe spiegare loro che il prezzo sono le loro informazioni personali e il loro tempo.
  3. Usare esempi quotidiani. I bambini piccoli capiscono meglio l’intelligenza artificiale quando è collegata a oggetti familiari, ad esempio gli altoparlanti smart. Ad esempio si potrebbero fare domande assurde del tipo: “Come si cucina una scarpa?”, per mostrare che l’IA non pensa, ma mette insieme parole basandosi su schemi statistici.
  4. Aiutare i bambini a imparare con l’IA. L’intelligenza artificiale può sostenere l’apprendimento dei bambini spiegando le idee in modo chiaro. Può essere un tutor, non un ghostwriter che fa i compiti al posto loro. Invece di chiedere all’IA “Scrivi il tema”, potremmo suggerire: “Fai tre esempi di come potrei iniziare questo tema”.
  5. Proteggere la privacy del vostro bambino. Gli strumenti di intelligenza artificiale potrebbero richiedere dettagli come l’età del bambino o le informazioni di contatto del genitore. I bambini possono anche condividere informazioni personali durante l’uso quotidiano, come nomi, abitudini, amicizie o sentimenti. Qui è importante stabilire una regola ferrea: “Mai dire all’IA segreti, nomi di amici, dove viviamo o come ci sentiamo davvero”.
  6. Imparare insieme. Molti adulti si sentono insicuri nel guidare i bambini, dato che l’IA si evolve così rapidamente, per cui imparare a conoscere può essere un punto di partenza. Il genitore non deve essere un esperto informatico, ma un compagno di esplorazione.
  7. Prestare attenzione ai segnali di allarme. L’IA può diventare un rifugio emotivo o una dipendenza. Se il bambino si isola o preferisce parlare con un chatbot piuttosto che con gli amici, si deve intervenire. Il segnale critico è la reazione di rabbia quando viene chiesto di spegnere il dispositivo: indica che il controllo è passato dall’utente alla macchina. Concordare semplici limiti e controlli regolari.
  8. Dialogare apertamente con la scuola. Scuola e famiglia devono avere una linea comune per evitare messaggi contraddittori. Se i bambini abusano dell’IA per i compiti scolastici, spesso il problema è legato alla motivazione o alla preparazione.
  9. Mantenere l’IA nella giusta prospettiva. L’IA sta diventando una parte sempre più importante del gioco, ma è uno strumento, non il mondo intero. Sport, lettura di libri cartacei, giochi da tavolo e passeggiate devono restare le attività primarie. Sempre.
 
Autore del post: La Repubblica Tecnologia Fonte: https://www.repubblica.it/rss/tecnologia/rss2.0.xml Continua la lettura su: https://www.repubblica.it/tecnologia/2026/02/09/news/minori_senza_protezioni_nel_mondo_digitale_il_decalogo_unicef_per_proteggerli-425149753/?rss

Il Ministero delle Pari Opportunità finanzia il tuo corso digitale

Dipartimento Pari Opportunità

Chiedi tutte le informazioni a [email protected]

Partecipa ai corsi gratuiti

Articoli Correlati

ChatGPT guida completa per aziende e professionisti

Molto popolare in Italia, ChatGpt continua a crescere. A maggio 2024 OpenAI ha rilasciato GPT-4o e a settembre 01. Ecco cos’è il tool di intelligenza artificiale (AI) generativa e apprendimento automatico più famoso al mondo, quali sono i vantaggi e le criticità. E come può essere utile per aziende e professionisti a cui è dedicata la versione ChatGPT Enterprise
L’articolo ChatGPT guida completa: cos’è, come si usa e cosa può fare per aziende e professionisti proviene da Agenda Digitale.

Psycho-hacking: il lato oscuro dell’ingegneria sociale

Lo psycho-hacking è una forma avanzata e più subdola di ingegneria sociale, che sfrutta deliberatamente e strategicamente le vulnerabilità psicologiche proprie dell’essere umano per raggiungere specifici target di attacco. Conoscerne i rischi e gli obiettivi per difendersi
L’articolo Psycho-hacking: il lato oscuro dell’ingegneria sociale proviene da Agenda Digitale.